Strona główna » Ai e-book o sztucznej inteligencji » AI: Wizja przyszłości według Yann LeCun

AI: Wizja przyszłości według Yann LeCun

by kapdes
optymizm

Przedwczesna regulacja sztucznej inteligencji może wzmocnić dominację dużych firm technologicznych i zdusić konkurencję

LeCun główny badacz Meta, uważa, że regulowanie badań i rozwoju sztucznej inteligencji może przynieść efekt przeciwny do zamierzonego i doprowadzić do „przechwycenia regulacji” pod pozorem bezpieczeństwa sztucznej inteligencji.

Obwinia on apele o regulację sztucznej inteligencji o „kompleks wyższości” wiodących firm technologicznych, które twierdzą, że tylko one są wystarczająco godne zaufania, aby bezpiecznie rozwijać sztuczną inteligencję.

LeCun nazwał taką postawę „niewiarygodnie arogancką” i opowiedział się za bardziej otwartym podejściem do rozwoju sztucznej inteligencji. Meta opiera się na modelach open-source, takich jak LLaMA, które zachęcają do konkurencji i pozwalają szerszemu gronu osób rozwijać i wykorzystywać systemy sztucznej inteligencji, powiedział LeCun.

Z drugiej strony, krytycy strategii Meta obawiają się, że oddanie potężnych generatywnych modeli sztucznej inteligencji w ręce potencjalnie złośliwych podmiotów może zwiększyć ryzyko dezinformacji, cyberwojny i bioterroryzmu.

Znany badacz sztucznej inteligencji wypowiedział się dla Financial Times przed konferencją Bletchley Park na temat bezpieczeństwa sztucznej inteligencji, zorganizowaną przez rząd brytyjski w listopadzie.

LeCun nazwał pomysł, że dzisiejsza sztuczna inteligencja może doprowadzić do zagłady ludzkości „niedorzecznym”.

Powiedział, że ludzie zostali uwarunkowani przez science fiction i scenariusz „Terminatora”, aby wierzyć, że inteligentne maszyny przejmą kontrolę w momencie, gdy staną się mądrzejsze od ludzi.

Ale inteligencja i dążenie do dominacji nie są synonimami, powiedział LeCun, który postrzega ludzi jako gatunek wierzchołkowy nawet w erze super AI. Według LeCun, dzisiejsze modele sztucznej inteligencji nie są tak potężne, jak przedstawiają je niektórzy badacze. Brakuje im zrozumienia świata, planowania i prawdziwego rozumowania.

LeCun oskarża w szczególności OpenAI i Google DeepMind o „konsekwentny nadmierny optymizm”. Mówi, że sztuczna inteligencja podobna do ludzkiej jest znacznie bardziej złożona niż dzisiejsze systemy i wymaga kilku „koncepcyjnych przełomów”.

Sugeruje on, że sztuczna inteligencja mogłaby być kontrolowana poprzez budowanie „charakteru moralnego” w tych systemach, podobnie jak prawa regulują ludzkie zachowanie. Startup Anthropic przyjmuje takie podejście, tworząc konstytucję dla chatbota Claude, a OpenAI powiedział, że również eksperymentuje z tym podejściem.

Ale LeCun uważa również, że „nie ma wątpliwości”, że maszyny przewyższą ludzką inteligencję w większości obszarów, co postrzega jako pozytyw: Może to doprowadzić do drugiego renesansu uczenia się. Ponadto zdolne systemy sztucznej inteligencji mogłyby pomóc ludzkości stawić czoła poważnym wyzwaniom, takim jak zmiany klimatu i leczenie chorób.

LeCun wyobraża sobie przyszłość, w której każdy ma dostęp do asystentów AI, którzy wspierają codzienne życie i ułatwiają interakcję z cyfrowym światem. „Nie będziemy już korzystać z wyszukiwarek” – powiedział.

Wiosną 2022 roku LeCun przedstawił swoją wizję przyszłej „autonomicznej sztucznej inteligencji”, która może zbliżyć sztuczną inteligencję do ludzkiej. Architektura składa się z sześciu modułów: konfiguratora, percepcji, modelu świata, kosztu, aktora i pamięci krótkotrwałej. Moduł modelu świata oparty jest na architekturze JEPA (Joint Embedding Predictive Architectures) i stanowi rdzeń proponowanej architektury. Umożliwia on nienadzorowane uczenie się z dużymi ilościami złożonych danych i generuje abstrakcyjne reprezentacje. Wiele pytań pozostaje jednak otwartych.

Pozostałe artykuły