Strona główna » Ai e-book o sztucznej inteligencji » AI radykalnie zmieni społeczeństwo

AI radykalnie zmieni społeczeństwo

by kapdes
przyszlosc-spoleczenstwa-spoleczenstwo

AI RADYKALNIE ZMIENI SPOŁECZEŃSTWO – POTRZEBUJEMY RADYKALNYCH POMYSŁÓW, BY SIĘ Z NIĄ ZRÓWNAĆ

Sam Altman twierdzi, że strategia badawcza, która zrodziła ChatGPT, jest już ograna i przyszłe postępy w sztucznej inteligencji będą wymagały nowych pomysłów.

Oszałamiające możliwości ChatGPT, chatbota ze startupu OpenAI, wywołały falę nowego zainteresowania i inwestycji w sztuczną inteligencję. Jednak pod koniec zeszłego tygodnia prezes OpenAI ostrzegł, że strategia badawcza, która zrodziła bota, jest już nieaktualna. Nie jest jasne, skąd będą pochodzić przyszłe postępy.

OpenAI dostarczyło w ostatnich latach serię imponujących postępów w dziedzinie AI pracującej z językiem, biorąc istniejące algorytmy uczenia maszynowego i skalując je do wcześniej niewyobrażalnych rozmiarów. GPT-4, ostatni z tych projektów, został prawdopodobnie wytrenowany przy użyciu bilionów słów tekstu i wielu tysięcy potężnych chipów komputerowych. Proces ten kosztował ponad 100 milionów dolarów.

Ale prezes firmy, Sam Altman, twierdzi, że dalszy postęp nie będzie wynikał z powiększania modeli. „Myślę, że jesteśmy na końcu ery, w której to będą te, jakby gigantyczne, olbrzymie modele”, powiedział publiczności na imprezie zorganizowanej w MIT pod koniec zeszłego tygodnia. „Uczynimy je lepszymi w inny sposób”.

Deklaracja Altmana sugeruje nieoczekiwany zwrot w wyścigu do opracowania i wdrożenia nowych algorytmów AI. Odkąd OpenAI uruchomił ChatGPT w listopadzie, Microsoft wykorzystał bazową technologię, aby dodać chatbota do swojej wyszukiwarki Bing, a Google uruchomił konkurencyjnego chatbota o nazwie Bard. Wiele osób pospieszyło się z eksperymentowaniem z wykorzystaniem nowej rasy chatbota, aby pomóc w pracy lub zadaniach osobistych.

Tymczasem wiele dobrze finansowanych startupów, w tym Anthropic, AI21, Cohere i Character.AI, przeznacza ogromne środki na budowę coraz większych algorytmów, starając się dogonić technologię OpenAI. Początkowa wersja ChatGPT była oparta na nieco ulepszonej wersji GPT-3, ale użytkownicy mogą teraz uzyskać dostęp do wersji zasilanej przez bardziej wydajny GPT-4.

Wypowiedź Altmana sugeruje, że GPT-4 może być ostatnim poważnym postępem, który wyłoni się ze strategii OpenAI, polegającej na powiększaniu modeli i karmieniu ich większą ilością danych. Nie powiedział, jakie strategie lub techniki badawcze mogą zająć jego miejsce. W dokumencie opisującym GPT-4, OpenAI twierdzi, że jego szacunki sugerują malejący zwrot z powiększania rozmiaru modelu. Altman powiedział, że istnieją również fizyczne ograniczenia dotyczące tego, ile centrów danych firma może zbudować i jak szybko może je zbudować.

chat-gpt-przyszlosc

Nick Frosst, współzałożyciel Cohere, który wcześniej pracował nad AI w Google, mówi, że przeczucie Altmana, że pójście na całość nie będzie działało w nieskończoność, jest prawdziwe. On również uważa, że postęp w zakresie transformatorów, rodzaju modelu uczenia maszynowego w sercu GPT-4 i jego rywali, leży poza skalowaniem. „Istnieje wiele sposobów na uczynienie transformatorów o wiele, wiele lepszymi i bardziej użytecznymi, a wiele z nich nie wymaga dodawania parametrów do modelu” – mówi. Frosst mówi, że nowe projekty lub architektury modeli AI oraz dalsze dostrajanie oparte na ludzkich opiniach to obiecujące kierunki, które wielu badaczy już eksploruje.

Każda wersja wpływowej rodziny algorytmów językowych OpenAI składa się ze sztucznej sieci neuronowej, oprogramowania luźno inspirowanego sposobem, w jaki neurony współpracują ze sobą, które jest szkolone w celu przewidywania słów, które powinny następować po danym ciągu tekstu.

Pierwszy z tych modeli językowych, GPT-2, został ogłoszony w 2019 roku. W swojej największej formie miał 1,5 miliarda parametrów, czyli miarę liczby regulowanych połączeń między jego surowymi sztucznymi neuronami.

W tym czasie było to niezwykle duże w porównaniu z poprzednimi systemami, częściowo dzięki badaczom OpenAI, którzy odkryli, że skalowanie sprawiło, że model był bardziej spójny. Firma sprawiła, że następca GPT-2, GPT-3, ogłoszony w 2020 roku, jest jeszcze większy, z ogromną liczbą 175 miliardów parametrów. Szerokie możliwości tego systemu w zakresie generowania wierszy, e-maili i innych tekstów pomogły przekonać inne firmy i instytucje badawcze do rozbudowy własnych modeli AI do podobnych, a nawet większych rozmiarów.

Po debiucie ChatGPT w listopadzie, twórcy i eksperci spekulowali, że GPT-4, gdy się pojawi, będzie modelem o przyprawiających o zawrót głowy rozmiarach i złożoności. Jednak kiedy OpenAI w końcu ogłosiło nowy model sztucznej inteligencji, firma nie ujawniła, jak duży jest – być może dlatego, że rozmiar nie jest już wszystkim, co się liczy. Na imprezie w MIT Altman został zapytany, czy szkolenie GPT-4 kosztowało 100 milionów dolarów; odpowiedział: „To więcej niż to”.

Chociaż OpenAI utrzymuje rozmiar GPT-4 i jego wewnętrzne funkcjonowanie w tajemnicy, jest prawdopodobne, że część jego inteligencji już pochodzi ze spojrzenia poza samą skalę. Jedną z możliwości jest to, że wykorzystał metodę zwaną uczeniem wzmacniającym z ludzkim sprzężeniem zwrotnym, która została użyta do ulepszenia ChatGPT. Polega ona na tym, że ludzie oceniają jakość odpowiedzi modelu, aby kierować go w stronę dostarczania odpowiedzi, które z większym prawdopodobieństwem zostaną ocenione jako wysokiej jakości.

Niezwykłe możliwości GPT-4 wprawiły w osłupienie niektórych ekspertów i wywołały debatę nad potencjałem AI do przekształcenia gospodarki, ale także szerzenia dezinformacji i likwidacji miejsc pracy. Niektórzy eksperci AI, przedsiębiorcy technologiczni, w tym Elon Musk, oraz naukowcy napisali niedawno list otwarty wzywający do sześciomiesięcznej przerwy w rozwoju czegokolwiek potężniejszego niż GPT-4.

Na MIT w zeszłym tygodniu Altman potwierdził, że jego firma nie rozwija obecnie GPT-5. „Wcześniejsza wersja listu twierdziła, że OpenAI trenuje teraz GPT-5” – powiedział. „Nie jesteśmy i nie będziemy przez jakiś czas”.

Pozostałe artykuły