Strona główna » Ai e-book o sztucznej inteligencji » DeepMind Self-Discover zachęca LLM do samodzielnego myślenia

DeepMind Self-Discover zachęca LLM do samodzielnego myślenia

by kapdes

Badacze z Google DeepMind oraz Uniwersytetu Południowej Kalifornii przedstawili Self-Discover

Framework umożliwiającą modelom języka samodzielne znajdowanie logicznych wskazówek do rozwiązywania skomplikowanych zadań. Pomimo całego postępu, który został osiągnięty, logiczne rozumowanie nadal stanowi największe wyzwanie dla dużych modeli językowych. Aby rozwiązać ten problem, naukowcy z Google DeepMind oraz Uniwersytetu Południowej Kalifornii przedstawili teraz nowe podejście o nazwie „Self-Discover”. Celem jest, aby modele języka na własną rękę odkrywały logiczne struktury, aby rozwiązywać skomplikowane problemy.

Wybierz, dostosuj, zaimplementuj

Framework dostarcza modelowi języka zestaw wskazówek do rozumowania, takich jak „krok po kroku”, „krytycznie zbadaj” lub „podziel na podproblemy”. W pierwszej fazie, dla danego zadania, model wybiera spośród tych wskazówek do rozumowania, dostosowuje je do konkretnego zadania, a ostatecznie łączy je w realizowalny plan. W drugiej fazie, model próbuje rozwiązać zadanie, po prostu podążając za planem, który opracował.

ebook

Jak Wykorzystać Sztuczną Inteligencję W Życiu Codziennym?

Według badaczy, podejście to naśladuje ludzki proces rozwiązywania problemów.

Obiecuje lepsze wyniki i jest także wydajne obliczeniowo, ponieważ musi być generowane tylko raz na poziomie meta. Jednym z możliwych zastosowań dla Self-Discover jest rozwiązanie skomplikowanego równania matematycznego. Zamiast próbować rozwiązać równanie bezpośrednio, Self-Discover mogłoby najpierw stworzyć logiczną strukturę składającą się z kilku kroków, takich jak uproszczenie równania, izolacja zmiennych, a w końcu rozwiązanie równania. LLM następnie podąża za tą strukturą, aby rozwiązać problem krok po kroku.

Self-Discover przynosi znaczące ulepszenia w porównaniu z Chain of Thought

Przykład od badaczy porównuje Self-Discover z Chain of Thought (CoT) i Plan-and-Solve, gdzie model języka jest proszony o wnioskowanie poprawnego kształtu geometrycznego z ścieżki SVG pliku wektorowego. Badacze przetestowali Self-Discover z GPT-4 Turbo OpenAI, GPT-3.5 Turbo, LLaMa-2-70B Meta oraz PaLM 2 Google. W 21 z 25 zadań, Self-Discover przewyższyło sprawdzoną metodę CoT, która również wymagała większej mocy obliczeniowej, o do 42 procent. Self-Discover wymagało tylko trzech dodatkowych kroków wnioskowania na poziomie zadania.

W trzech innych benchmarkach rozumowania (BigBench-Hard, Thinking for Doing, Math), Framework był w stanie poprawić wydajność LLM, w niektórych przypadkach znacząco, niezależnie od modelu języka. We wszystkich testach, Self-Discover przewyższyło powszechnie używane wskazówki Chain-of-Thought (CoT) i Plan-and-Solve (PS). Wskazuje to, że technika Self-Discover jest uniwersalnie stosowalna.

Mówi się, że Self-Discover przewyższa metody intensywne obliczeniowo, takie jak CoT Self-Consistency czy Majority Voting, o ponad 20 procent, przy 10 do 40 razy mniejszym wymogu obliczeniowym dla wnioskowania. OpenAI niedawno wprowadziło Meta-Prompting Framework, inną rozwiązanie do poprawy logicznej wydajności dużych modeli językowych. Podobnie do Self-Discover, Framework rozkłada skomplikowane zadania modelu języka na mniejsze, bardziej zarządzalne części, które są następnie obsługiwane przez specyficzne „ekspertów” tej samej instancji modelu języka, aby rozmawiać i znaleźć optymalne rozwiązanie. Chociaż może to poprawić wydajność, przełączanie się między wieloma ekspertami zwiększa koszt obliczeniowy w porównaniu z tradycyjnymi wskazówkami.

Pozostałe artykuły