Strona główna » Ai e-book o sztucznej inteligencji » sztuczna inteligencja musi uczyć się modeli przyczynowo-skutkowych

sztuczna inteligencja musi uczyć się modeli przyczynowo-skutkowych

by kapdes

Naukowcy dowodzą, że sztuczna inteligencja musi uczyć się modeli przyczynowo-skutkowych, aby sprawnie adaptować się do nowych środowisk.

Uczenie się związków przyczynowo-skutkowych odgrywa fundamentalną rolę w ludzkim poznaniu. Czy zatem sztuczna inteligencja na poziomie ludzkim jest niemożliwa bez rozumowania przyczynowo-skutkowego? Ostatnie postępy w dziedzinie agentów i modeli sztucznej inteligencji, które mogą dostosowywać się do wielu środowisk i zadań bez wyraźnego uczenia się modeli przyczynowych, podważają ten pogląd.

Naukowcy z Google DeepMind udowodnili jednak matematycznie, że każdy system sztucznej inteligencji, który może solidnie dostosować się do zmieniających się warunków, musi koniecznie nauczyć się przyczynowego modelu danych i ich relacji – po prostu nie wprost.

W swoim badaniu przyjrzeli się zadaniom decyzyjnym, w których agent AI musi wybrać strategię (politykę), aby osiągnąć cel. Przykładem może być system klasyfikacji, który musi postawić diagnozę na podstawie danych pacjenta.

Jak Wykorzystać Sztuczną Inteligencję W Życiu Codziennym?

Naukowcy wykazali, że jeśli dystrybucja danych ulegnie zmianie (przesunięcie dystrybucyjne), na przykład z powodu przeniesienia agenta do nowej kliniki z różnymi grupami pacjentów, agent musi dostosować swoją strategię.

Jeśli agent może to zrobić przy minimalnych stratach, niezależnie od zmian zachodzących w danych, to zgodnie z matematycznym wyprowadzeniem musiał nauczyć się przyczynowego modelu relacji między odpowiednimi zmiennymi. Im lepsza zdolność adaptacji, tym dokładniejszy model przyczynowy.

Różnica w stosunku do jawnego uczenia się modeli przyczynowych polega na tym, że sztuczna inteligencja uczy się tych modeli, niezależnie od metody zastosowanej do jej szkolenia. W ten sposób wyszkolony system zawiera wiedzę na temat relacji przyczynowych.

Naukowcy wyciągnęli dwa wnioski z twierdzeń przedstawionych w artykule:

Optymalne polityki kodują wszystkie relacje przyczynowe i asocjacyjne.
Uczenie się uogólniania przy zmianach domeny jest równoważne z uczeniem się przyczynowego modelu danych – generowania procesów-problemów, które na pierwszy rzut oka są koncepcyjnie różne.
Modele przyczynowe mogą wyjaśniać pojawiające się zdolności
Wyniki te mogłyby na przykład wyjaśnić, w jaki sposób SI rozwijają tak zwane zdolności emergentne: Trenując wiele zadań, uczą się przyczynowego modelu świata, który mogą następnie elastycznie stosować. Jednak według zespołu wymaga to, aby model przyczynowy był rozpoznawalny na podstawie danych szkoleniowych.

Autorzy postrzegają swoją pracę jako krok w kierunku zrozumienia roli przyczynowości w ogólnej inteligencji.

Rozumowanie przyczynowe jest podstawą ludzkiej inteligencji i może być niezbędne dla sztucznej inteligencji podobnej do ludzkiej. Chociaż niektóre systemy sztucznej inteligencji radzą sobie dobrze bez wyraźnego modelowania przyczynowego, praca pokazuje, że dla solidnego podejmowania decyzji każdy system musi nauczyć się przyczynowego modelu danych, niezależnie od metody szkolenia lub architektury. Model ten umożliwia znalezienie optymalnej strategii dla każdego celu. Wyniki wskazują na głęboki związek między przyczynowością a ogólną inteligencją i pokazują, że przyczynowe modele świata są niezbędnym składnikiem solidnej i wszechstronnej sztucznej inteligencji.

Pozostałe artykuły