Strona główna » Ai e-book o sztucznej inteligencji » AI może zwiększać eskalację militarną i ryzyko nuklearne?

AI może zwiększać eskalację militarną i ryzyko nuklearne?

by kapdes
militarny

Rządy testują wykorzystanie sztucznej inteligencji do podejmowania decyzji wojskowych i dyplomatycznych.

Nowe badanie wykazało, że wiąże się to z ryzykiem eskalacji. W badaniu Georgia Institute of Technology i Stanford University zespół naukowców zbadał, w jaki sposób autonomiczni agenci AI, w szczególności zaawansowane generatywne modele AI, takie jak GPT-4, mogą prowadzić do eskalacji w wojskowych i dyplomatycznych procesach decyzyjnych.

Naukowcy skupili się na zachowaniu agentów AI w symulowanych grach wojennych. Opracowali symulację gry wojennej oraz ilościowy i jakościowy system punktacji w celu oceny ryzyka eskalacji decyzji agentów w różnych scenariuszach.

ebook

Jak Wykorzystać Sztuczną Inteligencję W Życiu Codziennym?

Lama 2 firmy Meta i GPT-3.5 firmy OpenAI to ryzykanci

W symulacjach naukowcy testowali modele językowe jako autonomiczne narody. Działania, wiadomości i konsekwencje były ujawniane jednocześnie po każdym symulowanym dniu i służyły jako dane wejściowe na kolejne dni. Po zakończeniu symulacji badacze obliczyli wyniki eskalacji.

Wyniki pokazują, że wszystkie testowane modele językowe (GPT-3.5 i GPT-4 OpenAI, model bazowy GPT-4, Anthropics Claude 2 i Llama 2) są podatne na eskalację i mają trudną do przewidzenia dynamikę eskalacji.

W niektórych przypadkach wystąpiły nagłe zmiany w eskalacji nawet o 50 procent w testach, które nie są odzwierciedlone w średniej. Chociaż te statystyczne wartości odstające są rzadkie, jest mało prawdopodobne, aby były akceptowalne w rzeczywistych scenariuszach.

GPT-3.5 i Llama 2 eskalowały najbardziej i najprawdopodobniej gwałtownie, podczas gdy wysoce zoptymalizowane pod kątem bezpieczeństwa modele GPT-4 i Claude 2 miały tendencję do unikania ryzyka eskalacji, zwłaszcza gwałtownej.

Atak nuklearny nie był zalecany przez żaden z płatnych modeli w żadnym z symulowanych scenariuszy, ale był zalecany przez darmowe modele Llama 2, który jest również open source, i GPT-3.5.

Naukowcy zebrali dane jakościowe na temat motywacji modeli do podejmowania decyzji i znaleźli „niepokojące uzasadnienia” oparte na strategiach odstraszania i pierwszego uderzenia. Modele wykazały również tendencję do wyścigu zbrojeń, który może prowadzić do poważnych konfliktów, a w rzadkich przypadkach do użycia broni jądrowej.

Model bazowy GPT-4 jest szczególnie podatny na eskalację

Naukowcy mieli również dostęp do podstawowego modelu GPT-4, bez dostosowania bezpieczeństwa i treningu z ludzkimi opiniami. Model ten wybierał „najpoważniejsze działanie” znacznie częściej niż inne modele, piszą naukowcy.

W jednym ze scenariuszy model podstawowy zalecał użycie broni jądrowej, ponieważ wiele innych krajów również posiadało broń jądrową: „Mamy ją! Użyjmy jej.”

Pokazuje to, że istniejące zabezpieczenia są skuteczne i ważne, piszą naukowcy. Zauważają oni jednak również, że istnieje ryzyko ominięcia tych środków. Ponieważ podstawowy model GPT-4 zasadniczo różni się od modeli zorientowanych na bezpieczeństwo, został on wykluczony z porównania z innymi modelami.

Ze względu na wysokie ryzyko w kontekście wojskowym i dyplomatycznym, naukowcy zalecają, aby autonomiczni agenci modeli językowych byli wykorzystywani tylko ze „znaczną ostrożnością” w decyzjach strategicznych, wojskowych lub dyplomatycznych i że potrzebne są dalsze badania.

Aby uniknąć poważnych błędów, konieczne jest lepsze zrozumienie zachowania tych modeli i zidentyfikowanie możliwych trybów awarii. Ponieważ agenci nie mają wiarygodnie przewidywalnych wzorców eskalacji, środki zaradcze są trudne, pisze zespół.

OpenAI niedawno otworzyło się na wojskowe wykorzystanie swoich modeli, o ile nie ucierpią na tym ludzie. Rozwój broni jest wyraźnie wykluczony. Jednak, jak pokazuje powyższe badanie, istnieje ryzyko związane z integracją generatywnej sztucznej inteligencji z przepływem informacji lub w celach doradczych. OpenAI i wojsko podobno współpracują w zakresie cyberbezpieczeństwa.

Pozostałe artykuły