Strona główna » Ai e-book o sztucznej inteligencji » Microsoft złapał hakerów z Chin, Rosji i Iranu za pomocą AI

Microsoft złapał hakerów z Chin, Rosji i Iranu za pomocą AI

by kapdes

Według opublikowanego w środę raportu, hakerzy z Rosji, Chin i Iranu korzystali z narzędzi wspieranych przez Microsoft i OpenAI, aby doskonalić swoje umiejętności i oszukiwać swoje cele.

Microsoft  poinformował w swoim raporcie, że śledził grupy hakerskie powiązane z rosyjskim wywiadem wojskowym, irańską Gwardią Rewolucyjną oraz rządami Chin i Korei Północnej, które próbowały udoskonalić swoje kampanie hakerskie przy użyciu dużych modeli językowych. Te programy komputerowe, wykorzystują ogromne ilości tekstu do generowania odpowiedzi brzmiących jak ludzkie.

ebook

Jak Wykorzystać Sztuczną Inteligencję W Życiu Codziennym?

Firma ogłosiła ogólny zakaz dla  grup hakerskich korzystających z jej produktów AI.

„Niezależnie od tego, czy doszło do jakiegokolwiek naruszenia prawa lub warunków świadczenia usług, po prostu nie chcemy, aby podmioty, które zidentyfikowaliśmy – które śledzimy i wiemy, że są różnego rodzaju podmiotami stanowiącymi zagrożenie – nie chcemy, aby miały dostęp do tej technologii” – powiedział Reuterowi wiceprezes Microsoft ds. bezpieczeństwa klientów Tom Burt w wywiadzie przed publikacją raportu.

Rosyjscy, północnokoreańscy i irańscy urzędnicy dyplomatyczni nie odpowiedzieli od razu na wiadomości z prośbą o komentarz do zarzutów.
Rzecznik ambasady USA w Chinach Liu Pengyu powiedział, że Chiny sprzeciwiają się „bezpodstawnym oszczerstwom i oskarżeniom przeciwko Chinom” i opowiadają się za „bezpiecznym, niezawodnym i kontrolowanym” wdrażaniem technologii sztucznej inteligencji w celu „zwiększenia wspólnego dobrobytu całej ludzkości”.

Zarzut, że hakerzy wspierani przez państwo zostali przyłapani na korzystaniu z narzędzi AI w celu zwiększenia swoich możliwości szpiegowskich, prawdopodobnie podkreśli obawy dotyczące szybkiego rozprzestrzeniania się tej technologii i jej potencjału do nadużyć. Wyżsi urzędnicy ds. cyberbezpieczeństwa na Zachodzie ostrzegają od zeszłego roku, że nieuczciwi aktorzy nadużywają takich narzędzi, chociaż do tej pory szczegóły były rzadkie.

„Jest to jeden z pierwszych, jeśli nie pierwszy, przypadek, w którym firma zajmująca się sztuczną inteligencją wychodzi i publicznie omawia, w jaki sposób podmioty zagrażające cyberbezpieczeństwu wykorzystują technologie sztucznej inteligencji” – powiedział Bob Rotsted, który kieruje analizą zagrożeń cyberbezpieczeństwa w OpenAI.

OpenAI i Microsoft opisały wykorzystanie przez hakerów swoich narzędzi AI jako „wczesny etap” i „przyrostowy”. Burt powiedział, że żaden z nich nie widział, aby cyberszpiedzy dokonali jakichkolwiek przełomów.
„Naprawdę widzieliśmy, że po prostu używają tej technologii jak każdy inny użytkownik” – powiedział.

W raporcie opisano grupy hakerskie wykorzystujące duże modele językowe w różny sposób.

Hakerzy rzekomo pracujący w imieniu rosyjskiej wojskowej agencji szpiegowskiej, powszechnie znanej jako GRU, wykorzystywali modele do badania „różnych technologii satelitarnych i radarowych, które mogą odnosić się do konwencjonalnych operacji wojskowych na Ukrainie”, powiedział Microsoft.
Microsoft powiedział, że hakerzy z Korei Północnej wykorzystali modele do generowania treści, które „prawdopodobnie byłyby wykorzystywane w kampaniach spear-phishingowych” przeciwko regionalnym ekspertom. Irańscy hakerzy również opierali się na modelach, aby pisać bardziej przekonujące e-maile, powiedział Microsoft, w pewnym momencie wykorzystując je do przygotowania wiadomości próbującej zwabić „prominentne feministki” na stronę internetową z pułapką.
Gigant oprogramowania powiedział, że hakerzy wspierani przez chińskie państwo również eksperymentowali z dużymi modelami językowymi, na przykład w celu zadawania pytań dotyczących rywalizujących agencji wywiadowczych, kwestii cyberbezpieczeństwa i „znanych osób”.
Ani Burt, ani Rotsted nie chcieli się wypowiadać na temat wielkości aktywności ani liczby zawieszonych kont. Burt bronił zakazu zerowej tolerancji dla grup hakerskich – który nie obejmuje ofert Microsoft, takich jak wyszukiwarka Bing – wskazując na nowość sztucznej inteligencji i obawy związane z jej wdrożeniem.
„Ta technologia jest zarówno nowa, jak i niezwykle potężna” – powiedział.

Źródło: www.theverge.com/2024/2/14/24072706/microsoft-openai-cyberattack-tools-ai-chatgpt

Pozostałe artykuły