Strona główna » Ai e-book o sztucznej inteligencji » UE osiąga „historyczne porozumienie” w sprawie regulacji dotyczącej sztucznej inteligencji

UE osiąga „historyczne porozumienie” w sprawie regulacji dotyczącej sztucznej inteligencji

by kapdes
eu

Unia Europejska osiągnęła porozumienie polityczne w sprawie pierwszego na świecie prawa regulującego sztuczną inteligencję.

Negocjacje między Parlamentem Europejskim a Radą UE zakończyły się w piątek wieczorem po długich dyskusjach.

Ustawa o sztucznej inteligencji ma na celu ściślejsze uregulowanie wykorzystania sztucznej inteligencji w UE, wprowadzając różne klasy ryzyka dla systemów sztucznej inteligencji, jednocześnie promując innowacje. Przepisy określają obowiązki dla systemów AI w oparciu o ich potencjalne ryzyko i wpływ.

Unijny komisarz ds. rynku wewnętrznego Thierry Breton nazwał porozumienie „historycznym”. Przepisy, które Komisja po raz pierwszy zaproponowała w kwietniu 2021 r., mogą służyć jako model regulacji sztucznej inteligencji na całym świecie poprzez tak zwany efekt falowania regulacji UE, przy czym firmy technologiczne optymalizują swoje produkty AI pod kątem najbardziej regulowanego rynku.

Ryzykowne systemy AI i zabronione zastosowania

Przepisy zakazują niektórych zastosowań sztucznej inteligencji, które mogą stanowić zagrożenie dla praw obywatelskich i demokracji. Należą do nich biometryczne systemy kategoryzacji wykorzystujące wrażliwe cechy
„Nieukierunkowane” pobieranie obrazów twarzy z Internetu lub nagrań CCTV w celu tworzenia baz danych rozpoznawania twarzy,
Rozpoznawanie emocji w miejscu pracy i instytucjach edukacyjnych,
Ocena społeczna oparta na zachowaniach społecznych lub cechach osobistych,
systemy sztucznej inteligencji, które manipulują ludzkim zachowaniem w celu obejścia wolnej woli, oraz sztuczna inteligencja wykorzystująca ludzkie słabości.
Istnieją wyjątki dla systemów identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów egzekwowania prawa. Wykorzystanie sztucznej inteligencji jest dozwolone tylko w przypadku określonej listy poważnych przestępstw (morderstwo, terroryzm, znęcanie się) za uprzednią zgodą sądu. Osoba musi być skazana lub podejrzana o popełnienie poważnego przestępstwa.

W przypadku systemów AI sklasyfikowanych jako wysokiego ryzyka, posłowie wzywają do obowiązkowej oceny wpływu na prawa podstawowe. Zasady te mają również zastosowanie do sektorów ubezpieczeń i bankowości.

Obywatele mają prawo do składania skarg dotyczących systemów AI i otrzymywania wyjaśnień dotyczących decyzji opartych na systemach AI wysokiego ryzyka, które mają wpływ na ich prawa.

Krajowe wsparcie dla „piaskownic regulacyjnych” i testów w świecie rzeczywistym powinno pomóc małym i średnim firmom w opracowywaniu aplikacji AI bez presji ze strony dominujących gigantów branżowych, pisze Parlament Europejski.

Wymogi przejrzystości dla modeli AI ogólnego przeznaczenia

Ponadto duże międzynarodowe firmy, takie jak OpenAI, Microsoft i Google, są zobowiązane do przestrzegania wysokich standardów przejrzystości w odniesieniu do swoich podstawowych modeli sztucznej inteligencji. Firmy te muszą między innymi ujawniać, jakie dane zostały wykorzystane do szkolenia technologii i w jaki sposób chronione są prawa autorskie. Ta ostatnia kwestia jest przedmiotem wielu spraw sądowych, w tym w USA.

Ponieważ systemy AI mogą wykonywać wiele różnych zadań, a ich możliwości szybko się rozwijają, Parlament zgodził się, że systemy AI ogólnego przeznaczenia (GPAI) i leżące u ich podstaw modele GPAI muszą spełniać wymogi przejrzystości zaproponowane przez Parlament.

Modele GPAI z ryzykiem systemowym podlegają bardziej rygorystycznym obowiązkom. Modele te muszą spełniać określone kryteria, takie jak przeprowadzanie ocen modeli, ocena i ograniczanie ryzyka systemowego, przeprowadzanie testów kontradyktoryjności, zgłaszanie Komisji poważnych incydentów, zapewnianie cyberbezpieczeństwa i raportowanie ich efektywności energetycznej.

Nieprzestrzeganie zasad może skutkować grzywnami w wysokości od 35 mln euro lub 7 proc. globalnego obrotu do 7,5 mln euro lub 1,5 proc. obrotu, w zależności od rodzaju naruszenia i wielkości firmy.

Nowe przepisy oznaczają również, że niedawne naciski Niemiec, Włoch i Francji na samoregulację podstawowych modeli sztucznej inteligencji zakończyły się niepowodzeniem.

Uzgodniony tekst legislacyjny musi teraz zostać formalnie przyjęty przez Parlament i Radę, aby stać się prawem UE. Komisje Rynku Wewnętrznego i Ochrony Konsumentów (IMCO) oraz Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych (LIBE) Parlamentu Europejskiego będą głosować nad porozumieniem na najbliższym posiedzeniu. Głosowanie jest formalnością.

Kluczowe będzie wdrożenie prawa. Niezbędne regulacje nie mogą stać się biurokratyczne, a w szczególności procesy certyfikacji nie mogą być przytłaczające dla małych firm i start-upów. Dotyczy to zwłaszcza UE, która pozostaje daleko w tyle za USA i Chinami pod względem penetracji rynku sztucznej inteligencji i dlatego musi działać szybko i elastycznie.

Pozostałe artykuły