Strona główna » Ai e-book o sztucznej inteligencji » Nowa unijna ustawa o sztucznej inteligencji zatwierdzona

Nowa unijna ustawa o sztucznej inteligencji zatwierdzona

by kapdes
Nowa unijna ustawa o sztucznej inteligencji zatwierdzona przez Parlament Europejski

W dniu 13 marca 2024 r. posłowie do Parlamentu Europejskiego zagłosowali za przyjęciem ustawy o sztucznej inteligencji („AI Act”)

To pierwsza na świecie kompleksowej ustawy o sztucznej inteligencji. Po wejściu w życie AI Act, prawdopodobnie w kwietniu-maju 2024 r., AI Act zacznie obowiązywać etapami w ciągu 24-miesięcznego okresu przejściowego. Niektóre przepisy, takie jak zakazy dotyczące zakazanych systemów sztucznej inteligencji, będą miały zastosowanie sześć miesięcy po dacie wejścia w życie, podczas gdy kodeksy postępowania będą miały zastosowanie dziewięć miesięcy później, a ogólne zasady dotyczące sztucznej inteligencji, w tym zasady zarządzania, będą miały zastosowanie dwanaście miesięcy później. Obowiązki dotyczące systemów wysokiego ryzyka wejdą w życie 36 miesięcy po wejściu w życie.

Zakres ustawy o Ai

Ustawa o sztucznej inteligencji ma zastosowanie przede wszystkim do dostawców opracowujących systemy sztucznej inteligencji oraz do podmiotów wdrażających (użytkowników) systemy sztucznej inteligencji. W szczególności ma ona zastosowanie do: organizacji zlokalizowanych w UE, które korzystają z systemów AI, importerów, dystrybutorów lub producentów systemów AI w UE, dostawców (w UE lub poza nią), którzy wprowadzają systemy AI na rynek UE, oraz (iv) dostawców i użytkowników systemów AI (w UE lub poza nią), których dane wyjściowe są wykorzystywane w UE. Użytkownicy w niniejszym dokumencie odnoszą się do osób fizycznych lub prawnych, które wdrażają system sztucznej inteligencji w celach zawodowych, a nie do użytkowników końcowych.

Jak Wykorzystać Sztuczną Inteligencję W Życiu Codziennym?

Klasyfikacja Ai na podstawie poziomu ryzyka

Ustawa o sztucznej inteligencji klasyfikuje systemy sztucznej inteligencji według potencjalnego ryzyka i poziomu wpływu, z różnymi zasadami i obowiązkami mającymi zastosowanie do każdej klasyfikacji. Nieprzestrzeganie przepisów może prowadzić do nałożenia kar pieniężnych w wysokości od 7,5 mln EUR lub 1,5% całkowitego rocznego światowego obrotu do 35 mln EUR lub 7% całkowitego rocznego światowego obrotu, w zależności od naruszenia i wielkości przedsiębiorstwa.

Zakazane systemy AI

Ustawa o sztucznej inteligencji „zakazuje” systemów sztucznej inteligencji, które wykorzystują techniki podprogowe, manipulacyjne lub zwodnicze w celu zniekształcenia zachowania i utrudnienia świadomego podejmowania decyzji, powodując znaczną szkodę, wykorzystują słabe punkty związane z wiekiem, niepełnosprawnością lub sytuacją społeczno-ekonomiczną w celu zniekształcenia zachowania, powodując znaczną szkodę, są biometrycznymi systemami kategoryzacji wnioskującymi o wrażliwych atrybutach (np. rasie, poglądach politycznych, przynależności do związków zawodowych), rasa, poglądy polityczne, przynależność do związków zawodowych, przekonania religijne lub filozoficzne, życie seksualne lub orientacja seksualna), z wyjątkiem etykietowania lub filtrowania zbiorów danych biometrycznych uzyskanych zgodnie z prawem lub gdy organy ścigania kategoryzują dane biometryczne,  są punktacją społeczną, tj, oceniają ryzyko popełnienia przestępstwa przez daną osobę wyłącznie na podstawie profilowania lub cech osobowości, z wyjątkiem sytuacji, gdy są wykorzystywane do wspomagania ludzkich ocen opartych na obiektywnych, możliwych do zweryfikowania faktach bezpośrednio związanych z działalnością przestępczą,  tworzenia baz danych rozpoznawania twarzy poprzez nieukierunkowane pobieranie obrazów twarzy z Internetu lub nagrań CCTV, wnioskowania o emocjach w miejscach pracy lub instytucjach edukacyjnych, z wyjątkiem względów medycznych lub bezpieczeństwa, lub zdalnej identyfikacji biometrycznej (RBI) w czasie rzeczywistym w publicznie dostępnych przestrzeniach dla organów ścigania, chyba że jest to objęte wyjątkiem ustawowym.

Systemy AI wysokiego ryzyka

Ustawa o sztucznej inteligencji nakłada rygorystyczne przepisy na systemy sztucznej inteligencji wysokiego ryzyka, nakazując szeroko zakrojone działania zarządcze w celu zapewnienia zgodności. Systemy sztucznej inteligencji wysokiego ryzyka odnoszą się do systemów sztucznej inteligencji wykorzystywanych jako element bezpieczeństwa lub produkt objęty przepisami UE i muszą zostać poddane ocenie zgodności przez stronę trzecią lub  wykorzystywanych do biometrii nieobjętej zakazem, infrastruktury krytycznej, edukacji i szkolenia zawodowego, zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, dostępu do podstawowych usług publicznych i prywatnych oraz korzystania z nich, egzekwowania prawa, migracji, azylu i zarządzania kontrolą graniczną oraz wymiaru sprawiedliwości i procesów demokratycznych.

Dostawcy tych systemów sztucznej inteligencji wysokiego ryzyka muszą spełniać dodatkowe wymogi, w tym między innymi ustanowić system zarządzania ryzykiem przez cały cykl życia systemu sztucznej inteligencji, prowadzić zarządzanie danymi, sporządzać dokumentację techniczną oraz projektować swój system sztucznej inteligencji wysokiego ryzyka pod kątem automatycznego prowadzenia dokumentacji, dokładności, solidności i cyberbezpieczeństwa.

Modele AI ogólnego przeznaczenia („GPAI”)

Model GPAI odnosi się do modelu sztucznej inteligencji, w tym po przeszkoleniu z dużą ilością danych przy użyciu samonadzoru na dużą skalę, który wykazuje znaczną ogólność i jest w stanie kompetentnie wykonywać szeroki zakres różnych zadań, niezależnie od sposobu, w jaki model jest wprowadzany na rynek i który można zintegrować z różnymi systemami lub aplikacjami niższego szczebla.

Wszyscy dostawcy modeli GPAI muszą dostarczyć dokumentację techniczną, instrukcje użytkowania, przestrzegać dyrektywy o prawach autorskich i opublikować podsumowanie treści wykorzystywanych do szkoleń. Dostawcy modeli GPAI na wolnych i otwartych licencjach muszą jedynie przestrzegać dyrektywy w sprawie praw autorskich i publikować wystarczająco szczegółowe podsumowanie danych szkoleniowych, chyba że stwarzają ryzyko systemowe. Dostawcy modeli GPAI uznanych za stwarzające ryzyko systemowe, zarówno otwartych, jak i zamkniętych, muszą również przeprowadzać oceny modeli, testy kontradyktoryjności, śledzić, dokumentować i zgłaszać poważne incydenty oraz zapewniać odpowiedni poziom ochrony cyberbezpieczeństwa.

Systemy ograniczonym ryzyku i minimalnym ryzyku

Systemy sztucznej inteligencji o ograniczonym ryzyku podlegają wymogom przejrzystości, podczas gdy systemy sztucznej inteligencji o minimalnym ryzyku nie podlegają regulacjom ustawy o sztucznej inteligencji.

Pozostałe artykuły