AI Act, czyli Artificial Intelligence Act, to pierwsze rozporządzenie Unii Europejskiej, które wprowadza jednolite zasady korzystania ze sztucznej inteligencji w całej UE. Jako unijne rozporządzenie obowiązuje ono bezpośrednio we wszystkich państwach członkowskich, nie trzeba go dodatkowo wdrażać do prawa krajowego. Mimo to w Polsce trwają prace nad ustawą o systemach sztucznej inteligencji, która ma doprecyzować niektóre kwestie. Na ten moment projekt polskiej ustawy jest jeszcze na etapie prac rządowych.
Rozporządzenie to wdrażane jest stopniowo:
-od 2025 r. obowiązują przepisy w zakresie dotyczącym praktyk zakazanych (rozdział I i II), kar, poufności oraz określenia organu nadzoru rynku i organu notyfikującego
–od sierpnia 2026 r. zacznie obowiązywać znaczna większość przepisów AI Act, głównie są to regulacje dotyczące grup wysokiego ryzyka
-natomiast od sierpnia 2027 r. wejdą w życie przepisy dotyczące grup wysokiego ryzyka podlegających osobnym normom
Kogo dotyczy AI ACT?
Rozporządzenie rozdziela podmioty korzystające z systemów sztucznej inteligencji w szczególności na dostawców oraz użytkowników. Dostawcami są podmioty, które opracowują systemy sztucznej inteligencji i wprowadzają je do obrotu, natomiast użytkownikami są podmioty, wykorzystujące te systemy przede wszystkim w ramach swojej działalności.
W najprostszym ujęciu regulacja znajduje zastosowanie do wszystkich podmiotów stosujących systemy sztucznej inteligencji na terytorium UE, a także do podmiotów działających poza UE, jeżeli skutki ich działań występują na obszarze Unii Europejskiej.
AI Act wyróżnia cztery kategorie ryzyka i związane z nimi poszczególne obowiązki:
- Systemy minimalnego ryzyka: są to np. filtry spamu, systemy autokorekty oraz inne systemy które są nieszkodliwe – ta grupa ryzyka nie jest objęta szczególnymi restrykcjami i obowiązkami.
- Systemy o ograniczonym ryzyku: takie jak np. chatboty czy wirtualni asystenci na stronach internetowych. Systemy te muszą spełniać głównie obowiązek przejrzystości i obowiązek informacyjny, aby zapobiec przed wprowadzeniem człowieka w błąd.
- Systemy wysokiego ryzyka: to największa grupa wskazana w załączniku III do AI Act. Obejmuje ona takie rozwiązania AI, które mogą wpływać na bezpieczeństwo ludzi, na ich prawa i sytuację życiową.
Przykłady takich systemów to między innymi:
- AI używane w ochronie zdrowia np. wspierające lekarzy w diagnozowaniu chorób
- Systemy AI używane w sądach lub administracji publicznej do wspomagania decyzji
- Algorytmy wykorzystywane w rekrutacji, np. do selekcji CV kandydatów
- Systemy używane w sektorze finansowym np. oceniające zdolność kredytową
- AI używane w edukacji np. monitorujące egzaminy lub oceniające uczniów i studentów
Z tego powodu, że systemy te mogą mieć poważne konsekwencje dla ludzi, AI Act nakłada na nie szereg dodatkowych obowiązków.
Do obowiązków tej kategorii ryzyka należy przede wszystkim: rejestrowanie zdarzeń niepożądanych, przejrzystość działania, zapewnienie nadzoru człowieka, wdrożenie adekwatnych środków technicznych i organizacyjnych, działanie zgodnie z instrukcją dostawcy AI, odpowiednie przeszkolenie pracowników w przypadku pracodawców, zapewnienie odpowiedniego poziomu cyberbezpieczeństwa.
- Systemy zakazane: obejmują szeroki katalog technologii zakazanych na terenie UE, są to między innymi:
- Systemy które wykorzystują manipulację behawioralną czyli na przykład: aplikacje, które analizują emocje użytkownika i tak dobierają komunikaty, żeby skłonić konsumenta do konkretnej decyzji zakupowej
- System „punktowania obywateli”, czyli social scoring rozpowszechniony w Chinach, który ma na celu ocenianie obywatela na podstawie danych z jego różnych obszarów życia
- AI wykorzystujące słabości danych grup osób- ze względu na wiek czy niepełnosprawność są to przykładowo zabawki z wgranym systemem sztucznej inteligencji, które wykorzystują słabości dzieci, aby nakłaniać je do określonych zachowań
- Systemy mające przewidywać potencjalnych przestępców
algorytmy, które na podstawie profilowania osoby przewidują możliwość popełnienia przez nią przestępstwa
Istnieją jednak wyjątki od systemów zakazanych w ściśle określonych sytuacjach, na przykład w związku z zwalczaniem terroryzmu czy poszukiwaniem osób zaginionych.
Podsumowanie:
AI Act wprowadza wiele zmian w technologii sztucznej inteligencji, które mają na celu zapewnienie bezpieczeństwa tego systemu. Mimo, to wdrażanie systemu sztuczniej inteligencji zwłaszcza dla grup wysokiego ryzyka wiąże się z szeregiem procedur, wieloma nowymi obowiązkami i koniecznością zapewnienia właściwej dokumentacji, co wymaga dużej reorganizacji.