Akt w sprawie sztucznej inteligencji (Dz.U.UE.L.2024.1689), potocznie określany jako AI Act, często określany jest jako konstytucja dla AI. Nic dziwnego - to pierwszy na świecie akt, który w takim stopniu reguluje zasady wykorzystania mechanizmów opartych o sztuczną inteligencję. Zgodnie z treścią aktu, ustawodawca unijny zdecydował się na podział systemów AI w oparciu o ryzyko.
Zakazane systemy AI
Mianem zakazanych systemów AI, a więc takich, których wykorzystanie AI akt kategorycznie wyłącza. Zostały one określone w art. 5 aktu. Zgodnie z nim, do systemów zakazanych zalicza się systemy:
- stosujące techniki podprogowe, celowe techniki manipulacyjne, lub wprowadzające w błąd, których celem lub skutkiem jest zmiana zachowania określonej osoby lub grupy osób
- wykorzystujące słabości osoby lub grupy osób (m.in. ze względu na wiek, niepełnosprawność czy szczególną sytuację społeczną lub ekonomiczną), celem dokonania znacznej zmiany zachowania
- wykorzystujące AI do tzw. scoringu społecznego, a więc dokonywania pewnej oceny na podstawie m.in. zachowań i cech osobistych
- oceniające możliwość popełnienia przestępstwa przez osoby w przyszłości
- tworzące lub rozbudowujące bazy danych, które służą rozpoznawaniu twarzy poprzez pozyskiwanie wizerunków twarzy z Internetu lub nagrań z kamer przemysłowych
- służące do określania emocji osób fizycznych w miejscu pracy lub w instytucjach edukacyjnych
- służące do kategoryzacji biometrycznej
- wykorzystujące dane biometryczne w czasie rzeczywistym (z pewnymi wyjątkami)
Systemy AI wysokiego ryzyka
Zostały zdefiniowane w rozdziale III aktu jako takie, które przeznaczone są ,,do wykorzystania jako związany z bezpieczeństwem, element produktu'' , który objęty jest unijnym prawodawstwem harmonizacyjnym, wskazanym w załączniku I tego aktu, lub produkt związany z takim elementem. Dodatkowo, systemy AI wysokiego ryzyka zostały dokładniej wypisane w załączniku III.
Z powyższego wynika więc, że co do zasady, do systemów AI wysokiego ryzyka zalicza się takie, które w sposób znaczący mogą zagrażać zdrowiu, bezpieczeństwu, prawom podstawowym, środowisku, demokracji lub praworządności.
Jakie skutki ma zaliczenie systemu AI do systemu wysokiego ryzyka?
Przypisanie danego systemu do systemu AI wysokiego ryzyka skutkuje nałożeniem dodatkowych obowiązków. Regulacja zakłada m.in. obowiązek przeprowadzania odpowiedniego systemu zarządzania ryzykiem, zobligowanie do wykorzystywania danych odpowiedniej jakości w procesie trenowania modeli AI, czy choćby sporządzanie dokumentacji technicznej i rejestrowania zdarzeń w cyklu życia danego systemu. Dodatkowo każde wykorzystanie takich systemów musi cechować się wysoką przejrzystością działania, dokładnością, solidnością, odpowiednim poziomem cyberbezpieczeństwa Każda organizacja więc, korzystając z tego typu systemów, musi mieć na względzie ilość czynności, którą należy wykonać, aby zgodnie z prawem korzystać z AI. Tym samym więc, należy odpowiednio wcześniej rozpocząć procesy dostosowawcze.
Dodatkowe obowiązki nakładane są również na dystrybutorów takich systemów, podmioty występujące w całym łańcuchu wartości AI, czy podmioty stosujące systemy AI wysokiego ryzyka.
Powyższe podejście oparte o zasady ryzyka (risk based approach) było przedmiotem wielu dyskusji jeszcze przed opublikowaniem tekstu aktu ws. sztucznej inteligencji. W tym momencie wydaje się być ono najlepszym wyjściem, realizującym postulat zapewnienia bezpieczeństwa w kontakcie z rozwiązaniami opartymi o AI. Na sam rezultat regulacji musimy jednak jeszcze chwilę poczekać - do momentu rozpoczęcia stosowania odpowiednich przepisów. Tym niemniej już teraz jest odpowiedni moment na rozpoczęcie procesu dostosowawczego wszędzie tam, gdzie AI występuje w jakiejkolwiek postaci.
Patrycja Tiuryn
Starszy Menadżer Produktu
Wolters Kluwer Polska