Akt ws. sztucznej inteligencji – zasady, ryzyka, obowiązki
Prawo23 kwietnia, 2024

Akt ws. sztucznej inteligencji – zasady, ryzyka, obowiązki

W grudniu 2023 r. Komisja Europejska, Rada oraz Parlament osiągnęły wstępne porozumienie dotyczące Aktu ws. Sztucznej Inteligencji („Akt”, AI Act) - kompleksowego aktu prawego dotyczącego tworzenia i funkcjonowania inteligentnych algorytmów zdefiniowanych w Akcie mianem „sztucznej inteligencji”. Mimo iż na całym świecie w poszczególnych państwach toczą się dyskusje, a także mniej bądź bardziej zaawansowane prace nad podobnymi uregulowaniami, unijny Akt stanowi obecnie najbardziej kompleksową regulację tego typu. Można założyć, że będzie on istotnym punktem orientacyjnym dla podobnych aktów prawnych w innych miejscach globu, zwłaszcza w Stanach Zjednoczonych (tzw. efekt Brukseli).

Podstawowe zasady Aktu

Cała konstrukcja Aktu jest podporządkowana zasadzie ochrony najszerzej rozumianego dobrostanu człowieka w kontakcie ze sztuczną inteligencją (human-centric approach). Przepisy Aktu koncentrują się na eliminowaniu potencjalnych źródeł uszczerbku dla praw i wolności człowieka wskutek funkcjonowania zaawansowanych algorytmów AI.

Wszystkie systemy AI zostają podporządkowane wspólnym, uniwersalnym zasadom:

  • poszanowania ludzkiej godności i kontroli przez człowieka (human agency and oversight),
  • technicznej solidność i bezpieczeństwu (technical robustness and safety),
  • poszanowania prywatności i ochrony danych (privacy and data governance),
  • przejrzystości sposobu funkcjonowania (transparency),
  • promowania różnorodności, braku dyskryminacji oraz sprawiedliwości (diversity, non-discrimination, fairness),
  • funkcjonowania dla osiągnięcia dobrobytu społecznego oraz poszanowania środowiska naturalnego (social and environmental well-being).

Zdecydowanie antropocentryczny sposób regulacji AI w Unii Europejskiej musi budzić respekt, mimo podnoszonego niekiedy zarzutu tworzenia przepisów nadmiernie uciążliwych dla postępu czy innowacji. Godzi się zauważyć, że postęp technologiczny nie jest wartością sama w sobie. Staje się nią dopiero wówczas, gdy służy człowiekowi i jest podporządkowany jego interesowi. Takie założenie legło u podstaw Aktu.

Trudności ze zdefiniowaniem AI

Przyjęta w Akcie definicja AI nawiązuje do tej wypracowanej na forum OECD. W założeniu ma to ułatwiać osiągnięcie globalnego konsensusu odnoście do ram definicyjnych AI. Widoczne trudności ze zdefiniowaniem technologicznego fenomenu AI nie mogą dziwić. Objęcie językiem prawniczym tak nowego zjawiska wystawia go niewątpliwie na olbrzymią próbę. Wedle zaproponowanej w Akcie definicji sztuczna inteligencja oznacza oparty na maszynach system (machine-based), który dla osiągnięcia określonego celu, bazując na podstawie otrzymanych danych wejściowych (input), generuje dane wyjściowe (output), takie jak „prognozy, treści, zalecenia lub decyzje”, które mogą wpływać na zewnętrzne środowisko (fizyczne lub wirtualne). Kluczowym wyróżnikiem systemów sztucznej inteligencji jest cecha autonomii oraz wynikająca ze zdolności do nauki umiejętność adaptacji po wdrożeniu systemu.

Powszechnie zwraca się uwagę na szeroki zakres tak zdefiniowanej sztucznej inteligencji, który w ten sposób mogłaby obejmować także część „tradycyjnego” oprogramowania komputerowego. Niewątpliwie to na sądach oraz nauce prawa spoczywać będzie ciężar wypracowania odpowiednich granic pojęciowych.

Większe ryzyko - bardziej rygorystyczne zasady

Fundamentem Aktu jest uporządkowanie systemów AI wedle wynikających z ich zastosowań potencjalnych ryzyk i poziomu wpływu na jednostki i społeczeństwo jako całość (risk-based approach). Bazując na tej zasadzie systemy AI zostały podzielone na: całkowicie zakazane pod rygorem surowych kar (prohibited AI systems), dopuszczone pod rygorystycznymi wymogami jako systemy AI wysokiego ryzyka (high-risk AI) oraz dopuszczone do wykorzystania bez większych ograniczeń.

W przypadku zakazanych systemów AI uznano, iż w każdym przypadku generują one na tyle istotne zagrożenia dla praw podstawowych, że nie są one równoważone przez ewentualne korzyści wynikające z ich zastosowania. Trzeba przyznać, że zidentyfikowany w Akcie katalog zakazanych systemów AI nie jest jednorodny.

Zakazane systemy AI:

  • manipulujące ludzkim zachowaniem lub wykorzystujące ludzkie słabości (vulnerabilities) związane np. z wiekiem, niepełnosprawnością, sytuacją społeczną lub ekonomiczną;
  • prowadzące punktację społeczną (social scoring) opartą na zachowaniach społecznych lub cechach osobistych;
  • pobierające obrazy twarzy z sieci internetowej lub nagrań CCTV w celu tworzenia baz danych dla rozpoznawania wizerunków;
  • kategoryzujące na podstawie cechy wrażliwych (np. przekonań politycznych, religijnych, pochodzenia etnicznego, orientacji seksualnej);
  • oceniające ryzyko popełnienia przestępstwa w przyszłości (predictive policing);
  • rozpoznające stany emocjonalne w miejscu pracy i instytucjach edukacyjnych;
  • prowadzące w czasie rzeczywistym zdalną biometrię (real-time remote biometric identification, tutaj zakaz obowiązuje z pewnymi wyjątkami).

Dopuszczalne, choć obwarowane licznymi wymogami systemy AI wysokiego ryzyka zostały wyróżnione z uwagi na ich znaczny potencjał zagrożenia dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji czy praworządności. Ich dopuszczenie do korzystania zakłada m.in. obowiązkową ocenę wpływu na prawa podstawowe, a także ocenę zgodności, wymogów w zakresie zarządzania danymi, rejestracji w unijnej bazie danych, systemów zarządzania ryzykiem i zarządzania jakością, przejrzystości, nadzoru ludzkiego (human agency and oversight), solidności i bezpieczeństwa w obliczu zagrożeń cybernetycznych (technical robustness and safety). Prócz systemów wykorzystywanych w urządzeniach, których bezpieczeństwo funkcjonowania zostało detalicznie uregulowane w odpowiednich aktach prawnych (np. samoloty, pojazdy kołowe, systemy kolejowe, dźwigi, urządzenia medyczne, windy), do kategorii wysokiego ryzyka zaliczono wykorzystywanie systemów AI w szczególnie wrażliwych obszarach funkcjonowania społeczeństwa. Wśród tych obszarów znajduje się:

  • edukacja,
  • zatrudnienie,
  • infrastruktura krytyczna,
  • usługi publiczne,
  • egzekwowanie prawa,
  • kontrola graniczna czy
  • sprawowanie wymiaru sprawiedliwości.

Nowy organ regulacyjny

W Akcie przewidziano stworzenie nowej infrastruktury administracyjnej zajmującej się systemami sztucznej inteligencji. Planowane jest powołanie do życia Urzędu ds. Sztucznej Inteligencji (AI Office). Miałby on nadzorować najbardziej zaawansowane systemy AI, przyczyniać się do wspierania nowych standardów oraz egzekwować wspólne zasady we wszystkich państwach unijnych. Planuje się także powołanie panelu naukowego niezależnych ekspertów doradzających Urzędowi, jak i Radę ds. Sztucznej Inteligencji, w skład której wchodziliby przedstawiciele państw członkowskich UE. Byłaby ona platformą koordynującą działania państw unijnych, organem doradczym Komisji Europejskiej, a jednocześnie przyczyniałaby się do sprawnego wdrażania Aktu. Każde państwo wspólnotowe powinno ponadto powołać własny, lokalny organ zajmujący się sztuczną inteligencją. W grę wchodzi albo powołanie nowego podmiotu, albo powierzenie kompetencji w tym zakresie już istniejącemu urzędowi.

Odpowiedzialność za wyrządzoną szkodę

Poza zakresem Aktu pozostawiono tematykę ułatwień procesowych dla dochodzenia szkód wyrządzonych przez systemy AI. W sytuacji wyrządzenia konkretnej szkody przez algorytmy AI tradycyjne zasady odszkodowania wymagają wykazania wadliwości działania systemu jako przyczyny powstałego uszczerbku. Już choćby z uwagi na poziom wewnętrznego skomplikowania algorytmów AI jest oczywiste, że brak stworzenia nowych zasad dochodzenia odszkodowania istotnie utrudni, jeśli nie uniemożliwi, skuteczne domaganie się pokrycia wyrządzonej szkody. Pierwszy projekt dyrektywy odnoszącej się do tego zagadnienia został zarzucony jako niedostatecznie przemyślany. Z pewnością niedługo doczekamy się kolejnego.

Ekspert w zakresie regulacji prawa najnowszych technologii, własności intelektualnej oraz profesjonalnego doradztwa regulacyjnego, doktor nauk prawnych, radca prawny z kilkunastoletnim praktycznym doświadczeniem prowadzenia sporów sądowych, opiniodawca krajowych i unijnych projektów legislacyjnych

Back To Top