O využívání umělé inteligence se aktuálně mluví prakticky bez ustání. Kam se bude ubírat její právní úprava a jaké jsou její největší výzvy, co bude potřeba ošetřit z hlediska ochrany před diskriminací i zabezpečení osobních údajů, ale i možnosti obrany před diskriminací nebo zneužitím popisuje v rozhovoru Andrej Lobotka, autor monografie Umělá inteligence z pohledu antidiskriminačního práva a GDPR
Ve vaší knize jste se věnoval umělé inteligenci a diskriminaci. Vidíte od té doby další rizika diskriminace s rozšířenějším používáním nástrojů, které umělou inteligenci využívají?
Co se týče rizika diskriminace v důsledku používání umělé inteligence v rámci rozhodovacích procesů, tak předmětné riziko je dle mého názoru pořád větší a větší. A to zejména v důsledku rozmachu používání umělé inteligence jednotlivými subjekty, když pořád více a více subjektů sahá po umělé inteligenci, tak v důsledku rozšiřování rozhodovacích procesů, ve kterých lze umělou inteligenci použít.
Která rizika jsou podle Vás největší?
Největší rizika spojená s diskriminací hrozí podle mě v oblastech, kde mají lidé takzvaně „hodně co ztratit“, tedy např. v případě použití umělé inteligence policejními orgány či soudy, v případě využití umělé inteligence ve zdravotnictví či v procesu přijímání zaměstnanců do zaměstnání a studentů ke studiu nebo hodnocení výkonu stávajících zaměstnanců či studentů, v případě rozhodování o nároků fyzických osob na určité dávky a příspěvky, nebo např. v případě rozhodování o poskytnutí resp. neposkytnutí určitých služeb apod.
Jaká je před diskriminací umělou inteligencí možná obrana?
Český právní řád nezná speciální právní předpis, který by řešil otázku diskriminace vzniklou v důsledku užití umělé inteligence. Nezná dokonce ani speciální právní předpis, který by upravoval použití umělé inteligence. Zatím. V současné době je tudíž nutné využít prostředky, které nabízí obecný právní předpis – tedy antidiskriminační zákon. A k tomu je možné opřít se o další právní předpisy jako je např. občanský zákoník, GDPR, zákon o svobodném přístupu k informacím...
Chystá se s rozmachem používání umělé inteligence nová právní úprava?
Evropská komise zveřejnila ještě v dubnu 2021 draft nařízení o evropském přístupu k umělé inteligenci. Od té doby vyvolal návrh nařízení vášnivé debaty mezi laickou i odbornou veřejností a prošel mnoha změnami a zatím pořád nenašel svou konečnou podobu. Komise pak v návaznosti na uvedené nařízení zveřejnila v září 2022 návrh směrnice o odpovědnosti za umělou inteligenci. Jak již samotný název napovídá, účelem směrnice je stanovit požadavky na některé aspekty mimosmluvní občanskoprávní odpovědnosti za škodu vzniklou v důsledku používání umělé inteligence. Cesta k uvedení daných požadavků v život však bude ještě dlouhá. Po schválení směrnice bude na jednotlivých členských státech, aby ji implementovaly do vnitrostátních právních řádů.
Kterým směrem se bude podle Vás tato úprava do budoucna ubírat?
Zatím se zdá, že Evropská unie se bude ubírat směrem, jenž by někteří mohli označit za paternalistický. Hlavním cílem Evropské unie je totiž chránit práva jednotlivců, kteří by mohli být umělou inteligencí poškozeni. Tento postup však budí vášně zejména s ohledem na to, že někdy prý až zbytečně ztěžuje práci subjektům, které se na vývoji umělé inteligence podílejí, nebo by se v budoucnu podílet chtěli. Vzniká tak obava, že Evropské unii ujede vlak a většina vývoje bude probíhat v USA nebo v Asii.
Umělá inteligence také využívá pro strojové učení obrovské množství osobních dat. Je nějaká možnost data chránit za situace, kdy obsah uchovávaných dat není transparentní?
Myslím, že jak ukázal nedávný případ ChatGPT v Itálii, kdy italský dozorový úřad nejdříve přikázal provozovateli systému OpenAI zastavit činnost systému v Itálii a následně jeho činnost povolil, a to i navzdory tomu, že i přes provedené kroky provozovatele systému pořád není zcela zřejmé, jaká data systém zpracovává, tak jsem trochu skeptický k možnosti jednotlivců vůbec zjistit, jaká data jednotlivé systémy umělé inteligence o nich zpracovávají a příp. se následně domoci ukončení takovéhoto zpracování osobních údajů. Myslím, že i dozorové úřady se bojí pořádně „píchnout do vosího hnízda“, které umělá inteligence představuje. A je to podle mě právě z obavy, že by tím dopomohli k tomu, aby před chvíli uváděný hypotetický vlak odjel a zanechal při tom evropské společnosti na nástupišti, na kterém by tyto společnosti zaostaly za zbytkem světa.
Co podle Vás bude největší výzvou pro právní úpravu s ohledem na zapojování umělé inteligence do běžných pracovních procesů?
Největší výzvou podle mě bude rozhodnout, jak přistoupit k otázce dokumentace datových souborů, se kterými umělá inteligence pracuje. Pokud víme, s jakými daty umělá inteligence pracuje, tak by pro nás mělo být možné, i když ne vždy lehké, posoudit, zda je její činnost v souladu s právními předpisy, a tím nemyslím jenom antidiskriminační právní předpisy, ale i např. předpisy upravující zpracování a ochranu osobních údajů, předpisy upravující autorská práva, pracovněprávní předpisy či předpisy upravující ochranu osobnosti. Jak ale budeme postupovat v případě systému, u kterého nejsme schopni s jistotou říct, s jakými údaji tento systém pracuje, a tudíž nejsme schopni s jistotou říct, že jeho činnost je v souladu s právními předpisy? Zakážeme jeho použití? Nebo budeme ochotni akceptovat určité riziko? Jak velké? Myslím, že na tuhle otázku si budou muset naši zákonodárci odpovědět už brzo.