Hoe meer functies artificiële intelligentie verwerft, hoe meer aandacht we moeten besteden aan de normatieve uitdagingen van de technologie
Rechtspraak en AI
‘Eén van de centrale vragen in mijn masterthesis is of er gebieden zijn waar het gebruik van AI geen plaats zou mogen krijgen. Om die vraag te kunnen beantwoorden heb ik een concrete hypothese onderzocht: de vervanging van de menselijke rechter door een AI. Het beroep van rechter lijkt op het eerste zicht een beroep dat door een mens gedaan moet worden omdat er speciale menselijke kennis voor nodig is. De vraag is of dat inderdaad een gebied is waar wij in de toekomst altijd de mens boven de machine verkiezen.’
‘Om rechtvaardige rechtspraak te garanderen, moet de wet telkens opnieuw geïnterpreteerd worden. Volgens de tegenstanders van algoritmische systemen zonder menselijke tussenkomst zijn computationele systemen enkel in staat om rigide regels te modelleren en kunnen zij onmogelijk de discretionaire bevoegdheid van de rechter capteren. Juridisch werk bestaat grotendeels uit het verwerken van grote hoeveelheden informatie uit rechtspraak en wetteksten. Algoritmes zijn veel efficiënter in het analyseren van grote hoeveelheden data en het herkennen van mogelijk complexe structuren. Informatie en data kunnen echter niet zonder meer aan elkaar gelijkgesteld worden. Data zijn betekenisloze letters en cijfers, terwijl informatie naast de data ook context bevat. Om algoritmes te kunnen inzetten, moet een reductie gebeuren van informatie naar data. Die omzetting leidt onvermijdelijk tot contextverlies. Daarnaast wordt bij de omzetting de basis voor de werking van een algoritme gelegd, vermits er informatie gefilterd en weggelaten wordt. Alles wat zich niet in de poel van data bevindt, is onbereikbaar voor AI-systemen.’
‘Algoritmische besluitvorming zonder enige menselijke tussenkomst blijft evenwel een interessante mogelijkheid omwille van de mogelijke voordelen op het vlak van consistentie in de uitspraken en doordat extra-juridische factoren uitgeschakeld zouden kunnen worden. Onder extra-juridische factoren vallen onder meer vermoeidheid en honger, maar bijvoorbeeld ook de invloed van de wetgevende macht. De interpretatiemarge van de rechter heeft tot gevolg dat verschillende rechters op basis van dezelfde regels tot andere conclusies kunnen komen. Een bepaalde mate van inconsistentie is zowaar noodzakelijk voor de diversifiëring van de straf alsook om het recht mee te laten evolueren met de veranderingen in de samenleving, maar te grote verschillen in straffen bij gelijkaardige zaken zouden vermeden moeten worden.’
‘Algoritmische besluitvormingssystemen kunnen per definitie enkel rekening houden met factoren die ze al eerder gezien hebben. Anders dan de rechter kunnen dergelijke systemen zich geen vragen stellen over de aard van de argumenten zelf die ze moeten toepassen. Het systeem kan wel een keuze maken tussen allerhande argumenten en aangeven waarom een bepaalde straf in dit geval eveneens opgelegd moet worden, maar het is niet in staat om fundamenteler na te denken over bijvoorbeeld de methode van repressieve handhaving. Om goede rechtspraak te garanderen is het essentieel dat de dynamiek binnen de maatschappij geïncorporeerd wordt.’
‘Rechters maken op het moment dat zij argumenten van precedenten toepassen op nieuwe rechtszaken gebruik van hun achtergrondkennis. De achtergrondkennis die wij als mens bezitten, wordt voortdurend onbewust aangepast. Het zou kunnen dat het in de toekomst mogelijk wordt om de achtergrondkennis computationeel weer te geven. Er is echter steeds een element dat noodzakelijk ontglipt, namelijk de manier waarop wij als mens betekenis geven aan de dingen. Een mogelijke basis voor een fundamenteel argument tegen een algoritmisch beslissingssysteem kan dan ook gevonden worden in dat onvermogen. Waarom het menselijk denken wel in staat lijkt te zijn tot dergelijke betekenisgeving en algoritmische systemen niet, blijft vooralsnog onduidelijk.’
‘Hoe meer functies AI verwerft, hoe meer aandacht we moeten besteden aan de normatieve uitdagingen van de technologie. Twee belangrijke argumenten voor het behoud van de mens in de besluitvorming zijn het ontbreken van transparantie bij algoritmische beslissingen en het onvermogen van algoritmes om een motivatie te geven voor hun beslissingen. Beide argumenten blijken echter onvoldoende als fundamenteel argument om zich te verdedigen, vermits zij steeds aangevallen kunnen worden door voorstanders die beweren dat nieuwe technologieën aan de voorwaarden zullen voldoen. De unieke aard van het betekenis geven van de mens is tegelijk inherent problematisch voor de algoritmische besluitvorming, maar kan mogelijk als basis dienen in de zoektocht naar fundamentele argumenten die het behoud van de menselijke component in de besluitvorming legitimeren.’
Command-responability
Na haar rechtenstudie was Oimann aanvankelijk gestart met een MaNaMa-thesis over de aansprakelijkheid van softwareontwikkelaars, maar ze verlegde haar interesse omwille van een in militaire middens bekend concept van command responsibility waarbij men bevelvoerders internationaal strafrechtelijk verantwoordelijk kan houden voor misdaden die ondergeschikten begaan. ‘De vraag rijst dan in hoeverre men kan worden berecht voor schadeverwekkende fouten ingevolge het gebruik van wapensystemen zoals gewapende drones’. Oimann wil vooral begripsverwarring tegengaan bij het kaderen van het onderzoek naar zogenoemde LAWS (lethal autonomous weapon systems, red.). Spreken over ‘autonomie’ in systemen is verre van eenduidig, geeft ze aan. ‘AI is niet één technologie of één systeem maar kan op veel domeinen ondersteuning bieden: logistiek, navigatie, voorspellen wanneer reparatie nodig zal zijn,… autonomie in oorlogsvoering gaat kortom zeker niet enkel om bewapende drones.’ Wat voor ‘autonomie’ geldt, gaat a fortiori op voor de verschillende soorten ‘verantwoordelijkheid’. ‘Men onderscheidt in de literatuur en in de praktijk zogenoemde rolverantwoordelijkheid, morele verantwoordelijkheid, causale verantwoordelijkheid. Het spreekt voor zich dat ook autonome wapens niet uit het niets gecreëerd zijn, maar door mensen. Dat betekent dus ook dat zij verantwoordelijk zijn en blijven voor de productie, het ontwerp, de inzet... Desalniettemin wordt het toekennen van verantwoordelijkheid bemoeilijkt door de tussenkomst van LAWS, doordat meer beslissingsbevoegdheid naar een niet-menselijke agent wordt getransfereerd die niet zomaar ter verantwoording kan worden geroepen’, vervolgt Oimann die haar interesseverschuiving van AI in het recht en nu LAWS ziet samenkomen. ‘Vraagstukken waar geautomatiseerde systemen worden ingezet in taken en contexten die moreel verantwoorde besluitvorming met zich meebrengen interesseren me mateloos’, besluit ze.
Economisch vs. militair
Nog al te vaak merkt Oimann dat de meeste mensen de KMS niet kennen en niet weten dat het ook gewoon een universiteit is met onderzoeksdepartementen. Ze ervaart overigens een grote vrijheid onder het promotorschap van specialist militaire ethiek Carl Ceulemans. ‘Ik heb de luxe dat ik eigenlijk drie promotoren heb die uit volledig andere hoek komen, al leidt dat bij momenten ook tot tegenstrijdige tips’, gaat Oimann glimlachend verder. Aan de KU Leuven kan ze rekenen op begeleiding van techniekfilosoof Lode Lauwaert, onder meer bekend van de bestseller ‘Wij Robots’, en politiek wijsgeer Stefan Rummens. Oimann signaleert hoe artificiële intelligentie in Europa meestal economische doeleinden dient terwijl de Verenigde Staten AI veelal ook militair hebben ingebed en dat daar een lange traditie bestaat in het ondersteunen van opkomende technologieën, zoals het internet, GPS... Ze benadrukt hoe men ook aan de andere kant van de Atlantische oceaan toch moet vaststellen dat dit niet kritiekloos gebeurt: ‘Denk maar aan het MAVEN-project waarbij Google-personeel in verzet ging tegen een project van het Pentagon waarbij software ontwikkeld moest om drone-aanvallen efficiënter te maken. Google gaf uiteindelijk gehoor aan zijn medewerkers en liet het project vallen. Dat is hoopgevend’.
Zulke menselijk-ethische intuïties en standpunten wil Oimann (helpen) vrijwaren, hoewel ze het gebruik van AI principieel genegen blijft. ‘Het doel van artificiële intelligentie moet humanisering blijven. De uitgangspunten zijn zeker verdienstelijk, zoals het verkleinen van het risico voor militair personeel en het vermijden van collateral damage. Ook het kostenplaatje mag men niet uit het oog verliezen. Wie degelijk investeert in AI-gestuurde wapensystemen zou met minder middelen toch een wezenlijke bijdrage kunnen leveren aan collectieve militaire samenwerkingsverbanden, denk maar aan de NATO. Oorlogsvoering wordt de komende decennia allicht steeds meer geautomatiseerd en dat is niet meer dan logisch gelet op de evolutie van het wapentuig. Ik ben benieuwd hoe de technologische vooruitgang het geopolitieke evenwicht zou kunnen veranderen en hoe de aangekondigde (her)investeringen van de laatste weken er concreet uit zal zien.’ Militaire artificiële intelligentie is evenwel geen panacee, benadrukt Oimann. ‘Men staat vaak niet stil bij de impact van de interactie mens-machine. Zo zien we bij de invoering van geautomatiseerde technologieën vaak dat operatoren een teveel aan of te weinig vertrouwen hebben in het systeem. Zeker bij de introductie in gevoelige domeinen zoals in een militaire context, kan een overmatig vertrouwen in de capaciteit van het systeem desastreuze gevolgen hebben’, luidt het.
Stedelijke context en AI
Onbemande wapensystemen werden aanvankelijk ingezet in relatief voorspelbare omgevingen zoals in de lucht en het water, denk aan radars, luchtafweergeschut en torpedo’s, maar het actieterrein verlegt zich meer en meer naar stedelijke contexten. Dat biedt kansen, maar ook uitdagingen, volgens Oimann. ‘In een dorp of stad waar per definitie veel burgers rondlopen zijn al dan niet gewapende drones erg geschikt aangezien ze duidelijker beeldmateriaal verschaffen dan klassieke satellieten. Pluspunt voor wie ze gebruikt is ook dat ze moeilijker te zien zijn voor klassieke radar- en luchtafweersystemen omdat ze veel kleiner en diverser zijn, zelfs ondanks hun relatief lage snelheid, zeker wanneer men bovendien operaties uitvoert tegen zogenoemde niet-statelijke actoren en bij anti-terreuracties. Anderzijds zijn er problemen qua voorspelbaarheid inzake de omgeving en de mensen ter plaatse en lijkt het minder moreel aanvaardbaar om dat soort systemen te gebruiken.’ De huidige crisis in Oekraïne en met name in grote steden zoals Charkov en Kiev stellen die vraagstukken op scherp, aldus nog Oimann, die benadrukt dat de algemene problemen die we zien met artificiële intelligentie zoals bias als gevolg van onvoldoende kwaliteit of kwantiteit van data, verificatieproblemen en transparantieproblemen, zich ook in een militaire context blijven voordoen. ‘In een gewapend conflict komen daar dan nog de principes van het internationaal humanitair recht bovenop die in acht moeten worden genomen, zoals proportionaliteit en onderscheid. Zo zouden dergelijke systemen bij conflicten onder alle omstandigheden een onderscheid moeten kunnen maken tussen burgers en strijders en mag de verwachte nevenschade niet buitensporig zijn ten opzichte van het verwachte militair voordeel’, besluit Oimann.
Bart Nelissen is vrijwillig verbonden aan de UvA en expert bij Juria.be.
https://europaeum.org/programmes/scholars-programme/
- Bachelor Wijsbegeerte, optie rechten (2015-‘18)
- Master Filosofie (2018-‘19)
- ManaMa IP/IT Law (2019-‘20)
- Doctoraat over morele verantwoordelijkheid en (semi-)autonome wapensystemen (AWS) (KMS/KUL: 2020-‘24)
- Europaeum Scholar (2022-’23)
- Auteur van ‘Krijtlijnen voor een artificiële rechter’ (Tijdschrift voor Filosofie, 2021/3)
Jura abonnee?
Lees deze bijdrage rechtstreeks in Jura