Door advocaat en professor Marco Martorana
Generatieve artificiële intelligentie heeft zich ongekend snel een weg gebaand door het professionele landschap. ChatGPT, Claude, Midjourney en andere grote taalmodellen (LLM's) ontpopten zich tot alledaagse tools, zelfs in advocatenkantoren. Daar laten ze een nieuwe wind waaien in juridisch opzoekwerk, het opstellen van contracten en documentanalyse.
Deze transformatie brengt echter problemen mee in verschillende dimensies, waarvan er drie heel cruciaal zijn: de bescherming van persoonsgegevens en de GDPR-naleving, de betrouwbaarheid van de output wat betreft de nauwkeurigheid en het ontbreken van vooroordelen (bias), en de professionele aansprakelijkheid van advocaten in het tijdperk van augmented intelligence.
Bias, aansprakelijkheid en de toekomst van regelgeving
AI-systemen kunnen bestaande bias of vooroordelen reproduceren of in de verf zetten. Dit kan leiden tot discriminerende beslissingen in aanwervingsprocessen, toegang tot financiële diensten of medische beoordelingen. De AI-verordening tackelt dit probleem door systemen in te delen op basis van risico: systemen met een hoog risico moeten zorgen voor technische documentatie, periodieke audits, algoritmische transparantie en significant menselijk toezicht. Artikel 5 verbiedt onaanvaardbare praktijken zoals social scoring en realtime biometrische identificatie in openbare ruimten.
Pour répondre à des enjeux, la loi sur l’IA classe les systèmes en différentes catégories de risques : les solutions considérées comme à haut risque doivent respecter des exigences strictes, comme une documentation technique complète, des audits réguliers, une transparence accrue sur le fonctionnement des algorithmes et une supervision humaine renforcée. L’Article 5 interdit par ailleurs certaines pratiques jugées inacceptables, comme le recours à des systèmes de notation sociale ou l’identification biométrique en temps réel dans les espaces publics.
De kwestie van de aansprakelijkheid blijft complex. Wanneer een systeem foutieve of schadelijke inhoud creëert, wie is dan aansprakelijk? De ontwikkelaar, de verdeler of de eindgebruiker? De AI-verordening introduceert een nogal gedetailleerd systeem: leveranciers van risicovolle systemen moeten risicobeheer uitrollen, de kwaliteit van de data waarborgen en gedetailleerde documentatie bijhouden. De mensen die de systemen uitrollen, zijn verplicht die types te gebruiken die inspelen op de instructies en staan in voor menselijk toezicht. Voor advocaten verduidelijkt de CCBE Guide van 2025 dat het gebruik van AI hen niet vrijstelt van hun ethische verplichtingen: advocaten blijven volledig verantwoordelijk voor de geproduceerde inhoud en de boetes kunnen streng zijn, tot € 35 miljoen of 7% van de wereldwijde omzet voor schendingen van de AI-verordening, naast disciplinaire sancties en beroepsaansprakelijkheid.
Om deze redenen hebben veel advocaten nog steeds geen vertrouwen in AI-gegenereerde resultaten, wat ook begrijpelijk is. De vraag is niet of je vertrouwen moet hebben of niet, maar hoe dit na te gaan. Het probleem is dat het nagaan tijd kost, en als dit net zoveel tijd kost als het werk helemaal overdoen, verdwijnt het voordeel van AI als sneeuw voor de zon. Deze vicieuze
AI-trends voor advocatenkantoren: Huidige stand van zaken en belangrijkste aandachtspunten
Uit ons laatste Benchmark-rapport blijkt dat 61% van de kleine advocatenkantoren al AI-tools gebruikt, vooral voor juridisch opzoekwerk en om efficiënter te werken. Hoewel veel bedrijven voordelen zien zoals een hogere productiviteit en winstgevendheid, blijven er uitdagingen bestaan zoals een gebrek aan kennis, opleiding en bezorgdheid over de dataprivacy.