Juridisch23 maart, 2026

GenAI in advocatenkantoren: Dataprivacy, beveiliging en vertrouwen behouden

 Marco Martorana Door advocaat en professor Marco Martorana

Generatieve artificiële intelligentie heeft zich ongekend snel een weg gebaand door het professionele landschap. ChatGPT, Claude, Midjourney en andere grote taalmodellen (LLM's) ontpopten zich tot alledaagse tools, zelfs in advocatenkantoren. Daar laten ze een nieuwe wind waaien in juridisch opzoekwerk, het opstellen van contracten en documentanalyse.

Deze transformatie brengt echter problemen mee in verschillende dimensies, waarvan er drie heel cruciaal zijn: de bescherming van persoonsgegevens en de GDPR-naleving, de betrouwbaarheid van de output wat betreft de nauwkeurigheid en het ontbreken van vooroordelen (bias), en de professionele aansprakelijkheid van advocaten in het tijdperk van augmented intelligence.

Bias, aansprakelijkheid en de toekomst van regelgeving

AI-systemen kunnen bestaande bias of vooroordelen reproduceren of in de verf zetten. Dit kan leiden tot discriminerende beslissingen in aanwervingsprocessen, toegang tot financiële diensten of medische beoordelingen. De AI-verordening tackelt dit probleem door systemen in te delen op basis van risico: systemen met een hoog risico moeten zorgen voor technische documentatie, periodieke audits, algoritmische transparantie en significant menselijk toezicht. Artikel 5 verbiedt onaanvaardbare praktijken zoals social scoring en realtime biometrische identificatie in openbare ruimten.

Pour répondre à des enjeux, la loi sur l’IA classe les systèmes en différentes catégories de risques : les solutions considérées comme à haut risque doivent respecter des exigences strictes, comme une documentation technique complète, des audits réguliers, une transparence accrue sur le fonctionnement des algorithmes et une supervision humaine renforcée. L’Article 5 interdit par ailleurs certaines pratiques jugées inacceptables, comme le recours à des systèmes de notation sociale ou l’identification biométrique en temps réel dans les espaces publics.

De kwestie van de aansprakelijkheid blijft complex. Wanneer een systeem foutieve of schadelijke inhoud creëert, wie is dan aansprakelijk? De ontwikkelaar, de verdeler of de eindgebruiker? De AI-verordening introduceert een nogal gedetailleerd systeem: leveranciers van risicovolle systemen moeten risicobeheer uitrollen, de kwaliteit van de data waarborgen en gedetailleerde documentatie bijhouden. De mensen die de systemen uitrollen, zijn verplicht die types te gebruiken die inspelen op de instructies en staan in voor menselijk toezicht. Voor advocaten verduidelijkt de CCBE Guide van 2025 dat het gebruik van AI hen niet vrijstelt van hun ethische verplichtingen: advocaten blijven volledig verantwoordelijk voor de geproduceerde inhoud en de boetes kunnen streng zijn, tot € 35 miljoen of 7% van de wereldwijde omzet voor schendingen van de AI-verordening, naast disciplinaire sancties en beroepsaansprakelijkheid.

Om deze redenen hebben veel advocaten nog steeds geen vertrouwen in AI-gegenereerde resultaten, wat ook begrijpelijk is. De vraag is niet of je vertrouwen moet hebben of niet, maar hoe dit na te gaan. Het probleem is dat het nagaan tijd kost, en als dit net zoveel tijd kost als het werk helemaal overdoen, verdwijnt het voordeel van AI als sneeuw voor de zon. Deze vicieuze

AI-trends voor advocatenkantoren: Huidige stand van zaken en belangrijkste aandachtspunten

Uit ons laatste Benchmark-rapport blijkt dat 61% van de kleine advocatenkantoren al AI-tools gebruikt, vooral voor juridisch opzoekwerk en om efficiënter te werken. Hoewel veel bedrijven voordelen zien zoals een hogere productiviteit en winstgevendheid, blijven er uitdagingen bestaan zoals een gebrek aan kennis, opleiding en bezorgdheid over de dataprivacy.

Bekijk alle inzichten
Download het Benchmark-rapport

AI-hallucinaties: Wanneer technologie een realiteit verzint

Een andere heikele kwestie zijn de “hallucinaties”, de neiging van AI-systemen om valse informatie te genereren die vol vertrouwen wordt voorgesteld alsof ze waar is. In de rechtszaak Mata tegen Avianca haalde een advocaat niet-bestaande precedenten aan van ChatGPT, en de firma Morgan & Morgan haalde valse rechtszaken aan. Dit fenomeen doet zich uiteraard niet alleen elders voor: ook in Italië loopt bij de Regionale Administratieve Rechtbank van Lombardije een procedure tegen een advocaat die op grote schaal justitieel materiaal gebruikte dat volledig los stond van de rechtszaak.

De oorzaken van deze hallucinaties zijn technisch en structureel. Taalmodellen vertrouwen op probabilistische architecturen die het meest waarschijnlijke volgende woord voorspellen zonder de werkelijkheid semantisch te begrijpen. Als je trainingsgegevens fouten of vertekeningen bevatten, zal het model hierop verder breien. Bovendien werden de systemen ontworpen om altijd een coherente output te leveren: als ze bepaalde informatie missen, zijn ze geneigd om te gissen in plaats van toe te geven dat ze het niet weten.

Gegevensbescherming: de GDPR en de AI-verordening

Het eerste kritieke punt is de bescherming van persoonsgegevens. Wanneer een advocaat informatie over een rechtszaak invoert in een publieke chatbot zoals ChatGPT, wat gebeurt er dan met die gegevens? Veel aanbieders bedienen zich van gebruikersinteracties om hun modellen te trainen. Dit betekent dat vertrouwelijke informatie mogelijk door het systeem wordt geleerd en weer opduikt als reactie op zoekopdrachten van andere gebruikers. Zo worden zowel het beroepsgeheim als de GDPR geschonden.

Het regelgevend kader is gestoeld op drie pijlers die harmonieus moeten samenwerken. De GDPR blijft het fundament van de gegevensbescherming, met zijn principes van rechtmatigheid, beperking, transparantie en verantwoordingsplicht. De Europese AI-verordening introduceert een classificatie van systemen op basis van risiconiveau en verplicht leveranciers van generatieve modellen vanaf 2 augustus 2025om de architectuur, trainingsgegevens en mechanismen om illegale inhoud te beperken gedetailleerd te documenteren.

Conclusie

De advocatuur wordt hybride. AI is sterk in grootschalige data‑analyse, patroonherkenning, gestandaardiseerde concepten en juridische research. Maar professioneel oordeel, cliëntempathie, contextbeoordeling, processtrategie en eindverantwoordelijkheid blijven menselijk. De CCBE (2025) herhaalt: AI is een krachtig hulpmiddel, de professionele verantwoordelijkheid blijft volledig bij de advocaat.

Kantoren die inzetten op voortdurende scholing, strikte compliance en systematische kwaliteitscontrole vermijden juridische en reputatierisico’s én profileren zich als koplopers in een concurrerende, technologisch gedreven markt. Cijfers van de American Bar Association laten zien dat 52% nog geen AI‑beleid heeft, 64% geen training kreeg en slechts een minderheid systematisch verifieert.

De grootste uitdaging is cultureel: een mindset‑shift die klassiek juridisch vakmanschap verbindt met digitale geletterdheid en kritisch technologisch inzicht. De keuze is aan ons: ondergaan of regisseren.

Ontdek Kleos Expert AI, ontwikkeld voor advocaten
iconKleos Expert AI helpt advocatenkantoren slimmer en sneller te werken met veiligheid, vertrouwen en compliance als randvoorwaarde.
Back To Top