Legal23 maart, 2026

GenAI in advocatenkantoren: Dataprivacy, beveiliging en vertrouwen behouden

 Marco Martorana Door advocaat en professor Marco Martorana

Generatieve artificiële intelligentie heeft zich ongezien snel een weg gebaand door het professionele landschap. ChatGPT, Claude, Midjourney en andere grote taalmodellen (LLM’s) zijn intussen alledaagse tools, ook in advocatenkantoren, met de belofte juridische research, contractopmaak en documentanalyse te versnellen en te verbeteren.

Die verschuiving roept vragen op in drie cruciale domeinen: bescherming van persoonsgegevens en GDPR‑naleving, betrouwbaarheid van de output (nauwkeurigheid en bias), en professionele verantwoordelijkheid van advocaten in het tijdperk van augmented intelligence.

Bias, aansprakelijkheid en de toekomst van regelgeving

 

AI‑systemen kunnen bestaande vooroordelen of bias reproduceren of versterken, met risico op discriminerende uitkomsten (bv. bij aanwerving, toegang tot financiële diensten of medische evaluaties). De AI‑verordening (AI Act) pakt dit aan via risicoclassificatie. Voor hoogrisicosystemen gelden vereisten rond technische documentatie, periodieke audits, algoritmische transparantie en significant menselijk toezicht. Artikel 5 verbiedt onaanvaardbare praktijken, zoals social scoring en realtime biometrische identificatie in openbare ruimten.

De aansprakelijkheidsvraag blijft complex. Wie is verantwoordelijk bij foutieve of schadelijke AI‑inhoud: de ontwikkelaar, distributeur of eindgebruiker? De AI‑verordening werkt met duidelijke rolverdeling: providers van hoogrisicosystemen moeten risico’s beheren, datakwaliteit borgen en gedetailleerde documentatie bijhouden. Implementerende partijen (deployers) moeten systemen gebruiken volgens de instructies en zorgen voor adequaat menselijk toezicht. Voor advocaten herhaalt de CCBE‑gids (2025) dat AI het ethisch en deontologisch kader niet opheft: de advocaat blijft volledig verantwoordelijk voor de inhoud die hij/zij indient. De sancties bij inbreuken op de AI‑verordening kunnen zwaar zijn (tot € 35 miljoen of 7% van de wereldwijde omzet), bovenop disciplinaire maatregelen en beroepsaansprakelijkheid.

Om deze redenen hebben veel advocaten nog steeds geen vertrouwen in AI-gegenereerde resultaten, wat ook begrijpelijk is. De vraag is niet of je vertrouwen moet hebben of niet, maar hoe dit na te gaan. Het probleem is dat het nagaan tijd kost, en als dit net zoveel tijd kost als het werk helemaal overdoen, verdwijnt het voordeel van AI als sneeuw voor de zon. Deze vicieuze cirkel kun je alleen doorbreken met de juiste training.

AI-trends voor advocatenkantoren: Huidige stand van zaken en belangrijkste aandachtspunten

Uit ons laatste Benchmark-rapport blijkt dat 61% van de kleine advocatenkantoren al AI-tools gebruikt, vooral voor juridisch opzoekwerk en om efficiënter te werken. Hoewel veel bedrijven voordelen zien zoals een hogere productiviteit en winstgevendheid, blijven er uitdagingen bestaan zoals een gebrek aan kennis, opleiding en bezorgdheid over de dataprivacy.

Bekijk alle inzichten
Download het Benchmark-rapport

AI-hallucinaties: Wanneer technologie een realiteit verzint

Een ander kritisch punt zijn de zogeheten AI‑hallucinaties: systemen genereren niet‑kloppende informatie en presenteren die met grote stelligheid. In Mata v. Avianca citeerde een advocaat niet‑bestaande rechtspraak afkomstig van ChatGPT; ook het kantoor Morgan & Morgan verwees naar valse zaken. Het fenomeen beperkt zich niet tot de VS: in Italië loopt bij de Regionale Administratieve Rechtbank van Lombardije een procedure tegen een advocaat die uitgebreid irrelevante rechtspraak indiende.

De oorzaken zijn technisch en structureel. LLM’s voorspellen het waarschijnlijkste volgende woord, zonder semantisch begrip van de werkelijkheid. Als de trainingsdata fouten of bias bevatten, verspreidt het model die. Omdat modellen ontworpen zijn om coherente output te geven, raden ze liever dan onwetendheid toe te geven.

Gegevensbescherming: de GDPR en de AI-verordening

Kritiek punt één: bescherming van persoonsgegevens. Wat gebeurt er met dossierinfo die in een publieke chatbot (zoals ChatGPT) wordt ingevoerd? Veel aanbieders gebruiken interacties om modellen verder te trainen. Gevoelige informatie kan zo geleerd worden door het systeem en opduiken bij andere gebruikers met risico’s voor beroepsgeheim en GDPR‑naleving.

Het regelgevend kader steunt op drie pijlers die in harmonie moeten werken. GDPR blijft het fundament, met principes van rechtmatigheid, dataminimalisatie, transparantie en verantwoordingsplicht. De Europese AI‑verordening introduceert risicoklassen en verplicht vanaf 2 augustus 2025 providers van generatieve modellen om architectuur, trainingsdata en mechanismen om illegale inhoud te beperken gedetailleerd te documenteren.

Conclusie

De toekomst van de advocatuur wordt onvermijdelijk hybride. AI blinkt uit in grootschalige data‑analyse, patroonherkenning, gestandaardiseerde drafts en juridische research. Maar professioneel beoordelingsvermogen, cliëntenempathie, contextbeoordeling, strategie in geschillenbeslechting en eindverantwoordelijkheid blijven menselijk. Zoals de CCBE (2025) benadrukt: AI is een krachtig hulpmiddel, maar de verantwoordelijkheid blijft bij de advocaat.

Kantoren die investeren in continue training, strikte compliance en systematische kwaliteitscontrole vermijden niet alleen juridische en reputatierisico’s; ze positioneren zich als leiders in een steeds competitievere en technologisch geavanceerde markt. Intussen tonen cijfers van de American Bar Association dat 52% van de kantoren nog geen AI‑beleid heeft, 64% van de advocaten geen opleiding kreeg en slechts een minderheid systematisch verifieert.

De echte uitdaging is cultureel: we hebben een mindset‑shift nodig die klassieke juridische vaardigheden verbindt met digitale geletterdheid en kritisch begrip van opkomende technologieën. De keuze is aan ons: passief ondergaan of met professioneel bewustzijn sturen.

Ontdek Kleos Expert AI, ontwikkeld voor advocaten
iconKleos Expert AI helpt advocatenkantoren slimmer en sneller werken, zónder in te boeten aan beveiliging, vertrouwen en compliance.
Back To Top