Door advocaat en professor Marco Martorana
Generatieve artificiële intelligentie heeft zich ongezien snel een weg gebaand door het professionele landschap. ChatGPT, Claude, Midjourney en andere grote taalmodellen (LLM’s) zijn intussen alledaagse tools, ook in advocatenkantoren, met de belofte juridische research, contractopmaak en documentanalyse te versnellen en te verbeteren.
Die verschuiving roept vragen op in drie cruciale domeinen: bescherming van persoonsgegevens en GDPR‑naleving, betrouwbaarheid van de output (nauwkeurigheid en bias), en professionele verantwoordelijkheid van advocaten in het tijdperk van augmented intelligence.
Bias, aansprakelijkheid en de toekomst van regelgeving
AI‑systemen kunnen bestaande vooroordelen of bias reproduceren of versterken, met risico op discriminerende uitkomsten (bv. bij aanwerving, toegang tot financiële diensten of medische evaluaties). De AI‑verordening (AI Act) pakt dit aan via risicoclassificatie. Voor hoogrisicosystemen gelden vereisten rond technische documentatie, periodieke audits, algoritmische transparantie en significant menselijk toezicht. Artikel 5 verbiedt onaanvaardbare praktijken, zoals social scoring en realtime biometrische identificatie in openbare ruimten.
De aansprakelijkheidsvraag blijft complex. Wie is verantwoordelijk bij foutieve of schadelijke AI‑inhoud: de ontwikkelaar, distributeur of eindgebruiker? De AI‑verordening werkt met duidelijke rolverdeling: providers van hoogrisicosystemen moeten risico’s beheren, datakwaliteit borgen en gedetailleerde documentatie bijhouden. Implementerende partijen (deployers) moeten systemen gebruiken volgens de instructies en zorgen voor adequaat menselijk toezicht. Voor advocaten herhaalt de CCBE‑gids (2025) dat AI het ethisch en deontologisch kader niet opheft: de advocaat blijft volledig verantwoordelijk voor de inhoud die hij/zij indient. De sancties bij inbreuken op de AI‑verordening kunnen zwaar zijn (tot € 35 miljoen of 7% van de wereldwijde omzet), bovenop disciplinaire maatregelen en beroepsaansprakelijkheid.
Om deze redenen hebben veel advocaten nog steeds geen vertrouwen in AI-gegenereerde resultaten, wat ook begrijpelijk is. De vraag is niet of je vertrouwen moet hebben of niet, maar hoe dit na te gaan. Het probleem is dat het nagaan tijd kost, en als dit net zoveel tijd kost als het werk helemaal overdoen, verdwijnt het voordeel van AI als sneeuw voor de zon. Deze vicieuze cirkel kun je alleen doorbreken met de juiste training.
AI-trends voor advocatenkantoren: Huidige stand van zaken en belangrijkste aandachtspunten
Uit ons laatste Benchmark-rapport blijkt dat 61% van de kleine advocatenkantoren al AI-tools gebruikt, vooral voor juridisch opzoekwerk en om efficiënter te werken. Hoewel veel bedrijven voordelen zien zoals een hogere productiviteit en winstgevendheid, blijven er uitdagingen bestaan zoals een gebrek aan kennis, opleiding en bezorgdheid over de dataprivacy.