Menselijk toezicht, AI-geletterdheid, vertrouwelijkheid en kwaliteit. Het zijn allemaal zaken die zowel de Europese AI Act als de de Orde van Vlaamse Balies (OVB) en de Ordre des Barreaux Francophones et Germanophone de Belgique (OBFG) gebruiken als toetssteen bij het gebruik van AI in de juridische sector. De AI Act hanteert in zijn verplichtingen een risicogebaseerde benadering, de OVB en de OBFG vullen de verwachtingen concreter in voor de advocatuur. Niet‑conform gebruik kan juridische en deontologische gevolgen hebben, afhankelijk van de concrete toepassing en context.
Hoe combineer je als juridische professional innovatie met strikte compliance? Dit artikel licht de Europese regelgeving en de Belgische richtlijnen toe en toont hoe een doordachte keuze van technologiepartners daarbij het verschil maakt.
Wat houdt AI-compliance voor advocaten in?
Welke verplichtingen legt de AI Act aan advocaten op?
De Europese regelgeving vertrekt vanuit een risicogebaseerde benadering: hoe groter het risico van de toepassing, hoe strenger de eisen. De meest voorkomende basisvereisten zijn:
- AI-geletterdheid: medewerkers kennen de werking, beperkingen en risico’s
- Transparantie waar relevant: duidelijk communiceren dat AI wordt ingezet
- Verantwoord gebruik: handelen conform de instructies van de aanbieder
Wordt een systeem als hoog risico aangemerkt, bijvoorbeeld wegens aanzienlijke impact op fundamentele rechten, dan gelden bijkomende verplichtingen zoals risicobeheer, datakwaliteitscontrole, technische documentatie, logging en incidentrapportage. Menselijk toezicht blijft daarbij centraal: AI kan het juridisch oordeel ondersteunen, maar nooit autonoom vervangen.
Welke AI-verplichtingen leggen de OVB en OBFG op aan advocaten?
De Orde van Vlaamse Balies en de Ordre des Barreaux Francophones et Germanophone de Belgique leggen geen formele verplichtingen op, maar formuleren duidelijke richtlijnen voor verantwoord AI-gebruik. De kernboodschap is duidelijk: AI kan een waardevol hulpmiddel zijn, op voorwaarde dat het gebruik ervan verenigbaar blijft met de fundamentele beroepsregels. Daarbij staan onder meer onafhankelijkheid, partijdigheid, deskundigheid, integriteit en vertrouwelijkheid centraal. De advocaat blijft in alle omstandigheden eindverantwoordelijk voor het geleverde advies en de bescherming van cliëntbelangen.
In de praktijk geven de Belgische balies advocaten het volgend advies:
- Investeren in kennis en praktijkervaring met GenAI
- AI-output kritisch verifiëren en werken met herleidbare bronnen
- Zich informeren over de waarborgen rond kwaliteit, veiligheid en datagebruik bij leveranciers
- Het beroepsgeheim respecteren en zorgvuldig omgaan met vertrouwelijke gegevens
- Datastromen kennen en beheersen
- AI uitsluitend ondersteunend inzetten
- Ervoor zorgen dat het gebruik van AI geen afbreuk doet aan de kwaliteit, zorgvuldigheid en onafhankelijkheid van het advies
- Eindverantwoordelijk blijven voor hun advies en de behartiging van cliëntbelangen
In tegenstelling tot Nederland is er in België voorlopig geen centraal toezichtskader specifiek voor AI-gebruik binnen de balie. De bestaande deontologische regels blijven echter onverkort van toepassing, ook wanneer AI wordt ingezet. Dat betekent dat fouten of tekortkomingen in AI-gebruik onder de professionele verantwoordelijkheid van de advocaat vallen, met tuchtrechtelijke sancties of aansprakelijkheidsrisico’s tot gevolg.
Hoe kan je AI compliant zijn als advocaat?
Volledige compliance bij het gebruik van snel evoluerende technologie is geen evidentie. Een zorgvuldige keuze van tools en leveranciers is daarom essentieel. Oplossingen die ontwikkeld zijn volgens privacy-by-design, werken met transparante bronvermelding en steunen op gevalideerde vakinformatie, maken compliance eenvoudiger en beter verdedigbaar. Die principes vormen ook de basis van de AI-oplossingen van Wolters Kluwer.
1. Privacy-by-design
Veiligheid en privacy staan sinds het begin centraal bij de ontwikkeling van de AI-oplossingen van Wolters Kluwer. Oplossingen zoals Libra in InView Legal draaien in Europese datacenters onder GDPR-regime.
“Gegevens worden versleuteld opgeslagen, toegangsrechten zijn zorgvuldig ingericht en we volgen het principe van ‘least privilege access’: gebruikers krijgen alleen toegang tot wat ze nodig hebben”, zegt Ronald Nakken, Manager Product Operations bij Wolters Kluwer Legal & Regulatory Benelux. Gebruikersdata worden daarnaast ook niet gebruikt voor modeltraining.
2. Herleidbare bronnen
De Expert AI-oplossingen van Wolters Kluwer werken in een gesloten ecosysteem met uitsluitend gevalideerde content. Elk antwoord is herleidbaar tot een concreet wetsartikel, arrest of doctrine, met duidelijke bronvermelding. Dat vergemakkelijkt verificatie en versterkt het menselijk toezicht.
“Voor juristen en fiscalisten ligt de lat anders. Hun advies moet altijd herleidbaar zijn tot een betrouwbare bron,” stelt Kim Luyten, Associate Director bij Wolters Kluwer Product Management Benelux. “Daarom is elk antwoord in de conversational search onderbouwd met transparante bronverwijzing. Zo beperken we het risico op hallucinaties of foutieve informatie zonder herkomst.”
3. Kwalitatieve en gezaghebbende content
Wat de AI-oplossingen van Wolters Kluwer onderscheidt van generieke AI-tools, is de onderliggende databank van gezaghebbende content. Die vakinformatie is niet vrij beschikbaar op het web en geldt al jaren als vaste referentie binnen de juridische sector. Dat geeft de AI-output een duidelijk kwaliteitslabel.
“De combinatie van nieuwe technologie en een enorme hoeveelheid gevalideerde vakcontent, is onze grootste kracht. Die inhoud is door de jaren heen opgebouwd, redactioneel bewaakt en gedragen door expertauteurs. Dat zorgt ervoor dat AI-antwoorden niet alleen snel, maar ook juridisch onderbouwd en betrouwbaar zijn”, zegt Peter Immink, VP Publishing & Operations Benelux.
Compliance is niet optioneel
AI biedt onmiskenbaar efficiëntiewinst, maar brengt ook nieuwe verantwoordelijkheden mee. Menselijk toezicht, transparantie, deskundigheid en vertrouwelijkheid blijven het uitgangspunt. AI kan ondersteunen, maar de advocaat blijft eindverantwoordelijk voor de kwaliteit en rechtmatigheid van het advies.
Wie vandaag inzet op AI, beschouwt compliance dan ook niet als bijkomende verplichting, maar als inherent. Met een doordacht AI-beleid, voldoende interne expertise en de keuze voor betrouwbare oplossingen kan innovatie hand in hand gaan met rechtszekerheid.
Veelgestelde vragen over AI-compliance voor advocaten
Wat houdt de AI Act in voor advocaten in België?
De AI Act verplicht advocaten in België om AI transparant, gecontroleerd en verantwoord te gebruiken. Dit betekent dat je moet begrijpen hoe AI werkt (AI-geletterdheid), duidelijk moet communiceren wanneer AI wordt ingezet en moet zorgen voor menselijk toezicht. Bij hoog-risico toepassingen gelden bijkomende verplichtingen zoals datakwaliteitscontrole en risicobeheer.
Mag je als advocaat AI gebruiken volgens de Belgische balies?
Ja, AI gebruiken als advocaat is toegestaan, zolang het voldoet aan de deontologische regels. De OVB en OBFG benadrukken dat AI enkel ondersteunend mag worden ingezet en dat kernwaarden zoals vertrouwelijkheid, onafhankelijkheid en zorgvuldigheid altijd gerespecteerd moeten worden.
Hoe kan je AI compliant gebruiken in de juridische sector?
AI compliant gebruiken betekent dat je werkt met betrouwbare tools, output controleert en data beschermt. Concreet houdt dit in:
- AI-resultaten verifiëren met juridische bronnen
- Tools kiezen met transparante bronvermelding
- Vertrouwelijke informatie beschermen
- Begrijpen hoe de AI werkt en wat de beperkingen zijn
Wat zijn de belangrijkste risico’s van AI voor advocaten?
De grootste risico’s van AI in de advocatuur zijn fouten, gebrek aan transparantie en schending van vertrouwelijkheid. AI kan overtuigend klinkende maar foutieve antwoorden geven (hallucinaties), of werken met onduidelijke bronnen. Zonder controle kunnen deze fouten juridische gevolgen hebben.
Wie is verantwoordelijk voor AI-gebruik in een advocatenkantoor?
De advocaat blijft altijd eindverantwoordelijk voor het gebruik van AI en de output ervan. AI heeft geen juridisch statuut en kan geen aansprakelijkheid dragen. Fouten in AI-gebruik vallen dus onder de professionele verantwoordelijkheid van de advocaat.
Hoe kies je een veilige en compliant AI-tool voor advocaten?
Een veilige AI-tool voor advocaten werkt met gevalideerde juridische content en respecteert privacyregels. Let op:
- Privacy-by-design en GDPR-conformiteit
- Geen gebruik van data voor modeltraining
- Gesloten en beveiligde omgeving
- Transparante en herleidbare bronnen
Oplossingen zoals die van Wolters Kluwer zijn specifiek ontwikkeld met deze vereisten in gedachten.