Legal28 april, 2026

Wie is verantwoordelijk voor fouten bij AI-gebruik in de advocatuur?

De advocaat blijft altijd de eindverantwoordelijkheid dragen voor geleverd werk, ook wanneer AI wordt gebruikt. Dat bevestigen onder meer de Orde van Vlaamse Balies (OVB) en de Ordre des barreaux francophones et germanophone de Belgique (OBFG) die begin 2025 deontologische aanbevelingen publiceerden over het gebruik van AI in de advocatuur. Het standpunt is helder: AI verandert niets aan de professionele standaard. De verantwoordelijkheid blijft volledig bij de jurist en vereist dus verhoogde waakzaamheid.  

Maar stel dat een advocaat, met ondersteuning van AI, toch een fout maakt in een advies of pleidooi. Wat is dan de werkelijke kost van zo’n fout? En wie draait ervoor op?
  

De kost van een fout: wat verandert er écht met AI?  

Beroepsfouten zijn zelden de bedoeling, maar ook in de juridische praktijk niet volledig uit te sluiten. Een nuance in rechtspraak die over het hoofd wordt gezien, een clausule die anders wordt geïnterpreteerd, een redenering die achteraf niet standhoudt, … Als jurist doe je er alles aan om ze te vermijden, maar ze blijven inherent aan de complexiteit van het vak.  

Met de opkomst van AI krijgt dat risico een nieuwe dimensie. Want als een AI-tool een overtuigend antwoord aanreikt dat achteraf fout blijkt, rijst een fundamentele vraag: wie staat ervoor in?  

AI-fouten ontstaan vaak net daar waar het juridisch spannend wordt: bij uitzonderingen, nieuwe ontwikkelingen in wetgeving en rechtspraak, en wanneer bronnen elkaar tegenspreken. Voor juridische professionals vormen deze grenssituaties vaak al uitdagend terrein, en voor AI des te moeilijker om de nuance correct te vatten.

Het grootste risico bij AI-fouten schuilt in hoe ze zich vastzetten in dossiers. Wat overtuigend klinkt, kan ongemerkt doorwerken in advies en besluitvorming, zonder dat het meteen wordt opgemerkt.

Wat zeggen de Belgische balies over AI en verantwoordelijkheid?  

In januari 2025 publiceerden de Orde van Vlaamse Balies (OVB) en de Ordre des barreaux francophones et germanophone de Belgique (OBFG) deontologische aanbevelingen en krijtlijnen voor het gebruik van AI in de advocatuur. Daarin wordt expliciet bevestigd dat de advocaat eindverantwoordelijk blijft voor de output van AI die hij gebruikt. AI verlaagt de professionele standaard niet: het is een hulpmiddel, geen vervanging van juridisch oordeel, en alle aansprakelijkheidsprincipes blijven onverkort gelden. 

Diezelfde lijn zien we ook terug in andere Europese aanbevelingen. Zo publiceerde ook de Nederlandse Orde van Advocaten (NOvA) eind 2025 richtlijnen over het gebruik van AI in de advocatuur, vertrekkend vanuit de klassieke kernwaarden zoals onafhankelijkheid, vertrouwelijkheid, partijdigheid, deskundigheid en integriteit. De rode draad is dat de advocaat ook daar altijd volledig eindverantwoordelijk blijft voor het geleverde juridisch advies.  

Een AI-antwoord is nog geen juridisch advies   

Concreet houdt dit in dat AI-output kritisch wordt gecontroleerd, wordt herleid tot betrouwbare bronnen en inhoudelijk wordt getoetst vóór opname in een advies of processtuk. Ook het gebruik van AI zelf vraagt om bewuste keuzes: welke tool gebruik je als jurist, onder welke voorwaarden, en met welke impact op vertrouwelijkheid en persoonsgegevens?  

Zoals ICT- en AI-expert Arnoud Engelfriet het scherp stelt: juridisch advies is geen rekensom die je kan uitbesteden aan een AI-tool. Het oplossen van een juridisch vraagstuk, draait om mental proof: het kunnen verantwoorden van een redenering, ook wanneer die onder druk komt te staan.  

Precies daar ligt de rol van de juridische professional: niet in het reproduceren van een antwoord, maar in het kritisch toetsen ervan. En net daarom verandert er niets aan de essentie: de advocaat draagt het juridisch gezag en blijft eindverantwoordelijk voor de juridische onderbouwing van zijn advies of pleidooi, en dus ook voor de fouten die daarin sluipen. Of die nu voortkomen uit eigen analyse of via AI.   

AI-geletterdheid is een must voor de juridische professional. Advocaten moeten begrijpen hoe de technologie werkt én waar de grenzen liggen.

Bronkwaliteit met stip op één

Wie AI gebruikt, kan zich geen twijfel over de bron veroorloven. De content waarop een AI-model zich baseert, is vandaag dan ook belangrijker dan ooit.   

Werkt een AI-tool uitsluitend met betrouwbare, redactioneel gevalideerde vakinformatie binnen een afgebakend domein, dan wordt de kans op foutieve interpretaties kleiner en het risico op sluimerende fouten beperkt. Dat vertaalt zich in een AI-toepassing die consistent en voorspelbaar werkt, en juridische vragen meteen in de juiste context plaatst, gebaseerd op rechtspraak, wetgeving en gezaghebbende vakliteratuur. Goed voor een beter onderbouwd onderzoek én meer grip op het professioneel risico.  

De combinatie van betrouwbare bronnen en AI biedt juristen dus houvast en gemoedsrust, precies omdat de kwaliteit van de output verankerd ligt in een sterke en gecontroleerde contentbasis. Want waar het fundament klopt, volgt de kwaliteit vanzelf.  

Veelgestelde vragen over AI en beroepsaansprakelijkheid

Wie is aansprakelijk als AI een fout maakt in een juridisch advies?  

De advocaat blijft in principe aansprakelijk, ook wanneer AI wordt gebruikt. AI heeft geen rechtspersoonlijkheid en kan geen verantwoordelijkheid dragen. De jurist die het advies opstelt en gebruikt, blijft juridisch verantwoordelijk voor de inhoud en eventuele fouten.  

Verhoogt AI het risico op beroepsfouten?  

AI kan nieuwe risico’s introduceren, maar ook helpen om fouten te verminderen. Het risico ligt vooral in blind vertrouwen op AI-output. Correct gebruikt, en gebaseerd op betrouwbare bronnen, kan AI bijdragen aan beter onderbouwde analyses en snellere detectie van relevante informatie.  

Hoe kan je AI-fouten in juridische dossiers vermijden?  

Door AI-output altijd kritisch te controleren en te toetsen aan betrouwbare bronnen. Combineer AI met eigen juridische analyse en gebruik tools die transparant zijn over hun bronmateriaal.  

Is AI-gebruik toegestaan volgens de deontologie van advocaten?  

Ja, maar onder strikte voorwaarden. Professionele AI-tools kunnen als hulpmiddel worden ingezet, op voorwaarde dat de advocaat bewust omgaat met de bronkeuze, de output kritisch beoordeelt en de controle behoudt over het eindresultaat. Het gebruik van duidelijke, afgebakende en redactioneel gevalideerde bronnen helpt om risico’s rond betrouwbaarheid en compliance beheersbaar te houden, zonder afbreuk te doen aan de professionele verantwoordelijkheid.  

Wat is AI-geletterdheid voor juristen?

AI-geletterdheid betekent dat juristen begrijpen hoe AI werkt, wat de beperkingen zijn en hoe ze de output correct interpreteren. Dit wordt steeds belangrijker om AI verantwoord en effectief in te zetten in de praktijk.  

Waarom blijft menselijke controle noodzakelijk bij AI?  

Omdat AI geen juridisch oordeel kan vormen en geen verantwoordelijkheid draagt. Alleen een jurist kan de juiste interpretatie maken, nuances begrijpen en de redenering verdedigen.  

Conclusie: verandert AI de verantwoordelijkheid van de advocaat?  

Nee, AI verandert de tools, maar niet de verantwoordelijkheid. De advocaat blijft eindverantwoordelijk voor elk advies, ongeacht of AI werd gebruikt.  

Wat wel verandert, is de manier waarop risico’s zich manifesteren.  

Daarom ligt de sleutel in:

  • Kritisch gebruik van AI 
  • Begrip van de technologie 
  • Werken met betrouwbare bronnen  

In een AI-gedreven praktijk blijft één principe overeind: juridisch gezag ligt bij de mens, niet bij de technologie.

Back To Top