Droit23 mars, 2026

L’IAG dans les cabinets d’avocats : préserver la confidentialité des données, la sécurité et la confiance

 Marco Martorana Par Marco Martorana, avocat et professeur

L’intelligence artificielle générative a fait irruption dans le paysage professionnel à une vitesse sans précédent. ChatGPT, Claude, Midjourney, et d’autres grands modèles de langage (LLM) sont désormais utilisés au quotidien, y compris dans les cabinets d’avocats, où ils promettent de transformer en profondeur la recherche juridique, la rédaction de contrats et l’analyse documentaire.

Cette transformation soulève néanmoins des interrogations à plusieurs niveaux, dont trois particulièrement importants : la protection des données personnelles et la conformité au RGPD, la fiabilité des résultats en termes d’exactitude et de réduction des biais, et la responsabilité professionnelle des avocats et juristes à l’ère de l’intelligence augmentée.

Biais, responsabilité et avenir de la réglementation

Les systèmes d’IA peuvent reproduire ou amplifier des biais préexistants, avec des conséquences potentiellement graves : discriminations dans les processus de recrutement, inégalités d’accès aux services financiers ou erreurs d’évaluation dans le domaine médical.

Pour répondre à des enjeux, la loi sur l’IA classe les systèmes en différentes catégories de risques : les solutions considérées comme à haut risque doivent respecter des exigences strictes, comme une documentation technique complète, des audits réguliers, une transparence accrue sur le fonctionnement des algorithmes et une supervision humaine renforcée. L’Article 5 interdit par ailleurs certaines pratiques jugées inacceptables, comme le recours à des systèmes de notation sociale ou l’identification biométrique en temps réel dans les espaces publics.

La question de la responsabilité demeure complexe. Lorsqu’un système d’IA génère des contenus erronés ou potentiellement dangereux, qui est responsable ? Le développeur, le distributeur ou l’utilisateur final ? La loi sur l’IA met en place un système assez détaillé : les fournisseurs de systèmes à haut-risque doivent mettre en place une politique de gestion des risques, assurer la qualité et la gouvernance des données utilisées, et maintenir une documentation technique complète à jour. Les déployeurs, quant à eux, sont tenus d’utiliser ces systèmes conformément aux instructions d’utilisation et d’assurer une supervision humaine. S’agissant des professionnels du droit, le Guide 2025 du CCBE rappelle clairement que le recours à l’IA ne les décharge en aucun cas de leurs obligations déontologiques. Ils demeurent pleinement responsables des contenus produits. Les sanctions peuvent être lourdes en cas de manquement : jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires global en cas de violation de la loi sur l’IA, auxquelles peuvent s’ajouter d’éventuelles sanctions disciplinaires et une mise en cause de leur responsabilité professionnelle.

C’est pourquoi de nombreux avocats ne font toujours pas confiance aux résultats générés par l’IA, une attitude somme toute assez raisonnable. La véritable question n’est pas de savoir s’il faut faire confiance ou non à ces outils, mais de déterminer comment vérifier leurs résultats.

Or cette vérification prend du temp. Si elle en requiert autant que de produire le travail soi-même en partant de zéro, l’intérêt de l’IA en matière de gain de temps disparait complétement. Ce cercle vicieux ne peut être rompu qu’à une condition ; bénéficier d’une formation appropriée.permettant de comprendre les lilites de ces modèles, d’évaluer la qualité des réponses et d’utiliser l’IA de manière réellement efficace et sécurisée.

Tendances de l’IA pour les cabinets d’avocats : situation actuelle et principales préoccupations

Notre dernier rapport de référence révèle que 61 % des petits cabinets d’avocats utilisent déjà des outils d’IA, principalement à des fins de recherche juridique et de gain d’efficacité. Bien que nombre d’entre eux y voient des avantages, tels qu’une meilleure productivité et une rentabilité plus élevée, des défis comme le manque de connaissances, la formation, et les problèmes de confidentialité des données subsistent.

Découvrez toutes nos conclusions
Téléchargez le Rapport de Réference

Hallucinations de l’IA : quand la technologie invente la réalité

Un autre problème majeur concerne les « hallucinations », cette tendance qu’on certains systèmes d’IA à générer des fausses informations tout en les présentant avec une assurance totale, comme si elles étaient authentiques. L’affaire Mata v. Avianca en est l’exemple emblématique : un juriste a ainsi cité de fausses jurisprudences générées par ChatGPT. Le cabinet Morgan & Morgan a quant à lui aussi cité de fausses affaires. Ce phénomène ne se limite pas aux pays anglo-saxons. En Italie, le tribunal administratif régional de Lombardie poursuit actuellement un juriste ayant utilisé dans un recours de nombreux jurisprudentiels sans aucun lien avec son dossier, des références manifestement produites par un outil d’IA générative.

Les causes de ces hallucinations sont à la fois techniques et structurelles. Les modèles de langage reposent sur des architectures probabilistes qui cherche à prédire le mot le plus probable à la suite d’un autre, sans réelle compréhension sémantique de la réalité. Si les données d’entraînement contiennent des erreurs ou des biais, le modèle les reproduit. Cette propension à deviner plutôt qu’à admettre l’incertitude est l’un des principaux moteurs des hallucinations

Protection des données : RGPD et loi européenne sur l’IA

Le premier enjeu majeur concerne la protection des données personnelles. Lorsqu’un avocat saisit dans un chatbot public comme ChatGPT des informations relatives à un dossier, une question essentielle se pose : que deviennent ces données ?
De nombreux fournisseurs exploitent les interactions utilisateurs pour améliorer ou entraîner leurs modèles. Cela signifie qu’un système pourrait potentiellement intégrer des informations confidentielles dans ses paramètres et, dans certains cas, en réutiliser des éléments pour répondre à d’autres utilisateurs.

Une telle situation exposerait les professionnels du droit à un risque direct de violation du secret professionnel, mais aussi à un manquement grave au RGPD, notamment en matière de transfert, de sécurité et de finalité des données. Les juristes doivent donc impérativement s’assurer que les outils qu’ils utilisent garantissent une isolation stricte des données et n’alimentent pas leurs modèles avec des informations sensibles.

Le cadre réglementaire repose sur trois piliers qui doivent fonctionner en harmonie. Le RGPD demeure la référenceen matière de protection des données, avec ses principes de licéité, de minimisation, de transparence, et de responsabilité. La loi européenne sur l’IA introduit une classification des systèmes par niveau de risque et, depuis le 2 août 2025, oblige les fournisseurs de modèles génératifs à documenter de façon détaillée l’architecture, les données d’entraînement et les mécanismes pour limiter les contenus illicites.

Conclusion

L’avenir de la profession juridique sera inévitablement hybride. L’intelligence artificielle excelle dans l’analyse de larges volumes de données, l’identification de schémas, la génération de premières versions préliminaires standardisées ou encore l’appui à la recherche juridique. En revanche, le jugement professionnel, l’empathie envers les clients, l’évaluation du contexte spécifique, la stratégie en matière de litiges et la responsabilité finale restent des prérogatives humaines irremplaçables. Comme le rappelle le Guide 2025 CCBE, l’IA est un outil puissant mais la responsabilité professionnelle incombe toujours et entièrement au professionnel qui l’utilise. Les cabinets qui gèrent cette transition en investissant dans la formation continue, une conformité rigoureuse et un contrôle qualité systématique éviteront non seulement les risques juridiques et de réputation mais se positionneront également comme des leaders dans un marché juridique devenu de plus en plus concurrentiel et plus technologique. Pourtant, les données de l’American Bar Association montrent une réalité préoccupante : 52 % des cabinets n’ont toujours pas de politiques interne relatives à l’IA, 64 % des juristes n’ont reçu aucune formation, et seule une minorité procède à une vérification systématiquement des résultats fournis par l’IA.

Le défi à relever est davantage culturel que technologique : un changement d’état d’esprit est nécessaire pour intégrer les compétences juridiques traditionnelles à la maîtrise du numérique et à une compréhension critique des technologies émergentes.

Il revient désormais à chaque professionnel de choisir : subir ce changement de manière passive, ou le transformer en opportunité par une démarche active, responsable et éclairée.

Découvrez Kleos Expert AI : l’IA conçue pour les juristes
icon Kleos Expert AI est conçue pour permettre aux cabinets d’avocats de travailler plus rapidement et plus intelligemment sans faire de compromis sur la sécurité, la confiance et la conformité.
Back To Top