Par Marco Martorana, avocat et professeur
L’intelligence artificielle générative a fait irruption dans le paysage professionnel à une vitesse sans précédent. ChatGPT, Claude, Midjourney, et d’autres grands modèles de langage (LLM) sont désormais utilisés au quotidien, y compris dans les cabinets d’avocats, où ils promettent de transformer en profondeur la recherche juridique, la rédaction de contrats et l’analyse documentaire.
Cette transformation soulève néanmoins des interrogations à plusieurs niveaux, dont trois particulièrement importants : la protection des données personnelles et la conformité au RGPD, la fiabilité des résultats en termes d’exactitude et de réduction des biais, et la responsabilité professionnelle des avocats et juristes à l’ère de l’intelligence augmentée.
Biais, responsabilité et avenir de la réglementation
Les systèmes d’IA peuvent reproduire ou amplifier des biais préexistants, avec des conséquences potentiellement graves : discriminations dans les processus de recrutement, inégalités d’accès aux services financiers ou erreurs d’évaluation dans le domaine médical.
Pour répondre à des enjeux, la loi sur l’IA classe les systèmes en différentes catégories de risques : les solutions considérées comme à haut risque doivent respecter des exigences strictes, comme une documentation technique complète, des audits réguliers, une transparence accrue sur le fonctionnement des algorithmes et une supervision humaine renforcée. L’Article 5 interdit par ailleurs certaines pratiques jugées inacceptables, comme le recours à des systèmes de notation sociale ou l’identification biométrique en temps réel dans les espaces publics.
La question de la responsabilité demeure complexe. Lorsqu’un système d’IA génère des contenus erronés ou potentiellement dangereux, qui est responsable ? Le développeur, le distributeur ou l’utilisateur final ? La loi sur l’IA met en place un système assez détaillé : les fournisseurs de systèmes à haut-risque doivent mettre en place une politique de gestion des risques, assurer la qualité et la gouvernance des données utilisées, et maintenir une documentation technique complète à jour. Les déployeurs, quant à eux, sont tenus d’utiliser ces systèmes conformément aux instructions d’utilisation et d’assurer une supervision humaine. S’agissant des professionnels du droit, le Guide 2025 du CCBE rappelle clairement que le recours à l’IA ne les décharge en aucun cas de leurs obligations déontologiques. Ils demeurent pleinement responsables des contenus produits. Les sanctions peuvent être lourdes en cas de manquement : jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires global en cas de violation de la loi sur l’IA, auxquelles peuvent s’ajouter d’éventuelles sanctions disciplinaires et une mise en cause de leur responsabilité professionnelle.
C’est pourquoi de nombreux avocats ne font toujours pas confiance aux résultats générés par l’IA, une attitude somme toute assez raisonnable. La véritable question n’est pas de savoir s’il faut faire confiance ou non à ces outils, mais de déterminer comment vérifier leurs résultats.
Or cette vérification prend du temp. Si elle en requiert autant que de produire le travail soi-même en partant de zéro, l’intérêt de l’IA en matière de gain de temps disparait complétement. Ce cercle vicieux ne peut être rompu qu’à une condition ; bénéficier d’une formation appropriée.permettant de comprendre les lilites de ces modèles, d’évaluer la qualité des réponses et d’utiliser l’IA de manière réellement efficace et sécurisée.
Tendances de l’IA pour les cabinets d’avocats : situation actuelle et principales préoccupations
Notre dernier rapport de référence révèle que 61 % des petits cabinets d’avocats utilisent déjà des outils d’IA, principalement à des fins de recherche juridique et de gain d’efficacité. Bien que nombre d’entre eux y voient des avantages, tels qu’une meilleure productivité et une rentabilité plus élevée, des défis comme le manque de connaissances, la formation, et les problèmes de confidentialité des données subsistent.