Supervision humaine, littératie en IA, confidentialité et qualité sont autant de critères auxquels se réfèrent tant l’AI Act européen que l’Ordre des Barreaux Francophones et Germanophone de Belgique (OBFG) et l’Orde van Vlaamse Balies (OVB) pour évaluer l’utilisation de l’IA dans le secteur juridique. Dans ses obligations, l’AI Act adopte une approche fondée sur les risques. L’OBFG et l’OVB donnent quant à eux une forme plus concrète aux attentes pour la profession d’avocat. Une utilisation non conforme de l’IA peut avoir des conséquences juridiques et déontologiques, qui dépendent de l’application et du contexte concrets.
En tant que professionnel du droit, comment pouvez-vous concilier innovation et conformité rigoureuse ? Cet article présente la réglementation européenne et les directives belges, et montre en quoi le choix judicieux de partenaires technologiques peut faire toute la différence.
Qu’implique la conformité en matière d’IA pour les avocats ?
Quelles obligations l’AI Act impose-t-il aux avocats ?
La réglementation européenne repose sur une approche fondée sur les risques : plus le risque lié à l’application est élevé, plus les exigences sont strictes. Les exigences de base les plus fréquentes sont les suivantes :
- Littératie en IA : les collaborateurs connaissent le fonctionnement, les limites et les risques de l’IA
- Transparence : indiquer clairement que l’IA est utilisée
- Utilisation responsable : respecter les instructions du fournisseur
Si un système est considéré comme présentant un risque élevé, par exemple en raison d’un impact significatif sur les droits fondamentaux, des obligations supplémentaires s’appliquent, telles que la gestion des risques, le contrôle de la qualité des données, la documentation technique, la journalisation et le signalement des incidents. La supervision humaine reste fondamentale dans ce cadre : l’IA peut soutenir l’avis juridique, mais ne peut en aucun cas le remplacer et agir de manière autonome.
Quelles obligations en matière d’IA l’OBFG et l’OVB imposent-ils aux avocats ?
L’Ordre des Barreaux Francophones et Germanophone de Belgique et l’Orde van Vlaamse Balies n’imposent pas d’obligations formelles, mais formulent des lignes directrices claires pour une utilisation responsable de l’IA. Le message clé est clair : l’IA peut être un outil précieux, à condition que son utilisation reste compatible avec les règles déontologiques fondamentales. L’indépendance, la partialité, l’expertise, l’intégrité et la confidentialité, entre autres, occupent une place centrale dans ce contexte. L’avocat reste en toutes circonstances le responsable final des conseils prodigués et de la protection des intérêts du client.
Dans la pratique, les barreaux belges donnent aux avocats les conseils suivants :
- Investir dans les connaissances et l’expérience pratique en matière d’IA generative
- Vérifier de manière critique les résultats générés par l’IA et utiliser des sources traçables
- S’informer sur les garanties concernant la qualité, la sécurité et l’utilisation des données chez les fournisseurs
- Respecter le secret professionnel et traiter les données confidentielles avec le plus grand soin2
- Connaître et maîtriser les flux de données
- Utiliser l’IA uniquement comme appui
- Veiller à ce que l’utilisation de l’IA ne porte pas atteinte à la qualité, à la rigueur et à l’indépendance des conseils
- Assumer la responsabilité finale de leurs conseils et de la défense des intérêts de leurs clients
Contrairement aux Pays-Bas, la Belgique ne dispose pas encore d’un cadre de surveillance central spécifique à l’utilisation de l’IA au sein des barreaux. Les règles déontologiques existantes restent toutefois pleinement applicables, même lorsque l’IA est utilisée. Les erreurs ou les manquements liés à l’utilisation de l’IA relèvent donc de la responsabilité professionnelle de l’avocat et peuvent donner lieu à des sanctions disciplinaires ou à des risques de responsabilité civile.
Comment un avocat peut-il se conformer aux exigences en matière d’IA ?
Lors de l’utilisation d’une technologie en constante évolution, se conformer pleinement aux exigences n’est pas évident. Il est donc essentiel de choisir avec soin ses outils et ses fournisseurs. Les solutions conçues selon le principe de la protection de la confidentialité dès la conception (privacy-by-design), qui reposent sur une mention des sources transparente et sur des informations spécialisées validées, facilitent la conformité et la rendent plus aisée à démontrer. Ces principes sont également à la base des solutions d’IA de Wolters Kluwer.
1. Protection de la confidentialité dès la conception
La sécurité et la confidentialité jouent dès le début un rôle fondamental dans le développement des solutions d’IA de Wolters Kluwer. Des solutions telles que Libra dans InView Legal sont hébergées dans des centres de données européens soumis au RGPD.
« Les données sont stockées sous forme cryptée, les droits d’accès sont soigneusement définis et nous appliquons le principe du moindre privilège (least privilege access) : les utilisateurs n’ont accès qu’à ce dont ils ont besoin », explique Ronald Nakken, Manager Product Operations chez Wolters Kluwer Legal & Regulatory Benelux. De plus, les données des utilisateurs ne sont pas utilisées pour l’entraînement du modèle.
2. Sources traçables
Les solutions Expert AI de Wolters Kluwer fonctionnent dans un écosystème fermé rassemblant exclusivement du contenu validé. Chaque réponse peut être reliée à un article de loi, un arrêt ou un principe de doctrine précis, et est accompagnée d’une mention claire de la source. La vérification est ainsi plus facile et la supervision humaine accrue.
« Pour les juristes et les fiscalistes, c’est différent. Leurs conseils doivent toujours pouvoir être rattachés à une source fiable », déclare Kim Luyten, Associate Director chez Wolters Kluwer Product Management Benelux. « C’est pourquoi chaque réponse dans la recherche conversationnelle s’accompagne d’une référence transparente à sa source. Nous limitons ainsi le risque d’hallucinations ou d’informations erronées sans source. »
3. Contenu de qualité faisant autorité
Les solutions d’IA de Wolters Kluwer se distinguent des outils d’IA généraux par la base de données sous-jacente dont le contenu fait autorité. Ces informations spécialisées ne sont pas librement accessibles sur Internet et constituent depuis des années une référence sûre dans le secteur juridique. Les résultats générés par l’IA sont ainsi porteurs d’un label de qualité clair.
« Notre plus grande force réside dans la combinaison d’une nouvelle technologie et d’une immense quantité de contenu spécialisé validé. Ce contenu a été constitué au fil des ans, est supervisé au niveau de la rédaction et est soutenu par des auteurs spécialisés. Les réponses générées par l’IA sont donc non seulement rapides, mais aussi juridiquement fondées et fiables », explique Peter Immink, VP Publishing & Operations Benelux.
La conformité n’est pas une option
L’IA offre indéniablement un gain d’efficacité, mais elle s’accompagne aussi de nouvelles responsabilités. La supervision humaine, la transparence, l’expertise et la confidentialité restent le principe fondamental. L’IA offre un soutien, mais c’est l’avocat qui reste le responsable final de la qualité et de la licéité des conseils prodigués.
Pour quiconque utilise aujourd’hui l’IA, la conformité n’est donc pas une obligation supplémentaire, mais un aspect qui lui est inhérent. Grâce à une politique bien pensée en matière d’IA, à une expertise interne suffisante et au choix de solutions fiables, l’innovation peut aller de pair avec la sécurité juridique.
Questions fréquemment posées sur la conformité en matière d’IA pour les avocats
Quelles sont les implications de l’IA Act pour les avocats en Belgique ?
L’IA Act impose aux avocats en Belgique d’utiliser l’IA de manière transparente, contrôlée et responsable. Cela signifie que vous devez comprendre comment fonctionne l’IA (littératie en IA), mentionner clairement lorsque l’IA est utilisée et veiller à une surveillance humaine. Dans le cas d’applications à haut risque, des obligations supplémentaires s’appliquent, telles que le contrôle de la qualité des données et la gestion des risques.
Les barreaux belges autorisent-ils les avocats à utiliser l’IA ?
Oui, les avocats peuvent utiliser l’IA, à condition que les règles déontologiques soient respectées. L’OBFG et l’OVB soulignent que l’IA ne doit être utilisée qu’en appui et que des valeurs fondamentales telles que la confidentialité, l’indépendance et la rigueur doivent toujours être respectées.
Comment utiliser l’IA de manière conforme dans le secteur juridique ?
Utiliser l’IA de manière conforme signifie employer des outils fiables, contrôler les résultats générés par l’IA et protéger les données. Concrètement, cela signifie :
- Vérifier les résultats générés par l’IA à l’aide de sources juridiques
- Choisir des outils mentionnant les sources de manière transparente
- Protéger les informations confidentielles
- Comprendre le fonctionnement de l’IA et ses limites
Quels sont les principaux risques liés à l’IA pour les avocats ?
Les principaux risques liés à l’IA pour les avocats sont les erreurs, le manque de transparence et la violation de la confidentialité. L’IA peut donner des réponses en apparence convaincantes, mais en réalité erronées (hallucinations), ou utiliser sur des sources peu claires. Sans contrôle, ces erreurs peuvent avoir des conséquences juridiques.
Qui est responsable de l’utilisation de l’IA au sein d’un cabinet d’avocats ?
L’avocat reste toujours le responsable final de l’utilisation de l’IA et des résultats qu’elle génère. L’IA n’a pas de statut juridique et ne peut être tenue responsable. Les erreurs issues de l’utilisation de l’IA relèvent donc de la responsabilité professionnelle de l’avocat.
Comment choisir un outil d’IA sûr et conforme pour les avocats ?
Un outil d’IA sûr pour les avocats utilise un contenu juridique validé et respecte les règles en matière de confidentialité. Attention à ce qui suit :
- Protection de la confidentialité dès la conception et conformité au RGPD ;
- Pas d’utilisation des données pour l’entraînement du modèle ;
- Environnement fermé et sécurisé ;
- Sources transparentes et traçables.
Les solutions telles que celles de Wolters Kluwer ont été spécifiquement développées pour répondre à ces exigences.