AI literacy - Un calendar care nu (mai) așteaptă
Inteligența artificială (AI) transformă lumea și influențează în mod semnificativ modul în care funcționăm, trăim și ne desfășurăm activitățile zilnice. Profesia juridică, la fel ca multe alte profesii, este revoluționată de AI, care permite practicienilor din domeniul juridic să lucreze mai inteligent, mai rapid și mai eficient în contextul social-juridic actual. Și este doar începutul!
Beneficiile utilizării AI în practică sunt de anvergură, odată cu apariția instrumentelor de analiză a datelor, a asistenților virtuali inteligenți, a programelor software juridice și a sistemelor de gestionare a workflowurilor sunt simplificate sarcinile consumatoare de timp.
Cu toate acestea, în ciuda potențialului de utilizare a tehnologiilor AI în practica juridică, este imperativ ca practicienii din domeniul juridic să-și îmbunătățească competențele și să dobândească noi aptitudini pentru utilizarea acestor instrumente. Practicienii din domeniul juridic trebuie să dea dovadă de prudență atunci când se confruntă cu numeroase contexte asociate utilizării AI, iar acestea includ, dar nu se limitează la, confidențialitate, consimțământ, utilizarea datelor cu caracter personal, prejudecăți, lipsa autonomiei și delegarea procesului decizional. Una dintre grijile existente legate de integrarea AI este că aceasta minimizează controlul uman, are un impact negativ asupra gândirii critice și ar putea duce la pierderea locurilor de muncă în profesia juridică.
Nu împărtășim această îngrijorare! Preocuparea că AI ar putea înlocui juriștii este exagerată, deoarece AI nu poate oferi același nivel de empatie, perspicacitate, interacțiune, creativitate și legătură cu clienții pe care o poate oferi, de exemplu, un avocat. Totuși, un avocat care utilizează IA va înlocui un coleg care nu face acest lucru. Deși profesiile juridice pot beneficia de utilizarea AI ca instrument de lucru, ele trebuie, de asemenea, să își însușească anumite cunoștințe tehnice specifice pentru a integra acest beneficiu în activitățile curente.
Integrarea sistemelor de inteligență artificială în sistemul juridic european traversează o etapă de tranziție decisivă. De la platformele de cercetare a jurisprudenței bazate pe NLP (Natural Language Processing) și ML (Machine Learning), la sistemele de evaluare a contractelor, și până la instrumentele de anonimizare automată a hotărârilor judecătorești, AI a pătruns în miezul activității juridice deja de câțiva ani.
Această pătrundere rapidă a generat o asimetrie periculoasă: profesioniștii din domeniul dreptului utilizează din ce în ce mai mult instrumente AI, însă fără a deține cunoștințele necesare pentru a evalua critic outputurile acestora, a identifica limitele lor tehnice sau a înțelege riscurile pe care le generează asupra drepturilor fundamentale. Automation bias — tendința de a acorda încredere excesivă recomandărilor unui sistem automat — este un risc documentat care afectează judecători, procurori și avocați deopotrivă. Acest comportament este similar cu performanța unui justițibil care se autoreprezintă după ce a urmărit seriale de succes cu avocați.
Răspunsul normativ european la această provocare este AI literacy. Conceptul, consacrat legislativ pentru prima dată în AI Act[1], desemnează ansamblul de competențe necesare pentru o relație informată și responsabilă cu sistemele AI (aspecte detaliate și din perspectivă practică în AI Act pentru angajați).
Un aspect inovator al AI Act în constituie obligația de „alfabetizare în domeniul AI” (AI literacy); astfel, începând cu 2 februarie 2025, furnizorii şi utilizatorii de sisteme AI trebuie să asigure că personalul lor deţine „cunoştinţele tehnice şi etice necesare pentru a opera aceste tehnologii în mod responsabil”[2]. Obligații explicate pe larg în AI Act pentru angajați.
Dar dincolo de litera textului, ce semnifică AI literacy?
La nivelul cel mai elementar, AI literacy înseamnă cunoaștere – înțelegerea a ceea ce este un sistem de inteligență artificială, cum funcționează, ce poate face și, la fel de important, ce nu poate face. Aceasta nu presupune transformarea juriștilor în legal engineers[3]. Presupune, însă, un nivel de comprehensiune funcțională care să permită utilizatorului să evalueze critic rezultatele generate de un algoritm, să identifice limitele metodologice ale unui sistem și să sesizeze riscurile inerente de eroare, omisiune sau de bias.
La un nivel mai profund, AI literacy este o competență de discernământ. Considerentul (27) al AI Act explică teleologia normei: alfabetizarea în materie de IA trebuie să permită celor vizați „să ia decizii în cunoștință de cauză în ceea ce privește sistemele de IA”. Nu este vorba, așadar, despre o cunoaștere pasivă sau decorativă, ci despre capacitatea de a exercita un raționament informat – de a ști când să te bazezi pe o recomandare algoritmică și, mai ales, când să nu o faci.
Conform art. 3 pct. 56 din AI Act, conceptul de „AI literacy” desemnează „competențele, cunoștințele și înțelegerea care le permit furnizorilor, utilizatorilor și persoanelor afectate, ținând seama de drepturile și obligațiile lor în contextul prezentului regulament, să utilizeze în mod informat sistemele de AI, precum și să conștientizeze oportunitățile și riscurile AI și posibilele prejudicii pe care le poate cauza".
Această definiție tripartită — aptitudini, cunoștințe, înțelegere — are următoarele caracteristici esențiale:
|
Componentă AI Literacy |
Conținut specific în context juridic |
|
Aptitudini (Skills) |
Capacități practice de utilizare a instrumentelor AI: evaluarea rezultatelor generate, aplicarea supravegherii umane, utilizarea mecanismelor de anulare sau completare, utilizarea agenților dedicați |
|
Cunoștințe (Knowledge) |
Conținut informațional specific: evaluarea impactului asupra drepturilor fundamentale, recunoașterea limitelor sistemice ale AI, conștientizarea bias-ului, validarea tuturor informațiilor cu baze de date de încredere |
|
Înțelegere (Understanding) |
Dimensiunea critică: evaluarea impactului asupra drepturilor fundamentale, recunoașterea limitelor sistemice ale AI, conștientizarea bias-ului, utilizarea unor baze de date de încredere |
Această alfabetizare implică nu doar cunoașterea elementelor tehnice, ci şi o înțelegere profundă a impactului social și etic al deciziilor luate de AI, în condițiile în care utilizarea tehnologiilor AI, indiferent de domeniu, nu implică doar înțelegerea unor concepte tehnice, dar şi capacitatea de a evalua critic implicațiile etice, sociale și juridice ale unor asemenea angrenaje tehnice digitale. Într-o eră în care deciziile luate de algoritmi influențează major sfera activităților umane, de la sistemele de asistență virtuală la procesele decizionale în instituții publice, este esențial ca persoanele implicate, în special utilizatorii şi dezvoltatorii, să aibă cunoștințe solide despre modul în care funcționează aceste sisteme.
Aceasta vizează cunoașterea de bază a inteligenței artificiale: ce este un algoritm, cum funcționează învățarea automată (machine learning), ce presupune un conținut generat de un model LLM (large language model), ce înseamnă bias algoritmic, de ce sistemele de IA sunt „cutii negre" (black box) câtă lumină aduc sistemele Explainable AI (XAI). Este stratul fundațional, fără de care celelalte dimensiuni rămân inaccesibile.
Într-un atare context, alfabetizarea AI poate fi definită ca un ansamblu de cunoștințe, abilități şi comprehensiune care permit operarea și evaluarea tehnologiilor AI în mod responsabil (o perspectivă aplicată fiind disponibilă în AI Act pentru angajați). Aceasta presupune familiarizarea cu algoritmii de învățare automată, rețelele neuronale și tehnicile de procesare a limbajului natural, dar și cu aspectele etice ce includ riscurile de discriminare algoritmică și protecția datelor personale. În esență, alfabetizarea AI este esențială pentru a transforma cunoștințele teoretice în abilități practice, permițând astfel o utilizare informată și responsabilă a tehnologiei.
De ce contează în domeniul juridic mai mult decât în orice alt domeniu?
Sistemul judiciar ocupă o poziție singulară în arhitectura AI Act. Conform Anexei III, punctul 8, sistemele de IA utilizate „pentru a sprijini autoritățile judiciare în cercetarea și interpretarea faptelor și a dreptului și în aplicarea legii la un set concret de fapte” sunt clasificate drept sisteme cu risc ridicat. Aceasta este cea mai exigentă categorie de reglementare prevăzută de Regulament, atrăgând obligații sporite de transparență, de gestionare a riscurilor și, mai ales, de supraveghere umană (art. 14).
Iar supravegherea umană nu poate exista fără AI literacy. Este o condiție logică necesară: nu poți supraveghea ceea ce nu înțelegi. AI Act detaliază această cerință, precizând că persoanele responsabile cu supravegherea trebuie să fie capabile să înțeleagă capacitățile și limitările sistemului, să detecteze anomaliile și să decidă când și cum să intervină.
Tradus în limbajul profesiei juridice: judecătorul care utilizează un instrument de IA trebuie să știe ce surse au fost utilizate pentru generarea răspunsului, care este rata sa de eroare, în ce contexte performanța sa scade și ce tipuri de bias ar putea reproduce. Fără aceste cunoștințe, supravegherea umană impusă de art. 14 devine o formalitate vidă de conținut – o ficțiune juridică acolo unde Regulamentul cere o garanție efectivă.
Ce nu este AI literacy?
Pentru claritate conceptuală, este la fel de important să delimităm ce nu înseamnă AI literacy.
Nu este informatizare generică. Faptul că un jurist știe să utilizeze o platformă de videoconferință sau sistemul ECRIS nu constituie AI literacy. Competențele digitale de bază sunt o condiție necesară, dar nu suficientă.
Nu este o competență exclusiv tehnică. AI literacy nu presupune capacitatea de a programa un algoritm sau de a construi un model de machine learning. Presupune, însă, capacitatea de a interoga rezultatele unui astfel de model și de a le contextualiza juridic și de a înțelege limitările tehnologice inerente.
Nu este o modă trecătoare. AI Act nu este un document programatic, ci un regulament european cu aplicabilitate directă. Obligația de AI literacy nu este subordonată niciunei condiții de transpunere sau implementare. Ea există și produce efecte juridice deja.
Nu este opțională. Formularea art. 4 din AI Act – „iau măsuri pentru a asigura, în cea mai mare măsură posibilă" – nu instituie o simplă facultate, ci o obligație de diligență. Standardul nu este perfecțiunea, dar nici pasivitatea.
Un calendar care nu așteaptă
Obligația de AI literacy prevăzută de art. 4 AI Act se aplică de la 2 februarie 2025. Obligațiile privind sistemele cu risc ridicat – inclusiv cele din domeniul judiciar – devin pe deplin aplicabile la 2 august 2026. Între aceste două date se deschide o fereastră de pregătire pe care sistemul judiciar din România nu și-o poate permite să o ignore.
La data redactării acestui editorial, 28 aprilie 2026, mai rămân aproximativ trei luni până la aplicabilitatea completă a regimului juridic al sistemelor cu risc ridicat.
Întrebarea nu mai este dacă AI literacy este necesară, ci dacă vom fi pregătiți la termen.
Dr. Andreea Stănciulescu (Alexe) – Redactor-șef Pandectele Române
Adrian Măntoiu - Director General Wolters Kluwer
[1] Regulamentul(UE) 2024/1689 din 13 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială și de modificare a Regulamentelor (CE) nr. 300/2008, (UE) nr. 167/2013, (UE) nr. 168/2013, (UE) 2018/858, (UE) 2018/1139 și (UE) 2019/2144 și a Directivelor 2014/90/UE, (UE) 2016/797 și (UE) 2020/1828 (Regulamentul privind inteligența artificială).
[2] Această obligație a intrat în vigoare de la 2 februarie 2025, conform art. 113 lit. (a) AI Act.
[3] O nouă profesie a viitorului digital!