Juridic19 iunie, 2025

Probleme și dileme privind regimul juridic al răspunderii civile pentru inteligența artificială: O analiză detaliată, Mircea DUŢU

Prezentăm mai jos un scurt rezumat al articolului Probleme și dileme privind regimul juridic al răspunderii civile pentru inteligența artificială: O analiză detaliată, autor Prof. univ. dr. Mircea DUŢU, Președintele Universităţii Ecologice din București, subliniind elementele cheie ale acestui studiu - invitaţie la aprofundarea unui subiect important pentru viitorul juridic al tehnologiilor emergente: răspunderea civilă în cazul IA.
Inteligența artificială (IA) transformă relațiile sociale, aducând provocări complexe în domeniul dreptului, una dintre acestea fiind răspunderea civilă. Într-un articol amplu, profesorul universitar Mircea Duțu analizează necesitatea, oportunitatea și posibilele dimensiuni ale unui regim juridic specific pentru răspunderea civilă legată de IA, în contextul reglementărilor europene recente și al capacității dreptului „clasic” de a o oferi construcții juridice viabile.
Prof. univ. dr. Mircea DUȚU
Contextul reglementării IA în Europa
În 2024, Uniunea Europeană (UE) a făcut pași importanți în reglementarea IA prin adoptarea a două acte fundamentale: Regulamentul (UE) nr. 2024/1689 (AI Act), care stabilește norme armonizate pentru IA, și Convenția-cadru a Consiliului Europei privind IA, drepturile omului, democrația și statul de drept. Aceste documente au pus bazele dreptului inteligenței artificiale (DIA), o nouă ramură a sistemului juridic și o disciplină științifică emergentă. Inițial, UE a propus și o directivă privind răspunderea civilă pentru IA, în tandem cu Directiva 2024/2853 privind răspunderea pentru produse defecte, ale cărei reglementări sunt în prezent cel mai des invocate în materie. Totuși, propunerea pentru răspunderea civilă a fost retrasă în februarie 2025, din motive politico-economice, nu juridice. Această decizie a relansat dezbaterile despre necesitatea și fezabilitatea unui regim special de răspundere pentru daunele cauzate de IA, un element central al DIA.
Descarcă articolul

De ce este importantă reglementarea răspunderii civile pentru IA?

IA, prin natura sa complexă, ridică întrebări fundamentale despre cine este responsabil atunci când un sistem autonom provoacă daune. Spre deosebire de obiectele fizice tradiționale, sistemele IA pot fi imateriale (cum ar fi agenții conversaționali sau algoritmii din sectorul financiar), ceea ce complică aplicarea regimurilor clasice de răspundere civilă. Multiplicarea actorilor implicați (dezvoltatori, programatori, antrenori de date) și opacitatea funcționării algoritmilor (efectul „cutiei negre”) fac dificilă stabilirea culpei și a legăturii de cauzalitate între faptă și prejudiciu. În plus, IA are un impact asupra pieței interne a UE, a inovației tehnologice și a protecției drepturilor fundamentale. De aici apare necesitatea unui cadru juridic armonizat, care să echilibreze protecția victimelor cu stimularea inovației.

Regimurile actuale de răspundere civilă și aplicabilitatea lor la IA

În absența unui regim special pentru IA, daunele cauzate de aceasta sunt gestionate prin regimurile de drept comun sau speciale existente. În dreptul românesc, acestea includ:

  1. Răspunderea pentru produse defecte: Reglementată de Legea nr. 240/2004, care transpune Directiva 2024/2853, acest regim este considerat eficient pentru IA, deoarece nu face distincție între contractual și delictual și se aplică indiferent dacă victima este terț sau cocontractant. Directiva 2024/2853 clarifică aplicabilitatea la software, inclusiv sistemele IA, considerate „produse” chiar dacă sunt imateriale. Totuși, provocarea rămâne în a dovedi defectul, mai ales în cazul algoritmilor opaci.
  2. Răspunderea delictuală bazată pe culpă: Proba culpei este, însă, problematică, dată fiind complexitatea IA și implicarea mai multor actori.
  3. Răspunderea contractuală: Poate fi utilizată în cazurile în care dauna rezultă dintr-un contract, dar aplicabilitatea sa este limitată de dificultățile probatorii.
  4. Răspunderea pentru fapta lucrurilor: Dreptul francez și român, (art. 1376 din Codul civil roman) permite responsabilizarea celui care are în pază un lucru care cauzează daune. Totuși, aplicarea la IA imaterială ridică întrebări, deoarece noțiunea de „lucru” a fost gândită inițial pentru obiecte fizice.

Aceste regimuri, deși utile, nu sunt pe deplin adaptate specificității IA. De exemplu, opacitatea algoritmilor și autonomia sistemelor fac dificilă identificarea responsabilului sau dovedirea legăturii de cauzalitate.

Directiva (UE) nr. 2024/2853: Un pas spre reglementarea produselor digitale

Directiva 2024/2853 extinde regimul răspunderii pentru produse defecte la software și IA, definind „produsul” ca incluzând fișiere digitale și software, fie ele integrate sau independente. Aceasta clarifică că:

  • Software-ul liber (open-source) este exclus din domeniul directivei dacă nu este furnizat în context comercial, tocmai pentru a încuraja inovația
  • Software încorporat sau interconectat – software-ul, ca produs, se referă atât la software-ul autonom, susceptibil să provoace daune, cât și la cel integrat în alte produse, în sensul că răspunderea fabricantului subzistă și pentru acesta din urmă
  • Producătorii/fabricanții (inclusiv dezvoltatorii de sisteme IA) sunt responsabili pentru daunele cauzate de produsele defecte, inclusiv dacă defectul rezultă din actualizări sau lipsa acestora, cu condiția să de afle sub controlul producătorului
  • Caracterul defectuos din perspectiva digitalului este un element cheie al securității cibernetice , fiind incidente și prevederile Regulamentului privind reziliența cibernetică (2024/2847).

AI Act și implicațiile sale pentru răspunderea civilă

AI Act nu reglementează direct răspunderea civilă, dar impune obligații furnizorilor de sisteme IA cu risc ridicat (de exemplu, transparență, management al calității, securitate cibernetică). Nerespectarea acestor obligații poate atrage sancțiuni administrative și poate influența indirect răspunderea civilă, prin clarificarea obligațiilor de diligență. De exemplu, un furnizor care nu respectă cerințele de conformitate ar putea fi considerat culpabil în cazul unui prejudiciu.

Propunerea retrasă de directivă privind răspunderea pentru IA

Propunerea de directivă din 2022, retrasă în 2025, urmărea să faciliteze repararea daunelor cauzate de IA prin:

  • Introducerea unei prezumții de cauzalitate între fapta ilicită și prejudiciu,
  • Obligarea furnizorilor și utilizatorilor să furnizeze probe relevante,
  • Regim diminuat de răspundere pentru producătorii SIA cu grad ridicat de risc, răspunderea intervenind doar în cazul nerespectării anumitor obligații prevăzute de AI Act.

Retragerea propunerii a fost motivată de contextul politico-economic, inclusiv criticile aduse reglementării excesive a UE, considerate un obstacol pentru competitivitate, așa cum rezultă din Raportul Draghi din 2024.

Dezbaterea asupra necesității unui regim special de răspundere pentru IA este polarizată. Pe de o parte, susținătorii unui regim specific argumentează că regimurile actuale sunt insuficiente din cauza:

  • Complexității IA: Multiplicarea actorilor și opacitatea algoritmilor complică identificarea responsabilului.
  • Diversității daunelor: IA poate provoca prejudicii variate (fizice, economice, de discriminare), care necesită soluții adaptate.
  • Nevoii de armonizare: Pentru a asigura funcționarea pieței interne și protecția drepturilor fundamentale, UE are nevoie de norme unitare.

Pe de altă parte, criticii susțin că un regim special este inutil (teza inoportunității) sau chiar imposibil (teza imposibilității). Principalele cauze ar fi:

  • Suficiența regimurilor existente: Răspunderea pentru produse defecte și adaptabilitatea dreptului clasic, în special a răspunderii bazate pe culpă, pot acoperi majoritatea cazurilor.
  • Diversitatea aplicațiilor IA: Crearea unui regim unic pentru toate tipurile de daune cauzate de IA, care să constituie un regim special de răspundere, este dificilă deoarece IA nu generează un „tip” specific de prejudiciu (precum domeniul circulației automobilelor, cel aerian sau al energiei nucleare).
  • Lipsa cazurilor concrete: În prezent, situațiile practice privind daunele cauzate de IA sunt rare, ceea ce face prematură reglementarea.
  • Regimul răspunderii ar implica răspunderea pentru fapta AI, sau răspunderea bazată pe existența unei noi tehnologii și nu pe un risc specific (data fiind diversitatea), împingând limitele spre o răspundere nebazată pe culpă, o răspundere pur cauzală, pentru orice daună, chiar imaterială, ceea nu s-a făcut niciodată până acum.

Dezbaterea asupra necesității unui regim special de răspundere pentru IA este polarizată. Pe de o parte, susținătorii unui regim specific argumentează că regimurile actuale sunt insuficiente din cauza:

  • Complexității IA: Multiplicarea actorilor și opacitatea algoritmilor complică identificarea responsabilului.
  • Diversității daunelor: IA poate provoca prejudicii variate (fizice, economice, de discriminare), care necesită soluții adaptate.
  • Nevoii de armonizare: Pentru a asigura funcționarea pieței interne și protecția drepturilor fundamentale, UE are nevoie de norme unitare.

Pe de altă parte, criticii susțin că un regim special este inutil (teza inoportunității) sau chiar imposibil (teza imposibilității). Principalele cauze ar fi:

  • Suficiența regimurilor existente: Răspunderea pentru produse defecte și adaptabilitatea dreptului clasic, în special a răspunderii bazate pe culpă, pot acoperi majoritatea cazurilor.
  • Diversitatea aplicațiilor IA: Crearea unui regim unic pentru toate tipurile de daune cauzate de IA, care să constituie un regim special de răspundere, este dificilă deoarece IA nu generează un „tip” specific de prejudiciu (precum domeniul circulației automobilelor, cel aerian sau al energiei nucleare).
  • Lipsa cazurilor concrete: În prezent, situațiile practice privind daunele cauzate de IA sunt rare, ceea ce face prematură reglementarea.
  • Regimul răspunderii ar implica răspunderea pentru fapta AI, sau răspunderea bazată pe existența unei noi tehnologii și nu pe un risc specific (data fiind diversitatea), împingând limitele spre o răspundere nebazată pe culpă, o răspundere pur cauzală, pentru orice daună, chiar imaterială, ceea nu s-a făcut niciodată până acum.

Soluții posibile și perspective

Autorul propune o abordare echilibrată, care să combine regimurile existente cu ajustări specifice. O primă soluție pleacă de la constatarea că răspunderea întemeiată pe culpă e întotdeauna aplicabilă, dincolo de sfera contractuală. În cazul de daună legată de utilizarea inteligenței artificiale, dificultatea va ține de caracterizarea unei culpe în spatele acțiunii acesteia. S-ar putea depăși aceasta, plecând de la a i se atribui personalitate juridică. Aprecierea comportamentului inteligenței artificiale precum cel al unei persoane rezonabile, care constituie criteriul fundamental al culpei, este însă un demers de o mare dificultate practică. O altă soluție ar fi introducerea unui nou alineat în art. 1349 din Codul civil român, care să recunoască răspunderea pentru daunele cauzate de IA ca o formă specială de răspundere, reglementată printr-o lege specială. Aceasta ar urma modelul răspunderii pentru produse defecte, integrând principii de drept comun, dar particularizate pentru IA.

Principiul de bază al răspunderii civile rămâne, totuși, cel al răspunderii pentru culpă, chiar dacă răspunderea pentru fapta lucrurilor oferă instrumente special adaptate la particularitățile noilor tehnologii. Recurgerea la răspunderea fondată pe culpă, definită ca nerespectarea obligației de prudență și diligență rămâne posibilă și aceasta nu numai în cadrul celei delictuale, ci și a răspunderii contractuale. Totuși, după cum proba defectului e delicată în cadrul celei pentru produsele cu defecte, proba culpei în dreptul comun e chiar problematică. Din această perspectivă se propune elaborarea unei tipologii a culpelor care pot să fie la originea daunei cauzate de un sistem de inteligență artificială.

De asemenea, se subliniază importanța doctrinei și jurisprudenței în adaptarea dreptului la noile realități. Rapiditatea schimbărilor aduse de IA necesită o abordare dinamică, în care interpretările creative și intervențiile legislative să răspundă provocărilor tehnologice.

Concluzii

Reglementarea răspunderii civile pentru IA rămâne un subiect controversat, dar important. În timp ce regimurile actuale oferă soluții parțiale, specificitatea IA – opacitatea, autonomia și diversitatea aplicațiilor – reclamă o regândire a abordărilor juridice. Directiva 2024/2853 și AI Act reprezintă pași importanți, dar insuficienți pentru a acoperi toate aspectele răspunderii civile. Reluarea propunerii de directivă privind IA ar putea consolida cadrul juridic european, asigurând un echilibru între protecția victimelor și stimularea inovației.

Pe termen lung, IA va remodela nu doar tehnologia, ci și dreptul, obligând juriștii să găsească soluții inovatoare pentru o realitate în continuă schimbare. În acest context, dreptul răspunderii civile devine un „laborator” al ideilor, în care doctrina, jurisprudența și legislația trebuie să colaboreze pentru a răspunde provocărilor viitorului.

 

Acest articol a fost rezumat și adaptat pentru a oferi o prezentare accesibilă a ideilor din documentul original. Pentru articolul integral și argumentația juridică detaliată privind evoluția răspunderii în domeniul IA:

Accesați linkul pentru a citi articolul complet

Publicat în Revista Pandectele Române, editura Wolters Kluwer România

Descarcă articolul
Back To Top