ConformitateJuridic16 aprilie, 2026

Parlamentul European: dreptul de autor și IA generativă

Reglementarea IA – Europa: Rezoluția privind dreptul de autor și inteligența artificială generativă – oportunități și provocări, adoptată de Parlamentul european la 10 martie 2026, aduce o sere de propuneri/recomandări privind reglementarea dreptului de autor în contextul IA generative. Printre ariile vizate se numără: transparența, principiul teritorialități, standardizarea și armonizarea, rolul EUIPO, statutul conținuturilor generate de IA și presa.
Prof. univ. dr. Mircea DUȚU

La 10 martie 2026, Parlamentul European a adoptat Rezoluția privind dreptul de autor și inteligența artificială generativă – oportunități și provocări, fondată pe raportul inițiativei prezentate de eurodeputatul (german) Axel Voss. După ce a constatat că dreptul european de autor, și în special Directiva (UE) nr. 2019/790 din 17 aprilie 2019 privind dreptul de autor și drepturile conexe pe piața unică digitală, prezintă o serie de ambiguități în privința IA generative, care necesită clarificări, documentul a propus mai multe modificări și completări ale textelor legislative pertinente. Panoplia propunerilor/recomandări permite degajarea anumitor linii directoare care să fie urmate în demersul reglementar unional-european de întregire a regimului juridic în materie.

            1.1. Transparența – principiu al guvernanței. Printre diferitele axe susceptibile să structureze rezoluția, transparența apare ca un principiu central, chiar o veritabilă „cheie de boltă” a mecanismelor propuse. În primul rând, se preconizează o obligație de transparență pentru furnizorii și implementatorii de sisteme de IA, privind conținuturile utilizate pentru antrenamentul modelelor, exprimată prin punerea la dispoziție a unei liste detaliate a tuturor conținuturilor utilizate pentru aceasta. Ea se extinde mutatis mutandis la orice utilizare ulterioară a conținuturilor, în special la interferență, generarea augmentată de cercetare (RAG) ori chiar reglajul fin (fine tuning). Privește atât furnizorii de modele de IA, cât și furnizorii sau implementatorii de sisteme de IA. De remarcat că o atare exigență se întinde, de altfel, și asupra actelor de crawling, ceea ce implică faptul ca crawlers să trebuiască a fi identificați după operatorii site-urilor web și ca întreprinderile să conserve registrele detaliate al activităților lor de crawling.

            Această voință de transparență e prelungită prin recurgerea de mecanisme tehnice, în primul rând cele de marcaj al operelor și etichetare a conținuturilor. Rezoluția propune ca titularii de drepturi să aplice un filigran asupra operelor lor, impunându-se totodată furnizărilor de IA să le păstreze integritatea și să pună la dispoziție instrumente de cercetare, care să permită detectarea lor în cadrul datelor utilizate pentru antrenament. Obiectivul de transparență cere, de asemenea, etichetarea conținuturilor generate de IA, propunându-se clasificarea lor ca „generate de IA” ori „create de om”. În această optică, rezoluția invită să se studieze măsurile necesare combaterii deepfakes, a căror etichetare ar putea constitui o primă soluție, însoțită de publicarea de către Comisia Europeană a unui cod de bune practici ale UE privind etichetarea conținuturilor. În fine, în scopul de a compensa situațiile în care transparența nu e suficientă, textul propune instituirea unei prezumții refragabile de utilizare a operelor. Lipsa respectării obligațiilor de transparență de către furnizorii de IA ori de exploatanții modelelor și sistemelor de IA face să se nască o prezumție refragabilă potrivit căreia orice operă protejată de dreptul de autor sau orice alt obiect protejat pertinent a fost utilizat în scopuri de învățare, interferență ori de generare augmentată de cercetare.

            1.2. Precizări asupra principiului teritorialității. Documentul abordează, de asemenea, și problema teritorialității, miză centrală în contextul operațiunilor IA generativă, afirmându-se că dreptul de autor al UE se aplică oricărui model ori sistem de inteligență artificială generativă introdus pe piață ori furnizat în Uniune, independent de locul de realizare a actelor de exploatare subadiacente, în special cel legat de antrenament.

            1.3. Standardizarea și armonizarea necesară. Un alt aport al rezoluției ar putea fi abordarea sub unghiul standardizării și armonizării, spre a răspunde anumitor probleme cu care se confruntă titularii de drept. În această privință, referitor la remunerarea operelor protejate de dreptul de autor utilizate pentru dezvoltarea sistemelor de IA se preconizează stabilirea de mecanisme de licențe colective voluntare. Referitor la utilizarea trecută de opere, se subliniază necesitatea de a asigura o remunerare imediată, echitabilă și proporționată pentru utilizările trecute de opere protejate de dreptul de autor, de către furnizorii de modele și de sisteme de IA de uz general. În același timp, textul se opune oricărei propuneri constând în instaurarea unei licențe globale pentru antrenamentul modelelor lor de IA în schimbul unei plăți forfetare.

            În ceea ce privește mecanismele de opt-out, raportul relevă, pe bună dreptate, limitele dispozitivelor actuale de rezervă ale dreptului aplicabil conținuturilor protejate de dreptul de autor, adesea considerate ca puțin operaționale, inadaptate și lipsite de transparența necesară aplicării efective. În scopul de a remedia atari deficiențe, textul incită la evaluarea necesității și fezabilității instrumentelor ce permit titularilor de drepturi să excludă în mod efectiv utilizarea operelor lor de la antrenamentul IA. Respectivele mijloace s-ar baza pe un număr limitat de formate standardizate, lizibile de mașină, și ar fi gerate de un intermediar de încredere. Crearea unui asemenea mecanism necesită implicarea, printre altele, a tuturor părților interesate vizate, în particular titularilor de drepturi, furnizorilor de IA și a organizațiilor reprezentative respective spre a se crea institutele cele mai pertinente.

            1.4. Rolul central al EUIPO. Se conferă un rol central Oficiului UE pentru proprietate intelectuală (EUIPO), care apare ca un actor privat al numeroaselor măsuri propuse. Cu acest titlu, EUIPO ar fi desemnat ca intermediar de încredere, însărcinat să gestioneze și repertorieze opt-out-urile, ar fi responsabil cu susținerea unui proces de concesionare a licențelor voluntare și sectoriale, care să permită desfășurarea de acțiuni de sensibilizare privind relația dintre IA și dreptul de autor, dar ar servi și precum un terț de încredere față de regimurile de transparență și de documentare a surselor vizând utilizarea operelor protejate de drepturile de autor sau alte obiecte protejate.

            1.5. Statutul conținuturilor generate de IA. În privința regimului aplicabil conținuturilor generate de IA, rezoluția reafirmă că cele rezultate exclusiv din sistemele de IA, nu răspund criteriilor de protecție ca operă. Ea invită să se prevadă, în mod clar, statutul de domeniu public al acestor producții. Se evocă faptul că trebuie să se stabilească măsuri pentru a combate încălcarea drepturilor de reproducție, de punere la dispoziția publicului și de comunicare a acestora pe calea producerii de conținuturi generate de SIA. Cu toate acestea, respectivele măsuri nu trebuie să împiedice producerea de conținuturi care aparțin excepțiilor de la dreptul de autor, precum citarea, utilizarea privată, parodierea ori caricatura.

            1.6. O atenție particulară acordată presei. În fine, rezoluția acordă o atenție deosebită sectorului presei și media în general, incluzând în special editorii de presă, jurnaliștii și redactorii-șefi. Acest sector apare expus în mod particular la transformările induse de sistemele de IA generative, din cauza dezvoltării utilizărilor constând în a accede la informație via respectivelor sisteme, susceptibile a deforma traficul tradițional al site-urilor de presă și deci a afecta remunerarea acestor actori.

            Într-un atare context, măsurile propuse se înscriu în prelungirea propunerilor evocate anterior, adaptându-le însă la acest sector specific. Rezoluția insistă asupra necesității de a garanta, pentru actorii din presă, un control efectiv asupra conținutului lor generat de IA generativă. Orice utilizare dincolo de antrenament, precum generarea ori exploatarea în aplicații, trebuie să fie supusă consimțământului lor explicit. Textul preconizează, în această privință, stabilirea de mecanisme care să permită să se asigure o transparență completă a utilizărilor și să garanteze titularilor de drepturi capacitatea de a păstra un control total asupra utilizării, cu posibilitatea efectivă de a i se opune și o transparență completă asupra acestor utilizări. În plus, se invită Comisia Europeană să examineze posibilitățile și modalitățile potrivit cărora drepturile conexe ale editorilor de presă, jurnaliștilor și redactorilor-șefi, precum și ale altor persoane implicate ar putea să fie extinse în scopul de a acoperi aceste noi forme de exploatare.

            Pentru a asigura o remunerare adecvată, textul are în vedere recursul la mecanisme de licențe colective voluntare, care să poată fi însoțite de o prezumție de gestiune colectivă a drepturilor, în numele titularilor de drepturi, în ceea ce privește utilizările conținutului lor legate de IA, fără a prejudicia dreptul titularului de drepturi să opteze pentru licența individuală.

            Atari măsuri apar cu atât mai esențiale în privința prezervării pluralismului media, diversității informației și, în sens mai larg, dezbaterii democratice în cadrul UE și în cel al statelor membre.

 

2. S.U.A.: Dezvoltarea jurisprudenței privind design-ul adictiv 

Jurisprudența IA:La 25 martie 2026, Curtea Superioară a Californiei (Los Angeles) a condamnat Meta și Google pentru atingere adusă bunăstării unei utilizatoare, prin intermediul design-ului adictiv, care influențează utilizatorul să rămână angajat în vizionarea unui conținut cât mai mult timp posibil. Argumentele curții au vizat inclusiv considerente privind influențarea sănătății mintale, în special în ceea ce îi privește pe minori. 

            Design-ul adictiv, care nu e un termen juridic, e prezentat drept un tip specific de dark pattern, adică o tehnică de concepție de interfață, vizând a influența comportamentul utilizatorilor în interesul furnizorilor. În sens mai larg, el corespunde unei combinări a concepției serviciului, datelor utilizatorilor și sistemelor algoritmice ce vizează a face să interacționeze utilizatorul cu serviciul, cât mai mult timp posibil. Contaminarea infinită, lectura automată, notificările push, conjugate cu tratamentul algoritmic permit identificarea conținuturilor care interesează utilizatorul. Acesta e, în final, „recompensat” prin obținerea de like ori prin apariția unui conținut care îl interesează. În concret, utilizatorul derulează conținut fără a putea prevedea momentul la care va obține așa-zisa recompensă și această incertitudine e la originea adicției.

            Design-ul adictiv joacă un rol cheie în modelul economic al rețelelor sociale, întrucât veniturile acestora din urmă nu provin din plățile efectuate direct de utilizatori, ci din vânzarea de spații publicitare. Atenția utilizatorilor e „carburantul” acestor modele: cu cât utilizatorii rămân angajați, „agățați” mai mult, cu atât mai mult platformele pot difuza publicitate și colecta datele lor comportamentale, și se valorifică cu atât mai multă publicitate țintită.

            2.1. Un risc pentru sănătatea mintală. Legătura dintre design-ul adictiv și riscul pentru sănătatea mintală face obiectul a numeroase cercetări, iar rezultatele acestora converg spre una de cauzalitate, cu consecințe din ce în ce mai devastatoare pentru victimele fenomenului. Situația a generat demersuri în justiție care, la rândul lor, pe baza analizelor medicale de specialitate și a concluziilor rezultate, dezvoltă o jurisprudență tot mai bogată și mai relevantă.

            2.2. Condamnarea Meta și a Google în S.U.A. Răspunsul de drept privat. Cel mai bogat contencios de gen s-a dezvoltat este ocean, unde mai multe proceduri, individuale sau colective, cu un asemenea obiect sunt în curs. Întreprinderile se apără invocând libertatea de expresie și o protecție federală, ce ar rezulta din secțiunea 230 a Communication Decency Act din 1996, care înlătură răspunderea lor în privința conținuturilor publicate de utilizatori. Dar această protecție e străină concepției rețelei, ceea ce explică faptul că unele dintre ele au preferat să încheie acorduri amiabile. Altele, precum Meta și Google, au refuzat să urmeze o atare cale, ajungând a fi sancționate de instanțe judiciare. Astfel, Curtea Superioară a Californiei (Los Angeles) le-a condamnat, la 25 martie 2026, pentru atingere adusă bunăstării unei utilizatoare. Ele vor trebui să verse 6 milioane de dolari daune-interese punitive (4,2 milioane de dolari pentru Meta, pe seama Instagram și Facebook, și 1,8 milioane dolari pentru Google, din cauza activității sale pe YouTube). Faptul generator rezidă în funcționalitățile adictive (derulare infinită, recomandări algoritmice), iar prejudiciul e constituit din tulburări de sănătate mintală (anxietate și depresie, dismorfie corporală și gânduri de automutilare). Utilizatoarea, astăzi majoră, reproșează celor doi giganți de rețele sociale faptul de a fi început să le utilizeze de la vârsta de 6 ani, crearea de produse atât de adictive precum țigarete ori cazinouri on-line și disimularea pericolelor activității lor. Rămânea problema mai complicată, a legăturii de cauzalitate. „Răul” aferent rezultă în rețele sociale? În cauza californiană și aceasta a fost ceva determinant, fără îndoială, unul dintre avocații reclamantei prezentând juriului, în cadrul pledoariilor de deschidere, documente interne ale Meta și YouTube arătând că respectivele întreprinderi aveau cunoștință de efectele negative ale produselor lor asupra copiilor și chiar le discutaseră. Paralela se făcea cu procedurile angajate altădată contra fabricanților de țigări și genera influențe și concluzii. Într-adevăr, în 1998, Philip Morris și R.J. Reynolds încheiaseră un acord global de 206 miliarde de dolari cu peste 40 de state americane, care le angaja să înceteze vânzarea de țigarete la minori. După aceasta, statele au intervenit și au adoptat o reglementare strictă. Se va ajunge și o atare soluție și în privința rețelelor sociale?

            2.3. Condamnarea Meta în New Mexico. Perspective penale. La 24 martie 2026 un tribunal din Santa Fe a condamnat Meta după ce a fost declarată vinovată de punerea în pericol a minorilor (facilitând exploatarea sa sexuală). Întreprinderea trebuie să verse 375 milioane de dolari ca sancțiune civilă (cuantum maxim în temeiul Unfair Practices Act). Procesul fusese angajat la biroul procurorului general al statului în decembrie 2023 în urma unei anchete întreprinse de cotidianul The Guardian și care demonstra că Facebook și Instagram deveniseră locuri de piață pentru traficul sexual de copii. Apărarea, bazată pe secțiunea 230 din Communication Decency Act, a fost înlăturată, dezbaterea purtându-se conceperea serviciului. Tribunalul s-a sprijinit pe documente interne ale Meta și depoziții care arătau că aceasta fusese alertată în privința riscurilor, atât de salariați cât și de specialiști. S-a considerat, de asemenea, că firma blocase accesul la probele crimelor de pedopornografie. Dincolo de condamnarea la plata amenzii civile, instanța a cerut ca proiectarea rețelelor să fie revăzută (procedura de verificare a vârstei, refuzul de acces al predătorilor). Jurisprudențele în cauză reflectă necesitatea unui răspuns juridic adecvat, chiar în absența, încă, a unor reglementări directe.

 

 

3. Doctrina S.U.A. privind reglementarea IA 

Reglementarea IA - SUA: Deși la nivel de recomandare, documentul National Policy Framework for Artificial Intelligence: Legislative Recommendations, adoptat de administrația SUA la 20 martie a.c., înaintează Congresului propuneri privind evitarea fragmentării reglementărilor domeniului între statele federate. Sunt identificate mai multe axe de urmat: protecția minorilor și a utilizatorilor, încadrarea efectelor economice și energetice ale sistemelor de IA, protecția proprietății intelectuale, garanția libertății de expresie față de riscurile moderării algoritmice, precum și dezvoltarea competențelor și a mâinii de lucru specializate. 

            La 20 martie 2026, Administrația S.U.A, sub egida Casei Albe, a publicat documentul National Policy Framework for Artificial Intelligence: Legislative Recommendations, care exprimă doctrina oficială americană privind reglementarea inteligenței artificiale (IA) la nivel federal. Lipsit de valoare juridico-normativă, textul vizează să orienteze Congresul S.U.A. în elaborarea unui cadru federal în materie de IA, privilegiind o abordare unificată în scopul de a evita fragmentarea reglementărilor domeniului între statele federate. Se preconizează astfel instituirea unui mecanism de preemțiune federală, care limitează capacitatea statelor federate de a adopta reglementări substanțiale în materie. Obiectivul e acela de a preveni emergența unui corpus normativ eterogen, perceput ca o frână în calea inovării și a competitivității întreprinderilor tehnologice, în beneficiul unui standard național, preponderent stabilit în mod voluntar, puțin constrângător. Pe fond, sunt identificate mai multe axe de urmat: protecția minorilor și a utilizatorilor, încadrarea efectelor economice și energetice ale sistemelor de IA, protecția proprietății intelectuale, garanția libertății de expresie față de riscurile moderării algoritmice, precum și dezvoltarea competențelor și a mâinii de lucru specializate. Textul privilegiază în acest sens o reglementare sectorială, întemeiată pe acțiunea autorităților existente, fără a se recomanda un regulator unic. În fine, respectivele linii directoare se înscriu într-o strategie de consolidare a leadership-ului tehnologic american și tind la securizarea dezvoltării și pregătirii în privința modelelor de IA, limitându-se constrângerile reglementare.

 

 

4. Italia: justiția anulează o amendă aplicată OpenAI 

Jurisprudența IA – Italia: O instanță din Italia a anulat o amendă de15 milioane de euro, aplicată OpenAI de autoritatea italiană pentru protecția datelor, confirmând astfel rolul judecătorului în încadrarea competențelor autorităților de protecție a datelor personale. Se deschide astfel calea contestărilor jurisdicționale mai sistematice și structurării unei jurisprudențe relevante în materie. 

            La 19 martie 2026 o jurisdicție din Roma a anulat amenda de 15 milioane de euro, aplicată OpenAI de Garanti per la protezione dei dati personali (autoritatea italiană independentă însărcinată să vegheze la respectarea legislației privind viața privată și protecția datelor personale), pentru deficiențe în respectarea dreptului datelor personale, în legătură cu funcționarea datelor personale. Această sancțiune, pronunțată în 2024, se baza, în special, pe absența bazei legale suficiente pentru tratamentul datelor personale utilizate pentru antrenamentul modelului, precum și pe deficiențele înregistrate de OpenAI în privința obligațiilor de transparență prevăzute în RGPD. Anulând această decizie, judecătorul a pus în discuție puterea de apreciere a autorității de control, fără ca motivele precise ale anulării să fie detaliate și făcute publice până la acest moment. Respectiva hotărâre judecătorească se înscrie într-un context de juridicizare crescândă a contenciosului reglementării IA, ilustrat de rolul crescând al judecătorului în încadrarea competențelor autorităților de protecție a datelor personale. Ea ar putea, de asemenea, fragiliza, pe termen scurt, amploarea sancțiunilor administrative edictate împotriva actorilor IA, deschizând calea contestărilor jurisdicționale mai sistematice și structurării unei jurisprudențe relevante în materie.

Prof. univ. dr. Mircea DUȚU

Vezi și Observatorul Dreptului Inteligenței Artificiale (ODIA) – martie 2026 ->  ONU: Crearea grupului științific internațional independent privind IA
Președinte al Universității Ecologice București, fiind specializat în dreptul mediulului, amenajării teritoriale și urbanismului.
Back To Top