IA: provocări și mijloace de apărare a drepturilor de autor
Prezența publică și publicitatea extraordinară de care s-au bucurat în lumea spectacolului, și nu numai, „cântăreața” Xania Monet și „actrița” Tilly Norwood, personaje în întregime generate de inteligența artificială, exprimă nu numai o nouă eră a conținuturilor hibride, amestecând creația umană și producția tehnologică, ci și inedite provocări juridice.
1. Atari producții artificiale, care fac concurență directă omologilor umani și amenință viitorul mai multor profesii (meserii) se dezvoltă și acționează într-o zonă juridică gri și ridică din acest punct de vedere probleme de fond. Sunt ele un creator precum oricare altul? Căror personaje pe care le produc aparțin? Cum se respectă drepturile muzicienilor, cântăreților (interpreților) ale căror opere au fost utilizate pentru antrenarea modelelor de IA? În cazul dat, de exemplu, replica unei concurente umane a fost elocventă: „Se fură imaginile a sute de tinere femei pentru a crea o actriță IA. Sunt furturi de identitate”. E, de altfel, chiar principiul IA generativ: se hrănește dintr-o imensă cantitate de conținuturi (audio, video, texte, imagini ș.a.) în scopul de a antrena modelele sale (precum ChatGPT). „Aceste sisteme au pătruns în cataloagele editorilor din întreaga lume. Mulți luptă împotriva unei atare uzurpări dar, pentru moment, nu există niciun sistem de remunerare echivalent, de exemplu, celui al drepturilor conexe negociate între editorii de presă și marile platforme”, precizează reprezentanții sferei juridice. Totuși, o atare extracție de date e permisă de dreptul UE, în afară de cazul în care titularii de drepturi își manifestă în mod expres dezacordul lor (opt-out), așa cum prevede Directiva (UE) nr. 2019/790 din 17 aprilie 2019 în privința text and data mining (extragere de texte și de date).
Din punct de vedere tehnic, acest drept la opoziție (opt-out) e dificil de aplicat; el implică pentru titularii drepturilor să se opună actelor de extragere de date și de texte într-o „manieră apropriată”, fără ca astăzi să fie posibil să se determine cu certitudine ceea ce e „o manieră apropriată”: mențiunea în condițiile de utilizare a unui site e suficientă? Este în mod necesar să-l exprimăm prin intermediul metadatelor? Față de o asemenea misiune cvasiimposibilă, se propune inversarea sarcinii probei și a stabili, ca principiu, că, atunci când e vorba de un mare sistem de IA, să se prezume că s-ar fi căutat în toate cataloagele de internet. Spre a se apăra, s-ar impune atunci ca marii actori tehnologici să probeze că nu a ingerat opera denunțată, ceea ce apare ca o sarcină deosebit de dificilă.
Se naște apoi dilema de a ști pe ce temei juridic ar trebui să acționeze titularii de drepturi dacă estimează că au fost plagiați în acest mod?
Desigur, drepturile personalității constituie o primă pistă posibilă; într-adevăr, utilizarea elementelor care fac o persoană identificabilă (în special vocea și imaginea sa) necesită, în principiu, o autorizare. Cu toate acestea, aplicarea drepturilor personalității este condiționată de faptul ca artistul respectiv să fie recognoscibil, identificabil. Aceasta implică o reproducție identică, ori aproape, a tuturor caracteristicilor imaginii ori a vocii sale. O altă pistă ar consta în a recurge la prevederile Regulamentului (UE) nr. 2016/679 din 27 aprilie 2016 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal și privind libera circulație a acestor date (RGPD), întrucât imaginea și vocea unei persoane constituie date cu caracter personal, care pot deveni unele sensibile în funcție de utilizarea conferită. Nu în ultimul rând, precum în dreptul francez, captarea nejustificată de valoare, utilizarea de elemente de recunoaștere a unei persoane, precum vocea ori modul de a se comporta pe scenă, reprezintă o formă de concurență neloială, așa-zise acte de parazitism. Acestea pot da naștere unei acțiuni în răspundere independentă de orice drept privativ (de folosință exclusivă). Altfel spus, e posibil să se acționeze chiar fără a cunoaște datele de antrenament utilizate ca model; ar fi suficient să se demonstreze că societatea de IA, creând personaje care preiau caracteristicile unui solist, de exemplu, vocea sa, modul de a cânta, stilul scenic s-a plasat în mod deliberat în siajul său spre a valorifica propriul produs. Parazitismul vizează să se restabilească un echilibru comercial; el nu protejează o „proprietate” în sens strict, ci sancționează societatea de IA care profită, fără contrapartidă, de notorietatea, de know-how-ul ori de munca altuia. Acest tip de demers judiciar evită acționarea pe terenul contrafacerii, al cărei deznodământ e mai aleatoriu.
În privința acestei din urmă perspectivă, acțiunea în contrafacere presupune să se demonstreze atingerea adusă unui drept de proprietate intelectuală, o probă care poate să se dovedească greu de adus. De exemplu, o interpretă ar putea considera că starul virtual s-a inspirat din interpretările și vocea sa și că sistemul de IA s-a inspirat din repertoriul său. Cum să se probeze însă că interpretările unui artist (înregistrările, concertele sale ș.a.) au servit la antrenarea unei inteligențe artificiale? Și chiar dacă proba ar fi adusă, unele utilizări ar putea fi permise de lege, în special în cadrul excepției de extragere de texte și de date în Europa ori de fair use în dreptul american.
În fața unei atari complexități și a unor asemenea dificultăți juridico-procedurale, a incertitudinilor și a dinamicii extraordinare a situațiilor, studiourile, producătorii și difuzorii preferă să se îndrepte spre și să recurgă, cel puțin deocamdată, la soluții tranzacționale. Viitoarele negocieri din sectorul muzical vor ajunge, probabil, să prevadă clauze cu privire la proveniența și autorizarea datelor de antrenament al IA, de garanții împotriva contrafacerii vocilor, melodiilor ori timbrelor artiștilor existenți, precizări asupra statutului de „interpret” și privind împărțirea veniturilor din streaming și condițiile particulare pentru exploatare în live ori în versiunea remixată a bucăților create de IA.
2. În același timp, cele două personaje nu sunt numai simbolul avansurilor spectaculare ale IA generative în domeniul divertismentului, ci și o confirmare a faptului că corpul uman, vocea ori prezența pe scenă devin date exploatabile, invitând dreptul să se reinventeze spre a răspunde unor situații inedite.
De exemplu, în privința X. Monet, vocea și cântecele sunt rezultatele unei platforme de IA, în timp ce aportul uman principal se situează mai ales în scrierea cuvintelor și direcția artistică. Se ridică astfel și întrebarea: mai putem vorbi atunci de operă în sensul legislației de proprietate intelectuală? Eticheta (marca) dobândește un veritabil drept de autor ori pur și simplu o licență de exploatare asupra fișierelor digitale generate de un soft? Ce devin drepturile conexe ale artiștilor interpreți rezervate în mod tradițional persoanelor fizice?
O activitate generată de IA nu are nici corp, nici conștiință și nici emoții și deci nu poate să fie titularul unui drept de proprietate intelectuală. Dreptul de autor a fost gândit pentru a proteja autorul, persoană fizică; reglementările din toate statele părți la Convenția de la Berna privind dreptul de autor consideră că numai o persoană fizică poate fi titularul unui atare drept. O mașină, oricât de inteligentă ar fi ea, nu poate fi un autor atâta timp cât nu poate să livreze o interpretare personală. Atribuirea unui drept de autor ori a unuia conex unei inteligențe artificiale ori a conceptorului său pare exclusă. Așadar, X. Monet nu ar putea revendica un drept de artist-interpret propriu persoanelor umane.
Ce tip de protecție ar putea fi totuși acordată conținuturilor de IA? Și cine ar fi beneficiarul? Jurisprudențele de drept comparat de până acum converg spre faptul de a refuza conferirea protecției dreptului de autor acestora.
Așadar, aportul uman la produsul IA e ceea ce trasează frontiere între ceea ce e susceptibil să fie protejat și ceea ce nu e. Astfel, un cântec generat 100% de o IA nu e o creație originală și nu poate deci să fie protejat precum o operă. Dimpotrivă, dacă bucățile provin din opțiuni umane și ale prejudecăților estetice arbitrare ce reflectă personalitatea umanului care le furnizează, precum o fotografie poartă amprenta personalității fotografului, ei ar putea pretinde acest statut.
Dacă am cere unui instrument de IA să producă o bucată care se inspiră dintr-un artist, aceasta nu e în mod veritabil o creație și poate deveni chiar o contrafacere, dacă această preluare ar fi exploatată comercial. Dacă instrucțiunile date IA sunt foarte precise, structurate, segmentate și cu modificări cerute, se acționează astfel la maniera unui șef de orchestră și s-ar putea să se demonstreze că bucata e fructul unui proces creativ și îi permite să beneficieze de protecția dreptului de autor.
Referitor la vocea sintetică a X. Monet, acesta nu ar putea beneficia de protecția dreptului de autor decât începând din momentul în care ar juca un veritabil rol creativ (prin alegerea tonului, ritmului, stilului vocal etc.), în vederea obținerii unui rezultat original și sub rezerva a se fi respectat vocile sursă în mod licit.
Dincolo de problemele de proprietate intelectuală, emergența acestor creaturi sintetice, fructul unui asamblaj algoritmic de voci, imagini și de performanțe umane, au un impact asupra ecosistemului juridic global.
Fixând reguli proprii jocului, „creația” generată de IA transformă în profunzime lanțul de valoare al industriei spectacolului, de la scriere la distribuție, trecând prin interpretare și producție.
Asistăm la o concentrare a drepturilor, care mai înainte erau împărțite între autor, interpret și producător, în mâinile unui singur actor digital ce va pilota creația după generarea operei până la interpretare. Această concentrare a valorii la mari operatori, precum Meta ori OpenAI va face să dispară anumite meserii din lumea spectacolului. Rămâne de văzut dacă publicul va adera la noile opere și atunci se vor impune noi considerații, inclusiv juridice.
California: dezvoltarea legislației privind IA
Reglementarea IA: SUA – statul American California a inițiat mai multe proiecte de lege privind protecţia consumatorilor şi protecţia minorilor față de tehnologiile emergente, precum inteligența artificială și rețelele sociale,. Este pentru prima dată când un stat american legiferează pe această temă, și aceasta în condițiile în care administrația federală a Președintelui D. Trump se opune reglementării IA.
Într-un comunicat din 13 octombrie 2025, guvernatorul Californiei a anunțat că a semnat 15 proiecte de lege menite să protejeze minorii față de tehnologiile emergente, precum inteligența artificială și rețelele sociale. Aceste diverse acte normative se integrează în prelungirea preocupărilor care vizează protejarea minorilor de dependența de rețelele sociale și păstrarea confidențialității lor online (Legea AB 2273), precum și consolidarea transparenței rețelelor sociale în fața dezinformării, hărțuirii și extremismului (Legea AB 587).
O primă serie din aceste proiecte de lege consolidează drepturile la protecția datelor. Unele au fost deja adoptate.
– Legea SB 361, adoptată la 11 septembrie 2025, consolidează protecția consumatorilor permițându-le acestora, printr-un mecanism de dezabonare în masă, să identifice și să șteargă datele lor personale colectate în scopul vânzării de către brokerii de date.
– Legea SB 446, adoptată la 18 februarie 2025, impune entităților care dețin date cu caracter personal să își notifice clienții (în termen de treizeci de zile) și să notifice Procurorul General (în termen de cincisprezece zile) în cazul unei încălcări.
În ceea ce privește inteligența artificială (IA), proiectul de lege AB 316 împiedică dezvoltatorii și utilizatorii de IA să se sustragă răspunderii civile susținând că tehnologia a acționat în mod autonom și clarifică răspunderea pentru daune.
În ceea ce privește protecția minorilor, o serie de proiecte de lege abordează noile provocări:
– Legea AB 1043 impune furnizorilor de sisteme de operare și aplicații să implementeze mecanisme de verificare a vârstei utilizatorilor pentru a evita expunerea minorilor la conținut neadecvat și periculos.
– Proiectul de lege AB 772 își propune să combată hărțuirea cibernetică pe rețelele de socializare care are loc în afara școlilor.
În ceea ce privește criminalitatea cibernetică, proiectul de lege AB 621 întărește reprimarea „deepfake-urilor pornografice” (practica de a truca videoclipurile pornografice prin integrarea feței unei persoane): acțiunea civilă este deschisă minorilor, iar cuantumul despăgubirilor pentru victime poate ajunge până la 250.000 de dolari.
1. Legea SB 243 – Campion chatbots
După intrarea în vigoare, la 29 septembrie 2025, a legii SB-53-Transparency in Frontier Artificial Intelligence Act, iată că statul american California, cel mai populat din S.U.A., pe teritoriul căruia își au sediul 32 din cele 50 principale întreprinderi tech din lume, joacă un rol de pionier în materie de IA, prin promulgarea, la 13 octombrie 2025, a Senate Bill (SB) 243 – Companion chatbots (ce va intra în vigoare la 1 ianuarie 2026) care poate oferi iarăși un exemplu de reglementare a problemei respective. După experiențele unei serii negre de suicide ale adolescenților, care a șocat țara, textul legal vizează protejarea utilizatorilor cei mai vulnerabili, în timp ce respectivii chatbots sunt din ce în ce mai percepuți precum confidenți, în psyi ori amor.
Este pentru prima dată când un stat american legiferează pe această temă, și aceasta în condițiile în care administrația federală a Președintelui D. Trump se opune reglementării IA și a decis să împiedice statele federate să adopte reguli proprii în această privință. E vorba, totodată, și de o premieră mondială ce intervine în contextul în care creșterea în putere a asistenților IA a transformat utilizările internauților și ale tinerilor în special.
1.1. În concret, noua lege californiană impune mai întâi editorilor de chatboți (precum OpenAI, Character AI, Meta, Google, Replika etc.) să verifice vârsta utilizatorilor lor; în acest sens, aceștia vor trebui să afișeze în mod regulat – la fiecare 3 ore, pentru minori – mesaje care să amintească internautului că interlocutorul său e o mașină. O altă obligație e aceea de a detecta gândurile suicidare și de a împiedica minorii de a vedea imagini cu caracter sexual generate de chatbot. În fine, în același registru al controlului, vor trebui stabilite protocoale de prevenire a suicidului și a automutilării.
Textul legal face respectivele întreprinderi responsabile din punct de vedere juridic dacă chatboții lor deraiază. Se instituie, în acest cadru, amenzi, considerate mai puțin disuasive, de numai 1000 de dolari pentru fiecare infracțiune, dar care, în caz de multiplicare a încălcărilor (nerespectărilor), ar putea ajunge deosebit de costisitoare pentru respectivele întreprinderi.
1.2. Prezentat Parlamentului în ianuarie a.c., proiectul de lege a întâmpinat rapid numeroase împotriviri din partea cercurilor interesate, dar a cunoscut un impuls major, după sinuciderea lui Adam Raine (11 aprilie 2025), un adolescent de 16 căruia ChatGPT „i-a validat gândurile cele mai autodistrugătoare”, potrivit părinților săi care au introdus plângere împotriva OpenAI. În august, scurgerile din presă arătau că chatboți Meta erau autorizați să aibă conversații „romantice” cu minorii. Mai recent, o familie din Colorado a atacat start-up-ul Character AI după suicidul fiului lor de 13 ani, care întreținerea schimburi cu caracter sexual cu chatboții întreprinderii în cauză.
În fața presiunii familiilor și a regulatorilor, de curând OpenAI a implantat un control parental, precum și notificări care să permită alertarea părinților în caz de probleme serioase de acest gen. La rândul său, Character AI a introdus atari controale parentale, precum și semnalizarea automată a conținuturilor legate de suicid. În paralel, ea a dezvoltat o IA distinctă pentru utilizatorii minori, cu filtre mai stricte și cu răspunsuri mai prudente.
Autoritățile californiene promit să continue asemenea demersuri reglementare, menite să controleze consecințele negative ale noilor tehnologii și să favorizeze dezvoltările lor benefice.
1.3. Încadrarea juridică cât mai bună a chatboților reprezintă o preocupare prioritară și la nivelul Uniunii Europene. Există deja unele secvențe reglementare pertinente, dar complexitatea problemei pare a impune adoptarea unui nou text special, digital Fairnes Act, care să fie dezbătut anul viitor.
Un raport parlamentar prezentat în octombrie trecut pleda pentru o consolidare a protecției minorilor în materie de IA, inclusiv prin interdicția accesului celor mai mici de 13 ani la acești companioni virtuali. O altă pistă o reprezintă precizarea cadrului de aplicare a AI Act din 13 iunie 2024 care obligă întreprinderile la o mai mare transparență asupra modelelor pe care le produc și promovează.
Experiența ne arată că nu putem conta pe autoreglementarea actorilor economici în privința acestor subiecte. O speranță survine totuși din partea dezvoltării jurisprudenței și adoptarea liniilor directoare de interpretare a dispozițiilor regulamentare pertinente.
Franța: Raportul parlamentar „Creație și IA: de la prădarea la partajarea valorii”
IA şi dreptul de autor: Franţa– Senatul francez a elaborat un raport de informare, intitulat Creația și IA: de la prădare la partajare a valorii, care pune în discuţie cadrul de reglementare al dreptului de autor în relaţie cu inteligenţa artificială. Se denunță astfel un vid normativ: Directiva (UE) nr. 2019/790 din 17 aprilie 2019 privind dreptul de autor și drepturile conexe pe piața unică digitală se dovedește a fi inadecvată specificității IA generative şi se propune o refondare a cadrului juridic european.
La 20 octombrie 2025, Senatul Franței a publica raportul de informare nr. 842 (2024-2025), intitulat sugestiv Creația și IA: de la prădare la partajare a valorii, elaborat de comisia pentru cultură, educație, comunicare și sport, în cadrul misiunii de informare privind inteligența artificială și creația. Documentul analizează efectele IA generativă asupra creației artistice și protecției operelor de creație intelectuală. Se constată astfel că marea majoritate a modelelor de IA sunt antrenate pe conținuturi protejate de dreptul de autor, fără autorizație prealabilă, contrar dispozițiilor Codului de proprietate intelectuală. Se denunță, în acest sens, un vid normativ: Directiva (UE) nr. 2019/790 din 17 aprilie 2019 privind dreptul de autor și drepturile conexe pe piața unică digitală se dovedește a fi inadecvată specificității IA generative. Excepția sa, zisă „text and data mining” (TDM), prost delimitată, servește astăzi ca fundament pentru prelevarea de conținuturi protejate. Raportul subliniază, de asemenea, ambiguitățile Regulamentului (UE) nr. 2024/1689 de stabilire a unor norme armonizate privind inteligența artificială din 13 iunie 2024, al cărui compromis între inovație și reglementare conduce la o slabă protecție a autorilor: transparența limitată a datelor de antrenament, absența garanțiilor constrângătoare și dependența de un cod de bune practici neobligatorii.
Față de atari lacune, Senatul francez se pronunță pentru o refondare a cadrului juridic european. Se propune, în acest sens, construirea și recunoașterea unui veritabil drept la remunerare pentru personale îndreptățite atunci când operele lor sunt exploatate în scopuri de antrenament a IA, impunerea transparenței complete a datelor utilizate de furnizorii de IA și constituirea de baze de date adecvate.
În fine, misiunea recomandă un răspuns graduat în trei etape: concertarea între actorii vizați; apoi, în caz de eșec, depunerea unui proiect/propunere de lege privind stabilirea și aplicarea unei prezumții de utilizare a conținuturilor culturale de către furnizorii de IA; după aceea, în caz de nou eșec instaurarea unei taxe pe cifra de afaceri realizată în Franța de furnizorii de tehnologii de inteligență artificială.
Prof. univ. dr. Mircea DUȚU