Franța: (Posibilă) lege de protecție a dreptului de autor în fața IA
Într-un comunicat oficial publicat la 28 noiembrie a.c., ca reacție la eșecul unui ciclu de cinci reuniuni de concertare între diferitele părți interesate, co-organizate cu ministerul delegat cu digitalul, ministerul francez al culturii preciza: „Dreptul de autor e soclul comun al excepției noastre culturale și un pilon esențial al suveranității noastre digitale și creative. Apare astfel pe deplin legitim ca autoritățile publice să preconizeze în această privință acțiuni, inclusiv în materie legislativă”. Era o referire directă la soluționarea confruntărilor dintre fabricanții de inteligență artificială și furnizorii de conținuturi, prin elaborarea și adoptarea unei legi care să susțină industriile culturale și media franceze în conflictul cu marile societăți americane OpenAI, Google, Meta, Microsoft ori cea franceză Mistral. În mod concret, preconizatul act normativ ar viza să încerce a ajuta sectoarele culturale și mediatice să negocieze o remunerare în contrapartidă cu utilizarea cărților, articolelor, imaginilor ori muzicii lor protejate de dreptul de autor pentru antrenarea modelelor de IA. Se cita ideea instaurării pe calea reglementării a unei „inversări a sarcinii probei”, care ar obliga întreprinderile de IA să probeze că ele nu au utilizat un conținut – mai degrabă decât invers.
Se menționează, de asemenea, „o prezumție de utilizare a conținuturilor culturale de furnizori de IA”, reflectând ideea că fabricanții acestor noi tehnologii aspiră pentru modelele lor enorme porțiuni de conținuturi publicate pe Web. Aceste piste, se reamintește în comunicat, erau deja evocate în rapoartele de analiză solicitate și realizate de profesoara de drept Alexandra Bensamoun și economistul Joelle Farchy. Nu mai puțin de 15 organizații ale persoanelor îndreptățite s-au adresat în ultimul timp guvernului spre a-i solicita elaborarea și promovarea unui proiect de lege de acest gen. Profesiile culturale și de media deplâng o lipsă de voință de a negocia din partea fabricanților de IA, care nu au încheiat până acum decât un număr limitat de acorduri de parteneriat în Franța (respectiv OpenAI cu „Le Monde”, Mistral AI cu Agence France Presse și Associated Press, Meta cu „Le Monde”, „Telerama” și „Le Nouvel Obs.” etc.). Respectivele acorduri încadrează utilizarea și prezența conținuturilor diferitelor titluri în serviciile de inteligență artificială dezvoltate de întreprinderile de tech, fie că e vorba de antrenarea și ameliorarea respectivelor modele de IA generative (input), fie de utilizarea conținuturilor ca referință, ori elemente de contextualizare în răspunsuri (out-put). Și aceasta, în condițiile în care se apreciază că Regulamentul (UE) 2024/1689 din 23 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială, că nu a impus fabricanților suficientă transparență asupra datelor utilizate pentru antrenarea modelelor lor.
Printre problemele preliminare ale respectivului demers legislativ se remarcă și analiza compatibilității unor atari propuneri cu dreptul unional-european pertinent. Persoanele îndreptățite au încercat, în zadar până acum, să facă să se introducă în codul de bune practici aferent AI Act măsuri vizând obligarea fabricantului de IA de a obține licențe. Directiva (UE) 2019/790 din 17 aprilie 2019 privind dreptul de autor și drepturile conexe pe piața unică digitală acordă, la rându-i, furnizorilor de conținuturi un drept de „opt-out”, adică de a semnala refuzul lor de a-și vedea utilizate conținuturile ce le aparțin, dar aceștia estimează ca dificil a se asigura respectarea sa.
Raportul prof. A. Bensamoun, realizat pentru Consiliul Superior al Proprietății Literare și Artistice, publicat în iulie 2025, aprecia ca drept compatibile atari propuneri de lege ferenda modificatoare cu textele Uniunii Europene. De asemenea, se considera compatibilă și prezumția de utilizare, având în vedre că ar aparține modalităților procedurale. În plus, aceasta nu ar dispensa de nevoia de a face să evolueze dreptul unional-european, în mod ideal, spre a înlocui opt-out-ul printr-un opt-in; adică o obligație explicită pentru furnizori de a cere o autorizație prealabilă, ceea ce ar implica însă o modificare a „foartei sensibile” directive privind dreptul de autor din 2019.
Până la eventualele evoluții legislative adecvate și ca soluții de avarie rămâne recurgerea la calea jurisdicțională. În martie a.c. sindicatele editorilor și autorilor au introdus o plângere contra Meta pentru încălcarea dreptului de autor, acuzând în special grupul de a fi antrenat modelul său Llama pe o bază de date de 200.000 cărți denumită Books3. Fabricanții de IA răspund, în general, la atari susțineri că ei fac o „utilizare rezonabilă” („fair use”, în dreptul anglo-saxon) al operelor, întrucât ei nu le reproduc, revenind judecătorului să tranșeze, de la caz la caz, problema. Furnizorii replică faptul că conținuturile generate de IA concură cu ale lor. APIG a atacat, la rândul său, în septembrie, enorma bază de date de conținuturi aspirate de pe Web Common Crawl și a obținut angajamentul de a fi retrase.
Nu în ultimul rând, se preconizează și a se încerca din nou să se deschidă negocieri cu furnizorii de IA care au recunoscut a fi utilizat atari conținuturi, iar eventualele demersuri judiciare să fie pregătite și demarate în funcție de împrejurări concrete.
Getty Images c. Stability: IA și drepturile de autor
(Marea Britanie, High Court of Justice, hotărârea din 4 noiembrie 2025)
IA și dreptul de autor: Marea Britanie – cu o motivare de peste 200 de pagini, hotărârea din 4 noiembrie 2025, în cauza opunând Getty Images contra Stability, furnizează o analiză juridică detaliată în materia contrafacerii mărcii prin metode furnizate de inteligenţa artificială. Hotărârea aduce un aport semnificativ în jurisprudența europeană în materie, clarificând chestiuni importante de intersecție între dreptul de autor și IA.
La 4 noiembrie 2025, judecătorul Joanna Smith a pronunțat o hotărâre importantă, în cauza opunând Getty Images contra Stability, în Marea Britanie. Într-o motivare de peste 200 pagini, judecătorul britanic evocă numeroase puncte ridicate în dosar, furnizând astfel o analiză juridică și tehnică detaliate. Reperele jurisprudențiale dezvoltate aduc clarificări interesante asupra ecuației complexe dintre IA, dreptul mărcilor și dreptul de autor. (High Court of Justice, 4 nov. 2025, no. IL-2023-000007).
Starea de fapt.Reclamanta Getty Images e cunoscută pentru activitățile sale de a concede sub licență conținut multimedia, precum foto și video. Ea se remarcă mai ales prin filigranele sale „Getty images” ori „iStock” denumite și watermarks, aplicate pe fotografii atunci când acestea din urmă sunt previzualizate on-line. Stability AI e o societate fondată în 2019, cu sediul social în Marea Britanie, specializată în inteligență artificială. Ea este cunoscută în special pentru modelele sale generative Stable Diffusion, care permit conversia prompts în imagini. Acestea sunt puse la dispoziția utilizatorilor în modalități diferite, de exemplu pe calea site-ului web, precum Hugging Face, permițând utilizatorilor să descarce fișierele modelului ori să acceadă la model via interfețelor de genul DreamStudio sau platforma API a Stability. Aceasta a permis unui mare număr de beneficiari să genereze un volum important de imagini.
În urma furnizării de Stable Diffusion publicului, Getty Images a observat că unele din conținuturile generate de prima conțineau figurine ale sale și ale iStock.
În 2023, Getty Images decide să urmărească în justiție Stability AI pentru un număr de infracțiuni. Totuși pe măsură ce cauza avansa, plângerea a fost în mod substanțial redusă și unele chestiuni au fost abandonate. Astfel, s-a renunțat la capătul de cerere privind încălcarea directă, în temeiul dreptului de autor privind antrenamentul modelelor, actele respective neavând loc în Regatul Unit. Tot așa și în privința generării de conținuturi potențial contrafăcute.
În fapt, prompts-urile specifice ce permiteau generarea acestui conținut au fost blocate. Abandonul respectivelor acuzații au condus la renunțarea la alte capete de cerere, intim legate de ele, adică încălcarea dreptului privind bazele de date. Cu titlu liminar, se cuvine arătat că judecătorul a subliniat că s-a recunoscut că toate versiunile lui Stable Diffusion, precum versiunile v1x, v2.x și „SDXL” au fost antrenate utilizându-se diverse subansamble ale setului de date LAION-SB, creat de LAION. S-a admis, de asemenea, că cel puțin unele subansamble de date ale LAION conțin URL, care trimit la imagini de pe site-uri web ale Getty Images și că cel puțin anumite imagini ce provin de pe site-uri web Getty Images au fost utilizate în timpul antrenamentului lui Stable Diffusion (Decizie, §49).
În această situație, hotărârea judecătorească a rămas să statueze, în principal, asupra dreptului mărcilor și a chestiunii incriminărilor secundare pentru dreptul de autor, ori „secondary infringement”.
În privința primului subiect abordat de instanță, una din problemele centrale ale cauzei, Getty Images a susținut să Stability a comis acte de contrafacere a mărcii prin aplicarea de filigrane, identice sau similare mărcilor înregistrate, pe imaginile sintetice produse de Stable Diffusion și a utilizat semne în relația cu aceste servicii, respectiv furnitura de imagini sintetice. Din această perspectivă, decizia evocă trei temeiuri prevăzute de Trade Marks Act din 1994.
Cu titlu preliminar, judecătorul a pus problema stabilirii modelelor asupra cărora a purtat contrafacerea mărcii, în rezolvarea căreia a analizat diferite imagini generate și contextul lor, spre a determina dacă un utilizator „real” britanic, poate să fie susceptibil a se confrunta cu atari imagini purtând un filigran. Așadar, chestiunea contrafacerii mărcii nu se ridică decât pentru versiunea 1.x și cea 2.x (Decizie, §257).
S-a subliniat, totodată, natura particulară a cauzei. În fapt, filigranele reproduse, în cazul dedus judecății, sunt „extrem de deformate și/ori vagi, putând astfel să nu prezinte decât puține similitudini cu mărcile implicate, ceea ce o diferențiază de cauzele clasice de contrafacere a mărcii. O simplă „pată” ori un cuvânt foarte deformat, care ar putea ori nu să reprezinte o tentativă a modelului de a genera un filigran, e puțin susceptibilă de a constitui o bază solidă de incriminare. Dimpotrivă, cu cât filigranul e mai clar și mai puțin deformat, cu atât potențialul de contrafacere ar fi mai important (Decizie, §258).
În privința determinării consumatorului mediu, în contextul pertinent, primul dintre ei e utilizatorul care descarcă respectivul cadru sursă și ponderile modelului după GitHub și Hugging Face și execută interferența offline. Acest consumator mediu posedă competențe tehnice. Referitor la contextul pertinent se admite că el e susceptibil să citească fișa modelului (Model cards) precum și paginile GitHub și Hugging Face. Totodată, înțelege și că, odată modelul descărcat, el va utiliza un model de IA de vârf pentru a genera imagini sintetice plecând de la prompts-urile proprii. Ar înțelege, de asemenea, că imaginea generată pe propriul său calculator a fost fără intervenția Stability și că descărcarea modelului îi permite să i se adauge elemente personalizate. Tot așa, înțelege cum modelul e antrenat și pentru ce filigranele pot să fie generate. Totuși, privind consultarea licenței în prealabil, judecătorul a admis că unii utilizatori riguroși citesc licența, dar o proporție importantă nu o fac, în special prin faptul familiarității cu modelele de IA. În absența somației specifice de a citi, respectivul consumator poate să considere că aceasta nu e necesară.
Cel de-al doilea consumator mediu desemnează utilizatorul care execută interferența asupra infrastructurii informatice a Stability cu ajutorul unei API, la Developer Platform. Respectivul posedă un nivel bun de cunoștințe tehnice, chiar dacă mai restrâns decât primul consumator. Un atare consumator ar fi citit sau cel puțin ar fi verificat existența condițiilor de utilizare a API Stability AI înainte de a le accepta. Cu toate acestea, el e puțin disponibil să-și amintească în detaliu aceste condiții ori de a aprecia importanța lor potențială în raport cu generarea unei imagini sintetice particulare. Consumatorul mediu nu ar fi citit cu adevărat condițiile de licență, pentru că nu există obligații pertinente în condițiile de utilizare a API de a le citi. El ar înțelege că imaginile sunt generate de un model de IA furnizat de Stability și că modelul produce imaginile ca răspuns la proprii-i cereri și că ele sunt artificiale.
În fine, cel de-al treilea consumator mediu e cel ce utilizează serviciile Stability DreamStudio pentru a executa interferențe asupra structurii informatice a Stability, cu ajutorul unei interfețe web accesibile via un navigator clasic și crearea unui cont. Acest utilizator nu are nevoie de nici o cunoaștere tehnică particulară. Referitor la context, utilizarea platformei implică acceptarea activă a condițiilor de utilizare și utilizatorul se confruntă de mai multe ori cu o serie de markeri comerciali care indică faptul că, la originea serviciului furnizat, e Stability. Acest consumator, utilizând DreamStudio va înțelege la orice moment că el se află pe site-ul web al Stability, că imaginile sunt generate de un model de IA și că modelul produce imaginile ca răspuns la propriile-i cereri. Numeroși consumatori vor înțelege, de asemenea, că modelul e conceput numai pentru a genera „imagini artificiale”, chiar dacă o proporție importantă dintre ei nu le vor înțelege. Acest consumator mediu e considerat că ar fi citit, ori cel puțin verificat, existența condițiilor de utilizare mai înainte de a le fi acceptat și la fel și pentru licență. Cu toate acestea, el e puțin capabil de a-și aminti în detaliu aceste documente și nici nu înțelege în mod necesar importanța lor potențială în raport cu generarea unei imagini sintetice particulare. În fine, consumatorul mediu din cele trei categorii va acorda cel puțin o atenție moderată imaginilor generate, oricare ar fi utilizarea prevăzută a acestor imagini și chiar dacă utilizatorul nu ar avea nimic de plătit ori foarte puțin pentru a le genera.
Referitor la contrafacere [secțiunea 10 (1) din Trade Marks Act], aceasta a vizat utilizarea pentru produse identice și a fost reținută numai pentru anumite filigrane iStock, ce fuseseră, în mod efectiv, reproduse în imaginile generate via DreamStudio a lui Developer Platform. Mai întâi, unele puncte de apărare a lui Stability au constat în argumentul că utilizatorul era cel care avea controlul asupra ieșirii generate și, deci, respectiva societate nu era responsabilă decât pentru că a creat circumstanțele în care conținutul e generat. Instanța a respins acest argument și a considerat că Stability are un comportament activ, societatea fiind responsabilă în special de ponderările modelului. Acesta merge dincolo de simpla creare a condițiilor tehnice necesare utilizării semnului.
În fapt, semnele sunt aplicate pe imagini sintetice generate de clienți, grație funcționalității modelului, care depinde el însuși de datele sale de antrenament și asupra cărora Stability are un control și/ori o responsabilitate absolută (Decizie §398). În hotărâre se arată, totodată, că unele imagini generate de versiunile 1.x și 2.x, care includ semnele în chestiune, vor fi percepute de consumatorul mediu ca o comunicare comercială din partea Stability. Acesta exercită o activitate în Marea Britanie și furnizează Stable Diffusion consumatorilor în cadrul acesteia. „Stability oferă și introduce pe piață imagini sintetice purtând Semnele”, ceea ce constituie comunicarea comercială a firmei față de consumator. Utilizarea semnului e de natură a crea impresia că există o legătură materială în comerțul între produsele vizate și titularul mărcii. Comerciantul mediu, utilizând toate mecanismele de acces menționate anterior, poate să interpreteze semnul ca indicând o legătură între Getty Images și Stability, în special gândind că modelele au fost antrenate pe conținutului lui Getty grație obținerii unei licențe de utilizare. Această utilizare se înscrie deci în cadrul unei activități comerciale vizând a obține un avantaj economic și nu aparține de sfera privată și aceasta nu prezintă importanță decât dacă utilizarea în cauză în respectiva procedură să fie o utilizare privată de un consumator.
În privința identității de semne, aceasta nu a fost acceptat decât pentru mărcile iStock. Nu există, totuși, nici o probă a unei utilizări în lumea reală a unui semn identic la mărcile Getty Images, care au fost calificate deja ca „deformate”. Singurele filigrane clare vizând pe Getty Images au fost generate în timpul unei experiențe conduse de aceasta și care a fost astfel înlăturată.
Referitor la identitatea serviciilor și cea a produselor, judecătorul a procedat la o analiză a imaginilor generate față de produsele și serviciile designate în înregistrările de mărci de care e vorba. Getty a tins să valorifice doar imagini produse de Stability, fiind „fotografii”, ceea ce a fost respins. Suntem, mai degrabă, în fața unor „imagini sintetice”. De exemplu, judecătorul subliniază că furnitura de imagini sintetice (asupra DreamStudio și via API) aparțin definiției „serviciilor de imagerie digitală” din clasa 41, și există deci o identitate. În acest sens, se arată o identitate de produs, dar nu de servicii, în ceea ce privește mecanismul de acces prin „descărcare” pentru mărcile Getty Images (modelele v1.x și v2.x), precum și pentru mărcile iStock (numai modelul v1.x). În afară de asta, o identitate deopotrivă de produs și de servicii există în relație cu utilizarea DreamStudio și a platformei de dezvoltare, atât pentru mărcile Getty Images (modelele v1.x și v2.x), cât și pentru mărcile iStock (numai modelul v1.x).
În ceea ce privește contrafacerea mărcii, în sensul utilizării similare ce creează un risc de confuzie, s-a considerat că anumite asemănări pot fi reținute, din cauza unui risc de confuzie punctual pentru consumatorul mediu. Din motive similare prezentate mai sus privind utilizarea semnului în viața afacerilor, judecătorul a conchis că e o contrafacere în temeiul secțiunii 10 (2) din Trade Marks Act, în principal referitor la imaginile izolate ce poartă un filigran „iStock” și un artefact al stilului Getty care, în teorie, s-ar putea preta la confuzie pentru un consumator mediu (Decizie §465).
Cea de-a doua prolemă centrală a hotărârii judecătorești privește dreptul de autor și mai precis chestiunea „incriminărilor secundare” (secondary infringement) , prevăzute în secțiunile 22-27 din Copyright, Design and Patents Act 1988 (CDPA). Respectivele acte sunt sancționate din momentul la care autorul lor știe, ori are motive să gândească că ar constitui contrafacere, în special atunci când are cunoștință de caracterul contrafăcut și exemplar în cauză. În baza respectivelor acte este interzis importul de cópii ori de exemplare contrafăcute. Se ridică în această perspectivă determinarea dacă modelele puse la dispoziția utilizatorului britanic, deci importate în Regatul Unit, constituie o copie contrafăcută. Se impune, așadar, a se stabili dacă Stable Diffusion poate să fie considerată un „articol” în sensul art. 22 și 23 din CDPA și precum o „copie contrafăcută” conform prevederilor art. 27 din același act normativ.
Primul aspect de soluționat era deci legat de a determina dacă o copie ilicită poate să înglobeze un articol imaterial. Dina cest punct de vedere s-a decis că o copie electronică stocată pe un suport imaterial (precum cloud-ul AWS) poate să constituie o copie ilicită și deci, de asemenea, un „articol”. Așadar, o copie contrafăcută poate să fie o copie electronică conservată într-o formă intangibilă. Stability a susținut că indiferent dacă articolul e tangibil ori intangibil, copia contrafăcută trebuie să fie copie, adică o reproducere a unei opere protejate de dreptul de autor. S-a argumentat că ponderile modelelor diferitelor versiuni ale Stable Diffusion nu stochează informații vizuale conținute în opere protejate de dreptul de autor și nu pot constitui deci o copie. Această afirmație se coroborase astfel cu acordul experților tehnici, care explica faptul că „ponderile modelului nu stochează direct valori de pixels asociate la miliarde de imagini de antrenament”. În cursul antrenamentului, imaginile sunt convertite din spațiul de pixeli în „spațiu latent” cu ajutorul unui auto-encoder. Odată rețeaua antrenată, procesul de interferență e condus fără a mai fi necesar să se utilizeze date de antrenament (Decizie, §557).
În realitate, litigiul dintre părți a purtat deci asupra următoarei probleme: un articol a cărui fabricație implică utilizarea de cópii contrafăcute, dar care nu conține, nici nu stochează niciodată aceste cópii, e el însuși o copie contrafăcută, în acest fel fabricarea sa în Regatul Unit ar constitui o contrafacere? În alți termeni, un model de IA care decurge ori rezultă dintr-un proces de învățare ce ar implica expunerea ponderilor modelului la cópii contrafăcute e el însuși o copie contrafăcută?
Judecătorul britanic a răspuns și a statuat în sensul că modelul de IA nu e o copie contrafăcută. Potrivit acestuia, e adevărat că ponderile modelului sunt modificate în timpul antrenamentului prin expunerea la operele protejate de dreptul de autor, dar la sfârșitul acestui proces modelul ca atare nu stochează niciuna din respectivele opere: ponderile lui nu sunt ele însele o copie ilicită și nu stochează copii ilicite. Ele sunt produsul acestor modele și al caracteristicilor pe care le-au dobândit de-a lungul timpului, în cadrul procesului de antrenament. În versiunea sa finală, Stable Diffusion nu stochează și nici nu reproduce nici o operă protejată de dreptul de autor. Faptul că dezvoltarea sa a implicat reproducerea de opere protejate de atari drepturi (stocând imagini local și în resurse informatice, apoi exprimând ponderile modelului la acele imagini) „nu are nici o pertinență”. Ponderea modelului pentru fiecare versiune a Stable Diffusion în versiunea lor finală nu a conținut și nu a stocat niciodată o copie ilicită.
Din perspectiva considerentelor instanței, victoria lui Getty numai în privința dreptului mărcilor apare ca foarte slabă. Aportul jurisprudențial al deciziei britanice este totuși important întrucât furnizează un răspuns clar asupra chestiunii ponderilor unui model de IA. Dacă hotărârea nu rezolvă problema antrenamentului, unele jurisprudențe europene aduc contribuții din ce în ce mai semnificative în sensul clarificării chestiunilor de intersecție în dreptul de autor și IA, precum decizia recentă pronunțată în cauza Gema vs. OpenAI.
Gema c/OpenIA: memorizarea modelelor de IA în ajutorul titularilor de drepturi?
(Tribunalul regional din München, hotărârea din 11 noiembrie 2025)
AI şi dreptul de autor: Germania - Tribunalul regional din München s-a pronunțat, la 11 noiembrie 2025, asupra problemei dreptului de reproducere în modelele de IA. Noua hotărâre germană vine să consolideze jurisprudenţa europeană în materie de interacțiune între dreptul de autor și sistemele de inteligență artificială.
Printr-o decizie din 11 noiembrie 2025, Tribunalul regional din München (Germania) s-a pronunțat asupra problemei dreptului de reproducere în modelele de IA, în ieșirile (rezultatele) generate și a aplicabilității anumitor excepții la operațiunile tehnice ale lanțului de IA, precum cele de extragere de texte și de date (Tribunalul regional, München, hotărârea din 11 noiembrie 2025, nr. 42 014139/24).
În acest fel apare o nouă jurisprudență germană în materie de interacțiune între dreptul de autor și sistemele de inteligență artificială, după cea din cauza Getty Images c/Stability din 4 noiembrie a.c.(Marea Britanie) și o alta, tot din Germania (emisă de Tribunalul din Hamburg, în 2024). Atari jurisprudențe contribuie la clarificarea anumitor aspecte și interpretarea creatoare a dreptului IA pertinent.
În fapt, reclamanta în cauză e Gema, o societate de gestiune colectivă ce administrează drepturile de utilizare asupra operelor muzicale cedate de compozitori, textieri și editori.
Pârâții sunt două entități din grupul OpenAI, care dezvoltă și exploatează tehnologii de IA, inclusiv bine-cunoscutul ChatGPT. Primul pârât, stabilit în Irlanda, oferă chatbot-ul utilizatorilor din Spațiul Economic European (SEE) din 14 decembrie 2023. Al doilea pârât, stabilit în SUA, oferă serviciul respectiv încă din 30 noiembrie 2022 și pune la dispoziție aplicația mobilă în Germania.
Pe fond, în speță, reclamanta a susținut că versurile (textele) a nouă cântece diferite au fost reproduse ca rezultate generate de ChatGPT, folosind prompturi simple. Gema subliniază că chatbot-ul nu a efectuat nicio căutare online, această funcție fiind dezactivată – detaliu important, deoarece în alte litigii (precum New York Times c/ OpenAI sau Getty c/ Stability), pârâții au argumentat că reproducerea ilicită rezulta din comportamente „nerealiste” ale utilizatorilor.
Gema acuză OpenAI de utilizarea unor conținuturi protejate fără compensare, invocând încălcări ale dreptului de autor și ale drepturilor personalității legate de utilizarea textelor unor cântece germane în sisteme de IA generativă.
I. Încălcări ale legislației pertinente
În drept, reclamanta invocă mai multe atingeri ale dreptului de autor; ne vom opri asupra celor principale.
1. Reproducerea versurilor în datele de antrenament și memorarea în model. Gema afirmă că versurile litigioase au fost incluse în datele de antrenament și că această includere a determinat memorarea lor în model – fenomen calificat drept reproducere în sensul dreptului de autor.
Memorarea este un fenomen documentat în modelele de bază, precum LLM-urile (v. Carlini et al., Quantifying Memorization Across Neural Language Models, 2023). Modelul poate reproduce exact fragmente specifice din datele de antrenament atunci când este „invitat” prin prompt. Unii autori susțin că memorarea implică și reproducerea datelor de antrenament în parametrii modelului, nu doar în output (v. Cooper & Grimmelmann, The Files are in the Computer, 2025).
2. Reproducerea în output. De asemenea, reclamanta susține că memorarea duce la „regurgitare”: producerea de output-uri care reproduc explicit fragmente din datele de antrenament, constituind o reproducere în sensul dreptului de autor. Aceste rezultate ar constitui, în plus, „comunicări publice” conform art. 19a UrhG.
Versurile generate, chiar și modificate, rămân recognoscibile → deci constituie adaptări (art. 23 alin. 1 UrhG).
3. Lipsa justificării prin excepțiile TDM. Gema susține și că nici memorarea, nici regurgitarea nu sunt acoperite de excepțiile TDM, mai ales că titularii au exercitat dreptul de opt-out.
II. Problema teritorialității
Decizia examinează competența teritorială și dreptul aplicabil – problemă esențială în domeniul IA, având în vedere caracterul transfrontalier al operațiunilor tehnice.
Tribunalul din München I se declară competent: • pentru pârâtul irlandez: art. 7(2) Bruxelles I bis; • pentru pârâtul american: § 32 ZPO.
Servere ale pârâților funcționează în diverse locații din SEE, inclusiv în Germania.
Dreptul aplicabil: dreptul german (art. 8 alin. 1 Regulamentul Roma II).
III. Despre reproducerea în sensul dreptului de autor
1. Reproducerea în modele (memorarea). Pârâții susțin că modelele nu stochează date specifice, ci doar „abstracții matematice”. Tribunalul respinge argumentul și decide: a) dreptul de reproducere este tehnologic neutru (Dir. InfoSoc);b) modelele de IA intră sub incidența acestuia.
Hotărârea aplică distincția fazelor tehnice stabilită în cauza LAION: 1) extragerea și conversia datelor; 2) analiza și antrenarea modelului; 3) utilizarea modelului prin prompturi.
Reproducerea relevantă are loc în faza 2.
Tribunalul reține că, prin memorare, versurile sunt stocate în model – deci există o fixare fizică a operei în parametri. Faptul că versurile sunt descompuse în parametri nu afectează existența unei fixări.
Modelul permite perceperea indirectă a operei (prin chatbot), astfel că sunt îndeplinite condițiile pentru o reproducere ilicită.
2. Reproducerea în output (regurgitarea). Outputurile reprezintă reproducere, deoarece:• se fixează în memoria dispozitivului utilizatorului;• se stochează pe serverele pârâților;• elementele creative sunt recognoscibile chiar și în variante alterate.
Pârâții sunt responsabili deoarece controlează arhitectura, datele de antrenament și memorarea.
IV. Despre excepția TDM
Decizia respinge aplicarea ambelor excepții create de Directiva DAMUN:
1. Art. 4 DAMUN – § 44b UrhG (excepția generală TDM). Tribunalul admite că în principiu TDM se aplică antrenării modelelor. Totuși:• excepția acoperă doar faza 1 (compilarea corpusului);• nu acoperă reproducerile integrate permanent în model în faza 2.
Memorarea depășește scopul TDM, care vizează extragerea unor informații, nu reproducerea integrală a unor opere.
2. Art. 3 DAMUN – § 60d UrhG (TDM pentru cercetare). Respinsă: OpenAI nu este organism de cercetare, are scop comercial și nu îndeplinește condițiile suplimentare.
3. Opt-out-ul titularilor. Gema indică faptul că și-a exprimat opt-out-ul prin site și condițiile tarifare. Tribunalul nu examinează validitatea acestuia deoarece oricum excepția nu este aplicabilă.
V. Celelalte excepții respinse. În același sens, Tribunalul respinge:• excepția accesoriului neînsemnat – versurile nu sunt accesorii; • excepția de citare – modelele nu pot urmări scopul intelectual cerut;• excepția de pastişă – IA nu poate avea „angajament artistic”;• excepția copiei private – pârâții fiind persoane juridice, nu se pot prevala de ea.
VI. Concluzii
Decizia constituie o victorie pentru titularii de drepturi, deși aplicabilitatea sa este limitată la situațiile de memorare identificate în model. Totodată se alimentează dezbaterea privind aplicarea excepțiilor TDM în IA.
Abordarea este convergentă cu unele analize ale USCO, care consideră că existența unei încălcări depinde de identificarea unei expresii protejate în greutățile modelului.
Rămâne de văzut cum vor fi tratate cazurile în care memorarea nu este observată.
UE: Platformă securizată de semnalizare încălcărilor IA Act
AI în Uniunea Europeană: O platformă securizată pentru semnalarea încălcărilor IA Act a fost lansată de Comisia Europeană, la 25 noiembrie 2025. Semnalările, posibile în toate limbile UE, deci și în română, implică completarea unui chestionar, cu opţiunea pentru autor de a rămâne anonim.
La 24 noiembrie 2025 Comisia Europeană a lansat o platformă securizată care permite particularilor să semnaleze direct Oficiului European pentru IA eventualele încălcări ale IA Act [Regulamentul (UE) 2024/1689 de stabilire a unor norme armonizate privind inteligența artificială din 13 iunie 2024)]. Aceasta vizează cu prioritate persoanele „legate în mod profesional” de un furnizor de modele de IA (angajatori, persoane independente, acționari, membri ai unui organ de guvernanță). Ele pot denunța orice practică internă susceptibilă să încalce IA Act: documentație insuficientă, probleme ale dreptului de autor, rezumat al datelor de antrenament, gestiunea riscurilor etc. Semnalările, posibile în toate limbile UE, deci și în română, pot fi însoțite de documente interne. Lansatorul de alertă completează un chestionar, descrie faptele și poate să rămână anonim. Apoi el poate comunica cu Oficiul, transmite informații complementare și primi urmările. Acesta analizează semnalizarea și, dacă e necesar, o redirijează către autoritatea competentă. Comisia evidențiază un înalt nivel de securitate: cifrare, anonimat consolidat, acces strict limitat. Ea recomandă, totuși, să nu se furnizeze nici o dată care să permită a identifica lansatorul de alertă și de a nu utiliza materialul angajatorului. Aceste garanții sunt esențiale, întrucât semnalările relative la IA Act nu vor beneficia de o eventuală protecție juridică contra represaliilor, decât începând din 2 august 2026, dată la care vor intra în câmpul directivei (UE( 2019/1937 din 23 octombrie 2019 privind protecția persoanelor care raportează încălcări ale dreptului UE. Începând de atunci numai confidențialitatea e cea care asigură o protecție efectivă, chiar dacă unele activități legate de IA (securitatea produselor, protecția consumatorilor, datele personale) aparțin deja sferei de operare a acestei directive.
S.U.A: Reglementarea IA numai la nivel federal
AI în SUA: printr-un decret semnat la 11 decembrie 2025, președintele S.U.A., Donald Trump, ia măsuri pentru centralizarea reglementării inteligenței artificiale la nivel federal. Potrivit declaraţiilor, cadrul legislativ trebuie să fie comun și situat la nivel federal, pentru ca S.U.A. să continue să fie prima putere în materia noii tehnologii.
La 11 decembrie a.c. Președintele S.U.A., Donald Trump, a semnat un decret vizând centralizarea reglementării inteligenței artificiale la nivel federal, cu obiectivul de a împiedica cele 50 de state federate a o realiza la nivelul lor și astfel să existe o singură sursă de autorizare. Textul vizează asigurarea unei inteligențe artificiale care să opereze într-un singur juridic în această țară decât să fie supusă la reglementări la nivelul statelor care ar putea paraliza sectorul, conform Casei Albe.
În justificarea măsurii, președintele american afirma că „Nu trebuie să avem decât o singură reglementare, dacă vrem să continuăm a fi primii în domeniul IA. Dar aceasta nu va dura dacă cele 50 de state, din care multe sunt răi actori în domeniu, se implică în reglementări și procesul de aplicare”, anunțându-și astfel noua teză în domeniu: dacă până acum se pronunța total împotriva reglementării domeniului inteligenței artificiale și a dereglementării sale, de această dată estimează că, mai mult ca oricând, cadrul legislativ trebuie să fie comun și situat la nivel federal pentru ca S.U.A. să continue să fie prima putere în materia noii tehnologii.
Referitor la situația existentă, peste 100 de legi au fot deja adoptate în 30 de state federate, cu majorități democrate sau republicane. Ele poartă asupra a numeroase aspecte legate de IA, de dezvoltarea rezonabilă a modelelor de IA generativă la crearea de „deepfakes” (conținut care realizează o persoană grație inteligenței artificiale, trecând prin obligația de transparență privind utilizarea acestei tehnologii). Numeroase propuneri de lege au fost depuse la Congres, dar niciuna nu a fost supusă votului.
Să mai amintim că în ianuarie 2025, la numai câteva ore după învestitura sa, Donald Trump anula un decret emis de predecesorul său la Casa Albă, Joe Biden, privind securitatea în materie de inteligență artificială. Textul inițial, stabilit în octombrie 2023, impunea, în special întreprinderilor sectorului, de a transmite guvernului federal anumite date relative la modelele lor de IA. Se cerea astfel comunicarea rezultatelor la teste atunci când programele prezentau „un risc serios în termeni de securitate națională, de securitate economică națională ori de sănătate publică”. Decretul dădea ca misiune Institutului național de standarde și tehnologie (NIST) formularea de recomandări și să definirea de standarde privind IA. El solicita, de asemenea, ansamblul agenților guvernamentali să procedeze la o evaluare a riscurilor IA privind activitățile lor.
De notat că, cel puțin în teorie, un decret nu poate să primeze asupra unui text legal votat de Congres (la nivel federal) ori de Parlamentul unui stat federal.
Prof. univ. dr. Mircea DUȚU