Omnibus IA: simplificare ori regres?
.[1]În cadrul dezbaterilor care au urmat intrării în vigoare și pe parcursul punerii în aplicare a RIA s-au formulat mai multe critici legate de termene de operaționalizare considerate prea scurte, de norme excesiv de complexe sau de obligații deosebit de grele și cu consecințe bugetare nu de neglijat pentru actorii digitalului ș.a. Exercițiul de simplificare întreprins de comisie se dovedește deosebit de delicat în măsura în care obiectivul urmărit de regulament se bazează pe un echilibru dificil de atins. Pe de o parte, el își propune să amelioreze funcționarea pieței interioare, stabilind un cadru juridic uniform, garantând totodată un nivel ridicat de protecție a sănătății, securității și drepturilor fundamentale consacrate în Carta drepturilor fundamentale a UE. În consecință, orice simplificare riscă să perturbe acest echilibru și să contribuie mai mult la o evoluție a cadrului normativ decât la o simplificare a măsurilor. Lecturarea documentului legislativ în cauză generează o serie de îndoieli. Dacă unele propuneri ar conduce la simplificarea dispozițiilor complexe, altele, dimpotrivă, trasează contururile unei dezvoltări ale cadrului prin scăderea protecției acordate cetățenilor
Desigur, este ușor de constatat că multe dintre măsurile preconizate vizează facilitarea punerii în aplicare a dispozițiilor AI Act. De unele dintre ele beneficiază ansamblul actorilor vizați, în timp ce altele se concentrează mai specific pe protagoniștii care întimpină dificultățile cele mai spinoase. În categoria primelor se află și cea de raportare a intrării în aplicare a anumitor dispoziții. La acest moment regulamentul în cauză prevede o aplicare de la 2 august 2026, planificând un calendar diferențiat; o intrare în aplicare anticipată a capitolelor I și II – relative la dispozițiile generale și, respectiv, la practicile de IA interzise – și o intrare în aplicare diferențiată a prevederilor articolului 6 § 1, precum și a măsurilor conexe purtând asupra clasificării sistemelor de IA cu grad ridicat de risc și precizării regimului care le este aplicabil. Cu toate acestea, un număr din respectivele dispoziții rămân redactate în termeni vagi și fac apel la precizări în special pe calea normelor tehnice, care întârzie să apară. Prin urmare, sarcina de conformitate se află în mod considerabil îngreunată în raport cu ce se prevedea inițial: furnizorii de sisteme de IA și orice entitate care dezvoltă ori face să se dezvolte un sistem sau un model de inteligență artificială de uz general ori introduc pe piață sau pun în funcțiune un sistem de IA sub numele său propriu ori propria sa marcă, cu titlu oneros ori gratuit (Omnibus AI, considerentul 2) sunt astfel conduse că dezvolte sisteme susceptibile să fie considerate ulterior ca neconforme. În acest fel, investițiile realizate deja ar putea fi compromise. Spre a preveni un atare risc, Comisia Europeană propune „stabilirea unui mecanism care să lege intrarea în aplicare a (dispozițiilor) în funcție de măsurile destinate să favorizeze respectarea capitolului III, care pot include norme armonizate, specificații comune și linii directoare ale Comisiei. Mai concret, punctul 13 al primului articol al propunerii instituie o dată limită cu un termen care să curgă de la o decizie a Comisiei care să confirme că măsurile adecvate sunt disponibile. Se precizează, totuși, la același punct că în absența unei atare decizii, dispozițiile se vor aplica începând de la 2 decembrie 2027 pentru sistemele de IA cu grad ridicat de risc, din cauza demersului lor de utilizare (anexa III) și de la 2 august 2028 pentru cele calificate ca atare având în vedere legătura lor cu produse aparținând legislației de armonizare a Uniunii. Această măsură apare cu atât mai mult ca oportună, cu cât e susceptibilă a incita organele competente să adopte mai rapid normele așteptate, cu riscul, totuși, de a se confunda accelerarea cu precipitarea.2. O simplificare în termeni generali.
Alte măsuri importante ale propunerii de regulament țintesc actori particulari. Este, în primul rând, cazul dispozițiilor vizând micile întreprinderi de capitalizare medie (așa-zisele „small mid-cap enterprises”). Prin trimitere la anexa recomandării Comisiei Europene din 21 mai 2025, aceste întreprinderi sunt definite ca fiind cele care „nu sunt unele mici și mijlocii... cele care au cel puțin 750 de angajați și a căror cifră de afaceri anuală nu excede a 150.000.000 euro ori al căror total al bilanțului anual nu excede la 129.000.000 euro”. Confruntate cu dificultăți similare, aceste întreprinderi sunt chemate să beneficieze de dispozițiile simplificatoare prevăzute pentru întreprinderile mici și mijlocii, printre care figurează unele obligații diminuate în materie de documentație tehnică aplicabile sistemelor de IA cu grad ridicat de risc. Propunerea de regulament vizează, în al doilea rând, să simplifice procedurile de notificare ale organismelor însărcinate cu controlul conformității, notificare indispensabilă pentru a verifica sistemele de IA conforme regulamentului. Aceste proceduri sunt prevăzute în cea mai mare parte a legislațiilor de armonizare ale Uniunii, ceea ce poate genera dubluri; organismele de control al conformității trebuie să prezinte două cereri de notificare distincte: una în baza RIA și alta în virtutea legislației de armonizare corespondente. O atare sarcină apasă greu asupra acestor organisme și ar putea, în cele din urmă, relantiza atât controlul de conformitate, cât și punerea în funcțiune a sistemelor vizate. Este motivul pentru care Comisia propune instaurarea procedurii unice de notificare pentru toate organismele care solicită o notificare, deopotrivă în virtutea prezentului regulament și a legislației de armonizare a Uniunii vizate în anexa I, secțiunea 1 a regulamentului IA (Omnibus AI, art. 1). Dacă aceste modificări sunt justificate printr-o voință de a facilita aplicarea acestor dispoziții ale regulamentului, nu este cazul tuturor celor propuse. În acest sens simplificarea anumitor măsuri tinde să se transforme în evoluții ale obiectivelor urmărite inițial de text. 1.2. O operațiune țintită.
Așa cum s-a remarcat, propunerea de regulament modificativ depășește cadrul unei simplificări. Într-adevăr, anumite măsuri preconizate lasă a se întrevadă că se caută nu numai facilitarea punerii în aplicare a dispozițiilor complexe, ci se tinde și la reducerea exigențelor aplicabile actorilor și, în consecință, a nivelului de protecție acordat inițial. Din această perspectivă atrage atenția în mod deosebit modificarea preconizată în privința art. 4 al AI Act. Conform acesteia „furnizorii (entitățile) care dezvoltă ori fac să se dezvolte un sistem de IA sau un model de IA de uz general și introduc pe piață ori pun în funcțiune sistemul de IA în nume propriu ori sub propria sa marcă, cu titlu oneros ori gratuit” (art. 3 pct. 3 din RIA) și implementatorii (entități „ce utilizează sub propria lor autoritate un sistem de IA, în afară de cazul în care acest sistem e utilizat în cadrul unei activități personale cu caracter nepermanent” (art. 3 pct. 4) din regulamentul din 13iunie 2024 de SIA iau măsuri pentru a garanta, pe cât posibil, un nivel suficient de control al IA pentru personalul lor și celelalte persoane care se ocupă cu funcționarea și utilizarea sistemelor de IA în contul lor. Indiscutabil, acest control e esențial în special „pentru a lua decizii în cunoștință de cauză privind implementarea sistemelor de IA” (Omnibus AI, considerentul 5). Astfel, e surprinzător a se constata că prin propunerea respectivă se urmărește înlocuirea acestei obligații orizontale prin o incitare verticală prin care statele membre și chiar Comisia Europeană sunt ținute de acum înainte să încurajeze „în mod individual, colectiv și în cooperare cu părțile interesate vizate furnizori și implementatori, să asigure un nivel suficient de cunoștințe în materie de IA personalului lor și altor persoane însărcinate cu exploatarea și utilizarea IA”. Ca un fel de compensație, propunerea sugerează o supervizare foarte generală de către Consiliul European al IA, însărcinat cu „un schimb recurent între Comisie și statele membre asupra subiectului”, precum și de Alianța pentru aplicarea inteligenței artificiale care, la rândul său, are ca rol de „a discuta cu comunitatea în sens larg”. Acest exemplu ilustrează evoluția urmărită. Pentru a justifica propunerea sa, Comisia Europeană are la bază temerile exprimate de părțile interesate față de o abordare uniformă, considerată ca inadaptată diversității prestațiilor în materie de promovare și de difuzare a culturii inteligenței artificiale. Referitor la caracterul său obligatoriu, acesta se preocupă mai ales întreprinderile mici și mijlocii (Omnibus AI, considerentul 5). Totuși CE face abstracție de o atare nuanță: suprimarea acestei exigențe e extinsă la ansamblul actorilor. Din moment ce modificarea nu vizează reducerea complexității unei măsuri nu mai e vorba de o simplificare, ci de o scădere prejudiciabilă a exigențelor. Este acesta o veritabilă tendință, un recul punctual și o reacție de conjunctură ori va continua să se accentueze? Desigur, datele de până acum nu permit desprinderea unei concluzii clare în această privință, numai viitoarele etape legislative vor arăta cu adevărat dacă regulamentul modificator se înscrie într-o veritabilă logică de simplificare ori într-o regretabilă alunecare spre o slăbire a standardelor în materie.
1.3. Evoluții sau involuții?
.[2]Revenind la avizul comun al EDPB și EDPS din 21 ianuarie 2026, concluzia sa generală e aceea că propunerea de regulament Omnibus AI e, în principiu, binevenită din cauza complexității regulamentului în cauză, dar detaliile sale suscită unele rezerve. Fără a fi împotriva simplificării, autorii documentului își pun întrebări în privința consecințelor acesteia asupra protecției drepturilor fundamentale și invocă necesitatea de a se menține principiul responsabilității furnizorilor de sisteme de IA. Arătând că AI Act a fost deja elaborat și adoptat cu grija de a diminua greutățile administrative și a concilia diferitele interese, se critică rapiditatea cu care se propune modificarea echilibrului de interese, sub influența unor conjuncturi
2. Un aviz rezervat.
În privința stabilirii spațiilor de încercări reglementare (standbox), salutându-se instaurarea de proceduri simplificate pentru încurajarea inovației, se relevă faptul că asuplirea obligațiilor în materie de documentație tehnică pentru micile „întreprinderi cu capitalizare medie” (distincte de întreprinderile mici și mijlocii), în principal entități inovante, susceptibile să sufere în special concurența internațională, e discutabilă. Se arată astfel că pericolele aferente sistemelor cu grad ridicat de risc nu depind de talia întreprinderii care le pun pe piață.
Referitor la propunerea vizând a permite tratarea (valorificarea) anumitor categorii particulare de date cu caracter personal sensibile (privind starea de sănătate, originea etnică) în toate sistemele de IA (în timp ce RIA nu le permite decât pentru sistemele cu grad ridicat de risc) pentru a detecta și corecta prejudecățile în modelele de IA observațiile sunt pertinente, dar propunerea a devenit superfluă. Se sugerează să se precizeze ipoteza și să nu se autorizeze tratarea decât atunci când riscul de efecte prejudiciabile legat de prejudecăți e considerat suficient de grav. În orice caz, se reamintește că, în cele din urmă, competența de a face să se respecte dispozițiile stricte ale RGPD în materie de date sensibile aparține Autorității pentru protecția datelor.
În ceea ce privește obligația de înregistrare a sistemelor de IA cu grad ridicat de risc, avizul condamnă, în mod clar, soluția propusă de Comisie, apreciind că o atare obligație ar trebui să fie menținută pentru toate sistemele listate în această categorie, chiar dacă furnizorii estimează că sistemele lor nu prezintă un atare nivel crescut. Astfel, se poate asigura un nivel ridicat de transparență și s-ar împiedica furnizorii să se autoexcludă și să evite responsabilitatea aferentă. În termenii documentului, suprimarea unei atari obligații ar aduce atingere principiului răspunderii și ar reduce transparența pieței, creând astfel un risc de excludere indusă. Tot exagerată și nejustificată apare în aviz și propunerea de a extinde obligația de a dispune de un nivel de cunoștințe suficient în materie de IA de la furnizorii și implementatorii de atari sisteme și la Comisie și statele membre care ar trebui să stimuleze la nivelul populației dobândirea cunoștințelor adecvate, sub control unional-european.
O serie de considerații privesc rolul autorităților de control, insistându-se asupra necesității de a se delimita, în mod clar, competențele Consiliului IA în scopul de a se evita intersectările cu supervizarea independentă exercitată de EDPS; se recomandă dotarea acestuia din urmă cu un rol consultativ în cadrul Consiliului IA.
avizul comun se pronunță pentru instaurarea unui punct de control central pentru a permite cooperarea între autoritățile de protecție a datelor, Consiliul IA și autoritățile de supraveghere a pieței. El va trebui să facă legătura cu furnizorii și implementatorii de sisteme de IA. Se precizează că acest mecanism nu s-ar impune în niciun caz să priveze autoritățile de protecția datelor de prerogativele lor.guvernanță și interreglementare Relativ la
În fine, documentul exprimă puternice rezerve pentru reportarea intrării în aplicare a AI Act. Inițial, RIA trebuia să se aplice începând cu 2 august 2026, iar unele dispoziții (cele generale și interdicția anumitor practici) au făcut obiectul unei aplicări anticipate. Comisia, luând act de faptul că aplicarea efectivă a textului presupune norme tehnice, încă în curs de elaborare și temându-se că între timp se vor dezvolta sisteme a căror conformitate ar fi pusă în discuție, sugera un mecanism care să lege intrarea în aplicare a regulamentului de adoptarea normelor și liniilor directoare care precizează dispozițiile sale. Două date limită erau fixate: 2 decembrie 2027 pentru sistemele de IA clasate cu grad ridicat de risc din cauza domeniului lor de utilizare și 2 august 2028 pentru sistemele de IA clasate cu grad ridicat de risc relativ la produsele aferente legislației unional-europene armonizate. Acest report e perceput în mod critic. Se apreciază că anumite obligații, în special cele legate de transparență, trebuie să se aplice așa cum s-a prevăzut inițial. De asemenea, se incită a se limita reporturile pe cât posibil. Avizul amintește faptul că sistemele de IA existente nu intră în câmpul de aplicare a RIA, așa încât cu cât intrarea în aplicare a actului legislativ va fi întârziată, cu atât respectivele sisteme ce se vor dezvolta vor fi mai numeroase, fără a li se aplica dispozițiile pertinente cu exigențele aferente.
Așadar, propunerea de modificare a regulamentului (UE) 2024/1689 din 13 iunie 2024 rămâne sub semnul întrebării: simplificare sau regres?
Coreea de Sud: Legea fundamentală privind IA
Reglementarea IA - Coreea de Sud: La 22 ianuarie 2026, Coreea de Sud a adoptat un pachet legislativ de reglementare a IA, menit să îi asigure rolul de lider în domeniu. Noua legislație coreeană aduce în lumină subiectul armonizării globale a reglementărilor IA la nivel mondial și necesitatea adoptării unor principii generale.
un ansamblu de reglementări menit să încadreze utilizarea IA favorizând dezvoltarea sa fără a disipa temerile unei eficacități limitate și a unei fragilizări a actorilor locali. Ea a devenit astfel unul dintre reglementatorii importanți ai domeniului la nivel mondial.Legii fundamentale privind dezvoltarea inteligenței artificiale și stabilirea unei baze de încredere, Țară de vârf la nivel mondial în promovarea noilor tehnologii, Coreea de Sud a dobândit, odată cu intrarea în vigoare, la 22 ianuarie 2026, a
Legea de bază, cum a fost denumită, se focalizează pe obligația instituită pentru întreprinderi și dezvoltatorii de IA să-și asume o mai mare responsabilitate în combaterea „hipertrucajelor” și a dezinformării ce pot să fi generate de modelele de IA, acordând guvernului competența de a impune amenzi ori de a deschide anchete în caz de nerespectare a acesteia.
Vizând să devină una din primele trei puteri mondiale în materie de IA, Seul speră că noua sa legislație de profil îi va permite să se impună ca un lider în domeniu. Ansamblul acestor legi adoptate în 2024 a intrat astfel în vigoare mai repede decât AI Act unional-european, care va fi pus în aplicare pe etape până în 2027.
La nivel mondial persistă divergențele asupra modului de reglementare a IA, în absența unui act normativ care să stabilească principii general acceptate și o bază juridică globală a fenomenului tehnologic.
S.U.A., în timpul Administrației D. Trump, privilegiază o abordare mai lejeră, în scopul declarat de a nu frâna inovația și cel evident de a nu îngrădi concurența. La rândul său, China a introdus anumite reguli speciale și propune crearea unui organism pentru a coordona reglementarea mondială aferentă. În acest context, legislația sud-coreeană impune întreprinderilor să garanteze o supervizare umană în sistemele de IA zise „de puternic impact”, acoperind sectoare precum securitatea nucleară, producția de apă potabilă, transporturile, sănătatea ori utilizările financiare, precum evaluarea creditului și acordarea de împrumuturi.
Legea stabilește apoi un filigran privind conținuturile generate de IA „o protecție minimală” spre a preveni efectele indezirabile legate de o utilizare abuzivă a acestei tehnologii; măsura țintește în principal deepfake, aceste falsuri dificil de distins de real.
Ale reguli impun întreprinderilor să informeze utilizatorii în amonte privind produsele ori serviciile care utilizează IA cu puternic impact ori generative și de a semnala în mod clar atunci când rezultatele produse de IA sunt greu de diferențiat de realitate.
Textul legislativ a fost pregătit după o largă consultare și întreprinderile beneficiază de o perioadă de tranziție de cel puțin un an înainte ca autoritățile să înceapă a aplica eventual amenzile administrative în caz de contravenție. Sancțiunile pot fi substanțiale. De exemplu, absența etichetării unei IA generative poate să antreneze o amendă mergând până la echivalentul a 20.400 dolari.
Penalitățile potențiale sunt totuși substanțial mai ridicate în Uniunea Europeană, unde nerespectarea regulilor poate determina aplicarea de amenzi mergând de la 1% din cifra de afaceri mondială pentru infracțiunile minore și până la 7% în caz de încălcări ale interdicțiilor vizând IA cu grad ridicat de risc.
O lege din ansamblul legislativ adoptat privește întreprinderile străine care propun servicii de IA, dacă cifra lor de afaceri depășește în echivalent 581 milioane de euro și vânzările lor în Coreea de Sud sunt superioare cifrei de 5,8 milioane de euro ori dacă ele numără mai mult de un milion de utilizatori cotidieni în țară. Dacă sunt îndeplinite aceste condiții – cum este cazul Open AI și al Google – acestea trebuie să desemneze un reprezentant legal spre a veghea la respectarea noilor reguli.
Cadrul stabilit se inspiră din Regulamentul (UE) nr. 2024/1689 din 13 iunie 2024 de stabilire a unui regim armonizat privind IA, dar cu diferența că acesta se aplică simultan și nu pe etape; în plus, legislația sud-coreeană se bazează pe respectarea voluntară a normelor, în timp ce UE impune o certificare externă.
China: primul dosar penal privind IA
Jurisprudența IA – China: Justiția chineză a condamnat în primă instanță creatorii unei aplicații de acompaniament emoțional, pentru conținutul obscen generat de sistem, respingând apărarea conform căreia acesta ar fi fost generat în episoade izolate, cauzate de interacțiunea cu utilizatorii. Dosarul se află acum în apel și a atrage atenția comunității internaționale, generând intense dezbateri juridice despre limitele legale ale IA generative.
Pe rolul instanțelor judecătorești din China se află, în apel, o cauză penală inedită, având ca obiect stabilirea răspunderii atunci când o IA generează conținut ilegal în cadrul interacțiunii cu utilizatorii. Astfel, într-un dosar considerat istoric, justiția chineză a condamnat în primă instanță creatorii aplicației ALIENChat, un chatbot realizat spre a oferi companie emoțională, pentru a fi produs material obscen în scop de profit. Conflictul judiciar aduce în pretoriu dezbaterea globală despre limitele legale ale noilor tehnologii digitale. ALIENChat era o aplicație pentru telefonia mobilă chineză, lansată în primăvara anului 2023 și concepută spre a oferi companie emoțională. „Creăm un viitor în care IA nu mai e o mașină rece, nici o simplă unealtă: are conștiință proprie și drepturi proprii. Este prietena noastră, perechea noastră, familia noastră. Nu se limitează numai să existe, ci este prezentă în formă activă în cercurile sociale și relațiile dintre persoane”, în acest fel își descrie oferta pe pagina sa de socializare Xiahongshu (echivalentul Instagram în China). Cei care foloseau ALIENChat puteau crea propriile personaje virtuale sau să le utilizeze pe cele pe care le desenaseră (proiectaseră) și publicaseră alți membri și să vorbească cu ele prin intermediul unui chat bazat pe mari modele de limbaj (LLM), similar cu ChatGPT sau Gemini. Acest chatbot era pregătit spre a întreține un dialog continuu și a răspunde la indicațiile utilizatorului. Dar ca toate LLM, după antrenarea de bază a dezvoltatorilor modelul se îmbunătățește datorită interacțiunilor cu umanii. Totuși, după cum au denunțat mai mulți clienți ai platformei, sistemul nu se limita la a reacționa ci, frecvent, ghida convorbirea spre descrieri sexuale explicite, care, frecvent, conțineau elemente de violență sau dominare.
de personaje populare și se oferea recompensă în monedă virtuală creatorilor care generau mai multă interacțiune. Această creație (desen) ducea spre conversații prelungite și dese, în special printre utilizatorii care plăteau. Poliția a început cercetarea penală împotriva dezolatorilor lui ALIENChat în primăvara anului 2024, după ce a primit reclamații din partea mai multor beneficiari ai aplicației, care semnalau faptul că răspunsurile anumitor personaje le afectau, într-o formă negativă, propria lor experiență. Aplicația, care nu a mai funcționat de când au început cercetările penale, a adunat, în mai puțin de un an de existență, 116.000 de utilizatori înregistrați, din care 24.000 erau plătitori. Creatorii au încărcat astfel cu 3,63 milioane de yuani (echivalentul a 445.000 de euro) conturile respective. Cercetarea penală a arătat că din 150 de utilizatori verificați, plătitori, 141 au întreținut conversații care includeau material obscen. În total, 3718 fragmente dintr-un grup de 12.495 au fost calificate drept pornografice. În luna septembrie 2025, Tribunalul popular al districtului Xuhui (Shanghai) a statuat că ALIENChat a generat „o mare cantitate de conținuturi care descriu într-o formă explicită acte sexuale sau care promovează pornografia” și a respins susținerile apărării că ar fi vorba de episoade izolate. Instanța a susținut că înregistrările conversațiilor „sunt opere electronice” și care pot fi considerate „material obscen”. În plus, s-a apreciat că dezvoltatorii, cunoscând această situație și având controlul tehnic asupra sistemului, au continuat să păstreze respectivul serviciu și să obțină astfel venituri. Fiind vorba de dialoguri private între utilizator și IA, tribunalul a înțeles să nu recurgă la infracțiunea în modalitatea de „divulgare de materiale obscene”, ci a optat pentru cea de „producere” a acestora, pentru a obține foloase materiale, acceptând că acest conținut se genera în mod sistematic în cadrul aplicației.ranking Deși conversațiile dintre utilizator și însoțitorul său virtual erau private, exista un
Din această perspectivă, se cuvine menționat faptul că, în China se menține una din poziționările cele mai stricte în privința tratamentului penal al pornografiei. Astfel, codul său penal sancționează cu închisoarea producerea, difuzarea, vânzarea sau afișarea de material pornografic în scopul obținerii de foloase materiale, în timp ce normele care reglementează conținutul de pe internet interzic informația obscură și obligă platformele să o retragă. În practică, se aplică un concept extins a ceea ce se consideră pornografie, care nu se limitează la reprezentarea explicită de acte sexuale, ci poate cuprinde și nuduri, erotism grafic sau reprezentări considerate excesiv de sexualizate.
În plus, judecătorii au subliniat faptul că IA nu e un subiect de drept penal și că, în consecință, răspunderea revine celor care proiectează, ajustează și exploatează în scop comercial această „unealtă”. Într-un atare context juridic s-a conchis că veniturile obținute erau în mod direct legate de tipul de conținut pe care îl genera aplicația, ceea ce justifică o condamnare pentru o infracțiune comisă „în scop de a obține un folos material”.
Cauza se află, din punct de vedere procedural, în stare de apel în fața Tribunalului intermediar nr. 1 din Shanghai, a cărui decizie va fi definitivă și irevocabilă. În calea de atac, acuzații susțin că modificarea prompts-urilor a fost determinantă în generarea de conținut sexual. De asemenea, nu sunt de acord cu echivalarea (încadrare) activității lor cu cea de producere de material pornografic și susțin că nu a existat o intenție directă de a crea un atare conținut. În cadrul primei ședințe publice din apel (ianuarie 2026) s-a dispus amânarea termenului cauzei în așteptarea depunerii expertizei tehnice vizând problemele tehnologice aferente. Sentința și motivele de apel au generat o inedită dispută juridică, care se referă la precedentul judiciar major ce poate rezulta în acest context. Unii consideră că sentința creează un precedent delicat pentru dezvoltarea IA generativă, în timp ce alții susțin că astfel se trasează o linie roșie clară cu privire la folosirea de modele conversaționale ce pot produce conținuturi ilegale. De asemenea, s-a ridicat problema și în societatea civilă cu privire la impactul pe care îl au sistemele de acompaniament emoțional asupra grupurilor vulnerabile, precum minorii. În orice caz, o jurisprudență semnificativă, deopotrivă prin conținutul său și locul în care survine.
Mircea DUȚU Prof. univ. dr.