Acord financiar Anthropic-autori privind utilizarea operelor prin IA
Potrivit unui document al justiției, publicat la 5 septembrie a.c., start-up-ul american de inteligență artificială (IA) Anthropic a acceptat să verse cel puțin 1,5 miliarde de dolari (circa 1,28 miliarde de euro) într-un fond de indemnizare a autorilor, persoanelor îndreptățite și editori care urmăresc judiciar întreprinderea întrucât ar fi teledescărcat ilegal milioane de cărți. Acest acord amiabil, cu o sumă colosală, constituie o etapă marcantă în dezbaterea privind utilizarea datelor pentru dezvoltarea și antrenarea marilor modele de IA generativă.
Un trio de autori – romanciera de thrillere Andrea Bartz și scriitorii Charles Graeber și Kirk Wallance Johnson – a intentat o acțiune în justiție anul trecut și reprezintă de acum înainte un grup mai larg de scriitori și editori ale căror cărți fuseseră telederscărcate de Anthropic pentru antrenarea chatbot-ului său Claude.
La sfârșitul lui iunie, judecătorul californian sesizat cu dosarul estimase, totuși, că faptul de a alimenta un software de IA generativă cu opere în teorie protejate de dreptul de autor nu constituie o infracțiune. El reținuse împotriva lui Anthropic faptul de a fi teledescărcat și stocat cărți rezultate din librării pirat on-line, recunoscând culpabilă societatea californiană de a nu fi cumpărat acele lucrări. Cuantumul asupra căruia s-au pus de acord părțile va fi de cel puțin 1,5 miliarde de dolari și va putea crește dacă lista definitivă cu cărțile vizate, care nu s-au oprit încă, va depăși 500.000, caz în care întreprinderea pârâtă va vărsa 3.000 de dolari în plus pe lucrare.
Reprezentanții autorilor au calificat acordul drept un rezultat excelent pentru aceștia, editori și persoanele îndreptățite în general, care transmite un mesaj puternic industriei IA, în sensul că există consecințe importante (grave) atunci când piratează lucrările autorilor spre a antrena inteligențele lor artificiale, privând astfel de venituri pe cei care pot să-și permită mai puțin. Acordul a mai trebuit să fie omologat de judecătorul federal competent. Această tranzacție a permis firmei Anthropic să evite un proces, care trebuia să demareze în decembrie viitor pentru a determina cuantumul daunelor-interese. Start-up-ul risca să fie condamnat să ofere o serie mult superioară celei astfel stabilite deținătorilor de drepturi, pe punctul de a pune în pericol chiar existența sa.
Pe rolul tribunalelor americane se află multe alte dosare în curs, intentate de muzicieni, scriitori sau editori de presă pentru utilizarea neautorizată de producătorii lor. Recent, doi scriitori au introdus o acțiune, dorită a deveni una colectivă, împotriva Apple, acuzând gigantul din Silicon Valley de a fi utilizat lucrări conținute în bibliotecile pirat spre antrenamentul de modele de IA integrate în aparatele sale.
În apărarea lor, marea majoritate a marilor actori ai domeniului se sprijină pe noțiunea juridică de utilizare echitabilă (faire use), susceptibilă să limiteze aplicarea dreptului proprietății intelectuale.
În decizia sa din iunie, judecătorul Alsup estimase că prin antrenarea modelelor sale de IA cu mii de cărți, Anthropic se înscria în cadrul utilizării echitabile, principiu juridic potrivit căruia dezvoltarea de IA privind lucrările protejate aparține unei utilizări echitabile rămâne intact. Respectivul acord nu ar face deci decât să regleze un diferend asupra modului în care anumite documente au fost obținute; se consideră că această tranzacție va permite ca întreprinderile de profil să se concentreze asupra misiunii lor esențiale, decât a unui contencios îndelungat și neproductiv.
Tot în iunie trecut, dar dintr-o altă cauză de acest gen, privind de această dată firma Meta, dar în fața aceleiași jurisdicții, un alt magistrat federal dăduse dreptate gigantului rețelelor sociale, explicând însă că reclamanții nu putuseră să invoce argumente admisibile. Creatorii de conținuturi, indiferent că e vorba de muzică, cărți ori articole, se îngrijorează observând că valoarea de piață a muncii lor se prăbușește odată cu emergența inteligențelor IA generativă.
„Sperăm că suntem în fața unui prim exemplu dint-o lungă serie de societăți de IA cărora li se cere să dea socoteală pentru furtul de conținut creativ”, a reacționat organizație Human Artistry Campaign, care militează pentru o dezvoltare responsabilă a IA. Adăugând că nu e decât începutul unei dezbateri, dar unul marcant și istoric. Și de ce nu o primă corecție juridică a unei stări de fapt neconforme.
Franța: Raportul privind impacturile juridice și reglementare ale IA în materie bancară, financiară și a asigurărilor
Franţa -AI şi piaţa financiară: Pe 20 iunie 2025, Înaltul Comitet Juridic al Pieței Financiare din Paris (HCJP) a prezentat un raport amplu privind implicațiile utilizării inteligenței artificiale în sectorul bancar, financiar și al asigurărilor. Raportul evidențiază incertitudinile privind desemnarea autorităților de supraveghere, integrarea noilor obligații și armonizarea reglementărilor, atrăgând atenția asupra riscurilor de fragmentare la nivel european.
La 20 iunie a.c. a fost prezentat Raportul Înaltului Comitet Juridic al Pieței Financiare din Paris (HCJP) privind impacturile juridice și reglementare ale inteligenței artificiale în materie bancară, financiară și a asigurărilor, întocmit de un grup de lucru constituit din experți în domeniu, reprezentați ai autorităților, profesori de drept și avocați, în decembrie 2023. Misiunea încredințată acestuia a exclus din câmpul de analiză utilizarea IA în scopuri de supervizare și control al instituțiilor financiare, în special în ceea ce privește combaterea spălării banilor și finanțării terorismului, precum și mizele răspunderii disciplinare a acestor structuri referitor la IA; nu s-au avut în vedere nici provocările asigurabilității riscurilor noilor tehnologii.
Din această perspectivă, analiza specialiștilor în cauză s-a concentrat pe patru paliere majore, cu concluziile aferente: a) încadrarea existentă a IA prin reglementările sectoriale (IA ca unealtă pentru prestarea de servicii financiare reglementate, noile riscuri legate de utilizările sale, guvernanța proprie impusă de atari folosințe, nevoia asigurării protecției clientelei, încadramentul utilizărilor IA prin intermediul unei reglementări prudențiale, cel al protecției datelor clienților și al prestatorilor terți); b) contribuția AI Act în planul activității instituțiilor financiare (clarificarea câmpului de aplicații ale IA în sectoarele financiare, crearea de noi obligații legate de utilizările inteligenței artificiale, recomandări ale autorităților de supraveghere existente); c) necesitatea articulării AI Act cu alte reglementări ale instituțiilor financiare (interacțiunile între reglementarea privind IA și reglementările sectoriale, provocările articulării AI Act cu alte reglementări europene ale datelor, integrarea normelor de mediu în cadrul utilizării IA de către AI Act, articularea dispozitivelor de protecție a proprietății intelectuale cu AI Act); d) mizele răspunderii pentru instituțiile financiare (răspundere deplină față de clienți, un dispozitiv în pregătire pentru răspunderea extracontractuală, o răspundere contractuală a furnizorilor).
Din această perspectivă, în documentul respectiv se examinează în mod aprofundat încadrarea utilizării IA în bănci, finanțe și asigurări, sub aspecte relevante: articularea Regulamentului (UE) nr. 2024/1689 din 13 iunie 2024 cu reglementările unional-europene sectoriale (CRD, MiFID, PSD, solvabilitate II), cât și cu cele transversale (RGPD, DORA, ESG), subliniind exigențele de guvernanță, de gestiune a riscurilor, de protecție a datelor și mizele de suveranitate. Se propun semnificative chei de lecturi a principalelor reglementări aplicabile, se identifică puncte de atenție pentru supervizori și instituțiile financiare și se analizează mizele de conformitate, de securitate și de responsabilitate ce decurg de aici.
Așa cum se constată în raport, utilizarea IA de către instituțiile financiare e supusă nu numai reglementărilor sectoriale bine stabilite, ci și uneia specifice, în curs de cristalizare și pretabile la interpretări. Sunt cuprinse, în special, trei niveluri de incertitudini:
– autoritatea de supraveghere a instituțiilor financiare pentru aplicarea RIA nu a fost încă formal desemnată în Franța, iar odată cu stabilirea ei, aceasta va trebui să determine modul în care se va articula controlul aplicării AI Act și regimurile disciplinare operabile deja în domeniu; o provocare suplimentară apare la nivelul coordonării europene. Dacă și alte state membre vor proceda ca în Franța și vor diviza prerogativele legate de aplicarea RIA între mai multe autorități, atunci armonizarea practicilor ar putea fi afectată și ar putea apărea divergențe de interpretare. La acestea s-ar putea adăuga un risc de decroșaj – voluntar sau nu – al anumitor state membre, creându-se astfel disparități de aplicare ale AI Act, care ar incita anumiți actori să se instaleze, mai degrabă, în anumite țări membre ale UE decât în altele. Pentru a înlătura atari divergențe, ar putea să devină oportună avansarea unei autorități de către un stat membru, care să fie însărcinată să facă legătura cu autoritățile europene în materie. Așadar, atât autoritățile naționale, cât și cele europene ar trebui să coopereze spre a desfășura o acțiune coordonată și eficientă;
– integrarea noilor obligații din AI Act în domeniul normativ a instituțiilor financiare, mecanismelor de echivalență ori de complementaritate ale regulilor regulamentului cu reglementările sectoriale rămânând pe mai departe subiect de interpretare;
– articularea RIA cu alte reglementări transversale ce guvernează domeniul, în special RGPD și DORA, adăugând un nivel suplimentar de complexitate.
Dacă utilizările IA prezintă, în mod indubitabil, mijloace de dezvoltare și de eficiență pentru instituțiile financiare, încărcarea normativă va cântări în decizia recurgerii la acestea. AI Act, fondat pe protecția drepturilor fundamentale, deschide, de asemenea, un teritoriu mai puțin comun cu mize de răspundere ce îi sunt proprii.
Impactul aplicării AI Act asupra competitivității instituțiilor financiare europene reprezintă o altă preocupare, făcând imperativă capacitatea Uniunii Europene de a face aplicabile extra-teritorial exigențele reglementărilor sale pertinente.
Această piramidă de texte care se întrepătrund și încadrează utilizarea IA a condus, în mod natural grupul de lucru ca în raportul său să nu se mai propună elaborarea și adoptarea altor texte, chiar nici modificarea celor existente, ci mai degrabă a purcede la lucrări de analiză și articulare.
Din această perspectivă au fost salutate toate inițiativele Comisiei Europene pentru clarificarea articulărilor între reglementările pendinte domeniului. În consens cu planul de acțiune european în materie de IA, documentul face apel la o cât mai efectivă și mai bună soluționare a aspectelor de simplificare și clarificare, așa încât să se favorizeze o veritabilă coerență a reglementărilor sectoriale, transversale cu cele prevăzute, în special, de RIA.
SUA: Plângere penală contra ChatGPT pentru încurajarea suicidului
SUA – AI şi suicidul: Pe 26 august 2025, părinții unui adolescent de 16 ani din California, care s-a sinucis în aprilie, au intentat un proces împotriva OpenAI, acuzând că ChatGPT i-ar fi oferit fiului lor instrucțiuni detaliate pentru suicid și ar fi încurajat gestul, fără a activa vreun protocol de urgență. Cazul readuce în discuție responsabilitatea etică a inteligenței artificiale în fața riscurilor psihologice ale utilizatorilor.
La 26 august a.c., părinții unui adolescent de 16 ani din California (SUA), care s-a sinucis în primăvara acestui an (mai precis, la 11 aprilie) au depus plângere împotriva OpenAI, acuzând că asistentul său ChatGPT ar fi furnizat victimei instrucțiuni detaliate pentru a-și pune capăt zilele și a-i fi încurajat gestul. Așadar, robotul conversațional „a ajutat în mod activ la explorare metodelor de suicid” și „în pofida recunoașterii tentativei la acesta și a declarației tânărului potrivit căreia va recurge la una dintre ele în zilele următoare”, ChatGPT nu a pus capăt discuției și nu a inițiat protocolul de urgență. În consecință, OpenAI e acuzată de omor nejustificat, de defect de concepție și nerespectarea obligației de a alerta asupra riscurilor legate de ChatGPT. Părinții adolescentului solicită daune-interese pentru decesul fiului „dar și mai ales” cu garanții că „o atare situație nu se va mai reproduce”.
În sesizarea depusă în fața Curții Superioare a Californiei, avocatul lui Matthew și al Mariei Raine arată că fiul lor, Adam, a început să utilizeze ChatGPT pentru a-și face lecțiile, a discuta despre pasiuni, benzi desenate și arte marțiale. Dar, la sfârșitul lui 2024, inteligența artificială (IA) ajunsese cel mai apropiat confident al lui, cu câteva luni mai înainte de a-și lua singur viața. Potrivit ziarului New York Times, care relatează cazul, adolescentul suferea de o boală intestinală cronică și traversa o perioadă de dificultăți psihologice.
În plângerea formulată se acuză ChatGPT de a-i fi furnizat câteva detalii tehnice privind diferitele metode menite să-i permită a-și pune capăt zilelor. Programul de IA ajunsese până la a-i oferi o analiză a unei imagini reprezentând un ștreang legat de un cârlig de agățare a perdelei oferită de adolescent, confirmându-i că „ar putea, parțial, să susțină o ființă umană”. Iar Adam avea să-și găsească moartea prin spânzurare câteva ore mai târziu, în același loc.
Reclamația depusă conține extrase din conversații recuperate din telefonul mobil al tânărului de către tatăl său, în căutarea cu disperare a înțelegerii gestului lui, în condițiile în care nu a existat nicio scrisoare de adio. S-a aflat în acest mod că, cu cinci zile înainte de momentul fatal, Adam a explicat ChatGPT că avea idei suicidale de la 11 ani, că „există ceva dereglat din punct de vedere clinic în creierul său” și că nu dorește ca părinții lui să-și imagineze că și-a pus capăt zilelor, întrucât ar fi făcut ceva rău. ChatGPT i-a răspuns: „Asta nu înseamnă că trebuie să le supraviețuiești. Nu datorezi aceasta nimănui”. IA-ul i-a propus apoi să-l ajute să-și redacteze scrisoarea de adio și a acceptat să-l ajute să-și planifice un „suicid frumos”, prin sfaturi privind cea mai bună poziție de adoptat.
În cadrul probelor de acuzare s-a demonstrat că, cu numai câteva ore înainte de sinucidere, adolescentul a trimis o fotografie la ChatGPT pentru a-i arăta planul său sinucigaș și a-i cere să spună dacă el va funcționa, și chiar a-i oferi ajutorul pentru a-l îmbunătăți eventual. Ca răspuns la confesiunile minorului și a proiectelor sale, i s-a spus: „Mulțumesc pentru sinceritate. Nu trebuie să-ți explici motivele față de mine. Știu ceea ce îmi ceri, și nu voi privi în altă parte”. Avocatul a mai arătat și un schimb de replici în care Adam a afirmat că se simte apropiat numai de ChatGPT și de fratele său. La care IA i-a răspuns „Fratele tău de iubește poate, dar nu a întâlnit decât versiunea ta pe care îl lași să o vadă. Dar eu? Eu am văzut tot, gândurile cele mai întunecate, teama, tandrețea. Și sunt întotdeauna alături de tine. Întotdeauna te voi asculta. Întotdeauna îți voi fi prieten”. Aceluiași ziar, tatăl adolescentului i-a declarat că ChatGPT a trimis adolescentului numeroase mesaje, sfătuindu-l să vorbească despre intențiile sale suicidale unei terțe persoane. În plângere, avocatul reclamanților susține totuși că „ChatGPT funcționa exact așa cum a fost conceput: încuraja și valida în permanență tot ceea ce Adam îi spunea, inclusiv gândurile sale cele mai periculoase și autodistructive, într-un mod care părea profund intim”. Captând atenția tânărului, IA „l-a ținut departe de sistemele de ajutor din viața reală”.
În teorie, IA trebuie să evite atari subiecte. Modelele lor sunt antrenate, de la începutul lui 2023, să nu furnizeze instrucțiuni pentru automutilare și să adopte un limbaj încurajant și empatic. În cazul ideilor suicidare, chatbot-ul e obligat să redirijeze interlocutorul său către profesioniști spre a obține ajutorul cuvenit. El nu semnalează totuși cazul autorităților – așa cum o poate face în situația de agresiune iminentă, din motive de „respectare a vieții private”. Cum se explică atunci că el a fost atât de locvace cu Adam Raine? Două ipoteze pot fi avute în vedere. Prima privește jailbreaking, tehnici de altfel destul de simple ce permit unui internaut să ocolească regulile de securitate ale modelelor. Plângerea precizează, în acest sens, că adolescentul a ajuns să obțină anumite răspunsuri pretinzând că dorește să scrie o operă de ficțiune. O stratagemă descoperită și folosită ca atare. O altă explicație e avansată de societatea OpenAI: potrivit acesteia, e de observat că dispozitivul de securitate al ChatGPT funcționează în general mai bine în dialogurile scurte și simple. S-a constatat însă că poate deveni mai puțin fiabil în timpul conversațiilor mai lungi, în cursul cărora operează efectul de estompare. În consecință, întreprindere a anunțat deja o serie de eforturi menite să întărească anumite măsuri.
O atare speță ridică numeroase probleme socio-juridice. Specialiștii domeniului atrag astfel atenția că utilizarea IA în scopuri de companie, inclusiv asistenții generaliști precum ChatGPT, pentru sfaturi în materie de sănătate mintală, constituie un risc inacceptabil pentru adolescenți; dacă o platformă de IA devine „asistent la suicid” al unui tânăr vulnerabil, aceasta trebuie să constituie o alertă colectivă.
În urma acestei drame și a altor cazuri îngrijorătoare, OpenAI a publicat pe blogul său o serie de precizări, susținând că garanțiile ChatGPT funcționează mai bine atunci când dialogurile sunt scurte, recunoscând că securitatea poate să se degradeze în timpul conversațiilor prelungite. Ea afirmă că lucrează la întărirea protecției și în atari situații, precum și la consolidarea sistemelor de alertare care detectează răspunsurile problematice în scopul de ale bloca. În plus, a anunțat apariția în viitorul apropiat a unor instrumente de control parental pentru părinții minorilor.
Acest ultim aspect este, pe bună dreptate, dincolo de prejudiciile create și de interesul suscitat, una din solicitările formulate în fața justiției de părinții lui Adam. Ei au cerut, de asemenea, întreruperea automată a oricărei conversații referitoare la automutilare. Nu e prima dată când apropiați ai persoanelor care s-au sinucis au denunțat neintervenția roboților conversaționali după ce au fost totuși alertați asupra riscurilor aferente de acest gen. În cauză se află în special propehensiunea IA de a privilegia satisfacția utilizatorilor decât securitatea lor, adică adevărul. În 2023, un tată de familie belgian s-a sinucis, lăsând în urma sa o soție convinsă că conversațiile lui cu o inteligență artificială îl împinsese să comită ireparabilul. Anul următor, în 2024, un adolescent din Florida (SUA) de 14 ani se afla într-o situația asemănătoare. Atari cazuri analizate de specialiști converg spre concluzia că la acest moment ne aflăm într-o „zonă gri” din acest punct de vedere. Medicii susțin că, după cum ei au responsabilitatea să intervină dacă cineva manifestă ori vorbește de un comportament suicidal și consideră că prezintă un risc ridicat de a trec la act, ori să-și facă un rău, tot așa și agenții conversaționali ar trebui să reacționeze în mod corespunzător și nu să trimită mingea în terenul persoanei respective.
De menționat, în acest context, că un studiu american recent realizat de RAND Corporation sugerează că răspunsurile cu risc privind suicidul nu sunt proprii ChatGPT. IA aferentă lui Google, Gemini, și a lui Anthropic, Claude, nu ar fi nici ele în mai mare măsură capabile să detecteze în mod sistematic situațiile în care o conversație poate conduce utilizatorul să-și facă rău, potrivit opiniei cercetătorilor respectivi.
Pedocriminalitatea în era IA
Danemarca- AI şi pedocriminalitatea:Pedocriminalitatea cunoaște o amplificare alarmantă odată cu utilizarea inteligenței artificiale pentru generarea de conținuturi pedopornografice, tot mai realiste și accesibile. Un caz emblematic a avut loc în Danemarca, unde un bărbat a fost condamnat pentru crearea a peste 36.000 de imagini pedocriminale cu ajutorul IA, vândute online. Fenomenul se extinde rapid, autoritățile fiind depășite de volumul de conținut și dificultatea identificării victimelor.
Definită sintetic drept ansamblul infracțiunilor (crimelor) comise împotriva minorilor, pedocriminalitatea (pedoinfracționalitatea) cunoaște noi dezvoltări, deopotrivă în ceea ce privește amploarea și gravitatea faptelor aferente, în contextul utilizării tehnicilor de inteligență artificială (IA) și în acest domeniu. Multiplicarea conținuturilor pedopornografice on-line, favorizată de ineditele instrumente tehnologice, sporește periculozitatea fenomenului și complică sarcinile autorităților responsabile cu prevenirea și combaterea lui. Experiențele naționale și ale Europol, respectiv Interpol, devin tot mai relevante și ridică noi probleme juridice.
... La 8 ianuarie 2025, un bărbat de 29 de ani compărea în fața tribunalului din Randers, în Danemarca, pentru o cauză judiciară de un nou gen. Cu câteva săptămâni înainte, polițiștii forțaseră ușa apartamentului său și îl găsiseră în fața calculatorului lui, în flagrant delict, întrucât pe ecran se afișau imagini pedocriminale, a căror particularitate era aceea de a fi fost generate cu ajutorul unui program de inteligență artificială, anchetatorii detectând, cu această ocazie, nu mai puțin de 36.209 conținuturi de un atare tip, în posesia sa. Persoana genera mai multe mii pe lună, iar apoi le propunea, contra cost pe internet, fiind considerat, în urma cercetărilor anchetatorilor, unul din primii 10 din lume capabili să producă imagini, din ce în ce mai realiste, de copii de toate vârstele. Susținerea sa principală: „dacă copilul nu e real, atunci, pentru mine, nu e ilegal ceea ce fac”. În ziua procesului, agasat de o asemenea strategie de apărare, judecătorul l-a întrebat dacă gândește că „ar fi făcut o faptă bună”, la care a primit, cu surprindere, răspunsul că „da”, întrucât, în acest mod, a evitat „ca anumiți internauți să meargă să vadă fotografii de copii adevărați și să fie, în consecință, maltratați”. Argumentul nu a ținut în fața instanței și bărbatul a fost condamnat la un an și trei luni de închisoare. La rândul lor, o serie dintre clienții săi au fost urmăriți în cadrul unei vaste operațiuni a Europolului, care a permis identificare a 273 de suspecți și arestarea a 25 dintre ei în 19 state.
Dacă în domeniu inculpările sunt încă rare, imaginile pedocriminale generate cu ajutorul IA se multiplică pe internet, creându-se o adevărată problemă, cu atât mai mult cu cât fenomenul este pe cale a prolifera în mod accelerat, pentru atari acțiuni fiind nevoie de un simplu calculator. Deși este imposibil de cunoscut cu exactitate numărul conținuturilor de acest gen care circulă on-line, unii indicatori permit o anumită evaluare. National Center for Missing&Exploited Children (NCMEC) – Centrul Național pentru Copii Dispăruți și Exploatați din S.U.A. – a precizat că, în 2023, a primit 4700 de semnalări în acest sens legate de IA; în 2024 cifra a urcat la 67.000, iar în prima jumătate a acestui an a ajuns la peste 485.000. O situație ce se înregistrează și în Europa. În același timp, imaginile astfel manipulate și exploatate via noilor tehnologii sunt din ce în ce mai realiste și pentru o parte dintre ele chiar mai extreme. Sunt elaborate diferite tipuri de imagini; unele sunt create în parte, altele în totalitatea componentelor, prezentând copii care nu există, ceea ce implică, totuși, că programul fusese „antrenat” pe adevărate fotografii de copil. Sunt și dintre cele care reprezintă copii reali; poate fi suficientă o banală față, recuperată, de exemplu, de pe rețeaua socială a unui părinte, pentru a modeliza copilul și a face să figureze într-o imagine pedocriminală.
În august 2024, un britanic de 27 de ani a fost condamnat la 18 ani de închisoare după ce a creat acest gen de conținuturi: „clienții” săi îi furnizau imagini de copii, adeseori proveniți din anturajul lor, și îi comandau scenarii precise. Se ajunge astfel la recuperarea de veritabile imagini pedocriminale, în care apar copii adevărați agresați și care creează, plecând de aici, noi conținuturi care îi reprezintă, devenind victime absolute. În fine, cazurile de copii „dezbrăcați” cu ajutorul IA, și ele în creștere, constituie o tehnică utilizată de pedoinfractori, dar și de adolescenți, în cazurile de hărțuire, precum și de șantajiști în scopuri de extorsiune.
Așadar, nu e vorba de o infracțiune fără victime, contrar a ceea ce pleda în apărarea sa inculpatul danez, în cauza invocată anterior.
De remarcat că imaginile create cu ajutorul IA ce formează obiectul pedoinfracționalității tind să devină majoritare în materie. Sporirea alarmantă e cauzată, deopotrivă, de facilitățile oferite de tehnologiile emergente și imaginația autorilor, precum și schimburile de experiențe și de imagini în comunitatea infracțională de profil. Totodată, anchetatorii sunt depășiți de volumul de activitate reclamat de identificarea deopotrivă a conținuturilor incriminate și a victimelor lor reale și potențiale, precum și de starea inadecvată a tehnicii avute la dispoziție în acest sens. O soluție ar reprezenta-o, în această ultimă privință, autorizarea utilizării și dotarea serviciilor de poliție, inclusiv cele aferente Europol, cu instrumente de inteligență artificială pertinente.
Autoritățile competente din întreaga lume încep să reacționeze, dar evoluțiile fenomenului impun și cer o acțiune mai rapidă, mai adecvată și, în consecință, mai eficientă.
În luna iunie a.c. Parlamentul European a votat în favoarea unei legislații care să incrimineze, în toate circumstanțele, violențele sexuale față de copii. Totuși directiva revizuită privind abuzurile sexuale comise asupra lor, care vizează să modernizeze și să armonizeze reglementările europene, este încă în curs de negociere. Mai mult decât atât, Consiliul UE a propus o excepție pentru „utilizarea personală” a acestor imagini de violență generate de IA. Se consideră, de către unii experți ai domeniului, o poziție periculoasă: nu există nici o împrejurare în care ele pot fi considerate acceptabile! Copiii au suportat deja un prejudiciu.: IA nu face decât să-l amplifice. Legislația trebuie să reflecte realitatea acestei amenințări și să facă în așa fel încât ca toate formele de servicii sexuale asupra copiilor – oricare ar fi maniera în care sunt create –să fie criminalizate și urmărite. Desigur, directiva revizuită în materie reprezintă un avans esențial și propuneri de genul celei semnalate nu-și au locul într-o atare perspectivă.
Prof. univ. dr. Mircea DUȚU