ConformitateJuridic13 august, 2025

AI Act și spațiul de libertate, de securitate și de justiție al UE

IA centrată pe om: Regulamentul (UE) nr. 2024/1689 promovează adoptarea inteligenței artificiale centrată pe om, sigură și fiabilă. Cu scopul de a creea un echilibru între nevoile de dezvoltare și reglementarea IA, regulamentul prevede măsuri concrete de protecţie precum interzicerea sistemelor cu riscuri inacceptabile, cum ar fi identificarea biometrică în timp real în spații publice (2 februarie 2025) sau reglementarea strictă a sistemelor cu risc ridicat (2 august 2026).
Prof. univ. dr. Mircea DUȚU

Regulamentul (UE)  nr. 2024/1689 din 13 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială (AI Act, RIA) vizează a găsi un echilibru dinamic între necesitatea de a reglementa IA în vederea asigurării respectării valorilor UE și cea de a nu îngrădi inovația tehnologică în Europa, concluzie valabilă și în privința raportării sale la exigențele spațiului de libertate, securitate și de justiție al UE (SLSJ).

Potrivit art. 1 alin. (1) din regulament, acesta are ca scop (obiect) a promova adoptarea inteligenței artificiale centrate pe factorul uman și fiabilă, asigurând, în același timp, un nivel ridicat de protecție a sănătății, a siguranței și a drepturilor fundamentale consacrate de Cartă, inclusiv a democrației, a statului de drept și a mediului împotriva efectelor dăunătoare ale sistemelor de IA din Uniune. Este vorba, după cum se poate observa, de valorile UE, atât cele afirmate la art. 2 din Tratatul privind Uniunea Europeană (statul de drept, democrația și drepturile fundamentale), cât și cele specifice IA, precum nivelul ridicat de protecție a sănătății, al securității. Două alte priorități sunt, de asemenea, menționate: protecția mediului și susținerea inovației. Cum ușor se poate observa, ceea ce e caracteristic RIA e caracterul său orizontal, în sensul că dispozițiile sale au ca destinatari nu numai actorii economici, ci și autoritățile statale și organele UE. Așa se face că el are vocația de a guverna utilizarea IA de statele membre, cât și de structurile și agențiile UE în cadrul spațiului de libertate, de securitate și de justiție (SLSJ)[1]. Conform prevederilor textului reglementar referitoare la punerea sa în aplicare, începând din 2 februarie 2025, au devenit operabile interdicțiile relative la sistemele de inteligență artificială (SIA) care prezintă riscuri inacceptabile, precum cele de identificare biometrică la distanță „în timp real”, în spațiile accesibile publicului. SIA cu un grad ridicat de risc, în special în domeniul de aplicare a legii, imigrării și al administrării justiției, se impun din 2 august 2026.

În această căutare de echilibru, AI Act se aseamănă cu RGPD în privința vocației și a aplicabilității extrateritoriale. Capacitatea UE de a concilia inovarea și protecția drepturilor fundamentale e pusă la încercare de avântul IA securitare și polițienească.

Inteligența artificială se dovedește a fi un instrument deosebit de util în SLSJ, utilizatorii săi în materie fiind potențial numeroși. Fondat deopotrivă pe prevederile art. 114 al Tratatului privind funcționarea UE (TFUE) (piața interioară) și cele ale art. 16 din același tratat (protecția datelor cu caracter personal) RIA are un impact asupra mai multor altor politici unional-europene. În mod efectiv, principalul aspect în cauză e reprezentat de introducerea pe piață, miză în raport cu libera circulație a mărfurilor și serviciilor, deci cu piața internă. Referitor la cel de-al doilea termen ținând de dreptul fundamentale aferent Cartei UE a drepturilor omului, potrivit considerentului 3 „În măsura în care prezentul regulament conține norme specifice de protecție a persoanelor fizice în contextul prelucrării datelor cu caracter personal, referitoare la restricțiile de utilizare a sistemelor de IA pentru identificare biometrică la distanță în scopul aplicării legii, la utilizarea sistemelor de IA pentru evaluarea riscurilor persoanelor fizice în scopul aplicării legii și la utilizarea sistemelor de IA de clasificare biometrică în scopul aplicării legii, este oportun ca prezentul regulament să se întemeieze, în ceea ce privește normele specifice respective, pe articolul 16 din TFUE”. Competența în materie de protecție a datelor joacă deci un rol fundamental, întrucât textul articolului în cauză poate să fie invocat pentru a justifica orice măsuri care nu răspund la exigențele de armonizare a piețelor în virtutea art. 114 din TFUE. O atare abordare prezintă avantajul de a furniza baze mai solide pentru a guverna SIA care nu au nici o legătură cu piața interioară, în special cele utilizate în sectorul public și deci în cadrul SLSJ. Se pune, cu toate acestea, chestiunea de a ști dacă cele două fundamente juridice invocate sunt suficiente față de consecințele aferente domeniului de interes. Într-adevăr, SIA utilizate în SLSJ sunt dezvoltate în cadrul intern, fără introducere pe piață și fără implementarea pe aceasta. De altfel, unele sisteme de acest gen desfășurate în cadrul spațiului... nu au vocația de a fi fondate pe prevederile articolului 16 din TFUE, ca, de exemplu, implementarea de controale automatizate la frontierele exterioare ale UE. În mod efectiv asemenea sisteme presupun protejarea datelor persoanelor vizate dar utilizarea dată corespunde unei competențe mai specifice a UE. Din această perspectivă, actul legislativ unional-european ne oferă o armonizare fondată pe riscurile IA în special în SLSJ.

În scopul de a găsi acest echilibru, regulamentul procedează la o evaluare a riscurilor SIA, definite drept „combinarea probabilității unei daune și gravitatea acestei daune” (art. 3). Sunt astfel identificate patru tipuri de riscuri, cărora le corespunde o conduită de urmat și sancțiuni graduale ce pot fi aplicate în cazurile de neconformare. Regulamentul determină domeniile în care utilizarea aplicațiilor inteligenței artificiale comportă riscuri particulare, respectiv în special cel al afacerilor interne și cel al gestiunii migrațiilor. În anumite cazuri, utilizarea e interzisă, întrucât antrenează manifestarea de riscuri inacceptabile față de valorile UE, iar în alte situații e deosebit de încadrată din cauza riscurilor ridicate pe care le generează în privința sănătății, securității și drepturilor fundamentale ale persoanelor fizice. În această perspectivă, referitor la prima categorie de măsuri, se poate observa că articolul 5 din RIA interzice anumite utilizări ale IA considerate ca fiind inacceptabile în raport cu valorile UE, fiind vorba în special de SIA care manipulează deciziile persoanelor ori le exploatează vulnerabilitatea, cele care evaluează ori clasează persoanele în funcție de comportamentul lor social sau de trăsăturile personale.

În domeniul represiv, trei tipuri de utilizări sunt interzise, potrivit art. 5 literele d) (utilizarea IA pentru evaluarea riscurilor persoanelor fizice în scopul evaluării ori predicției riscului dacă o persoană fizică comite o infracțiune, numai pe baza profilajului unei persoane fizice ori a evaluării trăsăturilor sale de personalitate și caracteristicilor sale), e) (bazele de date de recunoaștere facială prin extragerea nețintită de imagini faciale pe internet ori de imagini de videosupraveghere) și h) (a sistemelor de identificare biometrică la distanță, în timp real, în spații accesibile publicului). Conform considerentului 32 al Regulamentului, această utilizare e deosebit de atentatorie la drepturile și libertățile persoanelor vizate, în măsura în care ea poate afecta viața privată a unei mari părți a populației, suscită un sentiment de supraveghere constantă și descurajează în mod indirect exercitarea libertății de reuniune și a altor drepturi fundamentale.

Recunoașterea facială se reprezintă ca un mijloc de a citi identitatea unui individ plecând de la fața sa, în deplină imparțialitate și fiabilitate. Identitatea e percepută astfel ca „unică, una pe care o putem extrage și apoi integra într-o bază de date pentru a o conserva ori, poate, spre a o face să circule pe piața mondială”[2]. Totuși, aceste argumente de precizie și de imparțialitate au fost puse sub semnul întrebării. Printre altele, ce tip de identitate, chiar de subiectivitate, o atare tehnologie, percepută de detractorii săi ca intruzivă, vizează în mod real? Se limitează numai la suprafață? Cum recunoaște și interpretează emoțiile, recunoașterea facială? Cum se redefinește interioritatea noastră? Fața definită de biopolitică și supraveghere caracterizează un individ?[3] Dacă biometria e „o știință care utilizează datele biologice, în scopuri de identificare” și care înglobează tehnologii precum amprenta digitală, recunoașterea irisului și recunoașterea facială, recunoașterea facială se demarcă de asemenea tehnici, în mod precis întrucât se concentrează asupra feței și nu a capului în ansamblul său? Fața e, pur și simplu, numai o parte a corpului uman, ca oricare alta? În domeniul recunoașterii faciale, s-a stabilit o distincție între configurațiile active, adică atunci când un individ transmite informații biometrice (de exemplu, spre a avea acces la telefonul său ori la un distribuitor automat) și cele pasive (unde datele pot fi colectate în secret, pe calea camerelor de supraveghere ori video-urile poliției). Totuși, recunoașterea facială nu funcționează într-un vid reglementar[4]. În Marea Britanie imaginile rezultate din această tehnologie sunt retăiate cu alte fișiere de supraveghere, dar sunt, de asemenea, fuzionate cu rețelele care impun camere de supraveghere. Această practică alimentează temerile că populația poate să fie observată, cadrată, urmărită, chiar identificată, în continuu, la scări variabile și în contexte diferite. Ideea potrivit căreia s-ar putea considera recunoașterea facială ca o tehnologie neutră în plan axiologic e contestabilă, în special atunci când ea devine un instrument de supraveghere în masă. Tehnologiile zise pasive ridică numeroase întrebări privind respectarea anonimatului și a vieții private în spațiul public. Dar, în pofida avansurilor recunoașterii faciale la nivel mondial, statele ezită în a formula un cadru reglementar obligatoriu în domeniu și chiar al inteligenței artificiale, în general. Operând într-un cvasivid juridic, recunoașterea facială ridică provocări inegale precum protecția vieții private, luarea în considerare a consimțământului indivizilor, direct sau parțial vizați, și mercantilizarea datelor care face sistemele de securitate mai vulnerabile și antrenează noi forme de inegalitate. În timp ce unele state se orientează spre tehnologiile recunoașterii faciale, altele au reacționat cerând un moratoriu.

Atunci când marile întreprinderi digitale precum Amazon, Microsoft, IBM sau Google au anunțat că nu vor vinde algoritmii lor agențiilor statale atâta timp cât nu va fi votată o lege federală în materie în S.U.A., Meta a ordonat distrugerea a un miliard de faceprints creați via Facebook. Altele precum Clearview AI colaborează activ cu autoritățile grație unei baze de date care adună fotografiile și video-urile disponibile pe internet, astfel că soluțiile juridice pot diferi. S-ar putea recurge la o nouă legislație, spre crearea unui drept la un „sanctuar”, ori la cel de a avea un viitor sau chiar la dreptul la opacitatea informației?[5] Întrucât legea nu se supune aceleiași temporabilități precum dezvoltarea tehnologică, care cunoaște, mai degrabă, o cursă frenetică decât o maturare, apare problema capacității sale de a asigura și proteja drepturi preexistente. Așadar, în mod evident se întrevede depășirea reglementărilor existente și nevoia altora noi, în consonanță cu noile date ale realității tehnologice și a evoluțiilor socio-economice și culturale pe care impactul său le angajează.

Impreciziile tehnice ale SIA destinate identificării biometrice la distanță a persoanelor fizice conduce la rezultate tendențioase, părtinitoare și la efecte discriminatorii. Ele sunt deosebit de importante în ceea ce privește vârsta, apartenența etnică, rasa, sexul ori handicapurile. În plus, imediatitatea impactului și posibilitățile limitate de verificare ori de coerciție suplimentare legate de utilizarea acestor sisteme ce funcționează în timp real, comportă riscuri crescânde pentru drepturile și libertățile persoanelor vizate în contextul activităților serviciilor represive ori din cauza impactului lor asupra acestor activități. De precizat că RIA prevede unele excepții definite și reglementare, la această interdicție a identificării biometrice la distanță „în timp real” în spații accesibile publicului, pentru a permite autorităților represive să utilizeze IA, spre a proteja securitatea persoanelor. Din acest punct de vedere, utilizarea sa e autorizată în trei cazuri: cercetarea țintită a victimelor specifice de răpire, trafic de ființe uman ori de exploatare sexuală, precum și căutarea persoanelor dispărute; prevenirea unei amenințări specifice substanțiale și iminente pentru viața ori securitatea fizică a persoanelor fizice sau de amenințare reală și actuală ori reală și previzibilă de atentat terorist și, în fine, localizarea sau identificarea unei persoane bănuite de a fi comis o infracțiune, în scopul de a desfășura o anchetă ori o urmărire penală sau de a executa o sancțiune penală pentru infracțiunile vizate la anexa II a actului legislativ unional-european. Respectivele utilizări sunt supuse autorizării unui organ judiciar ori alt organism independent și cu limite apropriate în timp, amploarea geografică și în privința bazelor de date cercetate. Totuși, într-o situație de urgență, justificată în mod corespunzător, utilizarea unui asemenea sistem poate începe fără autorizație, cu condiția ca aceasta să fie solicitată fără întârzierea nejustificată, cel mai târziu în 24 de ore. Dacă respectiva autorizație e refuzată, utilizarea e întreruptă cu efect imediat și toate datele, precum și rezultate și produsele acestei utilizări sunt imediat scoase din uz și șterse. Articolul 6 din RIA stabilește norme de clasificare pentru sistemele de IA cu grad ridicat de risc. În acest sens, el se referă la o listă de SIA vizate în anexa III, a priori (prezumate) ca prezentând un grad ridicat de risc. Dimpotrivă, nu vor fi în această situație, dacă nu prezintă riscuri semnificative de atingere a sănătății, securității ori drepturilor fundamentale ale persoanelor fizice, inclusiv prin influențarea în mod sensibil a rezultatului luării deciziei. Faptul de a figura în anexa III este deci o prezumție refragabilă de risc ridicat, lăsând astfel posibilitatea de a sustrage constrângerilor și a se elibera demonstrând absența efectivă de risc ridicat. Lista anexei III cuprinde opt domenii în care atari SIA au fost deja identificate ca fiind de înalt risc, printre care trei privesc SLSJ, respectiv la pct. 6 (aplicarea legii, în măsura în care utilizarea lor e permisă în dreptul UE sau intern relevant), pct. 7 (migrațiune, azil și gestionarea controlului la frontiere) și pct. 8 (administrarea justiției și procesele democratice). Așadar, anexa III prevede un număr limitat de SIA pentru care riscurile recenzate s-au materializat deja ori sunt susceptibile să o facă într-un viitor apropiat. Pentru a garanta că regulamentul va putea fi adaptat la noile utilizări și aplicații IA. Comisia Europeană poate să extindă lista SIA cu grad ridicat de risc din anexa III, aplicând un ansamblu de criterii și o metodă de evaluare a riscurilor (conform art. 7). Modificarea va putea fi făcută printr-un act delegat conform art. 6 §4.6 din RIA. S-a ridicat astfel problema de a ști dacă definiția de noi SIA cu grad ridicat de risc constituie un element esențial al regulamentului ce poate fi modificat printr-un act delegat. AI Act a precizat în art. 8 condițiile de utilizare a SIA cu grad ridicat de risc.

Referitor la cele aferente cadrului SLSJ, în anexa X a actului legislativ se precizează că reguli speciale se aplică sistemelor informatice la scară largă cu grad ridicat de risc ce sunt deja în serviciu. Astfel, acestea nu vor fi ținute să se conformeze dispozițiilor RIA decât începând din 2030 (conform art. 111). Anexa X enumeră diferitele sisteme informatice la scară largă în spațiul de libertate, securitate și justiție, cărora li se aplică aceste reguli speciale. Sistemul de informații Schengen, cel privind vizele, Eurodac (care compară datele biometrice pentru a identifica imigranții ilegali), sistemul de intrare/ieșire (care înregistrează datele de intrare și de ieșire ale resortisanților țărilor terțe), sistemul european de informații de autorizare privind călătoriile (ETIAS), sistemul european de informații cu privire la cazierele judiciare ale resortisanților țărilor terțe și apatrizilor (ECRIS), interoperabilitate.



[1] Le règlement sur l'intelligence artificielle et l'espace de sécurité, de liberté et de justice de l'Union européenne, C. Chevalier-Govers,Revue de l’Union Européenne” no. 686/mars 2025, p. 149 și urm.

[2] Durham, Duke University Press, 2011, p. 12.When Biometrics Fail: Gender, Race and the Technology of Identity, S.A. Magnet,

[3] Routledge, New York, 2015, p. 19.Face Politics, J. Edkins,

[4] la: M. Bozzo-Rey, A. Brunon-Ernst, C. Wrobel (dir.), „Reconnaissance faciale. Introduction, M. Bozzo-Rey, A. Brunon-Ernst, C. Wrobel, Défis technique, juridique et éthiques”, Editions Panthéon-Assas, Paris, 2024, p. 10-11.

[5] în: R. Braidotti, M. Hlavajova (dir.), „Posthuman Society”, Bloomsbury Academic, London, 2018.Informatic Opacity, Z. Blas,

UE: Codul de bune practici privind IA de uz general

Bune practici privind IA: a codului de bune practici pentru inteligențele artificiale de uz general, destinat marilor modele generatoare de texte ori de imagini. Deși nu este obligatoriu, codul abordează probleme stringente precum drepturile de autor și măsurile de securitate, ridicate în ultimii de ani de utilizarea intensivă a modelelor ChatGPT (Open AI), Gemini (Google) ori Le Chat (Mistral). Comisia Europeană a publicat pe 10 iulie 2025 versiunea finală

 

Cu o oarecare întârziere – textul fiind inițial așteptat la 2 mai a.c. –, Comisia Europeană a publicat, în sfârșit, la 10 iulie 2025, versiunea finală a codului de bune practici pentru inteligențele artificiale de uz general, destinat marilor modele generatoare de texte ori de imagini, ce servesc ca bază utilizărilor de către întreprinderi ori asistenților precum ChatGPT (Open AI), Gemini (Google) ori Le Chat (Mistral). Dar lucrul cel mai important, în contextul general al situației Regulamentului (UE) nr. 2024/1689 din 13 iunie 2024 de stabilire a unor norme unitare privind inteligența artificială (AI Act sau RIA), în pofida acestui retard, Bruxelles-ul a anunțat menținerea și a respectat data de 2 august 2025 pentru intrarea în vigoare a seriei de obligații aferente celei de-a doua etape de punere în aplicare a actului legislativ unional-european.

1. După cum e cunoscut, încă de la proiectarea, dezbaterea, adoptarea și apoi operaționalizarea sa treptată, RIA a făcut obiectul unor intense dezbateri și constante presiuni, în special din partea marilor actori tech americani și întreprinderilor europene ale sectorului, ce s-au amplificat în ultima perioadă, când anumite grupuri de interese economice și unele state membre ale UE reclamă o „pauză” în aplicare și o asuplire a măsurilor aferente. Afișând o fermitate demonstrativă – deopotrivă prin declarații oficiale, poziționări principiale și, în cazul de față, chiar măsuri concrete – Executivul unional-european nu închide, totuși, total și brutal poarta anumitor amenajări ale textului legislativ vizat. Mai precis, în principiu codul de bune practici va obliga pe semnatarii săi să furnizeze o documentație tehnică tuturor întreprinderilor și administrațiilor care vor dori să integreze modelele respective, în produsele și activitățile lor. Fabricanții vor fi ținuți astfel să stabilească o „politică a dreptului de autor”, care să-i angajeze să nu antreneze inteligențele lor artificiale cu conținuturi aflate pe site-uri „pirat” ori posedate de persoanele îndreptățite, care ar fi refuzat această utilizare („opt-out”) și, de asemenea, să ia măsuri pentru a evita ca respectivele conținuturi produse de modele să nu plagieze imagini, sunete ori texte protejate. Componenta securitate e rezervată, la rându-i modelelor cele mai puternice (precum, în prezent, Gemini 2.5 Pro, 03 al Open AI sau Opus de la Anthropic). În atari cazuri se va impune ca întreprinderile să identifice riscurile sistemice ale SIA și să publice evaluări privind securitatea cibernetică și posibilitatea de „pierdere de control”, manipulare ori de a contribui la confecționarea de arme biologice, precum și, de asemenea, eventual de amenințare cu dezinformarea ori de publicare de conținuturi proferând ura sau pornografia.

2. Elaborat de 13 experți independenți, cu contribuția a peste 1000 de părți interesate (furnizori de modele, întreprinderi mici și mijlocii, universitari, experți în securitatea IA, titulari de drepturi și reprezentanți ai societății civile), Codul se articulează în jurul a trei capitole.

Primele două, referitoare la transparența și dreptul de autor, se aplică ansamblului furnizorilor de modele de IA de uz general. Dimpotrivă, cel de-al treilea, consacrat siguranței și securității privește un subansamblu restrâns de modele zise avansate, susceptibile să prezinte riscuri sistemice. E vorba, în special, de modele la scară mare precum ChatGPT (Open AI), Gemini (Google, DeepMind) ori Claude (Anthropic), ale căror capacități generale, polivalență și evolutivitate ridică provocări inedite în materie de guvernanță. Riscurile sistemice identificate includ, de exemplu, generația de conținuturi înalt persuasive ori înșelătoare, ocolirea sistemelor de securitate cibernetică, facilitarea activităților răuvoitoare, inclusiv în domeniul clinic ori biologic ori o pierdere de control uman asupra efectelor răspunsurilor generate. În acest context, codul recomandă o serie de practici de gestiune a riscurilor, mergând de la robustețea tehnică la supervizarea umană întărită. Capitolul referitor la transparență propune un formular de document simplificat, care permite furnizorilor să informeze în mod facil informațiile necesare într-un singur loc. Cel vizând dreptul de autor oferă soluții practice pentru a stabili o politică conformă reglementării pertinente din UE.

Publicarea liniilor directoare oficiale clarifică mai întâi câmpul de aplicare a textului și apoi precizează modalitățile: calificarea GPAI, identificarea furnizorilor lor și evaluarea riscului sistemic.

Chiar dacă nu are un caracter obligatoriu, Codul recurge la un instrument de preconformitate: furnizorii care aderă vor beneficia de o reducere a sarcinii lor administrative și de o securitate juridică crescută în raport cu cei care dovedesc conformitatea lor prin alte mijloace. Dar adoptarea sa voluntară va pune, în mod necesar, problema nivelului real de adeziune din partea furnizorilor de GPAI, în special neeuropeni, față de cadrul care, dorindu-se cooperativ, introduce o complexitate suplimentară în lanțul de responsabilitate.

În pofida acestei etape importante, care, după toate probabilitățile, va fi urmată întocmai, AI Act are încă un consistent drum de parcurs în punerea sa în aplicare deplină și se profilează în acest sens noi obstacole de înfruntat și de depășit. Mai întâi, codul de bune practici va trebui să fie validat de statele membre. Apoi, rămân să fie elaborate și publicate de Comisia Europeană liniile directoare privind aplicarea textului, precum și modelul detaliat de urmat privind datele de antrenament ale modelelor de IA. Foarte dezbătut, acesta din urmă opune, în privința poziționării, fabricanților de IA și persoanele îndreptățite titulare de drepturi culturale, care și-au manifestat deja, în ultimele săptămâni, dezamăgirile lor în privința preconizatului cod.

În timp ce anumiți eurodeputați și-au făcut publice, la rândul lor, temerile de a vedea un AI Act prea slăbit în obligațiile sale, lobby-ul marilor întreprinderi americane de tech întreține și amplifică contestările față de text, în sensul revizuirii lui. Prezentarea tardivă a codului de bune practici e considerată a fi o povară suplimentară pentru sector și se cere o pauză în aplicarea regulamentului, întrucât ambele documente ar impune obligații disproporționate fabricanților de IA.

Prin noul demers, CE înlătură ideea de a amâna punerea în aplicare a Regulamentului (UE) nr. 2024/1689, dar nu exclude acordarea de termene suplimentare țintite, timp de a clarifica standardele de evaluare, referitor la anumite măsuri, înainte de intrarea în vigoare în vara anului 2026, pentru utilizările de IA considerate ca prezentând un grad ridicat de risc, în infrastructuri, educație și formare, la locul de muncă și în întreprinderi, bănci și asigurări, justiție, poliție ori gestiunea imigrărilor. Totuși, nu sunt abandonate nici tentativele de a înscrie AI Act în cadrul agendei de „simplificare” a textelor europene, în numele competitivității. Totul va depinde de echilibrul de interese între părțile implicate și de diversele conjuncturi de impact aferente.

 

     

A doua etapă de punere în aplicare a AI Act

– 2 august 2025 –

 

Reglementarea AI: la 2 august 2025 intră în aplicare a doua etapă de implementare a Regulamentului privind inteligența artificială și odată cu aceasta noi obligații pentru operatorii economici și statele membre.

 

Potrivit art. 113 (b) din Regulamentul (UE) nr. 2024/1689 din 13 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială (AI Act, RIA), de la 2 august 2025 intră în aplicare: capitolul III (Sisteme de IA cu grad ridicat de risc), secțiunea 4 (Autoritățile de notificare și organismele notificate), capitolul V (Modele de IA de uz general), capitolul VII (Guvernanța), capitolul XII (Sancțiuni) și art. 78 – Confidențialitate, cu excepția art. 101 – Amenzi pentru furnizorii de modele de IA de uz general.

Dup cum e cunoscut, AI Act, adoptat definitiv la 13 iunie 2024, publicat în Jurnalul Oficial al UE la 12.7.2024, a intrat în vigoare în a douăzecea zi de la aceasta, la 1 august 2024, aplicându-se în patru etape: 2 februarie 2025, 2 august 2025, 2 august 2026 și, respectiv, 2 august 2027.

Așadar, în termenii prezentei faze, furnizorii de modele de GPAI care au fost introduse pe piață/puse în funcțiune înainte de această dată, trebuie să se conformeze cerințelor regulamentului până la 2 august 2027. Tot acum a fost termenul pentru statele membre UE a raporta Comisiei Europene starea resurselor financiare și umane ale autorităților naționale competente în domeniu. De menționat că, până la 2 august a.c., țările Uniunii au fost ținute să desemneze autoritățile de notificare și pe cele de supraveghere a pieței, să le comunice Comisiei și să pună coordonatele lor la dispoziția publicului. A fost și reperul în timp până la care statele membre au trebuit să fixeze regulile relative la sancțiuni și amenzi, să le notifice Comisiei, și să vegheze apoi la aplicarea lor în mod corect. În fine, întrucât Codul de bune practici privind IA de uz general a fost publicat cu întârziere (în loc de 2 mai a.c., cum era planificat, la 10 iulie a.c.), conform art. 56 par. 2 din RIA CE poate furniza reguli comune pentru punerea în aplicare a obligațiilor furnizorilor de modele de uz general pe calea actelor de execuție. Tot atunci a fost și termenul pentru examenul anual al aplicării eventualelor interdicții.

 

 

WeTransfer acuzat de a exploata fișierele clienților săi pentru antrenarea unei IA

 

 

AI în practică: WeTransfer, platforma olandeză cu peste 80 de milioane de utilizatori lunari, a fost criticată pentru o clauză care ar permite folosirea fișierelor clienților pentru antrenarea modelelor AI. Reformularea acesteia nu conferă nici acum garanții suficiente, unii utilizatori îndemânând la boicot și la reorientarea către platforme mai sigure ca precum Smash, Dropbox ori Swisstransfer.

 

La 15 iulie a.c., în fața unui val de critici, societatea olandeză WeTransfer a revăzut, în mod discret, o parte din actualizarea condițiilor sale generale de utilizare (CGU). În cauză: clauza 6.3 a documentului, care pare a deschide calea unei utilizări a fișierelor trimise via platformei pentru alimentarea modelelor de inteligență artificială. În concret, respectiva clauză acorda întreprinderii „o sub-licență perpetuă, mondială, non-exclusivă, liberă de redevențe, transferabilă” și sublicențiabilă, pentru a utiliza fișierele utilizatorilor în scopul „de a exploata, dezvolta, comercializa și ameliora serviciul ori noile tehnologii”, inclusiv „pentru a îmbunătăți performanțele metodelor de învățare automată, care optimizează procesul nostru de moderare a conținutului”. O atare licență permitea reproducerea, distribuirea, modificarea pregătirea de opere derivate, difuzarea, comunicarea publicului, afișarea publică și executarea conținutului utilizatorilor săi. Totul era prevăzut spre a intra în vigoare începând cu data de 8 august 2025. În fața nemulțumirilor exprimate, WeTransfer a reacționat rapid, publicând o nouă versiune a CGU și emițând un comunicat cu titlul What‘s really changing. Serviciul, care își revendică peste 80 milioane de utilizatori lunar, în aproape 190 de țări, asigură că, de acum înainte, „Nu vom recurge la învățare automată și la nici o formă de IA pentru a trata conținutul partajat via WeTransfer și nu vom vinde conținuturi ori date terților”. Așadar, se explică  o posibilă utilizare a machine learning vizând numai a ameliora moderarea automată a fișierelor transferate, și nu a exploata documentele utilizatorilor în scopuri comerciale sau pentru a antrena IA generative. „O atare funcționalitate nu a fost construită niciodată și nici utilizată în practică”, a arătat societatea, care admite, totuși, că ar fi avut în vedere această posibilitate pentru viitor, înainte de retragerea referințelor pentru „a evita orice confuzie”.

Întreprinderea amintește că licența cerută utilizatorilor e indispensabilă „pentru a face să funcționeze, furnizeze și amelioreze serviciul”. „Conținuturile voastre rămân ale voastre” se subliniază în comunicat, amintindu-se că proprietatea intelectuală a fișierelor trimise nu e transferată la WeTransfer. Dar serviciul conservă o licență de exploatare care îi permite, potrivit termenilor săi, „să dezvolte și să îmbunătățească tehnologiile sale”, fără a se menționa explicit utilizarea exactă ce ar putea fi dată în viitor.

Noua versiune a clauzei 6.3, care a intrat în vigoare a 8 august 2025 se vrea mai sobră: „Nu ni se acordă o licență liberă de redevențe pentru a utiliza conținutul vostru în scopul exploatării, dezvoltării și ameliorării serviciului, conform politicii noastre de confidențialitate”. Se înlătură astfel orice mențiune a machine learning ori de noi tehnologii.

În comunicatul său oficial, WeTransfer insistă asupra ideii că nu se acordă autorizația necesară pentru funcționarea și ameliorarea activității sale, spre antrenarea modelelor de IA și că nu se vor livra conținuturile la terți. Dar această clarificare se pare că nu a convins pe unii utilizatori. Într-un context în care actori precum Meta au anunțat recent exploatarea conținuturilor publice de pe Facebook și Instagram pentru a antrena propriile lor IA, se impune prudență. Cu cele 755 milioane de fișiere transferate numai în 2021, WeTransfer reprezintă un zăcământ considerabil de date potențiale. Pentru moment, societatea olandeză se consideră că e în așteptare și permite să se răspundă la toate întrebările suplimentare privind CGU sale. Dar pentru o parte din utilizatori, respectivele promisiuni rămân insuficiente; un îndemn la boicotul serviciului e proferat de unii și a se orienta spre alternative mai sigure, precum Smash, Dropbox ori Swisstransfer.

 

    

Planul S.U.A. (D. Trump) privind IA

 

 

S.U.A. și AI: La 23 iulie 2025, Donald Trump a lansat un plan ambițios de 23 de pagini pentru a asigura „dominația SUA” în domeniul inteligenței artificiale. Prin semnarea celor trei decrete care anulează reglementările prudente și politica de dezvoltare controlată a AI ale administrației Biden, SUA își asumă public o politică militantă în domeniu cu obiectivul de a impune un „ecosistem american al IA” în plan global.

 

 

La 23 iulie a.c., în cadrul unui așa-zis „summit al IA” reunit în auditoriumul Andrew-Mellon din Washington, președintele Donald Trump a semnat trei decrete prin care a revocat timidele reglementări în domeniu avansate anterior de administrația J. Biden și a anunțat planul de acțiune menit să asigure „dominația S.U.A.” privind inteligența artificială în lume. Se afirmă angajarea Washingtonului într-o cursă la nivel mondial pentru a dobândi avansuri în domeniu și transformarea unor atari obiective într-o prioritate națională. În cadrul discursului aferent, el a cerut ca un sector atât de novator, precum cel al IA, să fie rebotezat, știut fiind faptul că „nu suportă” termenul „artificial”, întrucât nu e vorba de așa ceva, ci de „geniu, de geniu pur” în această privință. În cele 23 de pagini ale sale, documentul reflectă acest entuziasm; „S.U.A. sunt angajate într-o cursă pentru a domina IA la nivel mondial”. Cel care va dispune de cel mai vast ecosistem de inteligență artificială va fixa normele mondiale în  materie și va extrage importante avantaje economice și limitare” se menționează în introducerea textului oficial. Se pune accentul pe accelerarea adoptării IA pe scară mare, via construirii de infrastructuri masive, înlăturarea reglementărilor de mediu și a obstacolelor birocratice aferente, precum și dorința de a impune un „ecosistem american al IA” în plan global. Sunt dezvoltate, astfel, circa 90 de măsuri pentru „viitoarele săptămâni și luni”; este vorba de facilitatea construirii de noi centre de date, iar pentru acesta încurajarea dezvoltării de mari proiecte energetice, în special prin simplificarea acordării permiselor, în vederea satisfacerii cererilor suplimentare de energie ș.a. Promotorii planului doresc ca modelele americane să fie utilizate în întreaga lume; pentru a vinde noile tehnologii, instituțiile însărcinate cu finanțarea comerțului internațional, respectiv Agenția americană pentru dezvoltare și finanțare și Banca americană de import-export, vor fi mobilizate într-un efort calificat ca unul de „diplomație” specială, în direcția stimulării exportului de IA americană. Documentul vizează, de asemenea, vânarea „prejudecăților ideologice” – obsesia republicanilor – ale agenților inteligenți. Astfel, sistemele de IA generative vor trebui să fie concepute „pentru a căuta adevărul obiectiv”; în acest sens, serviciile federale nu vor putea cumpăra softuri de IA considerate „woke”, un termen ce corespunde, pentru conservatorii americani, promovării preocupării de reprezentare a minorităților. Planul Casei Albe a fost deja criticat în mai multe privințe. Principalele contestări vizează avantajele acordate industriei și absența îngrădirilor (obstacolelor) de orice fel. În fața unei atare abordări, la sfârșitul lui iulie 2025, circa 100 de organizații – sindicate, asociații de părinți, grupuri pentru justiția de mediu și de apărători ai vieții private – au semnat un text prin care cer un „Plan de acțiune populară”, vizând să „servească, înainte de toate, poporul american și nu industria”. În 2023, președintele J. Biden și vicepreședinta Kamala Harris, care era responsabilă cu această problematică, încercaseră să dezvolte o politică de dezvoltare controlată a IA, cu un accent pe securitatea și luarea în calcul a riscurilor; în octombrie al respectivului an, Casa Albă a semnat chiar un ordin executiv privind o „utilizare responsabilă a inteligenței artificiale”. S-a optat, în cele din urmă, pentru a menaja giganții tech, respectiv un fel de sistem de securitate și de transparență pus în aplicare pe bază de voluntariat. Parlamentul din California, stat în care își au sediul 32 din cele mai mari întreprinderi mondiale ale IA, a încercat chiar să meargă și mai departe; în septembrie 2024 el a adoptat planul cel mai strict din S.U.A. privind acest subiect, cu susținerea unora dintre cei mai mari inventatori ai sectorului, cunoscători și conștienți de și preocupați față de riscurile aferente. Se cerea, printre altele, ca întreprinderile să integreze un „kill switch” („întrerupător de oprire”) pentru dezactivarea sistemelor lor, dacă acestea deveneau incontrolabile și cauzau daune majore, precum pierderi masive de vieți umane sau distrugeri materiale ce depășesc 500 milioane de dolari. Din păcate, guvernatorul statului, Gavin Newson, a exercitate veto-ul său legii în octombrie 2024, ilustrând astfel disensiunile existente și în rândul democraților referitoare la subiect. Iar la mai puțin de un an mai târziu, termenul de „utilizare responsabilă” a IA nu mai figurează în textul planului de acțiune Trump, și cu atât mai puțin ideea de reglementare.

 

 

World AI Conference (WAIC) 2025

(Shanghai, 26-28 iulie 2025)

 

IA pe mapamond: Între 26 și 28 iulie 2025, Shanghai (China) a găzduit cea de-a 7-a ediție a Conferinței mondiale privind inteligența artificială (World AI Conference), sub tema „Solidaritatea mondială în era IA”. Evenimentul a constituit o veritabilă replică a Chinei la politica SUA în domeniul AI, premierul chinez Li Qiang criticând monopolurile tehnologice și propunând o Organizație Mondială de Cooperare privind IA, cu sediul potențial la Shanghai.

 

 

Între 26 și 28 iulie a.c. s-a desfășurat la Shanghai (China) cea de-a 7-a ediție a Conferinței mondiale privind inteligența artificială (World AI Conference), manifestare inițiată în 2018, în scopul prezentării celor mai inovante tehnologii în domeniu, precum și de a reflecta asupra locului IA în societatea viitoare. Plasată sub tema „Solidaritatea mondială în era IA”, inițiativa chineză s-a desfășurat în cadrul a cinci componente: forumuri, expoziții, concursuri și acordare de premii, expoziții interactive și incubatoare de inovații, care au oferit o sinteză a ultimelor dezvoltări tehnologice în materie, tendințe în inovație și practici de guvernanță mondială. Peste 800 de întreprinderi au prezentat, în acest context, mai bine de 3000 de produse de inteligență artificială, din care 40 de modele de limbaj alimentate de IA și 60 de roboți inteligenți.

Reuniunea la nivel înalt privind guvernanța mondială a IA s-a bucurat de participarea reprezentanților a aproximativ 40 de țări, regiuni și organizații internaționale. De asemenea, au luat parte la diversele evenimente aferente circa 1200 de invitați, printre care 12 laureați ai reputate premii internaționale, precum premiile Turing și Nobel, și 80 de academicieni chinezi și străini.

Desfășurată la numai 3 zile de la lansarea planului SUA privind IA (23 iulie), conferința mondială s-a constituit într-o veritabilă replică a Beijingului în această competiție tehnologică mondială, decisivă în repoziționarea geostrategică a marilor puteri ale lumii. În acest sens, în cuvântul de deschidere a summit-ului privind guvernanța, premierul chinez Li Qiang a denunțat manifestările de monopol tehnologic, de controale și restricții menite să conducă la dominație, unilateralism și protecționism, pronunțându-se pentru o „dezvoltare sănătoasă și controlată a IA”. Adeptă a unei tehnologii deschise, China a făcut apel la o bună guvernanță mondială în domeniu, cu partajarea resurselor disponibile și crearea, pentru aceasta, a unei Organizații Mondiale de Cooperare privind IA, în cadrul căreia toate statele să poată să-și împărtășească cunoștințele și practicile aferente și să încurajeze talentele de care dispun.

În mesajul video transmis conferinței, Secretarul General al ONU Antonio Guterres a estimat că guvernanța IA va constitui „un test decisiv pentru cooperarea internațională”. La rândul său, reprezentantul Franței a subliniat „nevoia urgentă” a unei acțiuni mondiale în privința acestei problematici complexe. În intervenția sa, laureatul Nobel pentru fizică Geoffrey Hinton s-a folosit de o metaforă pentru a descrie situația mondială actuală în materie. După el, atitudinea planetei față de IA e precum cea a unei „persoane care a adoptat un adorabil pui de tigru ca animal de companie”. Dar pentru a supraviețui, trebuie să se asigure că are capacitatea de a-l dresa, spre a nu vrea să o ucidă când va deveni adult!

Atari puncte de vedere arată o poziționare a Chinei apropiată de cea a celei de-a treia căi afirmată de Summit-ul privind IA de la Paris din februarie 2025. Dacă SUA continuă și își accentuează poziția pentru limitarea și chiar eliminarea oricăror obstacole reglementare și, mai nou, pentru exclusivitatea dreptului celui care domină piața de a edicta eventuale norme, UE încearcă din răsputeri să reziste presiunilor la adresa dispozitivului său de reglementare instituit prin Regulamentul (UE) nr. 2024/1689 din 13 iunie 2025 de stabilire a unor norme armonizate privind IA și reglementările ulterioare și să continue punerea sa în aplicare. Semnalele transmise de la WAIC 2025 se cuvin percepute în dimensiunea lor geostrategică și rămâne de văzut care vor fi reacțiile din partea celorlalte state (puteri) interesate.

Dincolo de aspectele tehnologice, actuala ediție a WAIC se distinge și prin conturarea unei viziuni chineze asupra guvernanței globale a IA. Pornind de la constatarea că „dezvoltarea mondială a guvernanței inteligenței artificiale rămâne încă fragmentată”, premierul Chinei s-a pronunțat pentru formarea „unui cadru mondial de guvernanță a IA care să beneficieze de un larg consens, cât mai rapid posibil”. Ca atare, Beijing-ul dorește și caută structurarea unei alternative credibile la abordările unilaterale occidentale. Principalele enunțuri și demersuri prevăzute în acest sens se referă la:

- propunerea de creare a unei organizații internaționale (mondiale) de cooperare privind IA, cu un posibil sediu la Shanghai, spre a favoriza un dialog internațional structurat și specializat;

- o voință de deschidere spre sudul global, cu obiectivul de a partaja expertiza chineză; „China e gata să împărtășească experiențele sale de dezvoltare și produsele sale” în materie, declara Li Qiang;

- alertă asupra riscurilor de concentrare a puterii tehnologice (IA nu trebuie să devină un joc exclusiv, rezervat de către țări și întreprinderi);

- un apel la o guvernanță deschisă și inclusivă; Beijing-ul insistă asupra egalității de acces pentru toate țările la această tehnologie;

- publicarea unui plan de acțiune de către Ministerul Afacerilor Externe, ce solicită o colaborare între guverne, întreprinderi, centre de cercetare și organizații internaționale;

- prezența internațională la summit; peste de 30 de state reprezentate, printre care Federația Rusă, Franța, Germania, Coreea de Sud, Africa de Sud, Qatar.

Această ofensivă diplomatică se integrează într-o strategie globală de influență tehnologică. Adresându-se țărilor în curs de dezvoltare și mizând pe o abordare colaborativă, China tinde să se poziționeze ca un lider tehnologic responsabil față de un ecosistem marcat încă de o fragmentare reglementară și de rivalități geopolitice.

Constituind o alianță în jurul țărilor din sudul global și pledând pentru o guvernanță tehnologică non-occidentală, Beijing-ul tinde să redeseneze regulile jocului. Această tentativă de repoziționare globală, dacă va izbuti, ar putea să remodeleze durabil echilibrele în elaborarea de norme internaționale privind IA, precum cele ale Uniunii Europene (AI Act). Rămâne de văzut dacă această strategie va parveni să federeze dincolo de cercul diplomatic chinez și dacă va fi percepută ca o veritabilă alternativă ori numai ca o prelungire a influenței politice a Chinei.

 

 

Prof. univ. dr. Mircea DUȚU

Vezi și Observatorul Dreptului Inteligenței Artificiale (ODIA) – Iulie 2025 
Posibilitatea modificării unor termene de punere în aplicare a AI Act
Președinte al Universității Ecologice București, fiind specializat în dreptul mediulului, amenajării teritoriale și urbanismului.
Back To Top