ConformitateJuridic15 octombrie, 2025

Italia: Lege-cadru privind IA

AI în Europa – Italia: Prima lege-cadru națională privind Inteligența Artificială pe teritoriul UE. Pe fondul unei susțineri politice puternice, Italia abordează proactiv fenomenul IA caracterizând tehnologia drept „cea mai mare revoluție a timpurilor noastre”. Prin adoptarea legii delegate nr. 132 din 23 septembrie 2025 de instituire a cadrului național privind inteligența artificială (ce va intra în vigoare în ianuarie 2026) Italia a devenit primul stat membru al Uniunii Europene care are o reglementare națională de ansamblu, completă privind inteligența artificială,
Prof. univ. dr. Mircea DUȚU

Prin adoptarea legii delegate nr. 132 din 23 septembrie 2025 de instituire a cadrului național privind inteligența artificială (ce va intra în vigoare în ianuarie 2026) Italia a devenit primul stat membru al Uniunii Europene care are o reglementare națională de ansamblu, completă privind inteligența artificială, în consonanță cu și în vederea amenajării aplicării Regulamentului (UE) 2024/1689 din 13 iunie 20254 de stabilire a unor norme armonizate privind IA (AI Act, RIA). Ea a stabilit o strategie națională în materie, întărește guvernanța instituțională, încadrează utilizările sectoriale sensibile și introduce noi sancțiuni, în special infracțiuni pertinente. Ca orice lege de acest gen (delegată) ea definește principii, orientări politice și criterii etice, lăsând pe seama guvernului să le completeze prin „traducerea” lor pe calea măsurilor concrete și a regulilor operaționale. Principala preocupare o reprezintă armonizarea cu dreptul european pertinent prin construirea unui ecosistem normativ capabil să concilieze protecția drepturilor fundamentale cu inovația tehnologică.

Exemplul italian se distinge printr-o abordare proactivă a reglementării IA, înscriindu-se în orizonturile unei voințe politice puternice exprimată oficial, care caracterizează tehnologia drept „cea mai mare revoluție a timpurilor noastre” și susține existența unei „căi italiene de dezvoltare și guvernare în  materie.

Actul normativ se fondează astfel pe o abordare antropocentrică, promovează cercetarea și inovarea, dar într-un cadru responsabil, transparent și care respectă drepturile fundamentale. Utilizarea IA e concepută precum un instrument suficient și de modernizare, cu condiția ca responsabilitatea umană să rămână exclusivă. Textul evidențiază necesitatea de a anticipa riscurile economice, sociale și etice legate de avântul acestor tehnologii.

În privința guvernanței și a autorităților competente Strategia națională pentru inteligență artificială e plasată sub coordonarea Președinției Consiliului de Miniștri, cu validarea ce către Comitetul interministerial pentru tranziție digitală. Două agenții sunt desemnate în mod special precum autorități naționale în materie: Agenzia per l’Italia (AgID), competentă în materie de inovare și de notificare și, respectiv, Agenzia per la cybersicurezza nazionale (ACN), responsabilă cu supravegherea inspecțiilor și a aplicării sancțiunilor. Cele două entități exercită, de asemenea, funcțiile de autoritate de supraveghere în sensul AI Act în cooperare cu Banca Italiei, CONSOB și IVASS pentru sectoarele bancar, financiar și de asigurări.

Referitor la dispozițiile sectoriale și represive, legea încadrează uzul IA în mai multe sectoare-cheie. Astfel, în domeniul muncii, ea interzice utilizările discriminatorii și impune o obligație de informare a lucrătorilor. În administrația publică, se încurajează recurgerea la noua tehnologie pentru a ameliora eficiența serviciilor, conformându-se, totodată, primatului deciziei umane. În sectorul judiciar, se autorizează experimentările încadrate și se impune formarea digitală a magistraților. În fine, se instituie reguli specifice în privința poliției și securității publice. Totodată, textul legal cuprinde un capitol important și inovant privind regimul sancționator; se stabilește o nouă infracțiune, cea de difuzare de conținuturi deepfakes, se agravează sancțiunile pentru faptele penale comise prin intermediul IA, se reglementează răspunderea civilă cu obligații de securitate întărire și se amenajează sarcina probei pentru anumite sisteme cu grad ridicat de risc.

Așa, de exemplu, se prevăd pedepse cu închisoarea care merg de la 1 la 5 ani pentru difuzarea ilegală de conținuturi generate ori manipulate de IA, dacă acestea cauzează un prejudiciu, în special faimoasele „deepfakes”. Pedepse mai grele sunt prevăzute , de asemenea, pentru utilizare IA pentru comitere de crime precum frauda, furtul de identitate ori perturbarea drepturilor civice și democratice. Protecția copiilor e o preocupare centrală; minorii de sub 14 ani vor trebui să obțină consimțământul parental pentru a accede soluțiilor de inteligență artificială. delicatul subiect al dreptului de autor cunoaște reglementări specifice. Legea prevede că operele create cu asistența IA sunt protejate dacă ele decurg dintr-un „veritabil efort intelectual uman”. Referitor la explorarea textelor și a datelor (text and data mining) de IA, ea nu e autorizată decât pentru conținuturi neprotejate de dreptul de autor ori pentru cercetarea științifică, desfășurată de structuri acreditate. O atare claritate e esențială pentru artiști și dezvoltatori, chiar dacă natura internațională a modelelor de IA ar putea crea noi complicații.

Elaborată și adoptată în articularea cu dreptul european al IA, legea italiană se înscrie în mod explicit în cadrul trasat de RIA; dispozițiile sale trebuie interpretate în coerență cu prevederile textului unional-european și autoritățile naționale  desemnate (AgID și ACN) își exercită funcțiile prevăzute de reglementarea europeană. Guvernul italian e abilitat să adopte, în 12 luni, decrete-lege menite să armonizeze dreptul intern cu AI Act, în special în ceea ce privește notificarea sistemelor, supravegherea conformității lor și aplicarea regimurilor sancționatorii. Departe de a fi concurentă, legea italiană națională e concepută ca un instrument de însoțire și anticipare, care să permită să pregătească și să amenajeze aplicarea efectivă a RIA pe teritoriul Italiei.

Într-adevăr, e vorba de o veritabilă „foaie de parcurs” pentru dezvoltarea dreptului italian al IA; în următoarele douăsprezece luni guvernul va trebui să elaboreze și adopte documentele menite să pună în aplicare dispozițiile legale, să definească instrumentele și să instituie sancțiunile aferente. Pentru întreprinderi, fereastra de adaptare în mod proactiv e limitată; activele cartografiei, actualizarea contractelor, pregătirea evaluărilor de impact și întărirea capacităților tehnice și juridice sunt activități ce se impun a fi imediat lansate, concurând cu toate la prefigurarea cadrului juridic în materie.

Actul normativ în cauză reprezintă o declinare concretă a AI Act, integrând totodată specificitățile proprii contextului italian, fiind considerat ca „o inițiativă interesantă prin claritatea și voluntarismul său”, în timp ce alte state membre UE, inclusiv România, sunt încă în curs de structurare a cadrului național unificat. De aceea se speră ca această lege să accelereze dinamica reglementară relevantă în cadrul Uniunii, ea demonstrând că e posibil să se anticipeze intrarea în aplicare deplină a RIA, adaptând principiile sale realităților naționale. La noi, actorii instituționali și economici vor trebui să dea dovadă de reactivitate spre a nu se găsi în decalaj de punere în aplicare a cadrului european în raport cu celelalte țări membre.

Pentru celelalte țări europene și nu numai, exemplul italian reprezintă cel puțin pretextul unei reflecții asupra unei legislații naționale completatoare a AI Act, care să permită, printre altele: identificarea și promovarea lucrărilor specifice (fiecare stat are propriile sensibilități și provocări juridice și culturale pe care legislația europeană, prin natura sa mai generică, nu le poate acoperi întotdeauna cu aceeași consecvență), de a acționa rapid (în fața accelerării noilor tehnologii și a emergenței de noi utilizări, dar și de abuzuri, a dispune de un cadru național agil, ar permite să se acționeze mai rapid), a întări încrederea ((o reglementare clară și protectoare la nivel național poate spori încrederea publicului în IA, fapt esențial pentru adaptarea și dezvoltarea sa etică) și susținerea inovației naționale (furnizând un cadru juridic precis, întreprinderile știu la ce să se raporteze, încurajându-se  investițiile și dezvoltarea de soluții de IA responsabile).

Pe măsură ce AI Act intră treptat în faza sa operațională, disparitățile naționale în materie de reglementare riscă să creeze ecarturi de competitivitate, precum și în privința protecției drepturilor fundamentale. Principala provocare pentru cele 27 de state membre ale Uniunii a devenit acum aceea de a transforma principiile europene în mecanisme concrete, eficiente și lizibile. Din acest punct de vedere, prin noua lege, se propune una standard.

 

 

California: Bill SB-53: standard mondial în materie de transparență IA

 

AI în SUA - California: Legea SB-53 – Transparency in Frontier Artificial Intelligence Act, primul cadru legislativ complet din S.U.A., aplicabil în statul american pe teritoriul căruia se află și Silicon Valley, a intrat ]n vigoare la 29 septembrie 2025. Actul vizează întărirea transparenței și accentuarea responsabilității dezvoltatorilor acestor sisteme de IA și prevenirea riscurilor grave pentru securitatea publică.

 

La 29 septembrie 2025 a intrat în vigoare, în California, legea SB-53 – Transparency in Frontier Artificial Intelligence Act, primul cadru legislativ complet din S.U.A., consacrat în mod specific „modelelor de IA de frontieră”, adică cele mai avansate, concepute pe baza unor ansamble masive de date, concepute, antrenate cu ajutorul unei puteri de calcul excepționale și susceptibile a fi adaptate pentru numeroase sarcini. Actul normativ, aplicabil în statul american pe teritoriul căruia se află și Silicon Valley, vizează întărirea transparenței și accentuarea responsabilității dezvoltatorilor acestor sisteme de IA și să prevină riscurile grave pentru securitatea publică, identificate și precizate în documentele aferente. Ele privesc, printre altele, pierderea de control al sistemului, utilizarea răuvoitoare (în special în scop de cyberatacuri ori de stabilire de arme biologice sau chimice) ori chiar capacitatea sa de a ocoli supervizarea umană. În orice caz, legea SB-53 marchează trecerea de la o autoreglementare, în mod esențial voluntară, la un cadru legislativ obligatoriu, impunând celor mai puternici actori americani în domeniu să se supună unor obligații de guvernanță și de dare de seamă. În același timp, ea intervine pe fundalul unei mișcări proprii de afirmare a dreptului american al IA, în sensul că dacă administrația federală (de acum) e reticentă, chiar se opune unor atari evoluții, reglementări în general ale domeniului în numele libertății absolute de exprimare și de întreprindere și al competiției strategice tehnologice, la nivelul statelor federate situație e diferită, asistând la un veritabil patchwork de legi. Așa, de exemplu, în California au fost adoptate peste 25 de legi privind materia, Colorado și New York au fiecare câte 5 legi în vigoare, Texasul 4 legi în aplicare, Washingtonul 6 legi adoptate ș.a.

Pe conținut, referitor la transparența și controlul riscurilor, Legea impune dezvoltatorilor în cauză să publice și să aducă la zi în mod regulat o politică internă de guvernanță, veritabil „cadru de IA de frontieră”. Ea trebuie să definească, în special: metodele de evaluare a capacităților periculoase ale modelelor și strategiilor de reducere a riscurilor; luarea în calcul a normelor internaționale și a bunelor practici sectoriale; procedurile de controla înaintea oricărei implementări ori utilizări interne pe scară largă; măsuri de  securitate informatică vizând protejarea parametrilor esențiali ai modelelor contra intruziunilor și deturnărilor; dispozitivele de detecție și de tratament al incidentelor grave, precum pierderile de control ori comportamentele autonome neprevăzute.

Înainte de implementarea unui nou model ori a unei versiuni modificate în mod substanțial, dezvoltatorul, de asemenea, trebuie să publice un raport de transparență în care să expună riscurile identificate, măsurile corective aplicate și, după caz, recursul la evaluări independente.

Atunci când anumite informații sensibile trebuie să fie protejate din motive de securitate ori de secret al afacerilor, dezvoltatorul e ținut să le explice natura și să conserve integralitatea datelor pentru a le pune, în caz de nevoie, la dispoziția autorităților.

Totodată, legea instituie o obligație de semnalare rapidă a incidentelor grave. Astfel, o pierdere de control a unui model ce antrenează o daună corporală ori o violare a securității unor parametri critici se impune a fi notificată de îndată autorității publice competente.

Lipsa de publicare a politicilor de guvernanță, a degrevării de rapoarte ori în privința semnalării incidentelor poate antrena sancțiuni civile importante, în cuantum de până la 1 milion de dolari în fiecare caz.

Dincolo de obligațiile impuse întreprinderilor private, legislatorul californian a încredințat administrației misiunea de a studia crearea unei infrastructuri publice de calcul de înaltă performanță denumită CalCompute. Respectivul instrument favorizează un acces echitabil la resursele de calcul, indispensabile dezvoltării IA și să susțină proiectele de „IA de frontieră! Cu o vocație etică, durabilă și conformă cu interesul general.

Actul normativ consolidează, în același timp, protecția salariaților care exercită un rol de alertă în materie de securitate. Se interzice orice clauză contractuală ori practică de întreprindere vizând să restrângă sau să sancționeze raportările (semnalările) de bună credință privind activitățile care prezintă un pericol grav pentru sănătatea ori securitatea publice. Marii dezvoltatori trebuie să stabilească un canal intern de semnalare anonimă și să asigure urmărirea regulată a alertelor primite, informând, totodată, în mod clar salariații asupra drepturilor lor în această privință. În caz de represalii, salariații pot să sesizeze judecătorul pentru a obține măsuri de injoncțiune și de returnare a cheltuielilor judiciare.

Fără îndoială, legea SB-53 din California ilustrează o abordare novatoare a guvernanței riscurilor sistemice legate de „IA de frontieră”, complementară regulilor existente în materie de protecție a datelor și de transparență algoritmică. Ea reține atenția întreprinderilor și practicienilor din două motive majore: a) prefigurează un dialog transatlantic privind standardele de securitate aplicabile modelelor „IA de frontieră”, susceptibile să interacționeze cu RIA; b) subliniază importanța pentru orice actor care dezvoltă ori utilizează atari modele, de a stabili mecanisme organizaționale și contractuale robuste, în scopul de a fi în măsură să răspundă viitoarelor obligații de publicare, de semnalare și de guvernanță.

Chiar dacă e vorba de un text californian, unele obligații ar putea să producă efecte extrateritoriale  pentru dezvoltatorii internaționali care își propun modelele utilizatorilor situați în California.

SB-53 devine astfel pentru regulatorii din întreaga lume, căutând să încadreze riscurile inerente tehnologiilor de IA cele mai puternice, un reper de reglementare și abordare.

Combinând obligațiile de transparență, controlul riscurilor și protecție a salariaților lansatori de alertă, legea SB-53 impune un nivel de guvernanță inedit dezvoltatorilor de modele de „IA de frontieră”. Se stabilește astfel un cadru ce vizează să reducă ecartul între rapiditatea inovării și capacitatea dreptului de a preveni riscurile grave pentru colectivitate și prefigurează emergența standardelor internaționale în domeniu.

De menționat că, înainte de promulgarea acestui text, mai mulți giganți californieni din domeniul IA, precum Meta, Google, OpenAI și Anthropic (la originea modelului Claude) își asumaseră angajamente voluntare pentru desfășurarea de teste de securitate și de a construi protocoale robuste, așa încât legea nu face altceva decât a le codifica și extinde. Totodată, să remarcăm că aceasta intervine după ofensiva administrației D. Trump de a bloca orice reglementare a IA, pe motiv să ar încetini tehnologia americană în competiție cu China, ceea ce demonstrează preocuparea și capacitatea statelor federate de a-și urma propria lor abordare.

 

 

Raport OCDE: Guvernarea cu IA

 

IA în administrația publică: Un raport OCDE indică că IA reprezintă pentru autoritățile publice un instrument de automatizare, adaptare și de ameliorare care ar putea să fie utilizat în procesele interne, serviciile publice, precum și în luarea deciziilor și în detectarea fraudelor. OCDE mai remarcă faptul că autoritățile publice ezită să dezvolte instrumente de inteligență artificială adecvate, însă avantajele folosirii IA surclasează riscurile aferente pe termen lung.

 

 

Într-un raport recent publicat de Organizația pentru Cooperare și Dezvoltare Economică (OCDE, cu tema A guverna cu IA se arată că, pentru autoritățile publice inteligența artificială ar reprezenta un instrument de automatizare, adaptare și de ameliorare care ar putea să fie utilizat în procesele interne, serviciile publice, precum și în luarea deciziilor și în detectarea fraudelor. În același timp, e de semnalat existența unei întârzieri, care nu e neglijabilă, în recurgerea la IA de către structurile administrative, în raport cu actorii din sectorul privat.

Mai precis, analiza OCDE se întemeiază pe recurgerea la aplicațiile inteligenței artificiale în 11 funcții principale ale administrației statelor. Ea relevă o concentrare a utilizării sale în prestarea serviciilor  publice, justiție și participarea cetățenească. Utilizarea sa suficientă lipsește încă în evaluarea politicilor publice, administrarea fiscală ori în reforma funcției publice. Aceste diferențe se explică prin diversitatea utilizărilor posibile și suplețea reglementării aferentă anumitor sectoare care permite să se recurgă mai ușor la IA.

Alte funcțiuni, precum administrarea fiscală, au o dificultate sporită în adoptare din cauza rigidității cadrului lor legislativ. Raportul OCDE evidențiază, de asemenea, multiplele riscuri pe care le prezintă utilizarea inteligenței artificiale pentru administrațiile publice: prejudecăți algoritmice, atingerea drepturilor umane, lipsa de transparență sau accentuarea inegalităților digitale. Toate aceste riscuri pot să antreneze o neîncredere a cetățenilor față de administrațiile lor, în special în țările în care nu se poate asigura în mod corect protecția drepturilor cetățenilor lor ori utilizarea corectă a IA de agențiile lor publice.

Totuși autorii documentului demonstrează că faptul de a nu recurge la inteligența artificială înseamnă pentru autoritățile publice a se priva de avantajele pe care le prezintă aceasta din urmă și arată că acestea vor trebui în mod necesar să recurgă la noile tehnologii fără a aștepta ca toate incertitudinile care îi sunt aferente să fie risipite. De altfel, OCDE mai remarcă faptul că autoritățile publice ezită să dezvolte instrumente de inteligență artificială adecvate.

Lacunele relative la accesul limitat la datele de calitate, slăbiciunile schimburilor acestora din urmă între servicii, lipsa de politici concrete în materie și insuficiența mecanismelor de urmărire și de evaluare sunt tot atâtea obstacole sau piedici în implementarea IA de către puterile publice. Din această perspectivă, se preconizează adoptarea de către diferitele state de catalizatori și repere destinate să reglementeze recurgerea la inteligența artificială asociată mecanismelor de dialog centrate pe utilizatori, implicând cetățenii, societatea civilă și întreprinderile.

 

 

Declarație comună privind guvernanța IA

 

 

IA și protecția datelor:În septembrie 2025, douăzeci de autorități naționale de protecție a datelor au publicat Declarația comună privind guvernanța fiabilă a datelor pentru inteligența artificială. Această declarație comună promovează o inteligență artificială inovantă și protectoare pentru viața privată, în care securitatea datelor devine un factor decisiv pentru siguranța cetățenilor.

 

La 23 septembrie 2025, douăzeci autorități naționale de protecție a datelor au publicat o declarație comună în care se angajează a promova o inteligență artificială inovantă și protectoare pentru viața privată. Prin acest document, autoritățile semnatare recunosc avantajele și oportunitățile pe care le prezintă inteligența artificială, care stimulează inovația științifică, economia și societatea în ansamblul său. Se arată că, totuși, IA prezintă deopotrivă și numeroase riscuri, în special referitoare la protecția vieții private și cea a datelor.

Declarația comună evidențiază, de asemenea, riscurile de discriminare și de dezinformare inerente inteligenței artificiale. Pentru cele douăzeci autorități vizate încrederea cetățenilor implică faptul ca implementarea acestei noi tehnologii să opereze cu respectarea strictă a regulilor relative la protecția datelor și a vieții private. De aceea, protecția datelor trebuie luată în considerare de la faza de concepere a sistemelor de IA și să fie asigurată de-a lungul vieții lor, grație adoptării de măsuri tehnice și procedurale interne.

Documentul reține totuși că mediul actual în care se dezvoltări inteligența artificială se caracterizează prin complexitatea sa particulară. În consecință, multiplicitatea sectoarelor de utilizare a IA (sănătate, educație, securitate publică), diferitele și numeroasele părți interesate, volumul masiv de date necesare și rapiditatea avansurilor tehnologice fac controlul fluxului de date și din respectarea exigențelor de transparență priorități absolute în domeniu. Autoritățile implicate sunt de acord și în privința urgenței de a asigura o securitate juridică cetățenilor și întreprinderilor și de a permite dezvoltarea inteligenței artificiale într-un cadru satisfăcător.

Declarația comună privind guvernanța fiabilă a datelor pentru inteligența artificială e astfel ocazia pentru autoritățile naționale de protecție a datelor respective de a-și asuma angajamente în scopul, pe de o parte, de a clarifica motivele legitime de tratament al datelor în cadrul antrenamentului sistemelor de inteligență artificială, în special via unui schimb de informații asupra măsurilor de proporționalitate, iar pe de alta a asigura o urmărire permanentă a impacturilor inteligenței artificiale limitând, totodată, incertitudinile juridice și instaurând un cadru favorabil inovării, din moment ce tratamentul datelor constituie o condiție a dezvoltării și a implementării inteligenței artificiale.

În fine, diferitele autorități semnatare iau act de necesitatea de a-și îndeplini întocmai angajamentele enunțate, de a-și intensifica relațiile reciproce și pe cele pe care le întrețin cu alte structuri competente, în scopul de a armoniza cadrele aplicabile și, în general, de a întări interacțiunile între diferiții actori din sector.

 

 

Prof. univ. dr. Mircea DUȚU

Vezi și Observatorul Dreptului Inteligenței Artificiale (ODIA) – Septembrie 2025 ->  Acord financiar Anthropic-autori privind utilizarea operelor prin IA

Președinte al Universității Ecologice București, fiind specializat în dreptul mediulului, amenajării teritoriale și urbanismului.
Back To Top