ConformitateJuridic15 iulie, 2025

Posibilitatea modificării unor termene de punere în aplicare a AI Act

La 3 iulie 2025, 45 mari grupuri și întreprinderi de tehnologie europene au solicit o „pauză” de doi ani în aplicarea Regulamentului (UE) nr. 2024/1689 din 13 iunie 2024 (AI Act sau RIA), argumentând necesitatea unei perspective realiste de punere în aplicare. Comisia Europeană și-a reafirmat voința de a urma lucrările de simplificare a reglementărilor, dar fără a se renunța la obiectivele normative urmărite de UE.

Prof. univ. dr. Mircea DUȚU
În luna iunie a.c. Comisarul UE pentru suveranitate digitală a anunțat, în cadrul preocupărilor de simplificare și diminuare a sancțiunilor administrative unional-europene, emiterea posibilității, sub condiții, activării mecanismului „Stop the Clock” pentru a diferenția intrarea în aplicare a anumitor obligații prevăzute de Regulamentul (UE) nr. 2024/1689 din 13 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială (AI Act, RIA). Posibilitatea de recurgere la respectivul „mecanism de suspendare temporară” constă în diferențierea intrării în aplicare a anumitor obligații prevăzute de RIA, în special atunci când normele tehnice de executare ori linii directoare necesare nu sunt încă finalizate. Discuțiile de până acum au evidențiat un consens crescând asupra necesității de articulare a imperativelor de conformitate cu o punere în aplicare realistă pentru operatorii economici, în particular întreprinderile mici și mijlocii (IMM). Mai multe state membre UE, printre care Republica Cehă, Olanda și Danemarca și-au exprimat preocupările lor în privința dificultăților administrative pe care le-ar putea genera aplicarea noilor obligații în materie de inteligență artificială. Abordarea propusă acum de Bruxelles se bazează pe un principiu de proporționalitate: ea nu pune în discuție obiectivele definitorii ale regulamentului, respectiv protecția drepturilor fundamentale, securitatea sistemelor și promovarea unei IA etice, ci preconizează posibilitatea unui raport țintit pentru anumite obligații în absența normelor de aplicare disponibile în termenele cerute. Acest mecanism de suspensie nu ar putea fi activat decât într-un cadru strict reglementat, ca rezultat al unei concertări aprofundate între statele membre și părțile interesate vizate. La 3 iulie 2025, printr-o scrisoare deschisă, intitulată sobru și grav Stop the clock, adresată Comisiei Europene (CE), al cărei text a fost publicat și pe un site creat cu această ocazie, pe un fond de ecran – generat de IA – evocând creația lui Adam de Michelangelo, 45 mari grupuri și întreprinderi de tehnologie europene solicitau o „pauză” de doi ani în aplicarea Regulamentului (UE) nr. 2024/1689 din 13 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială (AI Act sau RIA). Semnatarii cer operarea unei suspendări ori „clock-stop” în privința principalelor obligații stipulate de actul legislativ unional-european și de a amâna aplicarea sa până când standardele tehnice și ghidurile de conformare vor fi elaborate, dezbătute și pe deplin stabilite. Printre semnatari, denumiți generic EU AI Champions Initiative, se regăsesc mari întreprinderi franceze: Axa, Airbus, Total, BNP Paribas, Carrefour ori Publicis, germane: Lufthansa sau Siemens ori olandeze: ASML, dar și actori ai IA și ai sferei digitalului, precum: Mistral AI, Dassault Systemes, Pigment, Owkin ori Asociația germană a start-up-urilor. Inițiativa nu face decât să continue alte demersuri de gen, care exprimă reticențele entităților economice față de exigențele încadrării domeniului și impunerii de reguli adecvate, o primă scrisoare a întreprinderilor europene care pleda pentru o asuplire a prevederilor RIA fiind publicată încă în primăvara anului 2023, în timpul negocierii textului său la nivelul instanțelor unional-europene, adoptat definitiv un an mai târziu. Reacția promptă, binevenită și întemeiată a CE de respingere a sugestiilor și presiunilor de acest gen a survenit la 4 iulie a.c., precizându-se că „Regulile istorice ale Uniunii Europene privind inteligența artificială vor fi puse în aplicare conform calendarului convenit de legislatorii și țările UE”, fiind în prezența unor „termene legale stabilite în texte juridice” și care se impun în consecință. Petiția patronilor europeni invocă obișnuitul argument al „echilibrului delicat între reglementare și inovare” pe care Europa însă nu l-a ignorat niciodată, ci, dimpotrivă, l-a avut în vedere și promovat consecvent. Și, desigur, cu o amenințare mascată, dar destul de transparentă: e timpul a face să se încline balanța de partea inovării și de a îngheța reglementarea, în scopul de a vedea (în sfârșit) emergența actorilor europeni majori ai IA! Mize constrângătoare, potrivit semnatarilor scrisorii deschise, aferente multiplelor texte unional-europene, în frunte cu RIA, și din ce în ce mai complexe care ar afecta competitivitatea și dezavantaja componenta europeană a sectorului. „În aceste timpuri de schimbări tehnologice, economice și geopolitice, capacitatea Europei de a promova inovarea în materie și adaptarea sa sunt criticate pentru a răspunde mizelor de competitivitate și de suveranitate atât de clar identificate de Mario Draghi (în raportul său din 9 septembrie 2024, n.n. - M.D.) – mai ales în industriile noastre cele mai reprezentative și mai strategice”. Și argumentele invocate continuă în cascadă: „Europa se distinge de mult timp prin capacitatea sa de a găsi un echilibru între reglementare și inovare... Din păcate acest echilibru e subminat de reglementările unional-europene vagi și din ce în ce mai complexe, care uneori se intersectează. Aceasta pune în pericol ambițiile UE în domeniul IA, fragilizând capacitatea sa de a face să emeargă campioni europeni, precum și posibilitatea pentru toate sectoarele de implementare a IA la nivelul necesar spre a face față concurenței internaționale”. Grupul de inițiativă cere reportarea celor două etape majore următoare aplicării ale textului. La 2 august 2025 trebuie să intre în operă obligațiile fabricanților de modele de „uz general”, precum marile modele de generare de texte ori de imagine, ce servesc ca bază folosințelor de întreprindere ori asistenților ca ChatGPT (Open AI), Gemini (Google) sau Le Chat (Mistral). Acestea vor trebui să efectueze evaluări ale riscurilor asociate softurilor lor și să furnizeze o documentație tehnică și un rezumat detaliat al datelor utilizate pentru antrenament. Și începând din vara lui 2026 se vor impune a fi aplicate obligațiile de evaluare a riscurilor (de erori, prejudecăți etc.) ale sistemelor de IA „cu grad ridicat de risc”, cu aplicații în infrastructurile electrice, de apă și transport rutier, în educație și formare, în câmpul muncii și întreprinderi (management algoritmic) în bănci sau asigurări (acordarea de împrumuturi ori de contracte), în justiție, politică, gestionarea imigrației ș.a. Noua ofensivă împotriva dispozitivului juridic unional-european privind IA intervine la un moment de puternică tensiune în jurul elaborării și adoptării de noi măsuri pentru punerea în aplicare a AI Act. Ghidul de bune practici pentru IA de uz general, pe care Comisia Europeană trebuia să-l producă până la 2 mai a.c., nu a fost încă prezentat. El va trebui să se producă rapid dar, se pare, nu se va realiza mai devreme de sfârșitul acestui an. Și modelul de urmat pentru transparența asupra datelor de antrenament nu a fost încă difuzat, negocierea sa făcând obiectul unei puternice opoziții între persoanele îndreptățite din industriile culturale, doritoare să știe dacă conținuturile lor sunt utilizate, și fabricanții de modele, preocupați să păstreze secretul lor industrial și să se sustragă exigențelor dreptului de autor. În plus, inițiativa întreprinderilor europene se adăugă mobilizării anti-reglementare giganților americani, precum Open AI și Meta; lobby-ul tech din S.U.A. s-a pronunțat și a făcut presiuni în mod constant pentru diluarea măsurilor și a dispozițiilor RIA. Iar această opoziție a grupurilor private e sprijinită de administrația de la Casa Albă care a amenințat UE cu sancțiuni dacă reglementează IA și stabilește măsuri considerate „discriminatorii” pentru întreprinderile de peste ocean. La rândul său, Comisia Europeană a evocat deja ideea unei „perioade de grație” pentru conformarea la noile reguli instituite în domeniu și cu termen în august. Mai exact, comisarul pentru suveranitate digitală s-a referit la voința de a „ușura povara” punerii în aplicare a textului, iar o notă a fostei președinții poloneze a UE care cita AI Act printre textele ce s-ar reexamina în cadrul procesului în curs „de simplificare” a legislației europene. Așadar, într-un atare context tensionat și incert semnatarii scrisorii ar dori să vadă textul regulamentului unional-european întârziat în aplicare și chiar slăbit în dispozițiile sale, printr-o pretinsă necesară simplificare și o revizuire cât mai substanțială. De altfel, Comisia Europeană și-a reafirmat voința de a urma lucrările de simplificare reglementară, în special în cadrul pachetului digital de simplificare, aflat în curs de elaborare, fără a se renunța la obiectivele normative urmărite de UE. În această perspectivă, recurgerea eventuală la mecanismul „Stop the Clock” s-ar prefigura precum o măsură de ajustare care să permită consilierea exigențelor juridice ale AI Act cu constrângerile operaționale ale actorilor economici, garantându-se, totodată, prezervarea obiectivelor de integrare a pieței interioare și de suveranitate digitală. Comisia Europeană subliniază, în acest sens, importanța unui dialog structural cu ansamblul părților interesate, în vederea asigurării unei aplicări coerente, progresive și efective a RIA la nivelul Uniunii Europene.

Clasificarea SIA cu grad ridicat de risc
– Consultare publică –
La 6 iunie a.c., Comisia Europeană a lansat o consultare publică privind clasificarea sistemelor de IA cu grad ridicat de risc, conform articolului 6 din Regulamentul (UE) nr. 2024/1689. Consultarea în cauză va permite Comisiei să culeagă exemple practice, să identifice incertitudinile de interpretare și să clarifice articularea între clasificările anumitor sisteme de a fi cu „grad ridicat de risc” și practicile interzise în virtutea regulamentului.
Comisia Europeană a lansat, la 6 iunie a.c., o consultare publică privind clasificarea sistemelor de IA cu grad ridicat de risc, conform articolului 6 din Regulamentul (UE) nr. 2024/1689. Această inițiativă se înscrie în cadrul obligațiilor prevăzute la articolele 6, 25 și 96 din RIA. Ea vizează să adune observațiile părților interesate în vederea elaborării liniilor directoare destinate să încadreze punerea în aplicare a regulilor vizând SIA cu grad ridicat de risc. Sunt avuți în vedere în special furnizorii și utilizatorii de atari sisteme, organismele profesionale, universitățile, autoritățile publice, precum și reprezentanții societății civile. Contribuțiile așteptate au ca obiect precizarea amplorii obligațiilor aplicabile, să interpreteze dispozițiile pertinente ale regulamentului și să ilustreze, prin intermediul cazurilor de uzaj concret, situațiile în care un sistem de IA trebuie sau nu calificat a fi „cu grad ridicat de risc”. Regimul juridic aplicat unor atari sisteme e fondat pe o abordare graduată, întemeiată pe nivelul de risc ce prezintă uzajul unui sistem de IA. Cele care sunt considerate că prezintă un grad ridicat de risc fac obiectul unei încadrări juridice întărite, privind guvernanța datelor, transparența, supervizarea umană și securitatea. AI Act stabilește în art. 6 o tipologie a acestor sisteme, distingând două categorii: pe de o parte, sistemele de IA integrate ca o componentă de securitate în produse ori care constituie ele însele produse, susceptibilă a avea un impact negativ asupra sănătății și securității persoanelor; pe de altă parte cele care, din cauza finalității lor, prezintă un risc semnificativ pentru sănătate, securitate ori drepturile fundamentale. Anexa III a regulamentului enumeră opt domenii în care atari riscuri sunt susceptibile să se manifeste, fiecare fiind însoțit de un caz de folosință specifică, în mod automat calificate ca prezentând un grad ridicat de risc. Sistemele astfel calificate sunt ținute să satisfacă un ansamblu de exigențe tehnice purtând în special pe calitatea datelor utilizate și guvernanța lor, trasabilitatea, transparența față de utilizatori, supervizarea umană, precizia și securitatea cibernetică. Furnizorii sunt obligați în special să aplice un sistem de management al calității și să supună SIA unei proceduri de evaluare a conformității în mod prealabil introducerii lor pe piață ori punerii în funcțiune. De altfel, utilizatorii, implementatorii unor astfel de sisteme sunt supuși la diverse obligații mai ales în ceea ce privește o bună utilizare a sistemului, supravegherea umană a funcționării efective, precum și în unele ipoteze ale respectării transparente față de persoanele vizate prin utilizare acestor sisteme. În plus, AI Act impune Comisiei să adopte, cel mai târziu la 2 februarie 2026 linii directoare, care să precizeze modalitățile concrete de aplicare a prevederilor art. 6, însoțite de exemple practice de cazuri de uzaj calificate ori nu, ca fiind cu grad ridicat de risc. Consultarea în cauză va permite, așadar, Comisiei să culeagă exemple practice, să identifice incertitudinile de interpretare și să clarifice articularea între clasificările anumitor sisteme de a fi cu „grad ridicat de risc” și practicile interzise în virtutea regulamentului.

Franța: primul asistent IA la Ministerul Justiției

Franţa implementează anul acesta un asistent IA „securizat și suveran”, dedicat ansamblului magistraților și funcționarilor din Ministerul Justiției având ca funcție „cercetarea, sinteza, redactarea și retranscripția”. Intenţia este ca până în 2027, IA să devină „un veritabil pilon al serviciului public al justiției” în Franța.

 

 

Puternic angajată în introducerea pe scară largă a noilor tehnologii de IA în activitatea de justiție, Franța a cunoscut, la sfârșitul lunii iunie a.c., un nou raport de evaluare și de previziuni în domeniu. După publicarea, în luna aprilie a.c., a unuia privind perspectivele Curții de Casație în materie, de data acesta e vorba de un document elaborat de un grup de lucru, instituit în luna februarie trecut în cadrul Ministerului de Justiție. Cuprinzând 128 de pagini, analiza, realizată de 20 de experți, proveniți în special din lumea judiciară, preconizează „orientarea cu prioritate a acțiunii ministeriale în jurul a trei axe strategice complementare”. E vorba de democratizarea „accesului la inteligența artificială”, de prezervarea „suveranității tehnologice, veghind la asigurarea controlului efectiv asupra dispozitivelor implementate” și, respectiv, de acompaniamentul „profesioniștilor” în noul demers, cu respectul „exigențelor etice”.

În mod concret, aceste orientări generale se exprimă în nu mai puțin de 10 măsuri de amploare. Prima, întreprinsă de minister și așteptată pentru acest an, constă în stabilirea unui asistent IA „securizat și suveran”. Dedicat ansamblului magistraților și funcționarilor din Ministerul Justiției, el va avea ca funcție definitorie „cercetarea, sinteza, redactarea și retranscripția”. Tot pentru 2025 cel mai devreme, grupul de lucru pledează pentru instalarea unui mediu digital suveran de găzduire a reformei digitale. Condiția indispensabilă a acestui inedit proiect depinde de asistentul IA. În plus, se sugerează achiziția de licențe care să permită „uzul de soluții de cercetare juridică augmentată de IA”, pentru a facilita, în special, munca magistraților. De altfel, ministrul anunțase deja că speră să se ajungă, în 2025, la un instrument de retranscripție automată a interviurilor. Un prim termen de experimentare ar trebui să permită aprofundarea lucrărilor de concepere a instrumentelor interne pentru a facilita activitatea parchetelor și a grefelor. Pentru anul următor, 2026, se așteaptă la implementarea instrumentelor referitoare la acompanierea celor douăsprezece cazuri de utilizări prioritare identificate. Pentru administrația penitenciară, e vorba de un interpretariat instantaneu, care să funcționeze în afara conexiunii, precum și de video-supravegherea inteligentă în unitățile penitenciare în vederea detectării cazurilor problemă, în cadrul luptei antidrog. Alături de protecția judiciară a tinerilor, cazul de uz prioritar e un agent conversional juridic pentru agenți. În jurisdicțiile civile e vorba de un instrument de analiză și de cercetare documentară avansată, un ajutor la redactare și în sinteză contextualizată și, în fine, o orientare a procedurilor ori corespondenței în sânul jurisdicțiilor. Pentru instanțele penale cele trei cazuri de utilizări sunt aceleași. Civilul și penalul partajează, în fine, un interes pentru cazurile de uzaj al retranscripției judiciare a audiențelor și audierilor. În fine, e preconizată o soluție de orientare a justițiabilului în privința adresării de cereri către justiție. Chestiunea justiției predictive e, la rândul său, considerată ca fiind „suprasolicitată”. Chiar dacă anumiți operatori privați au început să preia conceptul, nu apare ca potrivit ca ministerul să se angajeze, la acest moment, într-o atare perspectivă, dacă nu s-a acționat suficient spre a-i demonstra limitele și combate eventualele efecte nefaste, se precizează în documentul grupului de lucru.

Pentru a însoți o atare schimbare în curs, se recomandă difuzarea „unei carte de utilizare a instrumentelor de IA”, oricare ar fi destinația utilizatorilor, precum și a conceptorilor-dezvoltatorilor în domeniu. Se propune, de asemenea, crearea unei etichete „IA demnă de încredere”, în scopul încadrării uzului soluțiilor propuse de editorii juridici și întreprinderile de legaltech. Pentru magistrații și agenții ministerului se sugerează a li se pune la dispoziție „instrumentul de a ajuta la conformitatea dezvoltată de misiune”. Acesta din urmă integrează în special, „un arbore decizional juridic” destinat a „facilita înțelegerea cadrului juridic aplicabil proiectelor IA”. În același context se întrevede stabilirea unei direcții de programe IA, care să „integreze expertize tehnice, juridice și etice” și să fie atașată secretariatului general al Ministerului de Justiție. O altă structură preconizată e cea a unui observator al IA, însărcinat să piloteze strategia de integrare, de urmărire a utilizărilor și a impactului lor asupra meseriilor, precum și o supraveghere științifică adecvată. Nu în ultimul rând, se are în vedere inițierea unui „campus al digitalului dedicat justiției”. Acesta din urmă ar avea ca vocație sensibilizarea avocaților și agenților față de mizele inteligenței artificiale, ca o modalitate de a-i acompania în aproprierea instrumentelor digitale și de a le propune formări adaptate la evoluția practicilor profesionale și la exigențele etice.

Pe termen mai lung se face apel la „angajarea de lucrări vizând a face să evolueze cadrul reglementar național, cu grijă pentru coerența sa cu principalele norme europene”, AI Act, RGPD, trecând prin directiva Poliție-Justiție (nr. 2016/680 din 27 aprilie 2016 relativă la protecția persoanelor fizice referitor la prelucrarea datelor cu caracter personal în scopul prevenirii, depistării, investigării sau a urmăririi penale a infracțiunilor și libera circulație a acestor date). Regula de drept se cuvine astfel să fie făcută lizibilă, armonizată și activabilă, în scopul ca ea să protejeze, legitimeze și accelereze inovația europeană în era revoluției IA. Se speră că până în 2027 se va face din IA „un veritabil pilon al serviciului public al justiției” în Franța.

Utilizarea IA generative cu clienții avocaților

 

Provocările IA în avocatură: Ancheta Observatorului CNB privind inteligența artificială generativă (IAG) și profesia de avocat pune în lumină o nouă realitate: interacţiunea clientului cu IA modelează relaţia cu avocatul şi expentanţele aestuia.

 

 

La 13 iunie 2025 au fost prezentate, în cadrul adunării generale a Consiliului Național al Barourilor (CNB) din Franța, primele rezultate ale unei anchete a Observatorului CNB privind inteligența artificială generativă (IAG) și profesia de avocat. Datele au purtat asupra primelor două etape ale respectivului studiu, care vizează a răspunde la întrebarea: unde se găsesc clienții avocaților în termenii experienței și utilizărilor IAG? Primul aspect privește clienții persoane fizice (1000 subiecți intervievați), iar secundul pe cei persoane juridice (întreprinderi, fiind supuse investigației sociologice 622 entități), cu toții care au făcut recent apel la un avocat și la serviciile sale. Prima constatare: utilizarea de IAG e deja o practică bine inițiată pe lângă clienții particulari ai profesioniștilor barei, în scopuri personale și profesionale, precum și în cele juridice. Este vorba de căutarea de informații (în locul Google), analiza documentelor, traducerea textelor, pregătirea vacanțelor ș.a. Așadar, utilizări în toate azimuturile, fiecare tatonând și experimentând după posibilități și după împrejurări.

O a doua constatare privește faptul că aproape un client persoană fizică din doi (48%) a declarat că utilizase deja IAG pentru obținerea de informații privind chestiuni juridice și aproape un sfert (23%) au folosit-o chiar și atunci când erau însoțiți de un avocat. Se naște aici întrebarea: pentru ce și într-o atare situație? Prima motivație e aceea de a fi proactiv în privința dosarului său, de a înțelege mai bine problemele ce îl privesc, ori de a pune întrebări mai utile avocatului. Dar unii se plasează, din acest punct de vedere, într-o logică de provocare a avocatului, în sensul de a verifica ceea ce acesta susține și propune. Și nu în ultimul rând, transpare dorința de a face să se diminueze costurile dosarului, îndeplinind sigur anumite sarcini în respectivul context. O altă constatare: atunci când clienții particulari sunt chestionați asupra folosirii de IAG în scopuri juridice simt o satisfacție ridicată, șapte din 10 declarându-se mulțumiți de rezultatele obținute prin apelul la noua tehnologie, fiind totuși conștienți de riscul de erori și că trebuie să verifice informațiile obținute. S-a observat, de asemenea, o formă de fascinație în privința a tot ceea ce poate genera astăzi IA în materie juridică, numeroși dintre ei fiind convinși că IAG va facilita accesul la drept și la cunoștințe juridice pentru marele public, o cifră care atinge 82% la cei care utilizează deja IAG în scopuri juridice.

Referitor la utilizarea IAG de către avocați, clienții persoane fizice „o văd mai degrabă cu ochi buni”; două treimi dintre ei (67%) gândesc astfel că IAG poate fi un levier care să permită avocaților să câștige în eficiență și că respectivul avans de timp privind dosarul îl va face mai disponibil pentru a-și acompania clienții. Ideea subînțeleasă e aceea că în acest mod se va acorda mai mult spațiu pentru relația și schimbul de idei cu clientul. Dar, în orice caz, subiecții particulari intervievați nu-și imaginează că utilizările pertinente ale inteligenței artificiale vor merge până la înlocuirea avocatului. Ei știu că „munca avocatului e cea care va permite să se asigure o bună apărare a intereselor lor” și că „au nevoie de un acompaniament uman când sunt în situații dificile”. Totodată, un număr însemnat dintre aceștia sunt conștienți de faptul că IAG va furniza informații din ce în ce mai fiabile în viitor și că disponibilitatea/capacitatea ei de a contextualiza un dosar se va îmbunătăți în cele din urmă.

În privința clienților întreprinderi și particulari, utilizarea IAG se dezvoltă, dar într-un mod mai circumspect decât în rândul marelui public. Puțin peste patru șefi de întreprinderi din 10 au declarat că folosesc IAG referitor la probleme juridice, dintre care mai mult în cadrul micilor structuri, mai puțin dotate cu resurse și instrumente. Și aceasta o fac pentru a ridica primele chestiuni privind drepturile și obligațiile lor via chatbots, a genera primele curierate juridice ori modele, a înțelege mai bine condițiile generale de vânzare, chiar a încerca a obține primele sfaturi ori a găsi o soluție amiabilă înainte de a iniția o procedură. Nivelul de încredere în IA a șefilor de întreprinderi intervievați e mai mult sau mai puțin ridicat, în raport cu sarcinile avute în vedere: 75% dintre ei au încredere în IAG spre a aduce o asistență redacțională, 69% pentru a obține resurse documentare de calitate, 55% pentru a obține un răspuns bun la o problematică juridică, 45% pentru a stabili o strategie de apărare față de un adversar ori un judecător, 36% pentru a asigura respectul confidențialității datelor întreprinderii și 26% pentru pronunțarea deciziilor justiției. Desigur, profesioniștii sunt mai conștienți de erorile posibile ale IAG decât marele public și mai preocupați de confidențialitatea și securitatea datelor, așteptările fiind ca avocații să se numere printre garanții domeniului. De altfel, IAG specializate în drept le inspiră mai multă încredere decât cele generaliste, dar, din punctul de lor de vedere, acestea sunt instrumente care nu sunt în mod obligatoriu la îndemâna lor și se pretează mai degrabă spre a fi utilizate de avocații lor. În orice caz, numai 52% din șefii de întreprindere chestionați au declarat că avocații vor rămâne referenți indispensabili pentru cea mai mare parte a dosarelor. Se observă din ce în ce mai clar faptul că, mâine, plusvaloarea avocatului se va pune în funcție de tipul de dosar și complexitatea sa, așa încât devine posibil ca o serie de cauze considerate mai curente de unele întreprinderi să poată fi reglementare în mod diferit. În fine 79% din clienții particulari și 70% din cei persoane juridice estimează că avocatul trebuie să informeze clientul său dacă utilizează un instrument de IAG într-un dosar. Alții gândesc că „e bucătăria avocatului, e unealta sa”. În toate cauzele însă, el și numai el garantează buna utilizare a datelor.

Concluziile celei de-a doua părți a anchetei, care privește, pe de o parte, utilizarea actuală a IAG de către avocați și, pe de alta, o reflecție prospectivă, va fi prezentată adunării generale a CNB din Franța din luna septembrie.

 

Prof. univ. dr. Mircea DUȚU

 

 

Președinte al Universității Ecologice București, fiind specializat în dreptul mediulului, amenajării teritoriale și urbanismului.
Back To Top