Parlamentul European adoptă în premieră o lege care reglementează inteligenţa artificială
Parlamentul European a adoptat miercuri cu o largă majoritate - 523 de voturi pentru, 46 împotrivă şi 49 de abţineri - un text de lege care reglementează utilizarea inteligenţei artificiale, o legislaţie unică în lume.
Legea privind inteligenţa artificială, care este un regulament convenit în decembrie 2023 cu statele membre, îşi propune să garanteze siguranţa şi respectarea drepturilor fundamentale şi să stimuleze inovaţia.
Textul de lege urmăreşte să protejeze drepturile fundamentale, democraţia, statul de drept şi sustenabilitatea mediului în faţa sistemelor de IA cu grad ridicat de risc. Actul legislativ vizează şi să încurajeze inovaţia şi să asigure un rol de lider în domeniu pentru Europa. Regulamentul impune obligaţii în cazul inteligenţei artificiale, în funcţie de riscurile sale potenţiale şi de impactul preconizat, se menţionează într-un comunicat al PE.
Noile norme interzic anumite utilizări ale inteligenţei artificiale care ameninţă drepturile cetăţenilor, inclusiv sistemele biometrice de clasificare bazate pe caracteristicile sensibile ale persoanelor. Extragerea fără scop precis a imaginilor faciale de pe internet ori din înregistrările camerelor video cu circuit închis pentru a crea baze de date de recunoaştere facială se numără şi ea printre utilizările interzise. Nu vor fi permise nici recunoaşterea emoţiilor la locul de muncă şi în şcoli, atribuirea unui punctaj social, sistemele de poliţie predictivă - când acestea se bazează doar pe stabilirea profilului unei persoane sau pe analizarea caracteristicilor sale - şi IA care manipulează comportamentul uman sau exploatează vulnerabilităţile oamenilor.
Folosirea sistemelor de identificare biometrică de către organele de aplicare a legii este în principiu interzisă, cu excepţia unor situaţii enumerate în mod exhaustiv şi definite în mod strict. Sistemele de identificare biometrică „în timp real” pot fi instalate doar dacă se respectă garanţii stricte, de exemplu, dacă folosirea lor este limitată în timp şi geografic şi este aprobată în prealabil de o autoritate judiciară sau de un organ administrativ. Ele pot fi folosite, de pildă, pentru a căuta o persoană dispărută sau pentru a preveni un atac terorist. Folosirea acestor sisteme post-facto, respectiv sistemele de identificare biometrică „ulterioară”, este considerată un caz de utilizare cu grad ridicat de risc şi este posibilă doar în virtutea emiterii unei autorizaţii judiciare legate de o infracţiune penală.
Textul prevede şi obligaţii clare pentru alte sisteme de IA cu grad ridicat de risc, din cauza potenţialului lor ridicat de a afecta negativ sănătatea, siguranţa, drepturile fundamentale, mediul, democraţia şi statul de drept.
Câteva exemple de utilizări ale IA care prezintă un grad ridicat de risc sunt infrastructura critică, educaţia şi formarea profesională, serviciile publice şi private esenţiale (sănătatea, serviciile bancare etc.), unele sisteme folosite de organele de aplicare a legii, migraţia şi gestionarea frontierelor, justiţia şi procesele democratice (de exemplu, pentru a preveni influenţarea alegerilor).
Aceste sisteme trebuie să evalueze şi să reducă riscurile, să menţină aşa-numite „fişiere de jurnalizare” care permit înregistrarea automată a evenimentelor, să fie transparente şi precise şi să facă obiectul supravegherii umane. Cetăţenii vor avea dreptul să depună plângeri în legătură cu sistemele de IA şi să primească explicaţii despre deciziile bazate pe sisteme de IA cu grad ridicat de risc care le afectează drepturile.
Sistemele de inteligenţă artificială de uz general şi modelele de IA de uz general pe care se bazează acestea trebuie să respecte anumite cerinţe în materie de transparenţă, inclusiv legislaţia UE în domeniul drepturilor de autor şi publicarea unor rezumate detaliate ale conţinutului utilizat la antrenarea modelelor de IA. Modelele mai puternice pentru sistemele IA de uz general care ar putea prezenta riscuri sistemice vor trebui să respecte cerinţe suplimentare, inclusiv privind evaluarea modelelor, evaluarea şi reducerea riscurilor sistemice şi raportarea incidentelor.
În plus, imaginile şi conţinuturile audio şi video artificiale sau manipulate (de tip „deepfake”) trebuie să fie etichetate clar ca atare.
La nivel naţional va fi obligatoriu să se creeze spaţii de testare în materie de reglementare şi să se organizeze testări în condiţii reale. IMM-urile şi companiile nou-înfiinţate vor trebui să aibă acces la aceste instrumente pentru a dezvolta şi antrena IA inovatoare, înainte de introducerea lor pe piaţă.
„În sfârşit, avem prima lege obligatorie din lume privind inteligenţa artificială, pentru a reduce riscurile, a crea oportunităţi, a combate discriminarea şi a aduce transparenţă. Datorită Parlamentului, practicile inacceptabile în domeniul IA vor fi interzise în Europa, iar drepturile lucrătorilor şi ale cetăţenilor vor fi protejate. Oficiul pentru IA va fi acum înfiinţat pentru a sprijini companiile să înceapă să respecte normele înainte ca acestea să intre în vigoare”, a declarat coraportorul Brando Benifei, din grupul S&D, în cadrul dezbaterii de marţi.
Eurodeputatul Dragoş Tudorache, coraportor pentru acest dosar, a spus că legea se va aplica în toate statele membre, inclusiv în România.
„Aş spune că şi legea deepfake-ului din Parlamentul României poate ar putea să mai aştepte, pentru că de fapt, prin IA Act reglementăm inclusiv această zonă a responsabilităţii pentru deepfake. Deci, practic, o dată nu e o opţiune. Legea aşa cum va veni ea de la nivel european va fi implementată în România sau va trebui să fie implementată. Cât de dificil va fi, repet, depinde de capacitatea pe care statul român o va avea să atragă oameni potriviţi pentru rolul recunoscut de lege pentru aceste autorităţi (...)”, a declarat Tudorache înaintea votului pentru jurnalişti români la Strasbourg.
„Nu spun că va fi simplu, pentru că vă spun, deja, uitându-mă la experienţa la nivel european, şi nu doar, sunt în discuţie de foarte mult timp cu Statele Unite, cu Marea Britanie, cu toate celelalte mari jurisdicţii globale, toţi au dificultăţi, acum, toţi încep să-şi creeze aceste structuri de guvernanţă privind inteligenţa artificială şi toţi au dificultăţi de a trage din zona privată talentul, competenţa necesară pentru a popula structurile publice, aceşti noi reglementatori de piaţă care apar, cu nivelul de competenţă necesar pentru a reglementa o piaţă în continuă dezvoltare şi foarte complexă. Deci nu e simplu pentru salariile publice în sistemul românesc”, a adăugat el.
El a precizat că noua lege prevede amenzi foarte mari, „de până la 7% din venitul global” şi că are „dinţi suficient de ascuţiţi încât să convingă pe cei care ar putea să încerce eludarea ei”.
Tudorache a explicat că vor exista două niveluri de guvernanţă în supervizarea aplicării legii. „E unul naţional, deci cel care e descentralizat pentru aceste autorităţi naţionale de care vorbim. Dar atunci când e vorba de companiile mari, deci de actorii, giganţii globali digitali, Google etc, competenţa revine reglementatorului european. Se creează acest nou oficiu internaţional”, a spus eurodeputatul Renew.
Regulamentul adoptat miercuri este în prezent verificat de juriştii-lingvişti şi se preconizează că va fi adoptat înainte de sfârşitul legislaturii. Legislaţia mai trebuie adoptată oficial şi de Consiliul UE.
Ea va intra în vigoare la 20 de zile după publicarea în Jurnalul Oficial şi va fi pe deplin aplicabilă la 24 de luni după intrarea în vigoare, cu excepţia interdicţiilor referitoare la practicile interzise, care se aplică începând cu şase luni de la data intrării în vigoare, a codurilor de bune practici (nouă luni de la data intrării în vigoare) şi a normelor privind sistemele de IA de uz general, inclusiv guvernanţa (12 luni de la data intrării în vigoare) şi respectiv a obligaţiilor pentru sistemele cu grad ridicat de risc (36 de luni).