Europa este acum la numai un pas de adoptarea primelor norme din lume privind inteligența artificială, după ce legislatorii UE au aprobat un acord provizoriu pentru o tehnologie a cărei utilizare este în creștere rapidă într-o gamă largă de sectoare și în viața de zi cu zi, scrie Reuters.
Parlamentul European a adoptat miercuri cu o largă majoritate – 523 de voturi pentru, 46 împotrivă şi 49 de abţineri – un text de lege care reglementează utilizarea inteligenţei artificiale, o legislaţie unică în lume.
Legea privind inteligenţa artificială, numită AI Act, este un regulament convenit în decembrie 2023 cu statele membre și îşi propune să garanteze siguranţa şi respectarea drepturilor fundamentale şi să stimuleze inovaţia.
Legislația AI Act va reglementa modelele de fundație sau AI generativă, cum ar fi OpenAI, susținută de Microsoft, care sunt antrenate pe volume mari de date pentru a genera conținut nou și chiar pentru a îndeplini sarcini.
Aceasta va limita utilizarea de către guverne a supravegherii biometrice în timp real în spațiile publice la cazurile de anumite infracțiuni, la prevenirea amenințărilor reale, cum ar fi atacurile teroriste, și la perchezițiile pentru persoanele suspectate de cele mai grave infracțiuni.
Normele vor viza modelele de inteligență artificială cu impact ridicat și de uz general, precum și sistemele de inteligență artificială cu risc ridicat, care vor trebui să respecte obligații specifice de transparență și legislația UE privind drepturile de autor.
Folosirea sistemelor de identificare biometrică de către organele de aplicare a legii este în principiu interzisă, cu excepţia unor situaţii enumerate în mod exhaustiv şi definite în mod strict. Sistemele de identificare biometrică „în timp real” pot fi instalate doar dacă se respectă garanţii stricte, de exemplu, dacă folosirea lor este limitată în timp şi geografic şi este aprobată în prealabil de o autoritate judiciară sau de un organ administrativ. Ele pot fi folosite, de pildă, pentru a căuta o persoană dispărută sau pentru a preveni un atac terorist. Folosirea acestor sisteme post-facto, respectiv sistemele de identificare biometrică „ulterioară”, este considerată un caz de utilizare cu grad ridicat de risc şi este posibilă doar în virtutea emiterii unei autorizaţii judiciare legate de o infracţiune penală.
Textul prevede şi obligaţii clare pentru alte sisteme de IA cu grad ridicat de risc, din cauza potenţialului lor ridicat de a afecta negativ sănătatea, siguranţa, drepturile fundamentale, mediul, democraţia şi statul de drept.
Câteva exemple de utilizări ale IA care prezintă un grad ridicat de risc sunt infrastructura critică, educaţia şi formarea profesională, serviciile publice şi private esenţiale (sănătatea, serviciile bancare etc.), unele sisteme folosite de organele de aplicare a legii, migraţia şi gestionarea frontierelor, justiţia şi procesele democratice (de exemplu, pentru a preveni influenţarea alegerilor).
Aceste sisteme trebuie să evalueze şi să reducă riscurile, să menţină aşa-numite “fişiere de jurnalizare” care permit înregistrarea automată a evenimentelor, să fie transparente şi precise şi să facă obiectul supravegherii umane. Cetăţenii vor avea dreptul să depună plângeri în legătură cu sistemele de IA şi să primească explicaţii despre deciziile bazate pe sisteme de IA cu grad ridicat de risc care le afectează drepturile.
Sistemele de inteligenţă artificială de uz general şi modelele de IA de uz general pe care se bazează acestea trebuie să respecte anumite cerinţe în materie de transparenţă, inclusiv legislaţia UE în domeniul drepturilor de autor şi publicarea unor rezumate detaliate ale conţinutului utilizat la antrenarea modelelor de IA. Modelele mai puternice pentru sistemele IA de uz general care ar putea prezenta riscuri sistemice vor trebui să respecte cerinţe suplimentare, inclusiv privind evaluarea modelelor, evaluarea şi reducerea riscurilor sistemice şi raportarea incidentelor.
În plus, imaginile şi conţinuturile audio şi video artificiale sau manipulate (de tip “deepfake”) trebuie să fie etichetate clar ca atare.
La nivel naţional va fi obligatoriu să se creeze spaţii de testare în materie de reglementare şi să se organizeze testări în condiţii reale. IMM-urile şi companiile nou-înfiinţate vor trebui să aibă acces la aceste instrumente pentru a dezvolta şi antrena IA inovatoare, înainte de introducerea lor pe piaţă.
„Salut sprijinul copleșitor din partea Parlamentului European pentru Actul UE privind IA, primul cadru cuprinzător și obligatoriu din lume pentru o IA demnă de încredere. Europa este acum un factor de standardizare la nivel mondial în ceea ce privește AI de încredere”, a declarat șeful industriei UE, Thierry Breton.
Țările UE urmează să aprobe oficial acordul în luna mai, urmând ca legislația să intre în vigoare la începutul anului viitor și să se aplice în 2026, deși unele dintre dispoziții vor intra în vigoare mai devreme.
Este posibil ca Bruxelles-ul să fi stabilit un punct de referință pentru restul lumii, a declarat Patrick Van Eecke, partener la firma de avocatură Cooley.
„Uniunea Europeană are acum prima lege din lume privind IA codificată în mod dur. Alte țări și regiuni vor folosi probabil legea privind IA ca model, așa cum au făcut-o cu GDPR”, a spus el, referindu-se la regulamentul UE privind protecția vieții private.
Cu toate acestea, el a spus că dezavantajul pentru companii este birocrația considerabilă.
Parlamentul European și țările UE obținuseră un acord preliminar în decembrie, după aproape 40 de ore de negocieri pe teme precum utilizarea de către guverne a supravegherii biometrice și modul de reglementare a modelelor de fundație ale IA generative, cum ar fi ChatGPT.
Companiile riscă amenzi cuprinse între 7,5 milioane de euro sau 1,5% din cifra de afaceri și 35 de milioane de euro sau 7% din cifra de afaceri globală, în funcție de tipul de încălcări.
Eurodeputatul Dragoş Tudorache, coraportor pentru acest dosar, a spus că legea se va aplica în toate statele membre, inclusiv în România.
„Aş spune că şi legea deepfake-ului din Parlamentul României poate ar putea să mai aştepte, pentru că de fapt, prin IA Act reglementăm inclusiv această zonă a responsabilităţii pentru deepfake. Deci, practic, o dată nu e o opţiune. Legea aşa cum va veni ea de la nivel european va fi implementată în România sau va trebui să fie implementată. Cât de dificil va fi, repet, depinde de capacitatea pe care statul român o va avea să atragă oameni potriviţi pentru rolul recunoscut de lege pentru aceste autorităţi (…)”, a declarat Tudorache înaintea votului pentru jurnalişti români la Strasbourg.
„Nu spun că va fi simplu, pentru că vă spun, deja, uitându-mă la experienţa la nivel european, şi nu doar, sunt în discuţie de foarte mult timp cu Statele Unite, cu Marea Britanie, cu toate celelalte mari jurisdicţii globale, toţi au dificultăţi, acum, toţi încep să-şi creeze aceste structuri de guvernanţă privind inteligenţa artificială şi toţi au dificultăţi de a trage din zona privată talentul, competenţa necesară pentru a popula structurile publice, aceşti noi reglementatori de piaţă care apar, cu nivelul de competenţă necesar pentru a reglementa o piaţă în continuă dezvoltare şi foarte complexă. Deci nu e simplu pentru salariile publice în sistemul românesc”, a adăugat el.
Tudorache a explicat că vor exista două niveluri de guvernanţă în supervizarea aplicării legii. „E unul naţional, deci cel care e descentralizat pentru aceste autorităţi naţionale de care vorbim. Dar atunci când e vorba de companiile mari, deci de actorii, giganţii globali digitali, Google etc, competenţa revine reglementatorului european. Se creează acest nou oficiu internaţional”, a spus eurodeputatul Renew.