Deși ca legislație în sine, EU AI Act nu reprezintă neapărat o premieră mondială, în China fiind deja în vigoare din luna august un set de reguli referitoare la inteligența artificială generativă, adoptarea sa pe data de 8 decembrie 2023 a adus o serie de dezvoltări semnificative cadrului legislativ aplicabil inteligenței artificiale la nivelul Uniunii Europene, arată o analiză semnată de Roxana Barica – Senior Associate și Bianca Naghi – Partener, de la biroul de avocatură GNP – Guia Naghi și Partenerii.
EU AI Act reprezintă primul și cel mai cuprinzător pachet legislativ pentru tipul său de tehnologie. Acesta tratează un spectru mai larg de aspecte diverse care pot fi afectate de inteligența artificială, precum considerațiile etice, protecția drepturilor fundamentale ale persoanelor, precum și îngrijorările privind siguranța persoanelor.
Scopul final al EU AI Act este de pune în balanță promovarea de inovație, atât de necesară acestor vremuri în sectoarele aplicabile, cu asigurarea responsabilității și a modalității transparente de a utiliza sistemele de inteligență artificială, reflectând, totodată angajamentul Uniunii Europene de a asigura o funcționare corespunzătoare pieței unice și de a veni în întâmpinarea potențialului impact asupra societății, adus de aceste sisteme.
Prin propunerea legislativă inițială, precum și astfel cum a fost preluat și în EU AI Act adoptat, s-a urmărit un cadru legislativ armonizat în vederea dezvoltării, punerii pe piață și utilizării produselor și serviciilor de inteligență artificială. Suplimentar, EU AI Act are în vedere și următoarele obiective specifice:
- asigurarea că sistemele AI plasate pe piața unică din Europa sunt sigure și respectă, în totalitate, legislația europeană;
- asigurarea unei certitudini legale privind facilitatea investițiilor și inovației în domeniul AI;
- asigurarea unei implementări efective a legislației europene în vederea protejării drepturilor fundamentale și a cerințelor aplicabile sistemelor AI; și
- facilitatea dezvoltării a unei piețe unice pentru aplicațiile AI care respectă condițiile legale, sunt sigure și pot prezenta încredere, astfel prevenindu-se o sub-segmentare nedorită a acestei piețe.
Principalele prevederi ale EU AI Act
Dacă la momentul propunerii inițiale din aprilie 2021 a EU AI Act principalele prevederi ale acestuia acopereau îngrijorările de la acel moment (și anume algoritmii ascunși care ar putea decide cine ar fi recrutat pentru un anumit job, sau căruia i s-ar acorda statutul de refugiat, precum și cine ar primi ajutoare sociale), între timp, pe masa negocierilor subiectele de discuție au suferit amendamente importante odată cu lansarea ChatGPT de către OpenAI, în noiembrie 2022. Astfel, deși la acest moment nu sunt clarificate toate detaliile implementării EU AI Act, analiza evidențiază următoarele prevederi considerate aplicabile:
- Definiția AI. Aceasta a fost preluată / aliniată celei deja emise de Organizația pentru Cooperare și Dezvoltare Economică (“OECD”):
„Un sistem AI reprezintă un sistem bazat pe o mașinărie care, în scopul îndeplinirii de obiective explicite sau implicite, interferează, încă de la inputul primit, cum să genereze rezultate precum predicții, conținut, recomandări sau decizii care pot influența medii fizice sau psihice. Diferitele sisteme AI pot varia în nivelul acestora de autonomie și adaptare ulterior derulării.”
- Cuantificarea și încadrarea tipului de risc pe care îl presupune sistemul AI. Probabil cea mai importantă și de impact prevedere a EU AI Act, care a făcut și obiectul negocierilor finale îndelungate, în forma adoptată în decembrie 2023, o reprezintă granularitatea riscurilor aduse drepturilor fundamentale de către sistemele AI.
Categoria de sisteme AI interzise ar putea include:
- sistemele de recunoaștere facială în spațiile accesibile publicului pentru forțele de ordine, cu anumite excepții;
- manipularea comportamentală cognitivă, astfel cum a precizat și Parlamentul în comunicatul său de presă folosind sintagma “eludarea … liberei voințe“;
- recunoașterea emoțională la locul de muncă sau în cadrul setărilor educaționale, cu anumite excepții în situația menținerii siguranței;
- sisteme de evaluare sociale bazate pe caracteristici comportamentale sau personale;
- sisteme AI care exploatează vulnerabilități precum vârsta, dizabilități, circumstanțe sociale sau economice;
- clasificarea biometrică realizată pe baza datelor cu caracter sensibil (incluzând opinii politice, orientare sexuală, orientare religioasă sau filozofică și rasă) etc.
Categoria de sisteme AI care prezintă risc crescut:
- Conform propunerii inițiale, aplicațiile de AI care prezintă un risc semnificativ vor face obiectul unui șir de obligații, precum certificarea conformității, al înregistrării și al aplicării mărcii CE. Negocierile finale au adăugat claritate și ajustări pentru a le face mai fezabile din punct de vedere tehnic și mai puțin împovărătoare (mai mult, obligațiile privind calitatea datelor de formare au fost modificate în acest fel, precum și cerințele privind documentația tehnică pentru întreprinderile mici și mijlocii (IMM-uri)).
- A fost adăugată cerința de a efectua o “evaluare a impactului asupra drepturilor fundamentale”. Informațiile cu privire la acest aspect sunt limitate, deși în prezent înțelegem că nu va fi o cerință universală. Se pare că se va aplica organismelor publice și entităților private “care furnizează servicii publice esențiale, cum ar fi spitalele, școlile, băncile și companiile de asigurări care utilizează sisteme cu risc ridicat”.
Categoria de sisteme AI cu scop general:
- EU AI Act va reglementa “modelele de AI cu scop general”, care sunt antrenate pe o cantitate mare de date, sunt capabile să îndeplinească o gamă largă de sarcini distincte și pot fi integrate într-o varietate de AI în aval. Inteligența artificială generativă – cum ar fi modelul GPT pe care se bazează ChatGPT – este un exemplu de inteligență artificială cu scop general.
- Suplimentar, EU AI Act va crea două niveluri de obligații pentru sistemele AI cu scop general. Acest set de obligații este distinct de nivelurile de reglementare bazate pe riscuri, de mai sus. De asemenea, se implementează Biroul de AI, care va fi creat în cadrul Comisiei pentru a centraliza supravegherea modelelor de AI cu scop general la nivelul Uniunii Europene.
- nivelul 1: toate IA cu scop general
Furnizorii de modele de AI cu scop general vor fi supuși unui set de obligații, precum:
- menținerea documentației tehnice și furnizarea de informații suficiente despre modelul lor, astfel încât furnizorii din aval care îl integrează în sistemul lor să poată respecta propriile obligații conform EU AI Act.
- necesitatea deținerii unei politici privind respectarea regulilor de drepturi de autor ale UE.
- pregătirea și publicarea unei declarații despre datele utilizate pentru antrenarea modelului de AI cu scop general.
- nivelul 2: impact ridicat și risc sistemic
- Un al doilea nivel de obligații, în plus față de cele impuse tuturor modelelor de AI cu scop general, se aplică modelelor de AI cu scop general considerate a prezenta un “risc sistemic” și un “impact ridicat”.
- Un model va fi presupus că prezintă un risc sistemic atunci când cantitatea cumulativă de putere de calcul utilizată pentru antrenarea sa a fost mai mare de 10^25 operații cu virgulă mobilă. Acesta este un concept destul de dificil de exprimat, dar reprezintă o scară vastă, care probabil va captura cele mai recente iterații ale modelelor generative de inteligență artificială.
- Punerea în aplicare. EU AI Act prevede că supravegherea sistemelor AI cu scop general va fi centralizată în cadrul Biroului AI al Comisiei, însă, se pare că, pentru celelalte sisteme de AI, aplicarea acestui act normativ va fi asigurată de autoritățile desemnate la nivelul statelor membre.
- Sancțiuni aplicabile. Similar modului în care sunt calculate amenzile în temeiul Regulamentului general european privind protecția datelor (GDPR), amenzile pentru încălcarea EU AI Act vor fi calculate ca procent din cifra de afaceri anuală globală a părții responsabile în anul financiar precedent sau ca sumă fixă, oricare dintre acestea este mai mare:
- 35 milioane de euro sau 7% din cifra de afaceri anuală a grupului la nivel mondial, pentru încălcările care implică utilizarea aplicațiilor de inteligență artificială interzise;
- 15 milioane de euro sau 3% din cifra de afaceri anuală a grupului la nivel mondial, pentru încălcări ale obligațiilor prevăzute de lege; și
- 7,5 milioane de euro sau 1,5% din cifra de afaceri anuală a grupului la nivel mondial, pentru furnizarea de informații incorecte.
Cu toate acestea, vor exista plafoane proporționale atunci când se vor emite amenzi administrative împotriva întreprinderilor mici și mijlocii și a întreprinderilor nou înființate. Nu în ultimul rând, persoanele fizice vor putea lansa plângeri cu privire la utilizarea sistemelor de inteligență artificială care îi afectează.
În concluzie, ca și pași următori, rămâne să așteptăm ca EU AI Act să fie perfecționat din punct de vedere tehnic în următoarele săptămâni înainte de a fi supus aprobării reprezentanților statelor membre ale UE, mai arată analiza semnată de de Roxana Barica – Senior Associate și Bianca Naghi – Partener, de la biroul de avocatură GNP – Guia Naghi și Partenerii. Acordul provizoriu prevede că EU AI Act ar trebui să se aplice la doi ani de la intrarea în vigoare, unele dispoziții urmând să intre în vigoare la o dată ulterioară, altele chiar anterior. Având în vedere că încă se lucrează la finalizarea detaliilor noului cadru legislativ, cel mai probabil este ca EU AI Act să intre în vigoare în vara anului 2026.