Intră în vigoare AI Act. Majortatea normelor vor începe să se aplice la 2 august 2026/ Interdicțiile sistemelor de IA considerate a prezenta un risc inacceptabil se vor aplica mai repede

visa inteligenta artificiala Sursa foto: Visa

De astăzi intră în vigoare Actul european privind inteligența artificială (Legea privind inteligența artificială), primul regulament cuprinzător din lume privind inteligența artificială, precizează Comisia Europeană. Inițiatorii săi spun că legea privind IA este concepută pentru a se asigura că IA dezvoltată și utilizată în UE este de încredere, cu garanții pentru protejarea drepturilor fundamentale ale cetățenilor. Regulamentul urmărește să instituie o piață internă armonizată pentru IA în UE, încurajând adoptarea acestei tehnologii și creând un mediu favorabil inovării și investițiilor. Majoritatea normelor din Legea privind IA vor începe să se aplice la 2 august 2026. Cu toate acestea, interdicțiile sistemelor de IA considerate a prezenta un risc inacceptabil se vor aplica deja după șase luni, în timp ce normele pentru așa-numitele modele de IA de uz general se vor aplica după 12 luni.

Legea privind IA introduce o definiție prospectivă a IA, bazată pe siguranța produselor și pe o abordare bazată pe riscuri în UE:

  • Risc minim: Majoritatea sistemelor de IA, cum ar fi sistemele de recomandare bazate pe IA și filtrele spam, se încadrează în această categorie. Aceste sisteme nu au nicio obligație în temeiul Legii privind IA din cauza riscului minim la adresa drepturilor și siguranței cetățenilor. Întreprinderile pot adopta în mod voluntar coduri de conduită suplimentare.
  • Risc specific în materie de transparență: Sistemele de IA, cum ar fi roboții de chat, trebuie să dezvăluie în mod clar utilizatorilor că interacționează cu o mașină. Anumite conținuturi generate de IA, inclusiv deep fake, trebuie etichetate ca atare, iar utilizatorii trebuie să fie informați atunci când se utilizează sisteme biometrice de clasificare sau de recunoaștere a emoțiilor. În plus, furnizorii vor trebui să proiecteze sistemele în așa fel încât orice conținut artificial (audio, video, text și imagini) să fie marcat într-un format care poate fi citit automat și să fie detectabil ca fiind generat sau manipulat artificial.
  • Risc ridicat: Sistemele deIA identificate ca prezentând un grad ridicat de risc vor trebui să respecte cerințe stricte, inclusiv sisteme de atenuare a riscurilor, o înaltă calitate a seturilor de date, înregistrarea activității, documentație detaliată, informații clare pentru utilizatori, supravegherea umană și un nivel ridicat de robustețe, acuratețe și securitate cibernetică. Spațiile de testare în materie de reglementare vor facilita inovarea responsabilă și dezvoltarea unor sisteme de IA conforme. Astfel de sisteme de IA cu grad ridicat de risc includ, de exemplu, sistemele de IA utilizate pentru recrutare sau pentru a evalua dacă o persoană are dreptul de a obține un împrumut sau de a administra roboți autonomi.
  • Risc inacceptabil: Vor fi interzise sistemele deIA considerate a fi o amenințare clară la adresa drepturilor fundamentale ale persoanelor. Printre acestea se numără sistemele sau aplicațiile IA care manipulează comportamentul uman pentru a eluda voința liberă a utilizatorilor, cum ar fi jucăriile care utilizează asistența vocală care încurajează comportamentul periculos al minorilor, sistemele care permit un „punctaj social” de către guverne sau întreprinderi, precum și anumite aplicații ale poliției predictive. În plus, vor fi interzise unele utilizări ale sistemelor biometrice. Este cazul sistemelor de recunoaștere a emoțiilor utilizate la locul de muncă, al unor sisteme de împărțire a oamenilor pe categorii sau al identificării biometrice de la distanță în timp real în scopul asigurării respectării legii în spațiile accesibile publicului (cu excepții restrânse).

Pentru a completa acest sistem, Legea privind IA introduce, de asemenea, norme pentru așa-numitele modele de IA de uz general, care sunt modele de IA foarte capabile, concepute pentru a îndeplini o gamă largă de sarcini, cum ar fi generarea de text asemănător cu factorul uman. Modelele de IA de uz general sunt utilizate din ce în ce mai mult ca componente ale aplicațiilor IA. Legea privind IA va asigura transparența de-a lungul lanțului valoric și va aborda posibilele riscuri sistemice ale modelelor celor mai capabile.

Analize Economedia

salariu, bani, lei
turcia, ankara, steag, flag, drapel, istanbul, alegeri
bani, lei, bancnote, cash, numerar
bursa, indice bursier, investitii, scadere, grafic
bursa, indice bursier, investitii, scadere, grafic
inflatie bani echilibru balanta
la veterinar
camioane UMB autostrazi
Donald Trump
Colaj bani lei Marcel Ciolacu
Bani, investitie, economii
Marcel Ciolacu, premier
Incredere
constructii, locuințe, bloc, muncitori, șantier
cristian mihai ciolacu, nepotul premierului
Emil Boc, Sorin Grindeanu
Ministerul Energiei Sursa foto Peter Szijjarto
tbb foto event
productie, fabrica
Donald Trump, Trumponomics
euro, moneda, bancnote, bani
bani, finante, lei, financiar, deficit
Mugur Isarescu, guverantorul BNR
Azomures
inflatie bani echilibru balanta
452710313_472208142236025_2821867466000769013_n
Mugur Isărescu, Banca Națională a României, BNR
tineri joburi IUF- The International University Fair
crestere economica, grafic
bani, lei, moneda

Aplicarea și asigurarea respectării normelor privind IA

Statele membre trebuie să desemneze autoritățile naționale competente până la 2 august 2025, care vor supraveghea aplicarea normelor pentru sistemele de IA și vor desfășura activități de supraveghere a pieței. Oficiul pentru IA al Comisiei va fi principalul organism de punere în aplicare a Legii privind IA la nivelul UE, precum și autoritatea de asigurare a respectării normelor pentru modelele de IA de uz general.

Trei organisme consultative vor sprijini punerea în aplicare a normelor. Comitetul european pentru inteligența artificială va asigura o aplicare uniformă a Legii privind IA în toate statele membre ale UE și va acționa ca principal organism de cooperare între Comisie și statele membre. Un grup științific de experți independenți va oferi consiliere tehnică și contribuții cu privire la asigurarea respectării legislației. În special, acest grup poate emite alerte către Oficiul pentru IA cu privire la riscurile asociate modelelor de IA de uz general. Oficiul pentru IA poate primi, de asemenea, orientări din partea unui forum consultativ, alcătuit dintr-un set divers de părți interesate.

Întreprinderile care nu respectă normele vor fi amendate. Amenzile ar putea ajunge până la 7 % din cifra de afaceri anuală globală pentru încălcări ale aplicațiilor IA interzise, până la 3 % pentru încălcări ale altor obligații și până la 1,5 % pentru furnizarea de informații incorecte.

Etapele următoare

Majoritatea normelor din Legea privind IA vor începe să se aplice la 2 august 2026. Cu toate acestea, interdicțiile sistemelor de IA considerate a prezenta un risc inacceptabil se vor aplica deja după șase luni, în timp ce normele pentru așa-numitele modele de IA de uz general se vor aplica după 12 luni.

Pentru a face față perioadei de tranziție înainte de punerea deplină în aplicare, Comisia a lansat Pactul privind IA. Această inițiativă invită dezvoltatorii de IA să adopte în mod voluntar principalele obligații prevăzute de Legea privind IA înainte de termenele legale.

De asemenea, Comisia elaborează orientări pentru a defini și a detalia modul în care Legea privind IA ar trebui pusă în aplicare și pentru a facilita instrumentele de coreglementare, cum ar fi standardele și codurile de practică. Comisia a lansat o cerere de exprimare a interesului pentru a participa la elaborarea primului Cod de bune practici privind IA, precum și o consultare multipartită care oferă tuturor părților interesate posibilitatea de a-și exprima punctul de vedere cu privire la primul Cod de bune practici în temeiul Legii privind IA.

Proiect cofinanțat de Uniunea Europeană în cadrul programului de subvenții al Parlamentului European în domeniul comunicării. Parlamentul European nu a fost implicat în pregătirea proiectului și nu este responsabil în nicio măsură de informațiile sau punctele de vedere exprimate în cadrul proiectului, iar acestea nu-i impun nicio obligație; responsabilitatea aparține exclusiv autorilor, persoanelor intervievate, editorilor sau difuzorilor programului, în conformitate cu legislația aplicabilă. Parlamentul European nu poate fi considerat responsabil nici pentru daunele, directe sau indirecte, care pot rezulta în urma realizării proiectului.

Urmărește mai jos producțiile video ale Economedia: