Președintele Comisiei Europene, Ursula von der Leyen, a declarat, în cadrul AI Summit, summit-ul din Marea Britanie privind AI, că se discută despre înființarea unui birou european pentru AI, iar legea se află în etapele finale ale procesului legislativ.
„Principiile de bază ale acesteia sunt sprijinirea inovării, recoltarea beneficiilor inteligenței artificiale și concentrarea reglementării doar asupra riscurilor ridicate. Legea privind IA se află în etapele finale ale procesului legislativ. În cadrul acestui proces, discutăm despre înființarea unui Birou european pentru IA. Acest departament s-ar putea ocupa de cele mai avansate modele de AI, cu responsabilitate de supraveghere. Biroul european pentru AI ar trebui să colaboreze cu comunitatea științifică în general. Acesta ar putea contribui la promovarea standardelor și a practicilor de testare pentru sistemele de AI de frontieră. Acesta ar putea completa sectorul privat în ceea ce privește investigațiile și testele. Ar trebui să fie capabil să acționeze pe baza alertelor și să se asigure că dezvoltatorii își asumă responsabilitatea”, a declarat Ursula von der Leyen.
Astfel că, un Birou european pentru inteligență artificială ar urma să aplice normele comune în toate cele 27 de state membre pentru cele mai avansate modele.
„Aceasta este o veste bună pentru aceste întreprinderi și pentru siguranța în Europa. Dar Biroul european pentru AI ar trebui să aibă și o vocație globală. Acesta ar trebui să fie deschis la cooperare cu entități similare din întreaga lume”, spune președintele Comisiei Europene.
„Cred că un cadru pentru a înțelege și a atenua riscurile sistemelor de inteligență artificială foarte complexe ar trebui să se bazeze pe 4 piloni. În primul rând, avem nevoie de o comunitate științifică înfloritoare și independentă, dotată cu mijloacele necesare pentru a evalua sistemele de inteligență artificială. Au nevoie de finanțare publică și de acces la cele mai bune resurse. În ultimii 5 ani, UE a construit cea mai mare rețea publică de supercalculatoare din lume.
În al doilea rând, trebuie să elaborăm proceduri și standarde acceptate la nivel internațional pentru testarea siguranței AI.
În al treilea rând, trebuie să fie o procedură standard, ca fiecare incident semnificativ cauzat de erori sau de utilizarea necorespunzătoare a IA să fie raportat și monitorizat.
Și, în al patrulea rând, avem nevoie de un sistem internațional de alerte. Acești 4 piloni ar trebui să constituie un sistem eficient de guvernanță”, menționează von der Leyen.