Companii tehnologice majore, inclusiv Microsoft, Amazon şi OpenAI, s-au reunit într-un acord internaţional de referinţă privind siguranţa inteligenţei artificiale, la Summitul pentru Siguranţa Inteligenţei Artificiale de la Seul de marţi, transmite CNBC.
În cadrul acordului, companiile din diferite ţări, inclusiv SUA, China, Canada, Regatul Unit, Franţa, Coreea de Sud şi Emiratele Arabe Unite, îşi vor lua angajamente voluntare pentru a asigura dezvoltarea în siguranţă a celor mai avansate modele de AI.
Acolo unde nu au făcut acest lucru deja, producătorii de modele AI au fost de acord să publice cadre de siguranţă care să stabilească modul în care vor măsura provocările modelelor lor de frontieră, cum ar fi prevenirea utilizării greşite a tehnologiei de către actori răi.
Aceste cadre vor include ”linii roşii” pentru firmele de tehnologie, care definesc tipurile de riscuri asociate cu sistemele AI de frontieră, care ar fi considerate ”intolerabile”.
Aceste riscuri includ, dar nu se limitează la, atacuri cibernetice automate şi ameninţarea armelor biologice. Pentru a răspunde unor astfel de circumstanţe extreme, companiile au spus că intenţionează să implementeze un ”kill switch” (buton de închidere) care ar înceta dezvoltarea modelelor lor de AI dacă nu pot garanta atenuarea acestor riscuri.
”Este o premieră mondială să avem atât de multe companii de inteligenţă artificială de top din atât de multe părţi diferite ale globului care acceptă aceleaşi angajamente în ceea ce priveşte siguranţa inteligenţei artificiale”, a declarat Rishi Sunak, prim-ministrul Regatului Unit, într-o declaraţie de marţi.
El a adăugat că ”Aceste angajamente asigură că cele mai importante companii de inteligenţă artificială din lume vor oferi transparenţă şi responsabilitate în planurile lor de dezvoltare a inteligenţei artificiale sigure”.
Pactul de marţi extinde un set anterior de angajamente luate de companiile implicate în dezvoltarea de software AI generativ, în noiembrie anul trecut.
Companiile au convenit să primească contribuţii cu privire la aceste praguri din partea ”actorilor de încredere”, inclusiv a guvernelor lor de origine, după caz, înainte de a le pune în aplicare, înainte de următorul summit pentru AI planificat – Summit-ul AI Action din Franţa – la începutul anului 2025.
Angajamentele convenite marţi se aplică doar aşa-numitelor modele de frontieră. Acest termen se referă la tehnologia din spatele sistemelor AI generative, cum ar fi familia GPT de modele mari de limbaj OpenAI, care alimentează popularul chatbot AI ChatGPT.
De când ChatGPT a fost introdus pentru prima dată în lume, în noiembrie 2022, autorităţile de reglementare şi liderii tehnologici au devenit din ce în ce mai îngrijoraţi de riscurile legate de sistemele avansate de inteligenţă artificială capabile să genereze text şi conţinut vizual la egalitate sau mai bine decât oamenii.
Uniunea Europeană a încercat să restrângă dezvoltarea neîngrădită a IA prin crearea Legii AI, care a fost aprobată marţi de Consiliul UE.
Cu toate acestea, Regatul Unit nu a propus legi oficiale pentru AI, ci a optat pentru o abordare ”permisivă” a reglementării AI, care cere autorităţilor de reglementare să aplice legile existente.
Guvernul a declarat recent că va lua în considerare legislaţia pentru modelele de frontieră în viitor, dar nu s-a angajat să respecte un calendar pentru introducerea legilor oficiale.