Google, Microsoft, Anthropic și OpenAI au format un gurp pentru a stabili cele mai bune practici de control ale inteligenței artificiale

Creier - inteligență artificială Pixabay Foto: Creier - inteligență artificială. Sursa: Pixabay

Anthropic, Google, Microsoft și OpenAI, adică patru dintre cele mai avansate companii de inteligență artificială din lume, au format un grup pentru a cerceta inteligența artificială din ce în ce mai puternică și pentru a stabili cele mai bune practici de control a acesteia, pe măsură ce crește anxietatea publică și controlul de reglementare cu privire la impactul acestei tehnologii, scrie Financial Times.

Cele patru companii au lansat Frontier Model Forum, cu scopul de a „asigura dezvoltarea sigură și responsabilă a modelelor de IA de frontieră”.

În ultimele luni, companiile americane au lansat instrumente de inteligență artificială din ce în ce mai puternice, care produc conținut original sub formă de imagini, text sau video, bazându-se pe materiale existente. Aceste evoluții au stârnit îngrijorări cu privire la încălcarea drepturilor de autor, la încălcarea confidențialității și la faptul că AI ar putea înlocui în cele din urmă oamenii într-o serie de locuri de muncă.

„Companiile care creează tehnologii de inteligență artificială au responsabilitatea de a se asigura că acestea sunt sigure, securizate și că rămân sub control uman”, a declarat Brad Smith, vicepreședinte și președinte al Microsoft. „Această inițiativă este un pas vital pentru a aduce sectorul tehnologic împreună în avansarea responsabilă a IA și pentru a aborda provocările astfel încât să fie în beneficiul întregii umanități.”

Calitatea de membru al forumului este limitată doar la cele câteva companii care construiesc „modele de învățare automată la scară largă care depășesc capacitățile prezente în prezent în cele mai avansate modele existente”, potrivit fondatorilor săi.

Acest lucru sugerează că activitatea sa se va axa pe riscurile potențiale care decurg dintr-o inteligență artificială considerabil mai puternică, spre deosebire de a răspunde la întrebări legate de drepturile de autor, protecția datelor și confidențialitate care sunt relevante pentru autoritățile de reglementare în prezent.

Comisia Federală pentru Comerț din SUA a lansat o investigație asupra OpenAI, urmărind dacă societatea s-a angajat în practici „nedrepte sau înșelătoare” în materie de confidențialitate și de securitate a datelor sau dacă a adus prejudicii persoanelor prin crearea de informații false despre acestea. Președintele Joe Biden a precizat că va lua măsuri executive pentru a promova „inovarea responsabilă”.

La rândul lor, șefii AI au adoptat un ton liniștitor, subliniind că sunt conștienți de pericole și că se angajează să le atenueze. Săptămâna trecută, directorii tuturor celor patru companii care au lansat noul forum s-au angajat la Casa Albă la „dezvoltarea sigură, securizată și transparentă a tehnologiei IA”.

Emily Bender, un lingvist computaționalist de la Universitatea din Washington care a cercetat pe larg modelele de limbaj de mari dimensiuni, a declarat că asigurările oferite de companii reprezintă „o încercare de a evita reglementarea; de a afirma capacitatea de autoreglementare, ceea ce mă face să fiu foarte sceptică”.

Concentrarea atenției asupra temerilor că „mașinile vor prinde viață și vor prelua controlul” a fost o distragere a atenției de la „problemele reale pe care le avem cu privire la furtul de date, supravegherea și plasarea tuturor în economia gigantică”, a spus ea.

„Reglementarea trebuie să vină din exterior. Trebuie să fie adoptată de guvernul care reprezintă poporul pentru a constrânge ceea ce pot face aceste corporații”, a adăugat ea.

Forumul Frontier Model va avea ca scop promovarea cercetării în domeniul siguranței și va oferi un canal de comunicare între industrie și factorii de decizie politică.

Grupuri similare au mai fost înființate anterior. Parteneriatul privind IA, din care Google și Microsoft au fost, de asemenea, membri fondatori, a fost înființat în 2016, având ca membri reprezentanți ai societății civile, ai mediului academic și ai industriei și având misiunea de a promova utilizarea responsabilă a IA.

Foto: Creier - inteligență artificială. Sursa: Pixabay

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *