OpenAI, Google și alte firme de tehnologie spun că, pentru siguranță, vor marca vizibil conținutul generat de inteligența artificială

Creier - inteligență artificială Pixabay Foto: Creier - inteligență artificială. Sursa foto: Pixabay

Companiile de top din domeniul inteligenței artificiale, inclusiv OpenAI, Alphabet și Meta Platforms, și-au luat angajamente voluntare față de Casa Albă pentru a implementa măsuri precum marcarea cu filigrane (watermark) a conținutului generat de inteligența artificială pentru a contribui la creșterea siguranței acestei tehnologii, a anunțat administrația Biden.

Companiile – printre care se mai află care Anthropic, Inflection, Amazon.comș i partenerul OpenAI, Microsoft – s-au angajat să testeze temeinic sistemele înainte de a le lansa și să împărtășească informații despre cum să reducă riscurile și să investească în securitatea cibernetică, scrie Reuters.

Măsura este văzută ca o victorie pentru efortul administrației Biden de a reglementa această tehnologie care a cunoscut un boom al investițiilor și al popularității în rândul consumatorilor.

De când IA generativă, care utilizează date pentru a crea conținut nou, cum ar fi proza ChatGPT cu iz uman, a devenit extrem de populară în acest an, legiuitorii din întreaga lume au început să analizeze modul de atenuare a pericolelor pe care această tehnologie emergentă le prezintă pentru securitatea națională și economie.

Congresul ia în considerare un proiect de lege care ar impune ca reclamele politice să dezvăluie dacă IA a fost folosită pentru a crea imagini sau alt conținut.

Președintele Joe Biden, care va găzdui vineri la Casa Albă directori de la cele șapte companii, lucrează, de asemenea, la elaborarea unui ordin executiv și a unei legislații privind tehnologia IA.

Ca parte a efortului, cele șapte companii s-au angajat să dezvolte un sistem pentru a “filigrana” toate formele de conținut, de la text, imagini, înregistrări audio și video generate de AI, astfel încât utilizatorii să știe când a fost folosită tehnologia.

Se presupune că acest filigran, încorporat în conținut într-o manieră tehnică, va facilita utilizatorilor depistarea imaginilor sau a înregistrărilor audio false de tip deep-fake care pot, de exemplu, să arate violențe care nu au avut loc, să creeze o înșelătorie mai bună sau să distorsioneze o fotografie a unui politician pentru a pune persoana respectivă într-o lumină neplăcută.

Nu este clar modul în care filigranul va fi evident în schimbul de informații.

Companiile s-au angajat, de asemenea, să se concentreze asupra protejării vieții private a utilizatorilor pe măsură ce se dezvoltă inteligența artificială și să se asigure că tehnologia este lipsită de prejudecăți și nu este utilizată pentru a discrimina grupurile vulnerabile. Alte angajamente includ dezvoltarea de soluții de inteligență artificială pentru probleme științifice precum cercetarea medicală și atenuarea schimbărilor climatice.

 

Foto: Creier - inteligență artificială. Sursa foto: Pixabay

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *