Un grup de 20 de companii tehnologice de top a anunțat vineri un angajament comun de combatere a dezinformării prin inteligență artificială în alegerile din acest an, transmite CNBC.
Industria vizează în mod special materialele de tip deep fake, care pot folosi materiale audio, video și imagini înșelătoare pentru a imita actori cheie în alegerile democratice sau pentru a furniza informații false despre vot.
Microsoft, Meta, Google, Amazon, IBM, Adobe și designerul de cipuri Arm au semnat cu toții acest acord. Start-up-urile de inteligență artificială OpenAI, Anthropic și Stability AI s-au alăturat, de asemenea, grupului, alături de companii de social media precum Snap, TikTok și X.
Platformele tehnologice se pregătesc pentru un an cu alegeri uriașe în întreaga lume, care afectează peste patru miliarde de oameni din peste 40 de țări. Creșterea conținutului generat de AI a condus la preocupări serioase legate de dezinformarea legată de alegeri, numărul de deepfakes care au fost create crescând cu 900% de la an la an, potrivit datelor Clarity, o firmă de învățare automată.
Dezinformarea în alegeri a fost o problemă majoră care datează încă din campania prezidențială din 2016, când actorii ruși au găsit modalități ieftine și ușoare de a răspândi conținut inexact pe platformele sociale. Legiuitorii sunt și mai îngrijorați astăzi, având în vedere creșterea rapidă a inteligenței artificiale.
“Există motive de îngrijorare serioasă cu privire la modul în care inteligența artificială ar putea fi folosită pentru a induce în eroare alegătorii în campanii”, a declarat într-un interviu Josh Becker, un senator democrat din statul California. “Este încurajator să vedem că unele companii vin la masă, dar în acest moment nu văd suficiente detalii, așa că probabil vom avea nevoie de o legislație care să stabilească standarde clare.”Între timp, tehnologiile de detectare și filigranare utilizate pentru identificarea deepfakes nu au avansat suficient de repede pentru a ține pasul. Deocamdată, companiile se înțeleg doar asupra a ceea ce reprezintă un set de standarde tehnice și mecanisme de detectare.
Acestea au un drum lung de parcurs pentru a combate în mod eficient problema, care are mai multe straturi. S-a demonstrat că serviciile care pretind că identifică textele generate de AI, cum ar fi eseurile, de exemplu, prezintă prejudecăți împotriva vorbitorilor de limbă engleză care nu sunt nativi. Iar în cazul imaginilor și videoclipurilor nu este mult mai ușor.
Chiar dacă platformele din spatele imaginilor și videoclipurilor generate de inteligența artificială sunt de acord să includă elemente precum filigrane invizibile și anumite tipuri de metadate, există modalități de a ocoli aceste măsuri de protecție. Uneori, captura de ecran poate chiar să păcălească un detector.
În plus, semnalele invizibile pe care unele companii le includ în imaginile generate de inteligența artificială nu au ajuns încă la multe generatoare audio și video.
Vestea acordului vine la o zi după ce OpenAI, creatorul ChatGPT, a anunțat Sora, noul său model de video generat de inteligența artificială.
Sora funcționează în mod similar cu DALL-E, instrumentul AI de generare de imagini al OpenAI. Un utilizator tastează o scenă dorită, iar Sora va returna un clip video de înaltă definiție.Sora poate, de asemenea, să genereze clipuri video inspirate de imagini statice și să extindă videoclipurile existente sau să completeze cadrele lipsă.Companiile participante la acord au convenit asupra a opt angajamente la nivel înalt, inclusiv evaluarea riscurilor legate de modele, “încercarea de a detecta” și de a aborda distribuirea de astfel de conținut pe platformele lor și asigurarea transparenței acestor procese pentru public.La fel ca în cazul majorității angajamentelor voluntare din industria tehnologică și nu numai, comunicatul a precizat că angajamentele se aplică doar “acolo unde sunt relevante pentru serviciile pe care le oferă fiecare companie”.
“Democrația se bazează pe alegeri sigure și securizate”, a declarat Kent Walker, președintele pentru afaceri globale al Google, într-un comunicat. Acordul reflectă efortul industriei de a se confrunta cu “dezinformarea electorală generată de inteligența artificială care erodează încrederea”, a spus el.
Christina Montgomery, director pentru confidențialitate și încredere la IBM, a declarat în comunicat că, în acest an electoral cheie, “sunt necesare măsuri concrete și de cooperare pentru a proteja oamenii și societățile de riscurile amplificate ale conținutului înșelător generat de inteligența artificială”, notează CNBC.