Cum pot să fie depistate videoclipurile AI Deepfake într-o eră plină de înșelăciuni digitale

moda, AI, inteligenta artificiala, moda, femeie AI Sursa foto: pexels.com

Se spune că intrăm într-o eră a „post-adevărului”, plină de înșelăciuni digitale, iar odată cu apariția inteligenței artificiale este din ce în ce mai ușor pentru oricine să creeze un conținut care să încalce adevărul și să îl încarce pe internet. Devine din ce în ce mai dificil să ne dăm seama dacă ceea ce vedem online este real sau a fost generat cuAI de cineva care dorește să ne inducă în eroare, relatează Forbes.

Fără îndoială, conținutul video fals – cunoscut și sub numele de deepfake sau video sintetic – are potențialul de a fi cea mai înșelătoare formă de conținut fals. În timp ce dovezile video constituiau standardul de aur al adevărului, chiar și în chestiuni juridice, acum acele vremuri sunt demult apuse.

În prezent, este ușor să produci videoclipuri false hiperrealiste care fac să pară că oricine a spus sau a făcut ceva, iar toate astea pot fi făcute cu ajutorul unor instrumente ușor accesibile și hardware la prețuri accesibile.

Analize Economedia

salariu, bani, lei
turcia, ankara, steag, flag, drapel, istanbul, alegeri
bani, lei, bancnote, cash, numerar
bursa, indice bursier, investitii, scadere, grafic
bursa, indice bursier, investitii, scadere, grafic
inflatie bani echilibru balanta
la veterinar
camioane UMB autostrazi
Donald Trump
Colaj bani lei Marcel Ciolacu
Bani, investitie, economii
Marcel Ciolacu, premier
Incredere
constructii, locuințe, bloc, muncitori, șantier
cristian mihai ciolacu, nepotul premierului
Emil Boc, Sorin Grindeanu
Ministerul Energiei Sursa foto Peter Szijjarto
tbb foto event
productie, fabrica
Donald Trump, Trumponomics
euro, moneda, bancnote, bani
bani, finante, lei, financiar, deficit
Mugur Isarescu, guverantorul BNR
Azomures
inflatie bani echilibru balanta
452710313_472208142236025_2821867466000769013_n
Mugur Isărescu, Banca Națională a României, BNR
tineri joburi IUF- The International University Fair
crestere economica, grafic
bani, lei, moneda

Cât de periculoase pot fi videoclipurile Deepfake?

Videoclipurile deepfake reprezintă o amenințare colosală în era AI-ului, ceea ce înseamnă că prezintă riscuri cu care persoanele, întreprinderile și societatea nu s-au mai confruntat până acum. Capacitatea de a crea conținut video sintetic care poate păcăli oamenii să creadă că este real are potențialul de a influența opinia publică și chiar de a destabiliza procesele și instituțiile democratice.

De asemenea, în perioada de dinaintea alegerilor prezidențiale din SUA din acest an, fostul șef de personal al Departamentului pentru Securitate Internă, Miles Taylor, a observat că statele inamice care intenționau să își răspândească frustrările nu mai trebuie să influențeze votul în sine. Tot ce trebuie să facă este să stârnească în rândul publicului îndoiala că procesul a fost desfășurat în mod corect.

Acest lucru nu este doar ipotetic. S-a dezvăluit recent că tehnologia deepfake a permis unui agent inamic să se dea drept un înalt responsabil ucrainean cu securitatea în timpul unei convorbiri video cu un senator american. Deși tentativa de înșelăciune a fost detectată înainte de a se produce pagube, natura periculoasă a acestei încercări este clară.

Ucraina a fost ținta unui alt atac deepfake înainte de acesta, în anul 2022, când o înregistrare video falsă a liderului Volodymyr Zelensky părea să îl arate pe acesta predându-se și îndemnându-i pe ucraineni să depună armele la scurt timp după începerea războiului. Exemplele precedente arată câtă amploare pot lua aceste la nivel global.

Metode de deosebire a realului de ficțiunea AI-ului

Cu intenția de a proteja persoanele, întreprinderile și societatea de amenințarea în creștere a videoclipurilor false au fost identificate câteva metode de prevenire.

Putem împărți metodele posibile de identificare și atenuare a amenințării reprezentate de deepfakes în patru categorii generale. Acestea sunt:

  • Detectarea indiciilor vizuali – aceasta înseamnă depistarea indicatorilor care sunt vizibili cu ochiul liber. Ar putea fi vorba de neregularități și mișcări nefirești – în special în ceea ce privește expresiile faciale – care par „nepotrivite”. Iluminarea inconsecventă și estomparea limitelor dintre elementele falsificate ale videoclipului (cum ar fi mișcările gurii atunci când a fost utilizată sincronizarea buzelor) sunt toți indicatori potențiali.
  • Instrumente tehnologice – acestea acoperă un număr din ce în ce mai mare de aplicații software special concepute pentru a detecta videoclipurile falsificate, cum ar fi FakeCatcher de la Intel și Deepfake Detector de la McAfee. Acestea funcționează prin aplicarea unor algoritmi de învățare automată care pot detecta tipare sau indicatori vizuali care ar fi ratați cu ochiul liber, dar care apar clar într-o analiză digitală a datelor sursă.
  • Gândire critică – Aceasta implică verificarea surselor și adresarea de întrebări. Este sursa videoclipului demnă de încredere? Este probabil ca conținutul videoclipului să fie adevărat? Puteți face referințe încrucișate cu alte surse care oferă o acoperire a aceluiași eveniment pentru a stabili adevărul? Există neconcordanțe logice care par a fi în contradicție cu ceea ce este posibil în mod realist?
  • Investigații criminalistice profesionale – deși nu sunt la îndemâna amatorilor, organizațiile mai mari și agențiile de aplicare a legii pot avea acces la instrumente specializate, adesea alimentate de aceleași rețele neuronale utilizate pentru a crea deepfakes. Analiza criminalistică implică investigatori profesioniști care examinează imaginile video, cadru cu cadru, pentru a depista neregularități la scara pixelilor sau care utilizează căutarea inversă a imaginii pentru a depista sursa originală a oricărui material video utilizat pentru a crea falsuri. Anchetatorii profesioniști pot utiliza, de asemenea, analiza biometrică pentru a detecta discrepanțele dintre caracteristicile faciale care indică manipularea. Având în vedere că deepfakes sunt acum o realitate inevitabilă a vieții de zi cu zi, devine responsabilitatea indivizilor, a întreprinderilor și a guvernului să se asigure că dispun de măsuri de protecție.

Una dintre cele mai bune metode formarea și dezvoltarea abilităților de gândire critică în rândul forței de muncă ar trebui să facă acum parte din orice strategie organizațională de securitate cibernetică.

Angajații ar trebui învățați să fie în gardă și să identifice semnele revelatoare ale video-ului sintetic, la fel cum detectarea și evitarea atacurilor de tip phishing este acum o practică standard. Ne putem aștepta, de asemenea, să vedem o dependență tot mai mare de sistemele de autentificare și verificare. De exemplu, ar putea deveni ceva obișnuit ca instrumentele de videoconferință să car să detectarea „deepfake” pentru a detecta încercările obișnuite de a extrage date din conversații  confidențiale.

Urmărește mai jos producțiile video ale Economedia:

Comentarii

Pentru a posta un comentariu, trebuie să te Înregistrezi sau să te Autentifici.