Se spune că intrăm într-o eră a „post-adevărului”, plină de înșelăciuni digitale, iar odată cu apariția inteligenței artificiale este din ce în ce mai ușor pentru oricine să creeze un conținut care să încalce adevărul și să îl încarce pe internet. Devine din ce în ce mai dificil să ne dăm seama dacă ceea ce vedem online este real sau a fost generat cuAI de cineva care dorește să ne inducă în eroare, relatează Forbes.
Fără îndoială, conținutul video fals – cunoscut și sub numele de deepfake sau video sintetic – are potențialul de a fi cea mai înșelătoare formă de conținut fals. În timp ce dovezile video constituiau standardul de aur al adevărului, chiar și în chestiuni juridice, acum acele vremuri sunt demult apuse.
În prezent, este ușor să produci videoclipuri false hiperrealiste care fac să pară că oricine a spus sau a făcut ceva, iar toate astea pot fi făcute cu ajutorul unor instrumente ușor accesibile și hardware la prețuri accesibile.
Cât de periculoase pot fi videoclipurile Deepfake?
Videoclipurile deepfake reprezintă o amenințare colosală în era AI-ului, ceea ce înseamnă că prezintă riscuri cu care persoanele, întreprinderile și societatea nu s-au mai confruntat până acum. Capacitatea de a crea conținut video sintetic care poate păcăli oamenii să creadă că este real are potențialul de a influența opinia publică și chiar de a destabiliza procesele și instituțiile democratice.
De asemenea, în perioada de dinaintea alegerilor prezidențiale din SUA din acest an, fostul șef de personal al Departamentului pentru Securitate Internă, Miles Taylor, a observat că statele inamice care intenționau să își răspândească frustrările nu mai trebuie să influențeze votul în sine. Tot ce trebuie să facă este să stârnească în rândul publicului îndoiala că procesul a fost desfășurat în mod corect.
Acest lucru nu este doar ipotetic. S-a dezvăluit recent că tehnologia deepfake a permis unui agent inamic să se dea drept un înalt responsabil ucrainean cu securitatea în timpul unei convorbiri video cu un senator american. Deși tentativa de înșelăciune a fost detectată înainte de a se produce pagube, natura periculoasă a acestei încercări este clară.
Ucraina a fost ținta unui alt atac deepfake înainte de acesta, în anul 2022, când o înregistrare video falsă a liderului Volodymyr Zelensky părea să îl arate pe acesta predându-se și îndemnându-i pe ucraineni să depună armele la scurt timp după începerea războiului. Exemplele precedente arată câtă amploare pot lua aceste la nivel global.
Metode de deosebire a realului de ficțiunea AI-ului
Cu intenția de a proteja persoanele, întreprinderile și societatea de amenințarea în creștere a videoclipurilor false au fost identificate câteva metode de prevenire.
Putem împărți metodele posibile de identificare și atenuare a amenințării reprezentate de deepfakes în patru categorii generale. Acestea sunt:
Una dintre cele mai bune metode formarea și dezvoltarea abilităților de gândire critică în rândul forței de muncă ar trebui să facă acum parte din orice strategie organizațională de securitate cibernetică.
Angajații ar trebui învățați să fie în gardă și să identifice semnele revelatoare ale video-ului sintetic, la fel cum detectarea și evitarea atacurilor de tip phishing este acum o practică standard. Ne putem aștepta, de asemenea, să vedem o dependență tot mai mare de sistemele de autentificare și verificare. De exemplu, ar putea deveni ceva obișnuit ca instrumentele de videoconferință să car să detectarea „deepfake” pentru a detecta încercările obișnuite de a extrage date din conversații confidențiale.