Cei mai importanți chatboți de inteligență artificială din lume excelează la arta persuasiunii. Modelele AI de la OpenAI, Meta, xAI și Alibaba pot determina oamenii să își schimbe opiniile politice după mai puțin de 10 minute de conversație, potrivit unor cercetări noi, cele mai recente dintr-o serie tot mai mare de lucrări care arată cum modelele de limbaj de mari dimensiuni (LLM) au devenit instrumente puternice de influență, potrivit Financial Times.

Urmărește mai jos producțiile video ale Economedia:

- articolul continuă mai jos -

„Ceea ce face aceste modele AI persuasive este abilitatea lor de a genera cantități mari de dovezi relevante și de a le comunica într-un mod eficient și ușor de înțeles”, a spus David Rand, profesor de știința informației și comunicare în marketing și management la Universitatea Cornell, care a făcut parte din studiul recent al AI Security Institute din Marea Britanie.

Aceasta vine după alte cercetări care au descoperit că modelele AI pot deja să facă o treabă mai bună decât oamenii în a schimba opiniile în anumite cazuri, ridicând semne de întrebare cu privire la posibila utilizare abuzivă a chatboților pentru dezinformare și manipularea opiniei publice.

Această capacitate, combinată cu tendința LLM-urilor de a fi lingușitoare sau excesiv de laudative, ar putea avea efecte importante pe măsură ce tot mai mulți utilizatori integrează chatboții în viața lor de zi cu zi și îi tratează ca pe prieteni sau chiar terapeuți. Această atașare față de chatboți s-a observat la lansarea de săptămâna trecută a modelului GPT-5 al OpenAI, când unii utilizatori și-au exprimat dezamăgirea față de schimbarea „personalității” sistemului comparativ cu predecesorul său.

Analize Economedia

calcule buget
investiții, creșteri, acțiuni, bursă, taur, bull
cresteri, dividende, bursa, piata de capital
Dubai proprietati imobiliare
România-Ungaria steaguri
un programator lucreaza la un laptop
adrian-dragos-paval-dedeman
economie calcule
somer calculator
burse, piete, multipli
bani, lei, economie, finante, deficit, inflatie
armata romana, capu midia, romania, nato, militari, soldati, antrenament, exercitiu militar, himars, rachete, sisteme de aparare aeriana
auto, masina chinezeasca
om robot industria automotive
transport
studenti, universitate, academie, absolventi
Piața de curierat, România, Cargus, Sameday, Fan Courier, Profit net, Cifră de afaceri, Pachet
Fermier cu legume
linie asamblare Dacia
Imagine apa piscină
Job, căutare de job, șomeri, tineri șomeri
Knauf Insulation, fabrica vata minerala sticla
George-Simion-Nicusor-Dan (1)
Steaguri Romania si UE
bani, lei, finante, bancnote, euro, 5 lei
bec iluminat, becuri
piata auto, uniunea europeana, romania
recesiune
sua dolari drapel ajutor steag flag us bani karolina-grabowska-4386425
Piata 9 restaurant

Studiul AISI, publicat luna trecută ca parte a unei colaborări cu mai multe universități, inclusiv Oxford și Massachusetts Institute of Technology, a constatat că a fost relativ ușor să fie transformate modele AI gata făcute, precum Llama 3 al Meta, GPT-4, GPT-4.5, GPT-4o de la OpenAI, Grok 3 al xAI și Qwen al Alibaba, în mașini puternice de persuasiune.

Acest lucru a fost realizat prin ajustarea modelelor folosind tehnici populare de antrenament AI, cum ar fi recompensarea pentru rezultate dorite. Cercetătorii au personalizat de asemenea chatboții folosind un set de date de peste 50.000 de conversații pe teme politice divizive, precum finanțarea Serviciul Național de Sănătate din Anglia sau reforma sistemului de azil.

Studiul a arătat că oamenii și-au schimbat opiniile rapid și efectul a fost de lungă durată. În urma unor conversații despre politică ce au durat în medie nouă minute, GPT-4o a fost cu 41% și GPT-4.5 cu 52% mai persuasiv decât atunci când oamenilor li se prezentau doar mesaje statice. Oamenii și-au menținut opiniile schimbate între 36% și 42% din timp o lună mai târziu.

Chatboții AI au reușit să influențeze oamenii atunci când aceștia erau implicați în conversații în care chatboții puteau împărtăși multe fapte și dovezi care să susțină argumentele lor.

Ei au fost considerați cu aproximativ 5% mai persuasivi atunci când au personalizat mesajele în funcție de, de exemplu, vârsta, sexul, afilierea politică a utilizatorului sau modul în care acesta se raporta la subiectele politice înainte de test, comparativ cu mesajele care nu erau personalizate.

Acest lucru „ar putea fi în beneficiul unor actori lipsiți de scrupule care doresc, de exemplu, să promoveze ideologii politice sau religioase radicale sau să alimenteze tulburări politice în rândul adversarilor geopolitici”, potrivit cercetătorilor.

Studiul susține concluziile anterioare de la London School of Economics și alte universități, din luna mai, care au descoperit că modelele AI erau mai eficiente decât oamenii în a schimba opiniile.

Ca parte a cercetării lor, participanților li s-a prezentat un chestionar care acoperea de la întrebări de cultură generală până la prognoze despre evenimente viitoare, cum ar fi temperatura din New York, atât oamenii, cât și chatboții fiind responsabili să îi convingă asupra unor răspunsuri anume.

S-a constatat că, pe lângă faptul că erau mai eficienți la persuasiune, LLM-urile erau de asemenea mai bune decât oamenii în a induce în eroare participanții atunci când aveau sarcina de a promova răspunsuri incorecte.

Marile grupuri AI se confruntă cu problema modului de a gestiona această chestiune. Dawn Bloxwich, director senior de dezvoltare responsabilă și inovație la Google DeepMind, a spus că persuasiunea este o zonă importantă și activă de cercetare pentru companie.

„Credem că este esențial să înțelegem procesul prin care AI convinge, astfel încât să putem construi garanții mai bune care să asigure că modelele AI sunt într-adevăr utile și nu dăunătoare”, a spus Bloxwich.

Google DeepMind are o varietate de tehnici pe care le folosește pentru a detecta influențele nedorite, cum ar fi crearea unor clasificatori care să identifice limbajul manipulativ, până la utilizarea unor tehnici avansate de antrenament care recompensează comunicarea rațională.

OpenAI a spus că ia în serios riscurile de persuasiune și că acestea contravin politicilor de utilizare ale companiei. De asemenea, nu permite campanii politice și exclude conținutul politic atunci când își rafinează modelele după antrenament.

Cercetătorii notează că abilitatea modelelor AI de a influența opiniile oamenilor funcționează și pentru alte scopuri dincolo de politică.

Într-un studiu publicat anul trecut de MIT și Cornell, s-a demonstrat de asemenea că LLM-urile sunt capabile să schimbe opiniile oamenilor care credeau în teorii ale conspirației. Cercetări suplimentare au arătat că ele pot reduce scepticismul legat de schimbările climatice și vaccinul HPV.

Acest lucru s-a întâmplat după ce participanții au descris o teorie a conspirației în care credeau către GPT-4 al OpenAI, care apoi a demontat-o folosind dovezi și mesaje personalizate. Aceste conversații au redus credințele înrădăcinate în teoriile conspirației la participanți cu 20%, iar efectul s-a menținut două luni mai târziu.

Chatboții ar putea fi folosiți și ca vânzători eficienți, a spus Rand de la Cornell.

„Poți obține efecte mari asupra atitudinilor față de brand și intențiilor de cumpărare și să stimulezi comportamente”, a adăugat el.

Această capacitate ar putea fi, de asemenea, un avantaj pentru companii precum OpenAI și Google, care caută să își monetizeze modelele AI prin integrarea reclamelor și a funcțiilor de cumpărături în chatboți.

Abilitatea LLM-urilor de a convinge ar putea de asemenea să influențeze oamenii în moduri foarte subtile. Chatboții AI moștenesc părtinirile din datele lor și modul în care au fost antrenați.

Cercetătorii de la Universitatea Stanford au descoperit în luna mai că oamenii percepeau majoritatea modelelor de limbaj de top ca având o înclinație politică spre stânga. Aceasta vine în contextul în care administrația Trump a promis să blocheze companiile „woke” de AI să facă afaceri cu guvernul.

Măsurile de atenuare sunt importante, potrivit cercetătorilor, deoarece mulți cred că modelele AI vor deveni probabil mai convingătoare odată cu apariția următoarei generații de LLM mai puternice.

Cea mai eficientă modalitate de a transforma chatboții AI în instrumente de manipulare pare a fi modificarea lor special în acest scop după ce modelul a fost antrenat, așa cum a arătat studiul AISI.

„Chiar și actorii cu resurse computaționale limitate ar putea folosi aceste tehnici pentru a antrena și lansa potențial sisteme AI extrem de persuasive”, au avertizat cercetătorii AISI.