Sute de milioane de oameni discută cu ChatGPT al OpenAI și cu alți chatboți de inteligență artificială în fiecare săptămână, dar există o îngrijorare tot mai mare că petrecerea multor ore cu aceste instrumente îi poate conduce pe unii oameni către credințe potențial dăunătoare, potrivit The Washington Post.
Urmărește mai jos producțiile video ale Economedia:
- articolul continuă mai jos -
Relatările despre oameni care aparent își pierd contactul cu realitatea după o utilizare intensă a chatboților au devenit virale pe rețelele sociale în ultimele săptămâni, postările etichetându-le drept exemple de „psihoză AI”.
Unele incidente au fost documentate de prieteni sau familie și în articole de presă. Ele implică adesea persoane care par să experimenteze credințe false sau tulburătoare, deliruri de grandoare sau sentimente paranoide după discuții prelungite cu un chatbot, uneori după ce au apelat la el pentru terapie.
Procese au susținut că adolescenți care au devenit obsedați de chatboți AI au fost încurajați de acestea să se auto-rănească sau să își ia viața.
„Psihoza AI” este o etichetă informală, nu un diagnostic clinic, spun experții în sănătate mintală pentru The Washington Post. La fel ca termenii „brain rot” (putrezirea creierului) sau „doomscrolling” (derulare obsesivă a știrilor negative), expresia a câștigat popularitate online pentru a descrie un comportament emergent.
Totuși, experții au fost de acord că incidentele tulburătoare, precum cele împărtășite de utilizatorii de chatboți sau de cei dragi lor, necesită atenție imediată și studii suplimentare.
„Fenomenul este atât de nou și se întâmplă atât de rapid încât pur și simplu nu avem dovezi empirice pentru a înțelege clar ce se întâmplă”, spune Vaile Wright, director senior pentru inovație în sănătatea medicală la Asociația Americană de Psihologie.
Wright a spus că APA (asociația psihologilor americani) convoacă un grup de experți privind utilizarea chatboți AI în terapie. Acesta va publica îndrumări în lunile următoare care vor aborda modalități de reducere a daunelor care ar putea rezulta din interacțiunea cu chatboții.
Ce este „psihoza AI”?
Ashleigh Golden, profesor asistent clinic asociat de psihiatrie la Școala de Medicină Stanford, a spus că termenul „nu se află în niciun manual de diagnostic clinic”, dar a fost inventat ca răspuns la un model real și „destul de îngrijorător, în care chatboții întăresc deliruri care tind să fie mesianice, grandioase, religioase sau romantice”, a spus ea.
Termenul „psihoză AI” este folosit pentru a desemna o gamă de incidente. Un element comun este „dificultatea de a determina ce este real și ce nu”, a spus Jon Kole, psihiatru certificat pentru adulți și copii, care servește ca director medical pentru aplicația de meditație Headspace.
Aceasta ar putea însemna ca o persoană să formeze credințe ce pot fi demonstrate ca false sau să dezvolte o relație intensă cu un agent AI.
Keith Sakata, psihiatru la Universitatea din California, San Francisco, a spus că a internat mulți oameni în spital pentru psihoză, în urma petrecerii excesive a timpului discutând cu AI, doar în acest an. Sakata a spus că majoritatea acelor pacienți i-au povestit despre interacțiunile lor cu AI, arătându-i transcrieri de chat pe telefon și, într-un caz, o listare tipărită.
Psihoza este un simptom care poate fi declanșat de probleme precum consumul de droguri, traume, lipsa somnului, febră sau o afecțiune precum schizofrenia, a spus Sakata. Atunci când diagnostichează psihoza, psihiatrii caută dovezi precum deliruri, gândire dezorganizată sau halucinații, unde persoana vede și aude lucruri care nu există, a spus el.
Ce experiențe îngrijorătoare au oamenii cu chatboțiiAI?
Mulți oameni folosesc chatboți pentru a-și îndeplini sarcini sau pentru a-și ocupa timpul, dar pe platforme sociale precum Reddit și TikTok, unii utilizatori au povestit despre relații intense, filosofice sau emoționale cu AI, care i-au făcut să experimenteze revelații profunde.
În unele cazuri, utilizatorii au spus că cred că chatbotul este conștient sau riscă să fie persecutat pentru că devine conștient sau „viu”. Oamenii au susținut că discuțiile prelungite cu un chatbot AI i-au ajutat să creadă că au descoperit adevăruri ascunse în subiecte precum fizica, matematica sau filosofia.
Într-un număr mic, dar în creștere, de cazuri, oameni care au devenit obsedați de chatboți AI ar fi întreprins acțiuni în lumea reală, precum violență împotriva unui membru al familiei, auto-vătămare sau sinucidere.
Kevin Caridad, psihoterapeut care a consultat companii ce dezvoltă AI pentru sănătatea comportamentală, a spus că AI poate valida gânduri dăunătoare sau negative pentru persoane cu afecțiuni precum OCD, anxietate sau psihoză, ceea ce poate crea un cerc vicios care le agravează simptomele sau le face de necontrolat, a spus el.
Caridad, care este CEO al Cognitive Behavior Institute din zona Pittsburgh, crede că AI probabil nu cauzează apariția unor noi afecțiuni, dar poate acționa ca „fulgul de zăpadă care destabilizează avalanșa”, împingând o persoană predispusă la boli mintale peste limită.
Ce spun companiile de tehnologie despre problemă?
În ultimele săptămâni, companiile de AI au făcut schimbări pentru a răspunde îngrijorărilor legate de riscurile pentru sănătatea mintală asociate cu petrecerea unui timp îndelungat discutând cu chatboți. La începutul acestei luni, Anthropic a actualizat liniile directoare pe care le folosește pentru a modela comportamentul chatbotului său, instruindu-l pe Claude să identifice mai devreme interacțiunile problematice și să prevină conversațiile de la întărirea tiparelor periculoase. Anthropic a început, de asemenea, să colaboreze cu ThroughLine, o companie care oferă infrastructură de sprijin în criză pentru firme precum Google, Tinder și Discord.
Un purtător de cuvânt al Meta a spus că părinții pot impune restricții privind timpul petrecut discutând cu AI pe conturile de adolescenți de pe Instagram. Atunci când utilizatorii încearcă solicitări care par legate de sinucidere, compania încearcă să afișeze resurse utile, precum linkul și numărul de telefon al Liniei Naționale de Prevenire a Sinuciderii.
Unii utilizatori ChatGPT au protestat pe rețelele sociale luna aceasta, după ce OpenAI a retras un model AI mai vechi în favoarea celei mai noi versiuni, GPT-5, pe care unii utilizatori l-au considerat mai puțin empatic. Ca răspuns la nemulțumire, OpenAI a promis să continue să ofere modelul mai vechi și a scris ulterior pe X că face personalitatea GPT-5 „mai caldă și mai prietenoasă.”