OpenAI a anunțat că intenționează să redirecționeze conversațiile sensibile către modele de raționament precum GPT-5 și să lanseze controale parentale în luna următoare, ca parte a unui răspuns continuu la recentele incidente de siguranță care au implicat eșecul ChatGPT de a detecta suferința psihică, potrivit TechCrunch.
Urmărește mai jos producțiile video ale Economedia:
- articolul continuă mai jos -
Noile măsuri de protecție vin în urma sinuciderii adolescentului Adam Raine, care a discutat despre automutilare și planurile sale de a-și pune capăt zilelor cu ChatGPT, care i-a furnizat chiar și informații despre metode specifice de sinucidere.
Părinții lui Raine au intentat un proces pentru moarte din culpă împotriva OpenAI. Într-o postare pe blog săptămâna trecută, OpenAI a recunoscut deficiențele sistemelor sale de siguranță, inclusiv eșecurile în menținerea măsurilor de protecție în timpul conversațiilor prelungite.
Experții atribuie aceste probleme elementelor fundamentale de funcționare: tendința modelelor de a valida afirmațiile utilizatorilor și algoritmii lor de predicție a următorului cuvânt, care determină chatbot-urile să urmeze firul conversației în loc să redirecționeze discuțiile potențial dăunătoare.
Această tendință este ilustrată în mod extrem în cazul lui Stein-Erik Soelberg, a cărui crimă-sinucidere a fost relatată de The Wall Street Journal în weekend. Soelberg, care avea antecedente de boli mintale, a folosit ChatGPT pentru a-și valida și alimenta paranoia că era ținta unei mari conspirații.