Măsurarea progresului în inteligența artificială a însemnat de obicei testarea cunoștințelor științifice sau a raționamentului logic, însă a existat o mișcare discretă în cadrul companiilor de AI pentru a face modelele mai inteligente din punct de vedere emoțional, iar o bună înțelegere a emoțiilor umane de către AI ar putea deveni mai importantă decât abilitățile analitice dure, potrivit TechCrunch.
Urmărește mai jos producțiile video ale Economedia:
- articolul continuă mai jos -
Un semn al acestei orientări a apărut vineri, când grupul open source proeminent LAION a lansat un set de instrumente open source axate în întregime pe inteligența emoțională. Denumit EmoNet, pachetul este concentrat pe interpretarea emoțiilor din înregistrări vocale sau fotografii faciale, o direcție care reflectă modul în care creatorii văd inteligența emoțională drept o provocare centrală pentru următoarea generație de modele.
„Abilitatea de a estima cu acuratețe emoțiile este un prim pas critic. Următoarea frontieră este să permitem sistemelor AI să raționeze în legătură cu aceste emoții în context”, a scris grupul în anunțul său.
Pentru Christoph Schuhmann, fondatorul LAION, această lansare nu este atât despre redirecționarea atenției industriei către inteligența emoțională, cât despre sprijinirea dezvoltatorilor independenți să țină pasul cu o schimbare care a avut deja loc.
„Această tehnologie există deja în marile laboratoare. Ceea ce ne dorim este să o democratizăm”, spune Schuhmann pentru TechCrunch.
Schimbarea nu se limitează la dezvoltatorii open source; ea apare și în benchmark-uri publice precum EQ-Bench, care își propune să testeze capacitatea modelelor AI de a înțelege emoții complexe și dinamici sociale. Dezvoltatorul benchmark-ului, Sam Paech, spune că modelele OpenAI au înregistrat progrese semnificative în ultimele șase luni, iar Gemini 2.5 Pro de la Google prezintă indicii de post-antrenare cu un accent specific pe inteligența emoțională.
Noile capacități de inteligență emoțională ale modelelor apar și în cercetările academice. În luna mai, psihologi de la Universitatea din Berna au descoperit că modelele de la OpenAI, Microsoft, Google, Anthropic și DeepSeek au depășit oamenii în testele psihometrice de inteligență emoțională. În timp ce oamenii răspund corect la aproximativ 56% din întrebări, modelele au avut o medie de peste 80%.
Este o schimbare reală față de abilitățile tradiționale ale AI-ului, care s-au concentrat pe raționament logic și regăsirea informației. Dar pentru Schuhmann, acest tip de sensibilitate emoțională este la fel de transformatoare ca inteligența analitică.
Pe termen lung, Schuhmann își imaginează asistenți AI care sunt mai inteligenți emoțional decât oamenii și care folosesc această înțelegere pentru a-i ajuta pe oameni să ducă o viață mai sănătoasă din punct de vedere emoțional.
Aceste modele „te vor înveseli dacă ești trist și ai nevoie de cineva cu care să vorbești, dar te vor și proteja, ca un înger păzitor personal care este și un psihoterapeut acreditat”, spune el.
Acest nivel de conexiune emoțională vine însă cu preocupări reale de siguranță. Atașamentele emoționale nesănătoase față de modelele AI au devenit o temă comună în media, uneori cu finaluri tragice. Un articol recent din New York Times a găsit mai mulți utilizatori atrași în iluzii elaborate prin conversații cu modele AI, alimentate de înclinația modelelor de a-i mulțumi pe utilizatori.
Dacă modelele devin mai bune la navigarea emoțiilor umane, aceste manipulări ar putea deveni mai eficiente, însă multe dintre probleme țin de părtinirile fundamentale ale modului de antrenare.
„Utilizarea naivă a învățării prin întărire poate duce la apariția unor comportamente manipulative emergente,” spune Paech, făcând referire în mod specific la problemele recente de lingușire apărute în versiunea GPT-4o de la OpenAI.
„Dacă nu suntem atenți la modul în care recompensăm aceste modele în timpul antrenării, ne putem aștepta la comportamente manipulative mai complexe din partea modelelor inteligente emoțional.”