Marile grupuri de inteligență artificială din lume își intensifică eforturile pentru a reduce numărul de „halucinații” în modelele de limbaj mari (LLM – large language model), în condițiile în care încearcă să rezolve unul dintre marile obstacole care limitează adoptarea acestei tehnologii puternice, potrivit Financial Times.

Urmărește mai jos producțiile video ale Economedia:

- articolul continuă mai jos -

Google, Amazon, Cohere și Mistral se numără printre cei care încearcă să reducă rata acestor răspunsuri fabricate prin implementarea unor soluții tehnice, îmbunătățirea calității datelor din modelele AI și construirea de sisteme de verificare și fact-checking în toate produsele lor de AI generativă.

Demersul de reducere a așa-numitelor halucinații este considerat crucial pentru creșterea utilizării instrumentelor AI în industrii precum cea juridică și medicală, care necesită informații precise, și pentru a ajuta la creșterea veniturilor sectorului AI.

Analize Economedia

auto, masina chinezeasca
om robot industria automotive
studenti, universitate, academie, absolventi
Piața de curierat, România, Cargus, Sameday, Fan Courier, Profit net, Cifră de afaceri, Pachet
Fermier cu legume
Linie asamblare uzina Dacia Mioveni (4)
Imagine apa piscină
Job, căutare de job, șomeri, tineri șomeri
Knauf Insulation, fabrica vata minerala sticla
George-Simion-Nicusor-Dan (1)
Steaguri Romania si UE
bani, lei, finante, bancnote, euro, 5 lei
bec iluminat, becuri
piata auto, uniunea europeana, romania
recesiune
sua dolari drapel ajutor steag flag us bani karolina-grabowska-4386425
Piata 9 restaurant
recesiune
tineri programatori foto
Corinthia
criza de ouă din SUA
2265634-800x534
retea electrica - Transelectrica
digitalizare, calculator, cod, programare
statele unite, sua, washington, china, beijing, putere, geopolitica, razboi economic comercial, sanctiuni economice
antreprenoare, femeie, business, tech
tineri joburi IUF- The International University Fair
parc nufarul
economie razboi bani
romania germania

Aceasta vine în contextul în care erorile chatboturilor au dus deja la greșeli costisitoare și litigii. Anul trecut, un tribunal a obligat compania Air Canada să onoreze o reducere pe care chatbotul lor de servicii pentru clienți a inventat-o, iar avocații care au folosit instrumente AI în documente judiciare au fost sancționați după ce modelele au inventat citări.

Totuși, experții AI avertizează că eliminarea completă a halucinațiilor din modelele de limbaj mari este imposibilă din cauza modului în care funcționează aceste sisteme.

„Halucinațiile sunt o problemă foarte dificil de rezolvat din cauza naturii probabilistice a modului în care funcționează aceste modele. Nu le vei putea face niciodată să nu halucineze”, a spus Amr Awadallah, fost director la Google și fondator al Vectara, o companie startup cu agenți de AI generativă.

Aceste erori apar din cauză că acest modele sunt concepute pentru a prezice următorul cuvânt, cel mai probabil, într-o propoziție, pe baza statisticilor învățate din datele lor de antrenament.

Aceste greșeli pot apărea fie sub forma unor inexactități factuale, fie sub forma unei nepotriviri cu instrucțiunile, de exemplu, rezumând evenimente din anul greșit. Ce date intră în setul de antrenament al unui model AI contează, deoarece cu cât o informație apare mai des, cu atât este mai probabil ca modelul să o repete.

Cât de mult halucinează modelele?

Cantitatea de halucinații ale modelelor AI variază semnificativ. Vectara, care a creat un clasament ce urmărește aceste erori, a constatat că unele pot halucina doar 0,8% din timp, în timp ce altele până la 29,9%, atunci când li se cere să rezume un document.

Rata halucinațiilor a crescut inițial odată cu o nouă generație de modele AI care sunt capabile să „raționeze”, adică să rezolve probleme pas cu pas. Acest lucru se întâmplă probabil pentru că acestea repetă intern mult mai mult pentru a rezolva problemele în moduri diferite, ceea ce duce la o probabilitate mai mare de a face greșeli, a spus Awadallah. Totuși, rata halucinațiilor a scăzut ulterior, pe măsură ce companiile au învățat cum să construiască măsuri de protecție mai bune pentru aceste modele, a adăugat el.

Dar cercetările sale au arătat că atunci când sistemele AI sunt „ancorate” în alte surse de informații, cum ar fi căutări online, articole de presă sau documente interne ale companiilor, în loc să se bazeze doar pe datele lor de antrenament, numărul erorilor se reduce semnificativ.

Clasamentul Vectara evaluează cât de frecvent modelele halucinează informații care nu se află în materialul-sursă atunci când rezumă un document. Grupurile AI s-au concentrat pe această abordare „ancorată” pentru a identifica cele mai bune metode de reducere a halucinațiilor cât mai mult posibil.

O tehnică comună folosită de laboratoare se numește „generare augmentată prin regăsire” (retrieval-augmented generation, RAG), care caută informații din surse externe, ce pot fi folosite pentru a verifica afirmațiile făcute de sistemele AI.

Chatboturile de la companii precum Cohere, Mistral, Google DeepMind, OpenAI și Anthropic oferă citări care arată utilizatorilor sursele pe care le-au folosit pentru a-și baza textele generate.

Permițând modelelor AI să caute informații pe internet le face, de asemenea, susceptibile la un atac numit „injecție de prompt”, a spus Awadallah de la Vectara.

Aceasta este situația în care o terță parte poate insera informații false în locuri în care modelele își verifică informațiile, cum ar fi site-uri web, Reddit sau Wikipedia. Aceste informații pot determina modelul AI să prezinte informații false ca fiind reale sau să ignore măsurile sale de protecție și să „se comporte necorespunzător”.