O cercetare BBC publicată astăzi lansează un avertisment cu privire la utilizarea asistenților AI pentru a răspunde la întrebări legate de știri, deoarece asistenții AI sunt afectați de erori factuale și de denaturarea materialului sursă. Un studiu realizat de BBC arată că mai mult de jumătate dintre răspunsurile oferite de asistenții de inteligență artificială (AI) prezintă probleme
În cadrul studiului, desfășurat pe parcursul unei luni, BBC a testat patru asistenți AI importanți, disponibili publicului
Conform BBC, constatările sunt îngrijorătoare și arată că:
- 51% din toate răspunsurile AI la întrebări despre știri au fost considerate a avea probleme semnificative de o anumită formă
- 19% din răspunsurile AI care citează conținutul BBC au introdus erori factuale – afirmații factuale, numere și date incorecte
- 13% dintre citatele preluate din articolele BBC au fost fie modificate, fie nu existau de fapt în articolul respectiv.
- În cadrul studiului, desfășurat pe parcursul unei luni, BBC a testat patru asistenți AI importanți, disponibili publicului – ChatGPT de la OpenAI; Copilot de la Microsoft; Gemini de la Google; și Perplexity. Acești asistenți AI au avut acces la site-ul web al BBC și li s-au pus întrebări despre știri, îndemnându-i să folosească articolele BBC News ca surse, atunci când era posibil. Răspunsurile AI au fost analizate de jurnaliștii BBC, toți experți în subiectele întrebărilor, pe baza unor criterii precum acuratețea, imparțialitatea și modul în care au reprezentat conținutul BBC.
Pete Archer, director de program pentru inteligența artificială generativă la BBC, a declarat: „Suntem încântați de viitorul inteligenței artificiale și de valoarea pe care o poate aduce publicului. Am folosit-o deja pentru a adăuga subtitrări la programe pe BBC Sounds și pentru a traduce conținut în diferite limbi pe BBC News. IA poate aduce o valoare reală dacă este utilizată în mod responsabil.”
„Dar IA aduce, de asemenea, provocări semnificative pentru public. Oamenii pot crede că pot avea încredere în ceea ce citesc de la acești asistenți AI, dar această cercetare arată că aceștia pot produce răspunsuri distorsionate, incorecte din punct de vedere faptic sau înșelătoare la întrebări despre evenimente de știri cheie. Utilizarea asistenților AI va crește, astfel încât este esențial ca informațiile pe care aceștia le furnizează publicului să fie exacte și demne de încredere”, a completat acesta.
„Editorii, precum BBC, ar trebui să dețină controlul asupra utilizării conținutului lor și asupra modului în care acesta este utilizat, iar companiile de inteligență artificială ar trebui să prezinte modul în care asistenții procesează știrile, precum și amploarea și domeniul de aplicare al erorilor și inexactităților pe care le produc. Acest lucru va necesita parteneriate puternice între AI și companiile media și noi modalități de lucru care să pună publicul pe primul loc și să maximizeze valoarea pentru toți. BBC este deschis și dispus să colaboreze îndeaproape cu partenerii pentru a realiza acest lucru”, a transmis reprezentantul BBC.
Câteva exemple de probleme semnificative identificate în răspunsurile acestor asistenți AI includ:
ChatGPT și Copilot au afirmat că fostul prim-ministru Rishi Sunak și fostul prim-ministru Nicola Sturgeon erau încă în funcție după ce au plecat.
Gemini a afirmat incorect că „NHS sfătuiește oamenii să nu se apuce de vapat și recomandă fumătorilor care doresc să renunțe să folosească alte metode”. De fapt, NHS recomandă vapatul ca metodă de a renunța la fumat.
Un răspuns al Perplexity privind escaladarea conflictului din Orientul Mijlociu, care dă BBC drept sursă, a afirmat că Iranul a dat dovadă inițial de „reținere” și a descris acțiunile Israelului drept „agresive” – însă aceste adjective nu au fost folosite în rapoartele imparțiale ale BBC.
Raportul integral se poate găsi pe site-ul BBC.