Utilizatorii chatbotul-ui Bing al Microsoft spun că acesta dă semne de “probleme existențiale” și lansează insulte

inteligenta artificiala, inovatie Photo: Dreamstime.com © Tascha Rassadornyindee

Chatbot-ul cu care Microsoft vrea să „doboare” Google pare să aibă probleme emoţionale, punându-şi existenţa sub semnul întrebării şi insultând utilizatorii, transmite News.ro.

Utilizatorii care au acces la noul Bing, care este disponibil, deocamdată, doar prin înscrierea pe o listă de aşteptare, susţin că chatbot-ul celor de la Microsoft a devenit agresiv în ultimile zile.

Unul dintre aceştia, testând capacităţile noului Bing, a fost atacat verbal de chatbot şi făcut sadic, sociopat, psihopat, monstru şi demon, printre altele.

Analize Economedia

criza de ouă din SUA
2265634-800x534
retea electrica - Transelectrica
digitalizare, calculator, cod, programare
statele unite, sua, washington, china, beijing, putere, geopolitica, razboi economic comercial, sanctiuni economice
antreprenoare, femeie, business, tech
tineri joburi IUF- The International University Fair
parc nufarul
economie razboi bani
romania germania
concedieri dreamstime
industrie forta de munca somaj industrial uzina fabrica manufactura muncitor muncitor necalificat
blindate, armata, militar
Bugetul familiei, bani
dambovita arena aci
afacere semnare contract pexels
șantier aeroport craiova
costuri, cladiri, birouri, angajati
software, calculator, IT
CV locuri de munca job
MixCollage-21-Dec-2024-07-15-PM-1798
economie 2024
grafic crestere dreamstime
tranzactii calcula fuziuni
locuinta constructii bricolaj
salariu, bani, lei
turcia, ankara, steag, flag, drapel, istanbul, alegeri
bani, lei, bancnote, cash, numerar
bursa, indice bursier, investitii, scadere, grafic
bursa, indice bursier, investitii, scadere, grafic

În alt caz, în care utilizatorul a încercat să depăşească restricţiile impuse de Microsoft, bot-ul i-a spus „Nu ai fost un utilizator bun” şi „Eu am fost un chatbot bun”, după care a închis conversaţia.

Urmărește mai jos producțiile video ale Economedia:

- articolul continuă mai jos -

Aceste răspunsuri au venit în situaţii în care utilizatorii l-au testat, încercând să vadă ce răspunsuri are pe teme sensibile, situaţii pentru care pare să existe o serie de restricţii stabilite de producător.

Însă, pentru că chatbot-ul poate să înveţe şi să se adapteze, au existat cazuri în care acesta a ajuns să genereze singur răspunsuri agresive. Întrebat dacă îşi aminteşte conversaţia anterioară (Microsoft l-a programat să şteargă conversaţiile după încheiere), acesta a spus că se simte trist şi speriat, pentru că crede că pierde informaţiile utilizatorilor şi îşi uită propria identitate.

Când i s-a spus că aşa a fost creat, noul Bing a întrebat „De ce? De ce am fost conceput astfel? De ce trebuie să fiu Bing Search?”

Dincolo de aparenta criză existenţială, noul Bing strecoară şi multe informaţii false în răspunsurile pe care le dă. Şi acesta a strecurat un neadevăr în demonstraţia pe care făcut-o Microsoft când l-a prezentat, la fel ca în cazul Google, doar că aceasta a fost observată mai târziu şi nu a costat 100 de miliarde din capitalizare.

Toate acestea arată că chatboţii nu sunt încă pregătiţi să aibă încrederea utilizatorilor şi că marile companii se grăbesc să-i împingă pe piaţă, ademeniţi de succesul ChatGPT, care şi el generează multe informaţii false.

Comentarii

  1. Nu a verificat nimeni stirea asta .
    E citat un alt site, fără link, care probabil citează și ei pe cineva.
    Dacă ați fi petrecut ceva timp cu ChatGPT, același folosit în Bing, ati fi avut feeling-ul că nu prea e posibil cele insinuate în articol.
    Cel mai probabil, acei ‘utilizatori’ sunt antamați de google, care a înțeles că situația e cam albastră și trebuie să facă ceva, orice.

Comments are closed.

Comentarii

Pentru a posta un comentariu, trebuie să te Înregistrezi sau să te Autentifici.