Practicile de siguranță ale marilor companii de inteligență artificială, precum Anthropic, OpenAI, xAI și Meta, sunt „mult sub standardele globale emergente”, potrivit unui studiu al Future of Life Institute citat de Reuters.
Urmărește mai jos producțiile video ale Economedia:
- articolul continuă mai jos -
Institutul a spus că evaluarea siguranței, realizată de un panel independent de experți, a constatat că în timp ce companiile erau ocupate să concureze pentru a dezvolta AI, niciuna nu avea o strategie solidă pentru controlul unor astfel de sisteme avansate.
Studiul apare pe fondul unei îngrijorări publice cu privire la impactul sistemelor inteligente asupra societății, ele fiind capabile de raționament și gândire logică, după ce mai multe cazuri de suicid și auto-vătămare au fost asociate cu chatboți AI.
„În ciuda agitației recente legate de hacking-ul alimentat de AI și de faptul că AI conduce oamenii către psihoză și auto-vătămare, companiile americane de AI rămân mai puțin reglementate decât restaurantele și continuă să facă lobby împotriva standardelor de siguranță obligatorii”, spune Max Tegmark, profesor la MIT și președinte al Future of Life.
Cursa AI nu arată semne de încetinire, iar marile companii tehnologice cheltuiesc sute de miliarde de dolari pentru modernizarea și extinderea AI.

Sursa: Dreamstime