Lumea trebuie să trateze riscurile provocate de inteligența artificială la fel de serios ca și criza climatică și nu își poate permite să întârzie răspunsul, a avertizat Demis Hassabis, directorul executiv britanic al DeepMind, unitatea de inteligență artificială a Google. Hassabis, care este considerat una dintre cele mai importante personalități în ceea ce privește tehnologia AI, face apel la o reglementare mai strictă pentru a calma temerile existențiale legate de tehnologiile cu un nivel de inteligență superior celui uman, scrie The Guardian.
Guvernul britanic se pregătește să găzduiască un summit privind siguranța inteligenței artificiale, context în care Demis Hassabis a declarat că supravegherea industriei ar putea începe cu un organism similar Grupului interguvernamental privind schimbările climatice (IPCC).
Hassabis a declarat că lumea trebuie să acționeze imediat pentru a aborda pericolele tehnologiei, care ar putea fi folosită în viitor inclusiv pentru crearea de arme biologice.
„Trebuie să luăm riscurile inteligenței artificiale la fel de serios ca și alte provocări globale majore, cum ar fi schimbările climatice”, a spus el. „A fost nevoie de prea mult timp pentru ca comunitatea internațională să coordoneze un răspuns global eficient în acest sens, iar acum trăim cu consecințele acestui fapt. Nu ne putem permite aceeași întârziere cu IA”, afirmă reprezentantul DeepMind.
Hassabis, a cărui unitate a creat revoluționarul program AlphaFold, care descrie structurile proteinelor, a declarat că inteligența artificială ar putea fi „una dintre cele mai importante și benefice tehnologii inventate vreodată”.
Cu toate acestea, el a declarat pentru The Guardian că este nevoie de un regim de supraveghere și că guvernele ar trebui să se inspire din structurile internaționale, cum ar fi IPCC.
„Cred că trebuie să începem cu ceva de genul IPCC, unde este vorba de un acord științific și de cercetare cu rapoarte, și apoi să construim de acolo”, transmite Hassabis.
El a adăugat: „Apoi, ceea ce mi-ar plăcea să văd în cele din urmă este un echivalent al unui Cern pentru siguranța inteligenței artificiale care să facă cercetări în acest sens – dar la nivel internațional. Și apoi, poate că într-o zi va exista un fel de echivalent al AIEA, care să verifice aceste lucruri.”
Agenția Internațională pentru Energie Atomică (AIEA) este un organism al ONU care promovează utilizarea sigură și pașnică a tehnologiei nucleare, în efortul de a preveni proliferarea armelor nucleare, inclusiv prin intermediul inspecțiilor.
Cu toate acestea, Hassabis a declarat că niciuna dintre analogiile de reglementare utilizate pentru IA nu este „direct aplicabilă” acestei tehnologii, deși „lecții valoroase” ar putea fi trase din instituțiile existente.
Săptămâna trecută, Eric Schmidt, fostul director executiv al Google, și Mustafa Suleyman, co-fondatorul DeepMind, au solicitat crearea unui grup de experți în domeniul inteligenței artificiale de tipul IPCC. Deși oficialii britanici susțin o astfel de inițiativă, se crede că aceștia consideră că crearea sa ar trebui să se facă sub auspiciile ONU.
Hassabis a declarat că inteligența artificială ar putea aduce „oportunități incredibile” în domenii precum medicina și știința, dar a recunoscut preocupările existențiale legate de această tehnologie. Acestea se concentrează pe posibila dezvoltare a inteligenței generale artificiale (AGI) – sisteme cu un nivel de inteligență uman sau superior celui uman care ar putea scăpa de controlul uman.
În luna mai, Hassabis a fost unul dintre semnatarii unei scrisori deschise care avertiza că amenințarea extincției cauzată de IA ar trebui considerată un risc la scară societală, la fel ca pandemiile și războiul nuclear.
„Ar trebui să începem această gândire și această cercetare acum. Adică ieri, cu adevărat”, a spus el. „Acesta este motivul pentru care am semnat, și mulți oameni au semnat, acea scrisoare. Pentru că am vrut să dăm credibilitate faptului că acesta este un lucru rezonabil de discutat.”
Unii cunoscători din industria tehnologică sunt îngrijorați de faptul că AGI sau AI „asemănătoare cu un zeu” ar putea fi la doar câțiva ani distanță de apariție – deși există, de asemenea, opinia că temerile privind amenințarea existențială sunt exagerate.
Hassabis a declarat că mai este mult timp până la dezvoltarea sistemelor AGI, dar „putem vedea calea de urmat, așa că ar trebui să discutăm despre asta acum”.
El a declarat că sistemele actuale de inteligență artificială „nu prezintă riscuri, dar următoarele generații ar putea fi un risc, atunci când vor avea capacități suplimentare, cum ar fi planificarea și memoria și alte lucruri… Vor fi fenomenale pentru cazuri de utilizare bune, dar vor avea și riscuri”.
Summitul din 1 și 2 noiembrie de la Bletchley Park, baza unde au lucrat spărgătorii de coduri din al doilea război mondial, inclusiv Alan Turing, se va concentra pe amenințarea sistemelor avansate de inteligență artificială care ajută la crearea de arme biologice, la efectuarea de atacuri cibernetice paralizante sau la sustragerea de la controlul uman. Hassabis va fi unul dintre participanți, alături de directorii executivi ai principalelor firme de inteligență artificială, inclusiv OpenAI, dezvoltatorul ChatGPT cu sediul în San Francisco.
Unitatea lui Hassabis a realizat progrese semnificative în domeniul tehnologiei AI, cum ar fi crearea programului AlphaGo AI care l-a învins pe cel mai bun jucător din lume la Go, un joc de societate chinezesc, și proiectul revoluționar AlphaFold, care prezice modul în care proteinele se pliază în forme 3D, un proces care a deschis calea pentru progrese într-o serie de domenii, inclusiv în combaterea bolilor.
Hassabis a declarat că este optimist cu privire la inteligența artificială datorită potențialului său de a revoluționa domenii precum medicina și știința, dar că trebuie găsită o „cale de mijloc” pentru gestionarea tehnologiei.
Inteligența artificială a devenit o prioritate pe agenda politică după lansarea publică, anul trecut, a ChatGPT, un robot de chat care a devenit o senzație datorită capacității sale de a produce răspunsuri textuale foarte plauzibile la solicitări umane, de la producerea de eseuri academice lungi la rețete și cereri de angajare, și chiar ajutând oamenii să revoce amenzi de parcare.
Instrumentele de generare de imagini cu inteligență artificială, precum Midjourney, au uimit, de asemenea, observatorii prin crearea de imagini realiste, inclusiv o „fotografie” notorie a Papei într-o jachetă cu puf, ceea ce a dat naștere la preocupări legate de faptul că actorii necinstiți ar putea folosi instrumentele de inteligență artificială pentru a produce dezinformare în masă.
Aceste temeri au alimentat îngrijorările cu privire la puterea potențială a următoarei generații de modele de inteligență artificială. Hassabis, a cărui unitate lucrează la un nou model de inteligență artificială numit Gemini, care va genera imagini și texte, a declarat că a avut în vedere apariția unui sistem de modele de tip Kitemark.
În acest an, guvernul britanic a lansat grupul de lucru Frontier AI, care își propune să creeze orientări pentru testarea modelelor de IA de ultimă generație și care ar putea deveni un punct de referință pentru eforturile de testare la nivel internațional.