Lumea „s-ar putea să nu aibă timp” să se pregătească pentru riscurile de siguranță prezentate de sistemele AI de ultimă generație, spune David Dalrymple, director de program și expert în siguranța AI la agenția de cercetare științitifică a guvernului britanic Aria pentru The Guardian.
Urmărește mai jos producțiile video ale Economedia:
- articolul continuă mai jos -
Acesta menționează că oamenii ar trebui să fie îngrijorați de capacitatea tot mai mare a acestei tehnologii.
„Vom fi depășiți competitiv în toate domeniile în care trebuie să fim dominanți pentru a menține controlul asupra civilizației, societății și planetei noastre”, spune el.
Dalrymple a spus că există un decalaj de înțelegere între sectorul public și companiile de AI în ceea ce privește puterea descoperirilor majore iminente din domeniul tehnologiei.
„Aș sfătui că lucrurile se mișcă foarte repede și s-ar putea să nu avem timp să o luăm înainte din perspectiva siguranței. Și nu este science-fiction să proiectăm că, în termen de cinci ani, majoritatea sarcinilor cu valoare economică vor fi îndeplinite de mașini la un nivel mai ridicat de calitate și la un cost mai scăzut decât de oameni”, a spus el.
Dalrymple a spus că guvernele nu ar trebui să presupună că sistemele avansate sunt realizabile. Aria este finanțată public, dar este independentă de guvern și direcționează finanțarea pentru cercetare. Dalrymple dezvoltă sisteme pentru a proteja utilizarea AI în infrastructuri critice, precum rețelele energetice.
„Știința necesară pentru a face acest lucru pur și simplu nu este probabil să se materializeze la timp, având în vedere presiunea economică. Așadar, următorul cel mai bun lucru pe care îl putem face, și pe care s-ar putea să îl putem face la timp, este să controlăm și să atenuăm dezavantajele”, a spus el.
Descriind consecințele progresului tehnologic care o ia înaintea siguranței drept o „destabilizare a securității și a economiei”, Dalrymple a spus că este nevoie de mai multă muncă tehnică pentru a înțelege și a controla comportamentele sistemelor AI avansate.
„Progresul poate fi încadrat ca destabilizator și ar putea fi de fapt bun, ceea ce speră mulți oameni entuziasmați. Lucrez pentru a încerca să fac ca lucrurile să meargă mai bine, dar este un risc foarte mare, iar civilizația umană, în ansamblu, pășește somnambulic în această tranziție”, continuă el.
Luna aceasta, Institutul pentru Securitatea AI al guvernului britanic (AISI) a declarat că abilitățile modelelor AI avansate se „îmbunătățesc rapid” în toate domeniile, iar performanța în unele arii se dublează la fiecare opt luni.
Potrivit institutului, modelele de top pot finaliza acum sarcini de nivel de ucenic în proporție de 50% din timp, în medie, față de aproximativ 10% din timp anul trecut. AISI a mai constatat că cele mai avansate sisteme pot finaliza autonom sarcini care i-ar lua unui expert uman peste o oră.
Institutul a testat, de asemenea, modele avansate pentru auto-replicare, o preocupare majoră de siguranță deoarece presupune ca un sistem să își răspândească copii pe alte dispozitive și să devină mai greu de controlat. Testele au arătat că două modele de ultimă generație au obținut rate de succes de peste 60%.
Cu toate acestea, AISI a subliniat că un scenariu de tipul celui mai rău caz este puțin probabil într-un mediu cotidian, afirmând că orice tentativă de auto-replicare este „puțin probabil să reușească în condiții reale”.
Dalrymple crede că sistemele AI vor fi capabile să automatizeze echivalentul unei zile întregi de muncă în cercetare și dezvoltare până la sfârșitul anului 2026, ceea ce va „duce la o accelerare suplimentară a capacităților”, deoarece tehnologia va putea să se auto-îmbunătățească în elementele de matematică și informatică ale dezvoltării AI.

Sursa: Dreamstime