Anthropic a anunțat luni actualizări ale politicii de „scalare responsabilă” pentru tehnologia sa de inteligență artificială, inclusiv definirea nivelurilor de siguranță ale modelului său, care sunt suficient de ridicate pentru a necesita protecții suplimentare. Într-o versiune anterioară a politicii sale de scalare responsabilă, publicată în octombrie, Anthropic a declarat că va începe să caute dispozitive ascunse în birourile fizice, ca parte a unui efort sporit de securitate. De asemenea, la momentul respectiv, compania a afirmat că va înființa un consiliu executiv de risc și va crea o echipă de securitate internă. Startup-ul a confirmat luni că a înființat ambele grupuri, transmite CNBC.
Compania, susținută de Amazon, a publicat actualizările de siguranță și securitate într-o postare pe blog. În cazul în care compania testează la stres un model AI și constată că acesta are capacitatea de a ajuta, potențial, un „program de stat cu resurse moderate” să dezvolte arme chimice și biologice, va începe să implementeze noi măsuri de securitate înainte de a lansa acea tehnologie, a declarat Anthropic în postare.
Răspunsul ar fi similar în cazul în care compania ar stabili că modelul ar putea fi utilizat pentru a automatiza complet rolul unui cercetător entry-level de la Anthropic sau ar provoca o accelerare excesivă a unei scalări rapide.
Anthropic și-a încheiat ultima rundă de finanțare la începutul acestei luni, la o evaluare de 61,5 miliarde de dolari, ceea ce o face una dintre cele mai valoroase startup-uri AI. Însă aceasta reprezintă doar o fracțiune din valoarea OpenAI, care a declarat luni că a încheiat o rundă de 40 de miliarde de dolari, la o evaluare de 300 de miliarde de dolari.
Urmărește mai jos producțiile video ale Economedia:
- articolul continuă mai jos -
Piața inteligenței artificiale generative urmează să depășească 1.000 de miliarde de dolari în venituri în decurs de un deceniu. În plus față de startup-urile cu creștere rapidă, giganții tehnologici, inclusiv Google, Amazon și Microsoft, se întrec în a anunța noi produse și caracteristici. Concurența vine, de asemenea, din China — un risc care a devenit mai evident la începutul acestui an, când modelul AI al DeepSeek a devenit viral în SUA.
Anthropic a mai transmis anterior că va introduce procese de securitate „fizice”, cum ar fi contramăsurile de supraveghere tehnică — adică procesul de găsire și identificare a dispozitivelor de supraveghere utilizate pentru a spiona organizațiile. Verificările sunt efectuate „utilizând echipamente și tehnici avansate de detectare” și vizează „intruși”.
Măsuri stricte în China pentru ca tehnologia să nu fie furată
În China, după creșterea bruscă a faimei DeepSeek în ianuarie, compania funcționează acum sub noi restricții mai stricte, influențate de guvern, potrivit TechRider. Unii dintre angajații companiei au fost împiedicați să călătorească liber în străinătate, iar guvernul chinez joacă acum un rol în selectarea potențialilor investitori.
DeepSeek pune în aplicare restricțiile de călătorie prin faptul că societatea sa mamă, fondul de hedging cantitativ High-Flyer, păstrează pașapoartele anumitor angajați.