Companiile care lucrează deja cu Inteligența Artificială și chiar dezvoltă astfel de produse consideră că AI trebuie reglementată pentru a proteja datele și a limita răspândirea pericolelor asociate (gen deep fake), dar că domeniul nu trebuie suprareglementat, pentru a stimula inovarea. Companiile au dezvoltat deja principii etice și tehnologii pentru a identifica conținutul generat prin AI. Declarațiile au fost făcute în cadrul conferinței Economedia AI PLAY.
Cristian Popescu,Country Lead Enterprise Business la Amazon Web Services (AWS) a abordat și tema „halucinațiilor” AI. „Trebuie să fim conștienți că, oricât de performant ar fi modelul, cu miliarde de informații și parametri, există un risc ca ieșirea să nu fie corespunzătoare, trebuie implementate mecanismele de urmărire. Să am în vedere: de ce am luat decizia asta? Riscul de bias, de „halucinație”, riscul de securitate, consistența cu care sunt livrate informațiile – toate trebuie auditate și înscrise într-un proces de guvernanță. Va trebui să fie o responsabilitate și a spațiului public”, a subliniat Popescu.
Adrian Ispas, CeO Vatis Tech, a vorbit despre riscurile de securite. „Avem mecanisme de securitate, nu introducem date de proprietate intelectuală. Fiecare trebuie să aibă filtru, metodologie, să ai în vedere riscul de securitate. Riscurile sunt iminente, trebuie să ai filtre prin care te protejezi – asta se poate introduce, asta se poate, asta nu”, a spus Ispas, care a pledat și el pentru reglementarea domeniului.
„Cred că partea de AI trebuie reglementată la modul general. Acum e fiecare face ce vrea, cum vrea, cum poate. Nu cred că e o direcție bună, nu există reglementări. Din perspectiva companiilor care dezvoltă astfel de algoritme, e important să știi dacă datele tale ca client au fost folosite sau nu . Și astfel de reglementări ar ajuta direct legat de confidențialitatea datelor. Și e foarte periculoasă partea de deep fake. Azi poți să generezi foarte ușor text, poți să generezi foarte ușor imagini, poți să generezi foarte ușor video. Cum știi că acea persoană chiar e acea persoană în video? Practic, ar trebui niște sisteme prin care cumva să detectezi automat astfel de lucruri. Ok, ăsta este un video generat de nu știu o companie de generativ. Lucrurile astea ar trebuie făcute prin niște reglementări, în sensul că OK, tu dezvolți un astfel de algoritm, dar trebuie să ai niște mecanisme de siguranță”, a spus Ispas.
Tudor Cosăceanu, vicepreședinte regional pentru România UiPath, a pledat pentru reglementare, dar nu supra-reglementare: „În primul rând, să ne gândim la limitări. Și poate că ar trebui să facem niște analogii. Când într-o grădiniță, adulții ar trebui să se asigure că există un gard unde copiii care se joacă la grădiniță să nu fie expuși anumitor riscuri grave sau să nu iasă din incintă și să ajungă în situații periculoase. Dar cât sunt acolo, la locul de joacă, ei ar trebui să fie lăsați în pace, să își dezvolte abilitățile, să-și dezvolte creativitatea. Și, plecând de la această analogie, există sectorul public și guvernamental și jucătorii care putem spune că sunt cei care pun acele garduri. Acele garduri ar trebui să fie cât mai lejere, cât mai clare să nu îngrădească capabilitatea de dezvoltare și de de creativitate. Iar jucătorilor care au dezvoltat aceste tehnologii ar trebui să nu li se îngrădească libertatea de a dezvolta aceste soluții. La fel ca orice nou salt tehnologic, nu trebuie îngrădit pentru că cei care îl îngrădesc doar frânează ceva inevitabi, consideră Cosăceanu.
De aceeași părere este și Mihai Ghigiu, care spune că este nevoie de o legislație în România care să reglementeze inteligența artificială, dar care să nu supra-reglementare domeniul și „să-l înăbușim”.
„Avem nevoie de o legislație și la momentul de față știu că se lucrează la o viitoare strategie pentru AI în România. Avem nevoie ca, cel puțin la acest moment, din punctul meu de vedere, să avem o relativă flexibilitate, urmând ca legiuitorul să se adapteze sau să adapteze legislația în funcție de evoluția tehnologiei, pentru că în România un alt păcat este și această supra-reglementare, supra-reglementare care vine din lipsa de încredere, supra-reglementare care vine din diferite interese. Dar sper ca în domeniul acesta, al inteligenței artificiale, să nu ajungem la o supra-reglementare care, din punctul meu de vedere, nu va face decât să frâneze procesul și apetitul atât mediului privat, cât și mediului public pentru acest domeniu”, spune Ghigiu.
La rândul său, Elisabeta Moraru, country director la Google, spune că „e mult prea importantă inteligența artificială să nu fie reglementată și este mult prea importat să fie reglementată bine”.
În ceea ce privește limitele folosirii AI în sectorul public și în beneficiul cetățenilor, Mihai Ghigiu spune că ar trebui să existe limite în privința utilizării inteligenței artificiale deoarece ea poate fi folosită, la un moment dat, în scopuri mai puțin utile pentru cetățeni, stat sau instituții.
„Cred că trebuie să avem limite, indiferent ce facem. Astăzi încă avem o legislație în România foarte permisivă, adică aproape inexistentă în ceea ce privește inteligența artificială. În ciuda multor au majorității părților PO-pozitive ale inteligenței artificiale, trebuie să recunoaștem că ea poate fit folosită și în scopuri nu atât de ortodoxe sau în scopuri nu atât de utile nici cetățenilor, nici statului, nici diferitelor instituții. Din punctul meu de vedere, trebuie să existe limite”, a declarat Mihai Ghigiu.
Sabin Sărmaș, președintele pentru tehnologia informaţiei şi comunicaţiilor din Camera Deputaților, a anunțat marți la Conferința Economedia: ”A.I. PLAY în business și administrație” că un proiect de lege din Parlament pedepsește drastic realizarea și distribuirea de materiale video, audio sau imagine de tip deepfake dacă ele nu sunt marcate ca atare. Sărmaș a atras atenția însă că suprareglementarea poate duce la limitarea inovației și la abuzuri ale autorităților.
Despre reglementări, în România: