La începutul acestui an, când firma de contabilitate EY a testat un sistem de inteligență artificială antrenat să recunoască fraudele din conturile unora dintre clienții săi de audit din Marea Britanie, rezultatele au fost uimitoare. Potrivit lui Kath Barrow, managing partner al EY pentru asigurări în Marea Britanie și Irlanda, noul sistem a detectat activități suspecte la două dintre primele 10 companii verificate. Clienții au confirmat ulterior că ambele cazuri au fost fraude, scrie Financial Times.
Acest succes timpuriu ilustrează de ce unii din industrie consideră că IA are un mare potențial de îmbunătățire a calității auditului și de reducere a volumului de muncă. Capacitatea sistemelor bazate pe IA de a ingera și analiza cantități mari de date ar putea, speră ei, să ofere un nou instrument puternic pentru a alerta auditorii cu privire la semnele de nereguli și alte probleme.
Cu toate acestea, auditorii nu sunt de acord în mod clar cu privire la măsura în care se pot baza pe o tehnologie care nu a fost încă testată pe scară largă și care este adesea prost înțeleasă.
Unele firme de audit sunt sceptice cu privire la faptul că sistemele de inteligență artificială pot fi alimentate cu suficiente informații de înaltă calitate pentru a detecta în mod fiabil multiplele și diferitele forme potențiale de fraudă. Există, de asemenea, unele preocupări legate de confidențialitatea datelor, dacă auditorii folosesc informații confidențiale ale clienților pentru a dezvolta IA.
Întrebările înseamnă că există diferențe clare de abordare între marile firme de audit din Marea Britanie. În timp ce EY a refuzat să dezvăluie detaliile software-ului său sau natura fraudelor pe care le-a descoperit, Barrow a declarat că rezultatele sugerează că tehnologia are „o bază” pentru audit.
„Se pare că este ceva ce ar trebui să dezvoltăm sau să explorăm”, a spus ea.
Cu toate acestea, Simon Stephens, liderul IA pentru audit și asigurare la divizia din Marea Britanie a Deloitte, o altă firmă de audit din grupul Big Four, a subliniat că fraudele au fost relativ rare și au avut tendința de a fi diferite unele de altele. Acest lucru ar însemna că nu existau neapărat modele revelatoare pe care sistemele de inteligență artificială să le detecteze.
„Fraudele sunt … unice și fiecare este comisă într-un mod ușor diferit”, a spus Stephens. „Prin natura lor, acestea sunt concepute pentru a ocoli măsurile de protecție prin utilizări noi ale tehnologiei sau prin exploatarea unor noi puncte slabe, iar IA nu joacă bine în acest domeniu în acest moment”.
Este probabil ca autoritățile de reglementare să aibă ultimul cuvânt în ceea ce privește modul în care tehnologia poate fi implementată. Jason Bradley, șeful departamentului de tehnologie de asigurare din cadrul Financial Reporting Council din Marea Britanie, organismul de supraveghere a auditului, a declarat că IA prezintă oportunități de „sprijinire a îmbunătățirii calității și eficienței auditului”, dacă este utilizată în mod corespunzător.
Dar a avertizat că firmele vor avea nevoie de expertiză pentru a se asigura că sistemele funcționează conform standardelor corecte. „Pe măsură ce utilizarea IA crește, auditorii trebuie să aibă abilitățile necesare pentru a critica sistemele de IA, asigurându-se că utilizarea rezultatelor este corectă și că sunt capabili să implementeze instrumentele într-un mod care respectă standardele”, a spus el.
În timp ce software-ului de audit tradițional trebuie să i se spună ce tipare de date indică fraude sau alte probleme, sistemele de IA sunt antrenate să detecteze problemele folosind învățarea automată și date din mai multe cazuri anterioare cunoscute de comportament necorespunzător. În timp, acestea ar trebui să devină mai bune în acest sens, pe măsură ce acumulează experiență.
Tehnologia ar putea fi deosebit de utilă dacă va reduce volumul de muncă al auditorilor. Firmele din întreaga lume se luptă să formeze și să recruteze personal. De asemenea, ar putea contribui la creșterea standardelor: în ultimii ani, auditorii nu au observat probleme financiare grave care au dus la prăbușirea unor întreprinderi, printre care firma de externalizare Carillion, retailerul BHS și lanțul de cafenele Patisserie Valerie Valerie.
Potrivit lui Barrow, în cadrul experimentului EY s-a folosit un instrument de învățare automată care a fost antrenat pe „o mulțime de scheme de fraudă”, obținute atât din informații disponibile public, cât și din cazuri anterioare în care firma a fost implicată. În timp ce software-ul existent, utilizat pe scară largă, caută tranzacțiile suspecte, EY a declarat că sistemul său asistat de inteligență artificială a fost mai sofisticat. Acesta a fost antrenat să caute tranzacțiile utilizate de obicei pentru a acoperi fraudele, precum și tranzacțiile suspecte în sine. Firma a declarat că a detectat cele două scheme de fraudă la cei 10 clienți de probă inițiali, deoarece au existat modele similare în datele de instruire.
„Tot ceea ce face este să spună: Acesta este un lucru pe care ar trebui să îl explorați mai departe”, a declarat Barrow despre sistemul de inteligență artificială, pe care l-a descris ca fiind un „copilot” pentru auditori. „Ne concentrează eforturile pentru a înțelege mai mult”.
Cu toate acestea, alte firme se îndoiesc că sistemele de IA sunt suficient de inteligente pentru a detecta fraudele sofisticate. KPMG UK, un alt auditor din Big Four, a reluat îngrijorările lui Stephens de la Deloitte.
„Frauda, prin natura sa, este imprevizibilă și, prin urmare, utilizarea cazurilor de fraudă cunoscute pentru a antrena modele de învățare automată este o provocare”, a declarat KPMG.
Stephens a recunoscut că tehnologia are utilizările sale în audit. Dar el a văzut un rol mult mai limitat pentru aceasta. „IA poate automatiza unele dintre cele mai banale și repetabile sarcini și le permite auditorilor noștri să se concentreze asupra domeniilor cu cel mai mare risc”, a spus el.
În prezent, Deloitte limitează utilizarea IA la sarcini mai puțin complexe, oferind instrucțiuni clare cu privire la tipurile de anomalii pe care trebuie să le caute în conturile companiilor.