Directorul general al Airbnb a anunțat că firma folosește inteligența artificială pentru a identifica ce clienți sunt predispuși să organizeze petreceri în casă înainte de a asigura o rezervare, scrie Bloomberg.
Brian Chesky a fost intervievat de Bloomberg cu privire la modul în care compania intenționează să folosească AI pentru a rezolva unele dintre problemele sale, inclusiv lupta sa de lungă durată cu oaspeții care organizează petreceri deranjante în casele închiriate, în ciuda poziției sale ferme împotriva petrecerilor.
„Am folosit tehnici de învățare automată pentru a ne uita la ultimele un miliard și jumătate de sosiri ale oaspeților și a vedea care au dus la o petrecere și care nu”, a declarat Chesky pentru Bloomberg. „Dacă încerci să faci acest lucru prin ochiul uman, s-ar putea să nu observi niciun model, dar AI poate să se uite prin peste un miliard de puncte de date, să găsească o mulțime de asemănări și să creeze un set de reguli.”
El a explicat că, dacă o tentativă de rezervare ridică probleme, „fie o oprim, fie îi cerem mai multe informații, până când fie ne simțim confortabil cu tine, fie nu ne simțim confortabil cu tine”.
Chesky a adăugat că inteligența artificială va fi folosită și pentru a verifica dacă fotografiile anunțurilor trimise de gazde corespund cu imaginile din satelit, pentru a ajuta la epurarea anunțurilor false de pe platformă.
Compania a interzis definitiv petrecerile la domiciliu în iunie 2022, după ce a testat o interdicție temporară în timpul pandemiei din 2020, spunând că unii oaspeți „au ales să ducă comportamentul de bar și club în case, uneori închiriate prin intermediul platformei noastre”.
De asemenea, a introdus în decembrie 2022 o tehnologie de verificare a rezervărilor pentru a împiedica unii oaspeți să rezerve o întreagă locuință doar pentru o singură noapte, cu excepția cazului în care au primit recenzii pozitive din partea altor gazde.
Chesky nu a intrat în detalii tehnice deosebite despre tehnologia de inteligență artificială a firmei, dar utilizarea inteligenței artificiale pentru a prezice comportamentul de încălcare a regulilor de către oaspeți poate ridica semne de întrebare. În timp ce modelele de inteligență artificială pot prezice, de exemplu, criminalitatea în anumite zone cu o anumită acuratețe, cercetătorii au descoperit că acestea pot, de asemenea, să perpetueze rasismul.
Directorul general a fost optimist cu privire la modul în care AI va schimba Airbnb, afirmând la Summitul tehnologic al Bloomberg din iunie că platforma va deveni în curând „concierge AI suprem” pentru a ajuta utilizatorii să găsească cele mai bune chirii și experiențe potrivite pentru ei.