Într-un studio de înregistrări din Seul, producătorii casei de discuri K-pop care a adus în lume succesul grupului de băieți BTS folosesc inteligența artificială pentru a îmbina vocea unui cântăreț sud-coreean cu cea a vorbitorilor nativi din alte cinci limbi.
Tehnologia a permis companiei HYBE, cea mai mare casă de discuri din Coreea de Sud, să lanseze o piesă a cântărețului MIDNATT în șase limbi – coreeană, engleză, spaniolă, chineză, japoneză și vietnameză.
Unii cântăreți K-pop au lansat melodii în engleză și japoneză, pe lângă limba lor nativă, coreeana, dar aplicarea noii tehnologii pentru o lansare simultană în șase limbi este o premieră mondială, potrivit HYBE, și ar putea deschide calea pentru ca aceasta să fie folosită de mai multe trupe populare, scrie Reuters.
“Vom asculta mai întâi reacția, vocea fanilor, apoi vom decide care ar trebui să fie următorii pași”, a declarat Chung Wooyong, șeful diviziei media interactive a HYBE, într-un interviu acordat la studioul companiei.
Lee Hyun, în vârstă de 40 de ani, cunoscut sub numele de MIDNATT, care, pe lângă coreeană, vorbește doar în mod limitat engleza și chineza, a înregistrat piesa “Masquerade” în fiecare limbă.
Vorbitorii nativi au citit versurile, iar mai târziu cele două au fost combinate fără probleme cu ajutorul tehnologiei muzicale AI interne a HYBE, a declarat Chung.
Cântecul este cel mai recent semn al influenței crescânde a inteligenței artificiale în industria muzicală, într-un moment în care Premiile Grammy au introdus noi reguli pentru utilizarea tehnologiei, iar mash-up-urile de melodii generate de AI inundă rețelele de socializare.
“Am împărțit o bucată de sunet în diferite componente – pronunție, timbru, înălțime și volum”, a spus Chung. “Ne-am uitat la pronunție, care este asociată cu mișcarea limbii și ne-am folosit imaginația pentru a vedea ce fel de rezultat am putea obține folosind tehnologia noastră.”
Într-o comparație înainte și după, prezentată pentru Reuters, a fost adăugat un sunet de vocală alungită la cuvântul “twisted” din versurile în limba engleză, de exemplu, pentru a suna mai natural, în timp ce nu s-a făcut nicio schimbare detectabilă în vocea cântărețului.
Folosirea învățării profunde alimentată de cadrul de analiză și sinteză neuronală dezvoltat de Supertone face ca melodia să sune mai natural decât dacă se folosește un software care nu folosește AI, a declarat directorul operațional al Supertone, Choi Hee-doo.
HYBE a anunțat achiziția Supertone în valoare de 45 de miliarde de woni (36 de milioane de dolari) în ianuarie. HYBE a declarat că intenționează să facă o parte din tehnologia AI folosită în cântecul MIDNATT accesibilă creatorilor și publicului, dar nu a precizat dacă va percepe taxe.
MIDNATT a declarat că utilizarea Inteligenței Artificiale i-a permis un “spectru mai larg de expresii artistice”.
“Simt că bariera lingvistică a fost eliminată și este mult mai ușor pentru fanii globali să aibă o experiență imersivă cu muzica mea”, a spus el.
Deși tehnologia nu este nouă, este un mod inovator de a utiliza AI în muzică, a declarat Valerio Velardo, director al The Sound of AI, un serviciu de consultanță pentru muzică și audio cu AI cu sediul în Spania.
Nu doar muzicienii profesioniști, ci și o populație mai largă va beneficia de tehnologia muzicală AI pe termen lung, a spus Velardo.
“Va scădea bariera de creare a muzicii. Este un pic ca Instagram pentru fotografii, dar în cazul muzicii”.
Deocamdată, tehnologia de corectare a pronunției de la HYBE are nevoie de “săptămâni sau luni” pentru a-și face treaba, dar când procesul se va accelera, ar putea servi unei game mai largi de scopuri, cum ar fi interpretarea în cadrul conferințelor video, a declarat Choi Jin-woo, producătorul piesei “Masquerade” a lui MIDNATT.