BTS KPOP

Actes populaires pour utiliser la technologie AI de HYBE ? L’étiquette indique que la réaction des fans est la clé

Actes populaires pour utiliser la technologie AI de HYBE ?  L'étiquette indique que la réaction des fans est la clé

« Nous écouterions d’abord la réaction, la voix des fans, puis déciderions de nos prochaines étapes. »

Dans le paysage musical contemporain, HYBE fait sensation avec un projet secret centré sur l’intelligence artificielle (IA). Tirant parti de la puissance de l’IA, HYBE redéfinit la production musicale en fusionnant la voix d’un chanteur sud-coréen avec des locuteurs natifs dans cinq autres langues.

MIDNATT enregistre « Mascarade ». | Reuter

L’initiative pionnière a fait ses débuts en mai, lorsque HYBE a sorti un morceau en six langues du chanteur MIDNATT. Le morceau intitulé « Masquerade » a été diffusé simultanément en coréen, anglais, espagnol, chinois, japonais et vietnamien – une évolution sans précédent dans l’industrie.

Auparavant, des chanteurs de K-Pop, y compris des membres de la propre liste de HYBE, ont sorti des chansons en anglais et en japonais aux côtés du coréen. Cependant, l’avènement de cette nouvelle technologie a permis à HYBE de repousser les limites en se lançant dans des versions simultanées en six langues.

L’étape suivante? Selon Chung Woo Yong – le chef de la branche médias interactifs de HYBE – que la technologie soit utilisée par des actes plus populaires ou non, tout dépend des fans. Et HYBE a beaucoup de fans à écouter, car ils abritent des groupes massifs tels que BTS, LE SÉRAFIM, NouveauJeans, ENHYPENetc.

Nous écouterions d’abord la réaction, la voix des fans, puis déciderions de nos prochaines étapes.

— Chung Woo Yong

Chung Woo Young | Reuter

Dans les coulisses, le processus est complexe. « Nous avons divisé un morceau de son en différents composants – prononciation, timbre, hauteur et volume,« Chung a partagé. Dans une comparaison avant-après fournie à Reuters, une subtilité comme le son de voyelle allongé ajouté au mot « tordu » dans les paroles anglaises pour un effet plus naturel illustre la nuance de la technologie. Fait intéressant, aucun changement détectable n’a été apporté à la voix du chanteur.

| Reuter

Mais qu’est-ce qui apporte ce résultat naturel? Tout cela grâce à la technologie d’apprentissage en profondeur développée par Supertone, une société acquise par HYBE pour la somme colossale de 45,0 milliards de KRW (environ 35,0 millions de dollars) plus tôt cette année. Le directeur des opérations de Supertone, Choi Hee-doo, a affirmé que l’apprentissage en profondeur alimenté par le cadre d’analyse et de synthèse neuronales (NANSY) rend la chanson plus organique que l’utilisation de logiciels non IA.

L’artiste au centre de cette innovation, MIDNATT, voit l’IA comme un outil lui permettant d’élargir son champ artistique.

J’ai l’impression que la barrière de la langue a été levée et qu’il est beaucoup plus facile pour les fans du monde entier d’avoir une expérience immersive avec ma musique.

— MIDNATT

| Reuter

Bien que l’utilisation de l’IA dans la musique ne soit pas entièrement nouvelle, la manière dont HYBE l’exploite est certainement innovante. Pour l’instant, la technologie de correction de prononciation de l’entreprise prend « semaines ou mois» pour peaufiner une chanson, mais Choi Jin Woole producteur de « Masquerade », a suggéré qu’à mesure que le processus s’accélère, la technologie pourrait être utilisée dans des applications plus larges telles que la traduction en temps réel dans les vidéoconférences.

AUTO-STOPPEUR et Chung. | Reuter

Alors que l’enthousiasme autour de cette innovation technologique est palpable, l’utilisation de l’IA dans la musique a suscité des sentiments mitigés de la part des fans. Alors que certains l’embrassent comme une progression passionnante dans l’industrie, d’autres expriment des réserves quant à la perte potentielle d’authenticité et de créativité organique dans la musique. Ainsi, si les déclarations de HYBE sur la valorisation des réactions des fans sont effectivement authentiques, la prochaine étape de leur technologie d’IA pourrait être suspendue encore un peu.



Quitter la version mobile