« Nous écouterions d’abord la réaction, la voix des fans, puis déciderions de nos prochaines étapes. »
Dans le paysage musical contemporain, HYBE fait sensation avec un projet secret centré sur l’intelligence artificielle (IA). Tirant parti de la puissance de l’IA, HYBE redéfinit la production musicale en fusionnant la voix d’un chanteur sud-coréen avec des locuteurs natifs dans cinq autres langues.
L’initiative pionnière a fait ses débuts en mai, lorsque HYBE a sorti un morceau en six langues du chanteur MIDNATT. Le morceau intitulé « Masquerade » a été diffusé simultanément en coréen, anglais, espagnol, chinois, japonais et vietnamien – une évolution sans précédent dans l’industrie.
Auparavant, des chanteurs de K-Pop, y compris des membres de la propre liste de HYBE, ont sorti des chansons en anglais et en japonais aux côtés du coréen. Cependant, l’avènement de cette nouvelle technologie a permis à HYBE de repousser les limites en se lançant dans des versions simultanées en six langues.
L’étape suivante? Selon Chung Woo Yong – le chef de la branche médias interactifs de HYBE – que la technologie soit utilisée par des actes plus populaires ou non, tout dépend des fans. Et HYBE a beaucoup de fans à écouter, car ils abritent des groupes massifs tels que BTS, LE SÉRAFIM, NouveauJeans, ENHYPENetc.
Nous écouterions d’abord la réaction, la voix des fans, puis déciderions de nos prochaines étapes.
— Chung Woo Yong
Dans les coulisses, le processus est complexe. « Nous avons divisé un morceau de son en différents composants – prononciation, timbre, hauteur et volume,« Chung a partagé. Dans une comparaison avant-après fournie à Reuters, une subtilité comme le son de voyelle allongé ajouté au mot « tordu » dans les paroles anglaises pour un effet plus naturel illustre la nuance de la technologie. Fait intéressant, aucun changement détectable n’a été apporté à la voix du chanteur.
Mais qu’est-ce qui apporte ce résultat naturel? Tout cela grâce à la technologie d’apprentissage en profondeur développée par Supertone, une société acquise par HYBE pour la somme colossale de 45,0 milliards de KRW (environ 35,0 millions de dollars) plus tôt cette année. Le directeur des opérations de Supertone, Choi Hee-doo, a affirmé que l’apprentissage en profondeur alimenté par le cadre d’analyse et de synthèse neuronales (NANSY) rend la chanson plus organique que l’utilisation de logiciels non IA.
L’artiste au centre de cette innovation, MIDNATT, voit l’IA comme un outil lui permettant d’élargir son champ artistique.
J’ai l’impression que la barrière de la langue a été levée et qu’il est beaucoup plus facile pour les fans du monde entier d’avoir une expérience immersive avec ma musique.
— MIDNATT
Bien que l’utilisation de l’IA dans la musique ne soit pas entièrement nouvelle, la manière dont HYBE l’exploite est certainement innovante. Pour l’instant, la technologie de correction de prononciation de l’entreprise prend « semaines ou mois» pour peaufiner une chanson, mais Choi Jin Woole producteur de « Masquerade », a suggéré qu’à mesure que le processus s’accélère, la technologie pourrait être utilisée dans des applications plus larges telles que la traduction en temps réel dans les vidéoconférences.
Alors que l’enthousiasme autour de cette innovation technologique est palpable, l’utilisation de l’IA dans la musique a suscité des sentiments mitigés de la part des fans. Alors que certains l’embrassent comme une progression passionnante dans l’industrie, d’autres expriment des réserves quant à la perte potentielle d’authenticité et de créativité organique dans la musique. Ainsi, si les déclarations de HYBE sur la valorisation des réactions des fans sont effectivement authentiques, la prochaine étape de leur technologie d’IA pourrait être suspendue encore un peu.
Partager cette publication