TWICE

Une étude fait une découverte inquiétante sur la prévalence des actrices et chanteuses coréennes dans les contenus Deepfake

« Tout cela est tellement déprimant. »

À l’ère moderne, alors que l’IA devient un élément de plus en plus répandu dans notre société, le danger des médias deepfakes – décrits comme « une vidéo d’une personne dans laquelle son visage ou son corps a été numériquement modifié de manière à ressembler à quelqu’un d’autre, généralement utilisé par malveillance ou diffuser de fausses informations » – est devenu de plus en plus inquiétant.

Bien qu’il existe des moyens non malveillants d’utiliser la technologie deepfake, l’écrasante majorité du contenu créé de cette manière est de nature pornographique. En fait, 98 % des vidéos deepfake sont de la pornographie, selon un rapport de 2023 de Héros de la sécurité domestique. Toujours selon ce rapport, il y avait un total de 95 820 vidéos deepfake en ligne en 2023, soit une augmentation de 550 % par rapport à 2019. Et sur les 98 % de ces vidéos qui étaient de nature pornographique, 99 % ciblaient des femmes.

360_F_274469717_ZlFElqqcRFteCnmWloMDKmCcU0N1iDU8
| Adobe Stock

Et les données démographiques sont particulièrement inquiétantes pour les femmes sud-coréennes, notamment celles travaillant dans l’industrie du divertissement. Les actrices et chanteuses sud-coréennes représentent 53 % des personnes ciblées dans la pornographie deepfake, ce qui en fait le groupe le plus ciblé par nationalité et par sexe.

Voici un aperçu des principales conclusions du rapport 2023.

Sans titre
| Héros de la sécurité domestique

Selon l’étude, la deuxième nationalité la plus ciblée est l’Amérique avec 20 %, tandis que le Japon arrive en troisième position avec 10 %. Cela signifie que les femmes sud-coréennes sont deux fois plus ciblées que le deuxième groupe le plus à risque.

p1
| Héros de la sécurité domestique

Et parmi les personnes présentées dans la pornographie deepfake – pas seulement les Sud-Coréens, mais les individus en général – 94 % travaillent dans l’industrie du divertissement en tant que chanteuses, actrices ou influenceuses sur les réseaux sociaux.

p2
| Héros de la sécurité domestique

Le rapport répertorie également les dix personnes qui sont le plus souvent la cible de la pornographie deepfake. Même si leur identité n’a pas été divulguée en raison de la nature sensible des données, leur nationalité et leur profession ont été incluses. Parmi ces dix femmes, huit étaient des chanteuses sud-coréennes.

p3
| Héros de la sécurité domestique

L’étude énumère plusieurs autres révélations choquantes et inquiétantes, comme le fait qu’il faut moins de 25 minutes et ne coûte rien pour créer une vidéo pornographique deepfake d’une minute à partir d’une seule image claire et claire d’un visage. Le nombre total de vues de vidéos sur les dix principaux sites pornographiques deepfake dédiés en 2023 s’élevait à plus de 303 millions, montrant à quel point ce type de consommation médiatique est devenu répandu malgré les complications morales, éthiques et juridiques qui l’entourent.

L’article de Home Security Heroes a été partagé récemment sur le subreddit K-Pop, car une partie très importante de l’étude ciblait les artistes sud-coréens. Voici comment les gens ont réagi à cette nouvelle inquiétante.

c1

c2

c3

Comme le conclut l’étude :

Ces résultats soulignent la nature multiforme de la technologie deepfake et son impact sur divers domaines. En conséquence, il existe un besoin urgent d’une utilisation responsable, de considérations éthiques et de garanties réglementaires pour relever les défis changeants que présentent les contenus deepfakes.

— Héros de la sécurité domestique

Source: Héros de la sécurité domestique et Reddit



Afficher plus
Bouton retour en haut de la page