Plusieurs personnes ont fait part de leur stupéfaction après l’utilisation de leurs visages afin de promouvoir des produits pour faciliter l’érection et pour faire l’apologie de Vladimir Poutine.
Intelligence artificielle.
L’intelligence artificielle une nouvelle fois mise en cause dans de multiples affaires d’usurpation d’identité. Selon une enquête publiée par le Washington Post, des femmes ont vu leur visage “volé” dans le seul but de générer leur double numérique via l’intelligence artificielle.
En entraînant l’algorithme sur des photos ou vidéos publiées sur les réseaux sociaux par les victimes, les auteurs des contenus réalisés par IA ont ainsi pu utiliser leur visage pour tenir des discours politisés, ou pour promouvoir des produits médicaux, comme des pilules pour faciliter l’érection chez les hommes.
Une vidéo plus vraie que nature
C’est l’influenceuse chrétienne Michel Janse qui a sonné l’alerte, découvrant avec surprise qu’elle était devenue l’effigie d’une publicité sur les dysfonctionnements érectiles diffusée sur Youtube.
Sur cette vidéo, on pouvait la voir dans sa vraie chambre, portant ses vrais vêtements, mais avec un discours généré lui par l’IA, qui prétendait que son mari était victime de troubles de l’érection.
Selon le quotidien, les personnes à l’origine de cette publicité ont utilisé l’image de l’influenceuse, puis une intelligence artificielle générative, afin de reprendre sa voix et son visage via un deepfake, et lui faire dire ce qu’elles voulaient.
Ce n’est pas la première fois qu’une personnalité se fait voler sa voix et son image pour vendre des arnaques. Taylor Swift, plus récemment, avait ainsi été l’actrice – malgré elle – d’une fausse publicité pour un concours servant à récupérer les données bancaires de fans crédules.
“Si de l’audio et des vidéos existent publiquement, ne serait-ce que quelques secondes, ils peuvent être facilement clonés, modifiés, ou même carrément fabriqués,” explique Ben Colman, PDG et co-fondateur de Reality Defender, qui aide les entreprises à repérer les deepfakes.
Autre exemple avec Olga Loeik, une étudiante de 20 ans vivant en Pennsylvanie. Elle raconte au quotidien avoir été “clonée” à l’aide de l’IA pour apparaître dans plusieurs milliers de vidéos sur les réseaux sociaux chinois. Dans ces vidéos, elle parle mandarin – une langue que la jeune femme ne connaît pas, et est faussement originaire d’Ukraine. Elle y fait l’éloge de la Russie et du président Vladimir Poutine.
Pour créer ces vidéos, le Washington Post révèle que des outils de HeyGen et de Eleven Labs ont été utilisés. Ces entreprises n’ont pas souhaité apporter de commentaire.
News Related-
Foot: Cristiano Ronaldo la joue fair-play en Ligue des champions asiatique
-
A Panmunjom, des soldats nord-coréens munis d'un pistolet après l'annulation de l'accord militaire intercoréen
-
Assurance chômage: les partenaires sociaux ont six mois pour renégocier, notamment sur les seniors
-
«Je ne regardais les réseaux sociaux que 15 minutes par jour»: la méthode d’Ulysse, major à HEC
-
Décarbonation, souveraineté, compétitivité... Macron attendu aux assises de l'économie de la mer à Nantes
-
Sam Bennett, un sprinteur à relancer pour Decathlon-AG2R La Mondiale
-
Burkina Faso: une attaque terroriste d'ampleur vise la ville de Djibo, dans le Sahel
-
VIDÉO. Fair-play, Cristiano Ronaldo obtient un penalty avec Al-Nassr et le fait annuler
-
EXCLU EUROPE 1 - Vieillir à domicile, un luxe de plus en plus coûteux
-
Guerre en Ukraine : quel est le rapport de force avant l’hiver ?
-
Pollution : Pourquoi la qualité de l’air n’est-elle jamais « bonne » en Bretagne ?
-
Ligue des champions. Le PSG qualifié pour les huitièmes de finale de C1 si…
-
Les trois meilleurs sacs banane en 2023
-
Assurance chômage : comment l’État met la pression sur les partenaires sociaux