“Deepfake” : Nancy Pelosi victime d’une vidéo trafiquée

Récemment, Nancy Pelosi a été victime d’un “deepfake”, une vidéo truquée qui a très vite battu des records de viralité. Le “deepfake”, ou “vidéo hyper truquée” en français, est devenu une pratique courante pour tromper les internautes les plus aguerris. Cette configuration spécifique de vidéos virales représente aujourd’hui le symbole d’une nouvelle forme de désinformation possible grâce à l’essor de l’intelligence artificielle. 

Au départ, une vidéo truquée 

C’est l’histoire banale d’une vidéo de Nancy Pélosi, la présidente de la Chambre des Représentants aux Etats-Unis,  qui très vite a rencontré une viralité malsaine. Sur la séquence vidéo en question,  postée d’abord sur le compte Facebook conservateur Politics WatchDogs, Nancy Pelosi semble avoir du mal à prononcer son discours. Elle butte sur les mots, accentue l’articulation et accompagne ses paroles de geste lents. Tout laisse à croire qu’elle est… ivre !

Immédiatement, la twittosphère s’agite et la vidéo est relayée des milliers de fois, notamment par des comptes situés dans la mouvance de l’ « alt-right », l’extrême droite américaine dont Donald Trump est le héros. Très vite elle dépasse les 2 millions de vues et est partagée plus de 50 000 fois.

Une falsification simpliste 

Peu de gens s’interrogent sur la réalité de cette séquence, et Nancy Pelosi est accusée d’addiction à l’alcool, ce qui fait très mauvais effet pour une responsable politique de cette envergure. Pourtant, cette vidéo est fausse : elle a été trafiquée. Une analyse du Washington Post précise qu’elle a été ralenti à 75% de sa version originelle et pour dissimuler ce ralentissement le son aussi a été modifié. Une vidéo dont on a simplement ralenti certains passages et maquillé les altérations est donc passée pour vraie auprès d’un large public de crédules. Simple et efficace !

Le « deepfake », une technique de désinformation massive 

Si cette technique de trucage semble simpliste, il existe d’autres moyens plus sophistiqués donnant des résultats bluffants, c’est ce qu’on appelle le “deepfake”. Ainsi, grâce à l’intelligence artificielle il est aujourd’hui possible de reproduire des voix et créer des fausses vidéos à partir d’enregistrements pré-existants. 

Le principe est simple : quelques heures d’enregistrement permettent à l’IA de reproduire les mouvements de bouche et/ou visage d’une personne pour les superposer sur un visage créé de toutes pièces. Le plus célèbre exemple est celui de la vidéo publiée par Buzzefeed en 2018 et visionné par plus de 5 millions d’internautes. Barack Obama y tient des propos hallucinants sur son successeur Donald Trump « (…)le président Trump est un idiot total et absolu ! »

 

Plus impressionnant encore, il est possible aujourd’hui de créer une vidéo à partir d’une seule image. La technique n’est pas encore au point mais elle a permis de faire parler La Joconde ou encore une portrait de Raspoutine.

Ces technologies allant de la plus simple à la plus élaborée, existent aujourd’hui en dehors des laboratoires de recherche et deviennent par leur accessibilité une arme de désinformation massive. 

 

Pas le temps de lire tout l’article ? Un résumé en vidéo ci-dessous :

 

Par La rédaction

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.