

Vous avez sans doute déjà vu passer une vidéo d’une célébrité dans des situations qui vous semblaient totalement factices sur les réseaux sociaux, de courtes vidéos à but parfois humoristique et souvent de qualité médiocre. Vous avez peut-être alors eu affaire à un « deepfake », explications …
Un peu de contexte …
Pour commencer à parler de deepfake il faut avant parler de Deep Learning. Le Deep Learning est un procédé informatique complexe impliquant de nombreux termes techniques d’une grande complexité et dont la méthode de réalisation me dépasse, cependant le résultat est le suivant : une machine peut « apprendre » à effectuer une tâche. En vulgarisant énormément, un programme effectue une tâche un nombre de fois infini jusqu’à réussir et peut aussi apprendre de ses erreurs et de ses autres essais pour faire sa tâche de mieux en mieux.
Avant de s’imaginer un scénario à la Terminator, précisons tout de même qu’il faut à un programme plusieurs dizaines de millions d’essais pour maîtriser un niveau de Super Mario, et uniquement un seul niveau. Cependant le concept même à des applications étonnantes dont les deepfakes. Un programme se retrouve à apprendre à reconnaître un visage dans une vidéo afin d’en créer une version numérique qu’il pourra moduler plus facilement. Le programme traite ensuite une autre vidéo de la même manière, et essaie d’appliquer le visage de la première vidéo par-dessus celui de la deuxième vidéo en imitant les différentes expressions faciales. Les premiers milliers d’essais sont assez rudimentaires et non convaincants, mais après plusieurs dizaines d’heures de calculs et des dizaines de milliers d’itérations, le programme peut facilement remplacer les visages sur une vidéo d’une petite poignée de minutes avec un résultat pouvant convaincre une grande partie de la population.
… puis un peu de mise en pratique
Le résultat joue beaucoup sur le flou et la qualité de la vidéo doit rester basse afin de pouvoir masquer certains détails grossiers du procédé. Un des exemples les plus récents reste la pub pour la recherche contre le SIDA où on peut y voir un deepfake de Donald Trump annonçant la fin du SIDA (https://youtu.be/8dKux8-ZmCI). Un œil averti pourra y déceler la supercherie et le son de sa voix semble différent. Là où cette pub n’a pas pour but de se jouer de nous mais provoquer un choc à la réaction de cette annonce fictive, afin de rappeler que la lutte que le SIDA continue, d’autres vidéos circulent avec un but beaucoup moins noble.
Certains deepfakes qui circulent ont pour objectif de faire dire des atrocités à certains personnages politiques et de les décrédibiliser, ou encore de réaliser des contenus pornographiques à l’insu d’une personne en se servant uniquement d’une vidéo ou d’une sélection de photos. Il existe également des logiciels se basant sur le même principe pour reproduire le son de la voix d’une personne, en se basant sur des extraits déjà existants. Ces méthodes combinées peuvent ainsi créer de véritables « bombes de désinformation » pouvant berner et potentiellement offusquer un très large public.
Pour s’en défendre une seule solution : en visionner plusieurs, certains détails flagrants peuvent permettre de déceler un deepfake. Certaines chaînes Youtube (comme par exemple Ctrl Shift Face https://www.youtube.com/channel/UCKpH0CKltc73e4wh0_pgL3g ) s’amusent parfois à changer les acteurs de certaines scènes de films, un bon moyen de s’entraîner.