20/02/2018
Sans doute avez-vous entendu parler des deepfakes porno, ces trucages video malveillants qui se sont déversés sur la toile ces dernières semaines. Mais en quoi consiste cette technique, basée sur l’intelligence artificielle, qui vise à remplacer le visage d’une personne par celui d’une autre dans une vidéo ? Et quelles conséquences peut avoir cette technologie, à la fois magique et dangereuse ?
Alors que le contenu de la future loi sur les fake news, promise par le président de la République Emmanuel Macron, se précise, une autre tendance, toute aussi fatale pour nos sociétés de l’information, pour l’e-reputation et même pour la cybersecurité voit le jour : le deepfake.
Remplacer un visage par un autre
Basée sur le deep learning et propulsée grâce à la démocratisation du développement de l’intelligence artificielle, cette technique apparue pour la première fois sur le forum Reddit en septembre dernier, permet grâce à un algorithme de remplacer un visage par un autre dans des vidéos ou des photos.
C’est surtout sous la forme de deepfakes porno que la tendance a déferlé sur les réseaux sociaux (le visage d’un acteur ou d’une actrice en plein ébat est alors remplacé par celui d’une personne célèbre), mais aussi de deepfakes humoristiques (comme ceux dédié à l’acteur Nicolas Cage, qui se voit propulsé dans des situations plutôt inattendues). Un sousreddit (sujet thématique sur Reddit) consacré aux films pornos réalisés à partir d’intelligence artificielle, baptisé CelebFakes, est même passé de 15 000 membres à 90 000 entre fin janvier et le 6 février, date à laquelle Reddit a finalement décidé de le supprimer.
Des applications étonnantes
Certains jouent aujourd’hui gentiment avec les deepfakes. C’est par exemple le cas des petits malins publiant de multiples vidéos mettant en scène le pauvre Nicolas Cage, l’une des victimes préférées des réseaux sociaux.
Ou encore ce mari, qui s’est amusé à propulser sa femme dans l’émission télévisée Tonight Show, présentée par Jimmy Fallon, en remplaçant le visage de l’actrice Anne Hathaway par celui de sa bien aimée.
Mais cela peut aller plus loin : il y a moins d’un an, des scientifiques de l’Université de Washington publiaient le fruit de leur travail, Synthesizing Obama. Grâce à de nombreuses heures de séquences vidéo de l’ancien président des Etats-Unis, ces chercheurs ont réussi à constituer un réseau neuronal récurrent ayant appris toute les mimiques et formes possibles que prend la bouche du président américain lorsqu’il parle, et ainsi à créer des mouvements pouvant correspondre à n’importe quelle piste audio. Le résultat est saisissant, puisque ces chercheurs peuvent désormais lui faire tenir des propos qu’il n’avait jamais prononcés.
Quelques mois plus tard, le programme Face2Face réussissait à faire bouger et parler, en temps réel et à l’aide d’une webcam, Georges W. Bush, Vladimir Poutine ou encore Arnold Schwarzenegger : là aussi, la prouesse est stupéfiante, puisqu’il est désormais possible de leur faire dire à peu près n’importe quoi.
N’importe qui peut jouer à l’apprenti sorcier
Et l’outil qui se cache derrière les deepfakes n’en restera certainement pas là. Baptisé TensorFlow, il a vu le jour au sein d’une écurie surpuissante bien connue, Google, qui l’a déployé en open source en 2015. Basé sur des techniques de deep learning, il est particulièrement efficace pour le traitement d’images de visages et est aujourd’hui glorifié par la plupart des spécialistes de l’intelligence artificielle.
Il faut dire que l’open source permet à n’importe qui de télécharger TensorFlow, de le paramétrer, de le bidouiller, et bien sûr de l’optimiser pour des tâches particulières. C’est ainsi qu’un internaute a mis en ligne sur Reddit, quelques jours à peine après les premières publications de deepfakes porno, une application baptisée FakeApp, qui permet à n’importe qui de jouer à l’apprenti sorcier vidéo. Et l’émulation dans le domaine est galopante : toujours sur la plateforme Reddit, le sujet “Machine Learning”est suivi par près de 230 000 personnes.
Comment ça marche ?
Concrètement, si l’on veut schématiser la création d’un deepfake, il faut d’abord faire analyser par le programme d’intelligence artificielle une séquence vidéo, image par image. Pour remplacer le visage d’un protagoniste par un autre, il faut ensuite fournir au programme environ un millier d’images de la personne que l’on veut intégrer dans le film. C’est toute cette matière ingurgitée qui lui permettra ensuite d’intégrer les traits du nouveau protagoniste tout en conservant les expressions du visage du film original. Un processus qui peut prendre plusieurs heures, même pour une petite séquence.
Des applications dangereuses
A la fois prodigieuse et effrayante, cette nouvelle application de l’intelligence artificielle doit être surveillée de très près car elle contribue à faire tomber une fois de plus la barrière, toujours plus fine, qui existe entre réalité et fiction. Certes, plusieurs plateformes, à l’image de Reddit, comme Twitter ou encore Pornhub, ont décidé de combattre les deepfakes porno.
Mais au delà du porno, les applications possibles du deepfake sont tellement multiples et dangereuses qu’elles pourraient avoir de graves conséquences sur l’e-reputation des personnes et des entreprises et bien sûr à un niveau politique : intégration dans une vidéo compromettante, modification des propos tenus dans une vidéo, chantage à la diffusion ou encore de graves menaces à la cybersécurité (ex: usurpation d’identité dans le cadre de la reconnaissance faciale).
Alors que la désinformation menace toujours plus nos sociétés et que la lutte contre les fake news bat son plein, il faudra très vite intégrer dans ce combat une nouvelle cible : la manipulation des images et l’usurpation d’identité vidéo.
Source : Archimag, Clémence Jost