D’ici six mois, il sera peut-être impossible de distinguer le vrai du faux dans une vidéo sur Internet

Les fameuses "deepfakes" continuent leur expansion sur Internet. Ces vidéos truquées se perfectionnent tant qu'un chercheur chinois, pionnier de la technologie, prédit sa rapide démocratisation.

©Screenshot Youtube

Plutôt confidentielles il y a encore quelques mois, les deepfakes ont inondé l’Internet européen jusqu’à posséder aujourd’hui leur équivalent francophone. Un nom bien barbare : les permutations intelligentes de visages (PIV). Si le procédé impressionne techniquement, prétendre qu’il est intelligent serait manquer de discernement. Car jusqu’ici, les deepfakes ont surtout été utilisées, au mieux, pour déconner, au pire pour nuire.

Et elles pourraient, selon l’un de ses pionniers, se démocratiser au point de devenir indétectables et, surtout, à la portée de tous… dans les six à douze mois. C’est Hao Li, professeur associé à l’université de Southern California, qui l’a annoncé. « En fait, nous savons déjà comment fabriquer ces deepfakes parfaites. Perfectionner la manipulation des images n’est qu’une question de temps et de ressources, et cela devient de plus en plus facile. Nous assistons à une course aux armements entre la manipulation d’images numériques et les moyens de la démasquer. »

Pour rappel, il s’agit d’intégrer le visage d’une personne dans une vidéo dès lors truquée, ou de modifier l’audio pour lui faire dire n’importe quoi. Une technique invitant évidemment à la désinformation qui inquiète depuis son apparition sur Internet au début de l’année 2018. À l’époque, les deepfakes apparaissent sur le forum américain Reddit via le logiciel Fakeapp. Les vidéos combinaient le plus souvent le visage d’une personnalité (Taylor Swift, Gal Gadot, Daisy Ridley…) avec le corps d’une actrice porno. Ou plaçaient Nicolas Cage dans toutes les postures possibles et imaginables. Et on doit reconnaitre que ça, c’était drôle. On s’éclatait à l’époque en découvrant l’acteur en Lois Lane, en Forest Gump, en Lawrence d’Arabie… Mais s’il est parvenu à quelque peu distraire les apprentis-sorciers du X, cela n’a pas duré et comme le veut la loi numéro 34 d’Internet, « si cela existe, il y a forcément une version porno. »

De Fakeapp à ZAO

Rapidement considérée comme dangereuse, la technique inquiétait les forces de l’ordre. Aux Etats-Unis, de jeunes filles retrouvaient leur visage incrusté dans des vidéos X truquées sur mesure par leurs camarades de classe. Encore embryonnaire, la technique laissait donc déjà présager de nouveaux risques de harcèlement ou d’usurpation d’identité. Voici ce que nous disait Olivier Bogaert, commissaire en charge de la cybersécurité à la police fédérale et concepteur de la capsule « Surfons tranquille » sur Classic 21, en février 2018. « Ce qui m’interpelle et m’inquiète, c’est aussi le risque de multiplication des fake news. Avec cette technique, on peut facilement mettre des gens au cœur de situations désagréables. Par exemple, avec la problématique des migrants que nous vivons actuellement, la Sureté de l’Etat risque de perdre une énergie considérable à vérifier la véracité de certains documents. »

Partant de Fakeapp, encore très brouillonne, voire parfois pathétique, la technologie s’appuyant sur l’intelligence artificielle s’est rapidement perfectionnée. Pour aujourd’hui se démocratiser et laisser la possibilité aux programmeurs du dimanche de réaliser leurs propres trucages. L’application chinoise ZAO, qui permet de placer son visage dans des films populaires, cartonne depuis l’été et repousse les limites de la falsification. L’agence de presse Bloomberg estimait l’an dernier « qu’en 2025, personne ne saura ce qui est vrai ou faux sur Internet. Facebook, Twitter et Google cesseront d’exister. »

Il ne faudra vraisemblablement pas attendre aussi longtemps. Bien que touchés dans leur orgueil, les géants du Net ont décidé de participer à la lutte contre les deepfakes. Ils ont notamment décidé de mettre à disposition leurs bases de contenus contrefaits et de soutenir des projets capables de mieux les détecter. Mais la guerre s’annonce intense tant les programmeurs répondent rapidement à ces boucliers, semblant chaque jour un peu plus vouloir foutre le bordel et brouiller les frontières de la réalité.

Sur le même sujet
Plus d'actualité