Navigation

Comment les deepfakes changent notre vision de la réalité

Brain Light / Alamy Stock Photo

Les fausses vidéos très réalistes - ou deepfakes - ont démocratisé la manipulation du contenu visuel pour influencer l’opinion publique et diffuser la désinformation. Deux des principaux experts suisses en matière de deepfake expliquent pourquoi il est de plus en plus facile de tromper l’œil humain.

Ce contenu a été publié le 14 août 2021 - 11:00

Abraham Lincoln s’en servait pour paraître plus beau et accroître son aura présidentielle, Joseph Staline et Mao Tsé-toung l’utilisaient pour effacer leurs adversaires politiques de la surface de l’histoire: la manipulation d’images est au moins aussi ancienne que la photographie.

Contenu externe

Mais s’il fut un temps où seuls les plus expérimentés pouvaient complètement mystifier l’œil humain, c’est aujourd’hui devenu un jeu d’enfant. Il suffit d’un logiciel téléchargé sur Internet, de quelques images prises çà et là sur les moteurs de recherche ou les réseaux sociaux, et n’importe qui peut créer de fausses vidéos et les diffuser comme une traînée de poudre sur le web.

Beaucoup de gens auront vu, par exemple, la fausse vidéo devenue virale de Tom Cruise jouant au golfLien externe ou de la reine Elizabeth II dansantLien externe lors de son allocution de Noël. «Désormais, il suffit d’une photo pour créer un bon deepfake», souligne Touradj EbrahimiLien externe, qui dirige le laboratoire de traitement des signaux multimédias à l’École polytechnique fédérale de Lausanne /EPFL).

Depuis plusieurs années, l’équipe de Touradj Ebrahimi se concentre sur les deepfakes et développe des systèmes de pointe pour vérifier l’intégrité des photos, vidéos et images circulant sur le Web. Le deepfake utilise l’intelligence artificielle pour générer des images synthétiques si réelles qu’elles trompent non seulement nos yeux, mais aussi les algorithmes utilisés pour les reconnaître. Cette technologie s’est révélée capable de superposer les visages de deux personnes différentes pour créer un faux profil ou une fausse identité.

Pour Touradj Ebrahimi et son équipe, la lutte contre les deepfakes est une course contre la montre et contre la technologie: la manipulation de l’information a explosé et est devenue un problème de sécurité nationale dans de nombreuses régions du monde avec l’avènement des réseaux sociaux. Des millions de personnes, ainsi que des entreprises et des gouvernements, peuvent créer du contenu et y accéder librement, mais aussi le manipuler.

Des pays comme la Russie, la Chine, l’Iran et la Corée du Nord sont considérés comme très actifs dans la diffusion de fake news, notamment par l’utilisation de deepfakes, tant à l’intérieur qu’à l’extérieur de leurs frontières nationales, indique Touradj Ebrahimi. Tout récemment, par exemple, un membre du Parlement européen a été victime d’une escroquerie orchestrée pour discréditer l’équipe d’Alexei Navalny au moyen de faux appels vidéo imitant des personnalités de l’opposition russe.

L’œil veut sa part (de vérité)

Une étudeLien externe du MIT a montré que les fausses nouvelles se propagent jusqu’à six fois plus vite que les vraies sur Twitter. Selon Touradj Ebrahimi, le phénomène des deepfakes est donc particulièrement inquiétant. «Les deepfakes sont un moyen très puissant de désinformation, car les gens ont encore tendance à croire ce qu’ils voient», avertit le chercheur.

La qualité des vidéos ne cesse également d’augmenter, rendant de plus en plus difficile la distinction entre le vrai du faux. «Un État disposant de ressources illimitées ou presque peut créer aujourd’hui déjà des vidéos contrefaites qui sont si réelles qu’elles trompent même les yeux les plus expérimentés», explique Touradj Ebrahimi. Des logiciels sophistiqués peuvent encore reconnaître les manipulations, mais le professeur de l’EPFL estime que même les machines ne seront plus en mesure de distinguer les vrais contenus des faux d’ici deux à cinq ans.

Contenu externe

«Toujours plus de manipulations»

Au début, les fausses vidéos étaient principalement utilisées pour créer des clips amusants d’acteurs et d’autres personnes connues ou dans les jeux vidéo. Certaines de ces vidéos peuvent avoir des applications positives, souligne Touradj Ebrahimi. «Les deepfakes ont déjà été utilisés en psychothérapie, pour soulager la souffrance de ceux qui ont perdu un être cher», explique le professeur.

Cela s’est produit aux Pays-Bas, où un parent en deuil a créé un deepfake de sa fille décédée prématurément, afin de lui dire adieu. Le site de généalogie MyHeritage est capable de faire quelque chose de similaire: grâce à son outil DeepNostalgiaLien externe, il peut «ressusciter» des parents décédés en animant leur visage sur des photographies.

Mais avec les progrès technologiques, les deepfakes sont devenus un outil efficace de dénigrement, notamment au détriment des femmes, ou un moyen d’extorquer de l’argent et de manipuler l’opinion publique. Les cybercriminels les ont même exploités pour inciter des entreprises à leur envoyer de l’argent en se faisant passer pour le PDG et en simulant une demande urgente de virement bancaire.

«Pour l’instant, il n’y a que quelques manipulations de ce genre, mais à mesure que la technologie mûrit, nous en verrons de plus en plus», prédit Sébastien MarcelLien externe, chercheur à l’institut de recherche suisse IdiapLien externe, l’un des spécialistes mondiaux de l’intelligence artificielle et perceptuelle. Il explique que la technologie deepfake actuelle ne permet de manipuler que le contenu visuel, mais pas l’audio. Les voix, quand elles ne sont pas extraites d’autres vidéos, sont imitées par un professionnel.

«Les fakes audio représentent encore un défi, mais à l’avenir, nous verrons des deepfakes ultraréalistes, capables de reproduire fidèlement l’image et la voix de n’importe qui en temps réel», estime le chercheur. À ce moment-là, des manipulations telles que la création d’un faux scandale concernant un rival ou un concurrent commercial, par exemple, deviendront facilement possibles.

Nier la réalité

Au fur et à mesure que la sensibilisation aux deepfakes augmente, l’incertitude quant à ce qui est réel et ce qui ne l’est pas peut avoir un effet inattendu et créer une culture de «déni plausible» dans laquelle personne n’est prêt à prendre ses responsabilités parce que tout pourrait être truqué, affirme la chercheuse Nina SchickLien externe dans son livre Deepfakes: The Coming Infocalypse.

Même les vidéos réelles peuvent être confondues avec du contenu manipulé. Au Gabon, le président Ali Bongo, qui avait été absent de la scène publique pendant plusieurs semaines afin d’être soigné à l’étranger, a été pris pour un deepfake, ce qui a provoqué le soulèvement d’une poignée de soldats putschistes.

«Les deepfakes pourraient donner à n’importe qui le pouvoir de falsifier n’importe quoi, et si tout peut être falsifié, alors n’importe qui peut prétendre à un déni plausible», argumente Nina Schick. L’experte estime qu’il s’agit là de l’un des plus grands dangers sociaux posés par les deepfakes. 

Combattre la culture des «fake news»

La bonne nouvelle est que l’Union européenne n’a pas pris le problème à la légère. Des projets de financement comme Horizon Europe encouragent la recherche sur les vidéos truquées. «Nous nous attendons à voir davantage d’appels de l’UE sur les deepfakes dans les années à venir», déclare Sébastien Marcel.

Sur le plan technique, s’attaquer aux deepfakes signifie être proactif et se concentrer sur les vulnérabilités des systèmes. «Mais ce n’est pas toujours aussi simple, avertit le chercheur de l’Idiap. Les processus académiques pour obtenir des financements sont lents». Pendant ce temps, les technologies qui sous-tendent les deepfakes se développent de plus en plus rapidement.

Touradj Ebrahimi et Sébastien Marcel s’accordent à dire que pour lutter contre les fake news, il est essentiel de sensibiliser et d’éduquer la population, afin qu’elle développe une conscience critique et un sens plus profond de la responsabilité civique. «Nous devons apprendre à nos enfants à remettre en question ce qu’ils voient sur Internet, affirme Touradj Ebrahimi, et à ne pas diffuser n’importe quel contenu sans discernement.»

Les commentaires ont été désactivés pour cet article. Vous pouvez trouver un aperçu des conversations en cours avec nos journalistes ici. Rejoignez-nous !

Si vous souhaitez entamer une conversation sur un sujet abordé dans cet article ou si vous voulez signaler des erreurs factuelles, envoyez-nous un courriel à french@swissinfo.ch.

Partager cet article

Joignez-vous à la discussion

Avec un compte SWI, vous avez la possibilité de faire des commentaires sur notre site web et l'application SWI plus.

Connectez-vous ou inscrivez-vous ici.