La vidéo d’Emmanuel Macron chantant Alouette ou encore celle de Marine Le Pen dansant sur Waka Waka vous ont probablement fait sourire. Ces vidéos, appelées communément deepfake, inondent les réseaux sociaux et divertissent le public. Mais derrière leur côté humoristique, elles masquent une réalité beaucoup plus préoccupante. Entre l’usurpation d’identité et la désinformation, cette technologie soulève des questions éthiques et sociétales qui ne peuvent être ignorées. Quels sont les dangers des deepfakes ?
Qu’est-ce que le deepfake ?
Le deepfake ou hypertrucage est un contenu multimédia falsifié à l’aide de l’intelligence artificielle. Ce terme est un mot-valise issu de :
- Deep Learning ou apprentissage profond, une technique d’apprentissage automatique sous domaine de l’intelligence artificielle.
- Fake, qui signifie littéralement faux, soulignant la nature trompeuse de ces contenus.
Le deepfake repose sur l’utilisation d’algorithmes d’intelligence artificielle pour remplacer le visage, la voix ou même les gestes d’une personne dans une vidéo par ceux de quelqu’un d’autre. Une autre méthode consiste à partir de simples photos et à recréer un visage en 3D, en y ajoutant des animations faciales. Le résultat final donne l’impression d’être une vidéo authentique, alors qu’en réalité, tout est entièrement truqué.
Le deepfake trouve son origine dans les progrès de l’apprentissage automatique, en particulier des techniques de deep learning. Le terme devient populaire en 2017, lorsque le redditor Deepfakes a commencé à publier des vidéos truquées pour adultes mettant en scène des célébrités. Il a créé le groupe r/deepfakes sur le réseau social, attirant rapidement l’attention des utilisateurs. La plateforme l’a banni en février 2018, interdisant de telles pratiques.
Grâce aux progrès technologiques, le deepfake est devenu plus accessible au grand public. Selon une étude de Statista en mars 2024, le nombre de deepfake a connu une forte hausse de 2022 à 2023 au niveau mondial, comme le montre l’image suivante.
Quelles sont les technologies qui permettent le deepfake ?
La création de deepfakes repose sur des techniques d’intelligence artificielle avancées. Ces techniques vont de la simple substitution de visages à des manipulations complexes de voix et de mouvements. Les plus utilisés sont :
- Réseaux de neurones génératifs adversaires (GANs) : Ce sont des modèles d’apprentissage automatique qui apprennent à générer de nouveaux contenus similaires à ceux sur lesquels ils ont été entraînés. L’apprentissage se base sur l’itération consistant à répéter la même opération jusqu’à obtenir le résultat le plus précis possible. Grâce à cette technique, l’IA peut générer de nouveaux visages ou de nouvelles voix qui ressemblent à ceux de la personne cible.
- Face swapping : Cette technique consiste à remplacer le visage d’une personne par celui d’une autre.
- Face reenactment ou puppeteering : En utilisant cette technique, l’IA permet de transférer les expressions faciales et les mouvements d’une personne (source) vers une autre personne (cible). Les expressions deviennent alors plus réalistes.
- Reconstruction labiale (lip-sync) : Cette technique synchronise les mouvements des lèvres d’une personne avec des paroles qu’elle n’a pas réellement prononcées.
- Neural Rendering : Cette technique utilise des réseaux neuronaux pour rendre des images et des vidéos en simulant la lumière et les textures de manière réaliste. Elle est utilisée pour améliorer la qualité des deepfakes et les rendre plus crédibles.
Exemples d’outils IA pour la création de deepfake
Si auparavant, la technologie des deepfakes était principalement l’apanage des professionnels du cinéma, aujourd’hui plusieurs outils IA ont rendu la création de deepfake plus accessible. Voici quelques-uns des plus connus :
-
- ⚡️ DeepFaceLab : C’est un des outils les plus populaires pour créer des deepfakes. Il offre des fonctionnalités avancées pour le remplacement de visages dans les vidéos.
- ⚡️ Faceswap : Un outil open-source pour les novices, l’application dispose d’une communauté active pour le support.
- ⚡️ Zao : Une application mobile qui permet de créer des deepfakes de manière très simple. Elle est plus orientée vers le grand public que vers les professionnels.
- ⚡️ Reface : Semblable à Zao, Reface permet aux utilisateurs de superposer leur visage sur des vidéos ou des images, et est disponible sur les plateformes mobiles.
- ⚡️ Avatarify : Un outil qui utilise des modèles de deep learning pour animer des visages en temps réel, utilisé pour des visioconférences et des appels en ligne.
Comment reconnaître un deepfake ?
Il est de plus en plus difficile de reconnaître un deepfake, car la technologie derrière ces vidéos est de plus en plus sophistiquée. Selon un sondage de l’IFOP en 2024, seuls 33 % des Français estiment qu’ils peuvent identifier un faux contenu, les jeunes de moins de 35 ans étant plus confiants dans leur capacité. Mais lors du test les confrontant à 5 deepfakes, 94 % des participants se sont trompés dans leurs réponses.
Les méthodes traditionnelles comme vérifier les incohérences visuelles ou encore la qualité de la vidéo ou de l’audio ne sont plus suffisantes. Dans ce contexte, remettre constamment en question la véracité des informations est important. Il faut donc garder un esprit critique et vérifier systématiquement la fiabilité de la source.
En parallèle, des chercheurs en cybersécurité ont développé des IA pour détecter les deepfakes. Toutefois, la tâche est complexe : à chaque fois qu’un modèle parvient à identifier un type de deepfake, un nouveau générateur est rapidement conçu pour échapper à ce détecteur.
Une solution serait d’agir à la source en authentifiant les vidéos originales dès la création, les rendant moins accessibles aux modifications. Les vidéastes peuvent par exemple utiliser des hachages ou des aterfacts numériques pour garantir l’intégrité des contenus et faciliter la détection de toute altération.
Quels sont les dangers des deepfakes ?
Certes, les deepfakes ouvrent de nouvelles perspectives dans les domaines du divertissement, de l’éducation ou encore de la recherche scientifique. Mais ces vidéos truquées posent également des menaces réelles lorsqu’elles sont utilisées de manière malveillante.
Escroqueries
Utilisé en ingénierie sociale, le deepfake est un moyen convaincant pour parfaire une escroquerie du type spear phishing. Les attaquants rassemblent le plus d’informations possibles sur l’employé ciblé pour pouvoir détourner une somme conséquente. Pas plus tard qu’en février dernier, une entreprise en Hong-Kong a perdu 25 millions de dollars suite à une arnaque au président. L’employé, d’abord sceptique, après avoir reçu un email, a été convaincu après une fausse visioconférence avec le directeur et ses collègues.
Fausses vidéos pornographiques
L’essor des deepfakes a entraîné une explosion des vidéos pornographiques truquées, mettant en scène des célébrités ou visant à nuire, le plus souvent à des jeunes femmes, dans des cas de revenge porn. Une étude de l’association Deeptrace révèle que 96 % des deepfakes disponibles en ligne sont de nature pornographique, dont 99 % s’attaque à des femmes. La banalisation de ce type de contenu peut avoir des répercussions sur la perception publique des femmes, contribuant à des stéréotypes dégradants.
La chanteuse Taylor Swift en a payé les frais récemment. X et Meta ont banni les comptes qui ont partagé le deepfake, mais la vidéo a tout de même atteint 45 millions de vues. L’affaire a pris une telle ampleur que la Maison-Blanche a été contrainte de réagir, appelant à une nouvelle législation pour mieux réguler l’utilisation des deepfakes.
Désinformation
Un autre danger du deepfake réside dans la désinformation. Les vidéos truquées peuvent être utilisées pour propager des théories de conspiration sur des questions politiques et sociales. La fausse vidéo de Mark Zuckerberg sur la collecte de données en est l’exemple. Elle a été publiée en 2019, suite au refus de Facebook de retirer un deepfake de la démocrate Nancy Pelosi.
Bien que les artistes aient clairement identifié la vidéo avec le hashtag #deepfake, le message fait tout de même réfléchir. Dans cette séquence, Zuckerberg déclare : “Quiconque contrôle les données contrôle le futur”.
Arme politique
Lors des élections parlementaires, des deepfakes de prétendus membres de la famille Le Pen ont circulé sur TikTok. Ces vidéos truquées peuvent ternir la réputation de personnalités politiques, mais également manipuler l’opinion publique de manière positive ou négative. Ce phénomène n’est pas nouveau, en 2020, des deepfakes de Donald Trump et Joe Biden ont semé le trouble, influençant les élections présidentielles américaines.
En 2022, on observe le même phénomène lors de l’invasion de l’Ukraine. Des vidéos truquées de Volodymyr Zelensky annonçant la reddition du pays ont circulé sur les réseaux sociaux. Bien que démenti par le principal intéressé, la circulation de ces deepfakes suggère des usages similaires dans d’autres contextes de conflit.
Usurpation d’identité
Un autre danger de l’IA concerne le vol d’identité. Les deepfakes peuvent utiliser l’image et la voix de la personne cible dans des publicités promouvant un produit ou une idéologie. Une enquête de Washington Post montre que les cybercriminels ciblent particulièrement les femmes.
L’influenceuse chrétienne Michel Janse a été la première à tirer la sonnette d’alarme. Elle a été choquée de tomber sur des vidéos dans lesquelles elle recommandait un produit lié aux problèmes érectiles. Olga Loeik, une youtubeuse ukrainienne vivant en Chine a, quant à elle, découvert des vidéos d’elle faisant l’éloge de la Russie.
Comment se protéger des deepfakes ?
La législation évolue pour faire face aux dangers posés par les deepfakes. En Californie, par exemple, deux lois adoptées l’année dernière, l’AB-602 et l’AB-730, imposent des restrictions importantes. L’AB-602 interdit la création de contenus pornographiques utilisant des images de personnes sans leur consentement. L’AB-730, quant à elle, interdit la manipulation d’images de candidats politiques dans les 60 jours précédant une élection.
En Europe, l’IA Act introduit une obligation de transparence, stipulée dans l’article 52. L’article impose aux utilisateurs de systèmes d’intelligence artificielle d’indiquer clairement si le contenu a été généré ou manipulé artificiellement.
En France en particulier, la loi n°2024-449 du 21 mai 2024 sur la sécurisation et la régularisation de l’espace numérique, intègre des dispositions concernant l’intelligence artificielle dans le Code pénal. Elle impose des sanctions sévères aux auteurs de deepfakes à caractère sexuel, pouvant aller jusqu’à trois ans d’emprisonnement et 75 000 euros d’amende.
Sécuriser ses données comme meilleure prévention
Si la loi prévoit des sanctions à l’encontre des dérives des deepfakes, la meilleure protection reste la prévention. Vous pouvez protéger vos données en limitant la quantité d’informations personnelles que vous partagez en ligne. Par exemple, évitez de publier des photos ou des vidéos de vous dans des contextes privés, car elles peuvent être utilisées pour créer des deepfakes.
Par ailleurs, assurez-vous de bien configurer les paramètres de confidentialité des applications que vous vous utilisez. Et si vous rencontrez un contenu suspect, n’hésitez pas à le signaler sur la plateforme pour en limiter les impacts.
En plus de ces gestes, vous pouvez sécuriser vos données avec un VPN fiable. En masquant votre adresse IP et en chiffrant vos communications, le VPN vous permet de naviguer sur le web sans craindre que vos informations personnelles soient interceptées par des hackers ou des agences de surveillance.
Pour protéger votre vie privée, CyberGhost VPN applique une politique No Logs stricte. Nous ne conservons aucune trace de votre connexion sur nos serveurs. Vos données personnelles resteront ainsi privées, puisqu’elles ne peuvent ni être consultées ni partagées, même en cas de demande légale. Découvrez tous les détails dans notre rapport de transparence.
Quel est l’avenir des deepfakes ?
Alors que la technologie continue d’évoluer, les applications des deepfakes vont probablement se diversifier. Par exemple, dans le cinéma, vous pourrez choisir d’être le personnage principal du film. Dans le domaine de l’éducation, les deepfakes permettent des simulations réalistes et plus compréhensibles de concepts complexes.
Cependant, cette avancée technologique pose également des défis majeurs en matière de désinformation et de sécurité. À mesure que les outils pour créer des deepfakes deviennent plus accessibles, la capacité de manipuler la perception de la réalité s’accroît, rendant plus difficile la distinction entre le vrai et le faux.
Pour contrer ces menaces, la législation autour des deepfakes devra s’adapter pour mieux protéger les citoyens tout en favorisant l’innovation. Promouvoir une utilisation éthique de cette technologie est nécessaire pour en maximiser les bénéfices tout en minimisant les risques associés.
FAQ
Vous pouvez détecter les incohérences à l’œil nu ou utiliser un logiciel de détection de deepfake. Mais le meilleur moyen de prévenir les deepfakes est de vérifier la fiabilité des sources.
Il est de plus en plus difficile de détecter les photos deepfake. Mais quelques indices comme les ombres, les reflets et les textures de la peau peuvent vous aider à les identifier. Les outils IA peuvent également repérer les incohérences dans les images.
Pour identifier un appel vidéo deepfake, observez les mouvements de la bouche et des yeux, qui peuvent ne pas correspondre au discours ou aux émotions. Vérifiez aussi la qualité de l’image. Des artefacts visuels ou des décalages peuvent révéler une manipulation.
Le deepfake n’est pas intrinsèquement illégal, tout dépend de son utilisation. Si le deepfake enfreint les lois sur la vie privée, la diffamation ou la propriété intellectuelle, il peut devenir illégal.
Les deepfakes, lorsqu’ils sont utilisés à des fins malveillants, présentent des risques de désinformation, d’usurpation d’identité et de manipulation de l’opinion publique. Ils peuvent également nuire à la réputation et être utilisés dans des fraudes.
Un VPN ne vous protège pas directement contre les deepfakes, mais il sécurise vos données personnelles et votre connexion, en particulier sur les réseaux Wifi publics. Le VPN réduit donc les risques d’être la cible d’usurpation d’identité. Pour renforcer votre confidentialité en ligne, optez pour un VPN No Logs. CyberGhost VPN vous offre 45 jours garantie satisfait ou remboursé pour tester le service.
Laisser un commentaire