Que sont les deepfakes ?

Les deepfakes sont des actifs qui peuvent inclure de l'audio, des visuels ou du texte truqués créés à l’aide de l’IA générative (GenAI). Des cybercriminels les utilisent pour manipuler des cibles et les inciter à fournir volontairement des données sensibles.

Vidéos deepfakes

Les vidéos deepfakes créent des vidéos réalistes et crédibles, de plus en plus difficiles à identifier comme étant générées par l’IA, et présentent ainsi un risque important pour la sécurité des données. Elles représentent souvent des personnes connues, comme des personnalités politiques et des célébrités, mais elles peuvent également capturer l'apparence d'autres personnes. Selon l’objectif de leur créateur, elles peuvent être utilisées pour répandre de la désinformation, escroquer une personne ou une organisation, ou demander des données sensibles et/ou des fonds.

Les vidéos deepfakes sont générées via une analyse complexe du contenu source. Des détails essentiels, comme les traits et les mouvements du visage, les dimensions, la couleur de la peau, des cheveux et des yeux, et le langage corporel sont fournis à l’IA pour qu’elle génère une représentation aussi précise que possible. Cela concerne également l'arrière-plan : si le bureau, la salle ou un autre cadre dans lequel le sujet apparaît est bien connu, l'acteur malveillant s’efforcera de le reproduire de la manière la plus fidèle possible, à l’aide d’images et de vidéos source.

Clonage vocal

Semblable à la génération de vidéos deepfakes, l’audio peut être généré avec l’IA grâce au support d’entraînement disponible en ligne. Les sources de référence comprennent souvent des messages vocaux, des appels téléphoniques, des apparitions d'invités dans les podcasts et les enregistrements d'actualités, et des vidéos authentiques contenant de l’audio d’une personne clé ou d'un groupe.

L'audio généré peut paraître très convaincant et est très proche du support source pour être aussi crédible que possible. L’outil d’IA générative utilisé par l'acteur malveillant analyse plusieurs détails clés, notamment le ton, l’intonation, le schéma de discours, la clarté, l’énonciation et l’émotion audible des personnes qui s’expriment dans les supports de référence.

Cheapfakes

L’IA générative permet de créer des deepfakes d'audio et de vidéo, mais les cheapfakes renoncent à l’utilisation de ces technologies. Ils sont généralement créés manuellement pour tromper des personnes ou des groupes. Il s'agit souvent d’illusions optiques, audio ou textuelles conçues pour tromper les personnes qui ne sont pas très attentives, par exemple en créant un sentiment d’urgence ou une détresse émotionnelle. Comme indiqué par l’U.S. Department of Homeland Security, les cheapfakes précèdent l’ère du numérique, ce qui signifie que les acteurs malveillants s'appuient sur plusieurs siècles pour apprendre mutuellement et affiner leurs capacités.

Approches des cheapfakes

  • Découpe physique et collage de film
  • Écoute téléphonique et/ou collage de fragments de phrases enregistrées et/ou de phrases complètes
  • Ralentissement ou accélération du contenu vidéo et/ou audio pour créer l’effet ou la suggestion souhaité(e)
  • Tournage et/ou enregistrement de personnes ressemblantes, physiquement ou vocalement, et posant comme la personne visée
  • Image de synthèse à petit budget et de mauvaise qualité, technologie de motion capture et fonds verts

Exemples de deepfakes et de cheapfakes

Les acteurs malveillants utilisent les deepfakes et/ou les cheapfakes pour servir différents objectifs, notamment les suivants :

  • Manipulation de nouveaux employés pour les pousser à donner des informations de l’entreprise et/ou personnelles
  • Pose imitant celle d’une célébrité ou d'une figure politique pour obtenir des fonds et/ou répandre des fausses informations
  • Falsification de circonstances telles que des sinistres, des blessures ou la mort pour toucher les assurances
  • Tromperie pour pousser des personnes à utiliser des sites Web falsifiés qui leur paraissent authentiques
  • Manipulation d'actions et d’investissements en empruntant l'apparence d’un dirigeant
  • Création d’un embarras et/ou de dommages à la réputation des individus

Mesures de protection

Vous pouvez mettre en place plusieurs étapes pour réduire le risque d’être ciblé par un deepfake ou un cheapfake. Il s'agit notamment des mesures suivantes, dont plusieurs sont recommandées par la National Cybersecurity Alliance :

  • Filtrage des appels entrants de numéros inconnus pour les laisser tomber sur le répondeur
  • Configuration de l’authentification multifacteur sur tous les comptes en ligne
  • Utilisation de mots de passe uniques, longs et complexes
  • Mise en place d’une webcam avec un obturateur physique pour couvrir l’objectif lorsque vous ne l’utilisez pas
  • Ajout d’un filigrane numérique à vos photos et/ou vidéos avant de les partager
  • Confirmation de détails en personne qui ont été divulgués en ligne ou par téléphone (si faisable)
  • Détection des détails dans les emails suspects, comme la ponctuation, le ton et les fautes d’orthographe

Utilisation des principes de Zero Trust et des solutions de détection de deepfakes

Dans le monde de la cybersécurité, il est essentiel d'adopter une approche Zero Trust. En matière de protection contre les deepfakes, ses principes peut être considérés comme un modèle pour minimiser les risques. Par exemple :

  • S'assurer que les processus d'authentification et d'autorisation sont en place et respectés
  • Réguler et surveiller de manière proactive l’accès des utilisateurs aux données et aux réseaux
  • Supposer une violation lors de la détection d’une menace et minimiser l'impact

En outre, des solutions d’inspection et de détection de deepfakes peuvent aider à protéger l’identité, le bien-être et les données des utilisateurs. Ces outils sont essentiels à l’ère de l'innovation de l’IA en accélération constante, car les deepfakes sont souvent difficiles à détecter manuellement pour des humains. « Nous pouvons nous attendre à ce que la tâche de détection devienne plus difficile à mesure que les algorithmes de synthèse vocale s'améliorent et deviennent plus réalistes », selon un rapport détaillé de la National Library of Medicine de 2023 sur le sujet. « La difficulté à détecter les deepfakes vocaux confirme leur potentiel d’utilisation malveillante et indique que des défenses contre cette menace sont essentielles. ». 

Recherches associées

Articles associés