Selon un rapport du laboratoire d’innovation d’Europol, une plus grande vigilance sera de mise dans les années à venir quant à la véracité des contenus que nous consultons en ligne. En effet, les experts estiment que jusqu’à 90% du contenu en ligne pourrait être généré artificiellement d’ici 2026, ouvrant la voie à une désinformation croissante, qui favorisera à son tour la prolifération de crimes reposant sur l’utilisation de « deepfakes ».
Aujourd’hui, dans la plupart des cas, les médias artificiels — soit les médias générés ou manipulés à l’aide de l’intelligence artificielle — sont générés dans le cadre du divertissement, pour améliorer les services ou pour améliorer la qualité de vie. Mais la multiplication de ces médias artificiels et l’amélioration des technologies ont donné lieu à des possibilités de désinformation, prévient le rapport du laboratoire d’innovation d’Europol, intitulé « Facing Reality ? Law enforcement and the challenge of deepfakes ».
Les progrès de l’intelligence artificielle, associés à la disponibilité publique de grandes bases de données d’images et de vidéos, entraînent une augmentation du volume et de la qualité des deepfakes. Ce rapport donne un aperçu détaillé de l’utilisation criminelle de ces faux contenus, et liste les défis auxquels sont désormais confrontés les services répressifs pour détecter et prévenir leur utilisation. Falsification de preuves, fausses vidéos pornographiques ou fraude au PDG (un escroc se faisant passer pour le PDG contacte le service comptabilité d’une entreprise et lui intime de faire un virement prétextant une opération financière importante), voilà le genre de crimes graves rendus possibles par les deepfakes.
Des nouvelles technologies qui créent de nouvelles menaces
Le deepfake (ou hypertrucage) consiste à superposer des fichiers vidéo ou audio existants à d’autres fichiers multimédias dans un but malveillant. On change ou l’on ajoute le visage d’une personne et/ou on lui fait dire des propos qu’elle n’a pas tenus pour lui nuire, lui donner une mauvaise image. Certains trucages sont particulièrement convaincants. « Les enregistrements auditifs et visuels d’un événement sont souvent traités comme un compte rendu véridique d’un événement. Mais qu’en est-il si ces médias peuvent être générés artificiellement, adaptés pour montrer des événements qui n’ont jamais eu lieu, pour déformer les événements ou pour déformer la vérité ? », avertissent les auteurs du rapport.
Les deepfakes reposent sur des technologies de plus en plus sophistiquées (deep learning, réseaux antagonistes génératifs, etc.) et sont plus réalistes que jamais (grâce aux données d’entraînement toujours plus nombreuses) et leur impact sur la vie privée entraînera sans doute l’apparition de nouvelles catégories de délits qu’il faudra surveiller, préviennent les experts, qui se disent « particulièrement préoccupés par la militarisation des médias sociaux et l’impact de la désinformation sur le discours public et la cohésion sociale ».
À titre d’exemple, le rapport évoque le fait que les États-Unis ont dénoncé un complot russe reposant sur de fausses vidéos pour justifier l’invasion de l’Ukraine (et ce, avant le début du conflit). Puis, après l’invasion, les responsables du gouvernement ukrainien ont averti que la Russie pourrait diffuser des deepfakes montrant le président Volodymyr Zelenskyy en train de se rendre. « Des exemples comme celui-ci montrent que ce type de désinformation peut être dangereux. Son objectif est d’intensifier les conflits et les débats existants, d’ébranler la confiance dans les institutions publiques et de susciter la colère et les émotions en général », notent les experts. Or, cette perte de confiance peut rendre le travail des autorités beaucoup plus difficile.
Les experts déplorent la facilité avec laquelle il est aujourd’hui possible de créer une fausse alerte d’urgence avertissant d’une attaque imminente ou de perturber des élections (ou d’autres aspects de la politique) par la diffusion d’un faux enregistrement d’un candidat ou d’une autre personnalité politique. Une grande partie du contenu deepfake créé aujourd’hui est identifiable par des méthodes manuelles, qui reposent sur l’identification par des opérateurs humains de signes révélateurs dans les images et les vidéos concernées. Mais il s’agit d’une tâche nécessitant une main-d’œuvre importante et qualifiée, qui n’est pas exploitable à grande échelle.
Un phénomène croissant, mais méconnu
Une autre difficulté à laquelle sont confrontées les autorités est que, même aujourd’hui, le public lui-même semble peu informé des dangers inhérents aux deepfakes. Des recherches menées en 2019 ont montré que près de 72% des personnes interrogées dans le cadre d’une enquête britannique n’étaient pas au courant des deepfakes et de leur impact, précise le rapport.
Ce chiffre est particulièrement inquiétant, car il signifie que la plupart des gens sont incapables d’identifier ces faux médias. Mais les résultats d’expériences plus récentes ont malheureusement montré qu’une sensibilisation accrue aux deepfakes n’augmente pas nécessairement les chances de les détecter. C’est pourquoi les spécialistes s’attendent à ce que leur utilisation à des fins malveillantes augmente encore dans les années à venir.
Ils soulignent par ailleurs que le déploiement de la 5G profitera largement aux créateurs de faux contenus : la bande passante supplémentaire offerte par la 5G leur permettra d’exploiter la puissance du cloud computing pour manipuler des flux vidéo en temps réel. Les technologies du deepfake pourront potentiellement être appliquées dans les contextes de vidéoconférence ou de streaming en direct.
Le monde numérique évolue aujourd’hui à un rythme particulièrement soutenu, dans un contexte socio-économique et climatique mondial particulièrement fragile. Si tout le monde n’est pas apte à saisir pleinement les technologies mises en jeu (et ce qu’elles permettent de faire), l’essentiel est de garder un esprit critique et ne pas considérer comme systématiquement vraies toutes les informations vues sur le Web.
En parallèle, il est crucial que les organismes chargés de l’application de la loi, les fournisseurs de services en ligne et d’autres organisations disposent des compétences et des technologies adéquates s’ils veulent suivre le rythme croissant de l’utilisation criminelle des deepfakes, souligne le rapport. Ces technologies préventives incluent notamment des protections techniques contre la falsification de vidéos (sous forme de marqueurs d’authenticité) et la création de logiciels de détection de deepfakes (conçus pour repérer des désaccords entre la dynamique de la bouche et les mots prononcés, des incohérences au niveau des mouvements du visage ou des changements naturels de la couleur de la peau). La prévention et la détection des deepfakes doivent désormais être la priorité des forces de l’ordre.