Au centre du conflit Israël-Hamas, la désinformation est devenue un vrai outil de guerre, visant à manipuler les perceptions, affaiblir l’adversaire et influencer l’opinion publique. Avec l’essor de l’IA, cette pratique est devenue encore plus facile à mettre en œuvre. Parallèlement à la création de nouvelles IA génératives, les entreprises technologiques du secteur devraient également concevoir des outils fiables pour reconnaître les deepfakes.
Depuis le début de la guerre le 7 octobre, des images montrant des bébés dans des décombres inondent les réseaux sociaux. Cependant, parmi les contenus partagés, de nombreux étaient faux, générés par l’intelligence artificielle. En effet, l’actuel conflit entre Israël et le Hamas a vu l’émergence massive de deepfakes en tout genre.
Ces «fausses» images ne sont pas simplement des produits de technologies avancées, mais de véritables outils stratégiques. Elles visent à influencer l’opinion publique, à gagner du soutien ou à provoquer de l’indignation contre l’adversaire. Elles servent aussi à propager de fausses déclarations sur la responsabilité des victimes, attribuant de façon erronée des actes de violence à l’autre camp. Cette guerre numérique soulève des questions cruciales sur l’impact de l’IA sur la vérité en temps de conflit.
L’objectif ? Susciter des réactions émotionnelles
La plupart des images générées par IA publiées semblent avoir été conçues pour susciter des réactions émotionnelles immédiates chez les spectateurs. D’ailleurs, Henry Ajder, expert en deepfakes et en IA générative, le confirme. Dans une interview pour Bloomberg, il a expliqué que ce sont des images de « choc et de crainte ». Les contenus faux, dont certains continuent de circuler, sont pour la plupart choquants, et incluent des images déchirantes de bébés, d’enfants ou de familles, souvent dans des situations de souffrance ou de danger.
L’image présentée ci-dessous est l’une de celles ayant été les plus partagées. En regardant de près, plusieurs détails permettent de reconnaître facilement qu’il s’agit d’un deepfake. On peut par exemple constater une représentation bizarre de la main gauche, ou encore un front et un menton qui paraissent irréels par leurs plis trop accentués. Malgré ces détails qui la trahissent, l’image a été relayée massivement sur les réseaux. Elle a même été imprimée sur une pancarte lors d’une manifestation au Caire (Égypte) en soutien à la Palestine.
D’autres images de nourrissons en pleurs ont également été largement partagées. Les partisans des deux côtés (Israël et le Hamas) ont chacun affirmé que l’autre camp avait causé des victimes parmi les enfants et les bébés en utilisant ces contenus comme « preuves » d’accusation. Outre les images générées ces dernières semaines, d’anciennes photos deepfakes ont également été repartagées.
Un besoin crucial de lutte contre les deepfakes
Une chose est évidente : l’IA s’améliore est ses réalisations sont de plus en plus difficiles à discerner. Or, différents événements futurs seront de bonnes occasions pour les malfaiteurs de déployer des deepfakes. Prochainement, par exemple, plusieurs pays organiseront des élections, des événements politiques qui risquent d’être fortement ciblés par des campagnes de désinformation sophistiquées d’après certains experts.
Face à ce potentiel de plus en plus inquiétant du deepfake, des spécialistes suggèrent que la prochaine grande étape dans l’évolution de l’IA devrait concerner la vérification de contenu. Il semple en effet crucial de développer des technologies capables d’analyser et d’identifier les inexactitudes introduites par l’IA. Ces systèmes de vérification d’IA serviraient différents secteurs, tels que le journalisme, l’éducation ou encore la finance.