Guerre Israël-Hamas : les «fausses» images générées par IA sont monnaie courante

guerre israel hamas images ia deepfakes monnaie courante couv 3
Image générée avec DALLE-3. | Trust My Science
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

Au centre du conflit Israël-Hamas, la désinformation est devenue un vrai outil de guerre, visant à manipuler les perceptions, affaiblir l’adversaire et influencer l’opinion publique. Avec l’essor de l’IA, cette pratique est devenue encore plus facile à mettre en œuvre. Parallèlement à la création de nouvelles IA génératives, les entreprises technologiques du secteur devraient également concevoir des outils fiables pour reconnaître les deepfakes.

Depuis le début de la guerre le 7 octobre, des images montrant des bébés dans des décombres inondent les réseaux sociaux. Cependant, parmi les contenus partagés, de nombreux étaient faux, générés par l’intelligence artificielle. En effet, l’actuel conflit entre Israël et le Hamas a vu l’émergence massive de deepfakes en tout genre.

Ces «fausses» images ne sont pas simplement des produits de technologies avancées, mais de véritables outils stratégiques. Elles visent à influencer l’opinion publique, à gagner du soutien ou à provoquer de l’indignation contre l’adversaire. Elles servent aussi à propager de fausses déclarations sur la responsabilité des victimes, attribuant de façon erronée des actes de violence à l’autre camp. Cette guerre numérique soulève des questions cruciales sur l’impact de l’IA sur la vérité en temps de conflit.

L’objectif ? Susciter des réactions émotionnelles

La plupart des images générées par IA publiées semblent avoir été conçues pour susciter des réactions émotionnelles immédiates chez les spectateurs. D’ailleurs, Henry Ajder, expert en deepfakes et en IA générative, le confirme. Dans une interview pour Bloomberg, il a expliqué que ce sont des images de « choc et de crainte ». Les contenus faux, dont certains continuent de circuler, sont pour la plupart choquants, et incluent des images déchirantes de bébés, d’enfants ou de familles, souvent dans des situations de souffrance ou de danger.

L’image présentée ci-dessous est l’une de celles ayant été les plus partagées. En regardant de près, plusieurs détails permettent de reconnaître facilement qu’il s’agit d’un deepfake. On peut par exemple constater une représentation bizarre de la main gauche, ou encore un front et un menton qui paraissent irréels par leurs plis trop accentués. Malgré ces détails qui la trahissent, l’image a été relayée massivement sur les réseaux. Elle a même été imprimée sur une pancarte lors d’une manifestation au Caire (Égypte) en soutien à la Palestine.

Deepfake
Contenu généré par IA. | Facebook

D’autres images de nourrissons en pleurs ont également été largement partagées. Les partisans des deux côtés (Israël et le Hamas) ont chacun affirmé que l’autre camp avait causé des victimes parmi les enfants et les bébés en utilisant ces contenus comme « preuves » d’accusation. Outre les images générées ces dernières semaines, d’anciennes photos deepfakes ont également été repartagées.

guerre israel hamas images ia deepfakes monnaie courante couv 3
Pour attester de la facilité déconcertante avec laquelle il est possible de générer une image du genre, voici notre création en utilisant DALLE-3 d’OpenAI. Nous avons ensuite légèrement retouché les couleurs de l’image et ajouté un léger filtre pour la rendre un peu plus réaliste. © Trust My Science avec DALLE-3

Un besoin crucial de lutte contre les deepfakes

Une chose est évidente : l’IA s’améliore est ses réalisations sont de plus en plus difficiles à discerner. Or, différents événements futurs seront de bonnes occasions pour les malfaiteurs de déployer des deepfakes. Prochainement, par exemple, plusieurs pays organiseront des élections, des événements politiques qui risquent d’être fortement ciblés par des campagnes de désinformation sophistiquées d’après certains experts.

Face à ce potentiel de plus en plus inquiétant du deepfake, des spécialistes suggèrent que la prochaine grande étape dans l’évolution de l’IA devrait concerner la vérification de contenu. Il semple en effet crucial de développer des technologies capables d’analyser et d’identifier les inexactitudes introduites par l’IA. Ces systèmes de vérification d’IA serviraient différents secteurs, tels que le journalisme, l’éducation ou encore la finance.

Laisser un commentaire