Lorsqu’un individu contracte un virus, celui-ci se transmet généralement à d’autres individus, se propageant inexorablement au sein de la population. Des recherches récentes mettent en lumière que cette dynamique de propagation s’apparente à celle des fausses informations circulant en ligne. Les chercheurs ont même recouru à un modèle mathématique utilisé en épidémiologie pour scruter la viralité des contenus mensongers.
À l’ère numérique, où les réseaux sociaux captent une vaste audience et enregistrent un flux important de visites quotidiennes, ils se sont érigés en plateformes privilégiées pour la diffusion fulgurante d’informations, mais aussi pour des campagnes de désinformation. Les avancées technologiques, notamment dans le domaine de l’intelligence artificielle, rendent de plus en plus délicate la distinction entre le vrai et le faux. L’époque où les images faisaient foi s’estompe progressivement. Par ailleurs, certains analystes avancent que les contenus fallacieux sont souvent entremêlés d’une part de vérité, rendant la détection des fausses nouvelles d’autant plus ardue.
Des plateformes sociales telles que Facebook et X ont mis en place des mesures pour contrer la désinformation, en optimisant leurs algorithmes et en déployant des stratégies de vérification des faits. Néanmoins, l’efficacité de ces initiatives demeure sujette à caution. Dans une étude publiée récemment dans la revue Plos One, des chercheurs ont adopté un modèle mathématique inspiré de l’épidémiologie pour jauger l’impact de ces mesures. Leur recherche a débuté par une analyse minutieuse du système de diffusion des fausses informations en ligne, s’appuyant sur un modèle mathématique dérivé de l’épidémiologie.
Le modèle SIR appliqué à l’étude de la désinformation
En épidémiologie, le modèle SIR (Susceptible-Infected-Removed) est couramment utilisé pour disséquer la propagation des virus. Ce modèle segmente la population en trois catégories : les individus non exposés au virus mais susceptibles de le contracter, les personnes infectées qui diffusent l’agent pathogène, et enfin, celles qui, bien qu’exposées, ne propagent plus la maladie.
De manière analogue, la propagation de la désinformation sur les réseaux sociaux suit un schéma similaire. Il existe des utilisateurs non encore confrontés aux fausses nouvelles, ceux qui y ont été exposés et les partagent activement, et ceux qui, bien qu’exposés, ne les diffusent pas. Dans leur étude, les chercheurs ont appliqué ce modèle à la théorie du complot « 5G-Coronavirus », qui liait faussement la pandémie de COVID-19 à l’installation des réseaux 5G. Les résultats ont montré que le modèle épidémiologique pouvait être utilisé avec efficacité pour caractériser la diffusion des contenus liés à cette théorie.
Quelles mesures pour lutter contre la désinformation ?
Quant à l’efficacité des mesures contre la désinformation en ligne, les auteurs de l’étude soulignent que la vérification des faits s’est avérée particulièrement efficace aux premiers stades de la diffusion du contenu. La suppression des tweets liés à la théorie du complot s’est montrée, quant à elle, moins efficace, quel que soit le moment de l’intervention.
Cependant, dans une autre étude publiée dans la revue Nature, des chercheurs soutiennent que la suppression du contenu peut être efficace, pour peu qu’elle soit effectuée avec célérité. Selon eux, si une publication est éliminée dans les 30 minutes suivant sa détection, le risque d’apparition d’autres posts associés au contenu original peut se réduire d’environ 94 %. Ils ajoutent que la lutte contre la désinformation est plus efficace lorsque plusieurs techniques sont utilisées conjointement. Ils proposent de mettre en œuvre simultanément un système de « coupe-circuits viraux » pour freiner la diffusion du contenu, la suppression des publications et l’émission d’avertissements lorsque la désinformation provient de comptes vérifiés comptant plus de 100 000 abonnés.