Des outils d’IA auront-ils bientôt mainmise sur les élections, en manipulant les électeurs ?

IA election manipulant electeurs
| Pixabay
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

À l’heure actuelle, l’intelligence artificielle (IA) a une telle incidence sur nos vies, qu’elle pourrait facilement influencer nos prises de décisions. Les outils alimentés par cette technologie pourraient un jour servir les futures campagnes électorales et bouleverser la manière dont les électeurs prendront leurs décisions. Entre autres, les politiciens pourraient s’en servir pour manipuler plus efficacement les électeurs, afin de gagner une élection.

Au cours des derniers mois, de nombreuses alertes ont été lancées — par les experts et pionniers du domaine — pour mettre en garde contre les risques liés à l’IA. Les psychologues estiment que la technologie est capable d’influencer notre comportement d’une manière si subtile que nous ne nous en rendons pas forcément compte. Cette influence pourrait avoir des conséquences bien plus complexes et étendues qu’on ne le pense.

Lors d’une récente entrevue avec le Sénat américain, Sam Altman, PDG d’OpenAI, a affirmé que des politiciens pourraient utiliser les grands modèles de langage pour cibler et manipuler individuellement chaque électeur, afin de maximiser leurs chances de gagner une élection.

Des experts pensent que les futures campagnes électorales pourraient être alimentées par une nouvelle génération d’outils d’IA, dont l’unique but est de faire gagner son utilisateur, peu importe les méthodes. Si les réseaux sociaux ou les sites de streaming utilisent l’IA pour gérer les préférences des utilisateurs et les inciter à passer un maximum de temps sur les plateformes, les IA politiques aura pour seul objectif de changer le comportement de vote des électeurs. Afin de décrypter comment ces IA pourraient influencer les électeurs, deux chercheurs de Harvard ont imaginé un outil hypothétique surnommé « Clogger ».

Un microciblage ultraprécis

Clogger utiliserait l’apprentissage automatique pour augmenter de manière considérable l’étendue et l’efficacité du microciblage et de la manipulation de masse, traditionnellement utilisés lors des campagnes électorales. Cette manipulation serait plus ou moins similaire aux techniques commerciales agressives, utilisées par les annonceurs pour s’incruster dans notre historique de navigation et cibler nos préférences publicitaires.

Au lieu de propagandes propagées à travers des joutes oratoires, l’outil ciblera individuellement des millions d’électeurs potentiels et jouera sur leurs préférences pour influencer leurs décisions. Pour ce faire, l’algorithme de Clogger génèrerait des messages textuels, des images ou des vidéos spécialement adaptés à leurs préférences. Contrairement aux annonceurs publicitaires, qui placent stratégiquement un nombre défini d’annonces, le modèle peut générer un nombre quasi illimité de messages, qui peuvent être diffusés via différents canaux.

En théorie, l’apprentissage par renforcement permettrait également à Clogger de générer des messages toujours plus personnalisés. Cette technique permet notamment à l’IA d’apprendre à atteindre des objectifs de préférences de plus grande précision, par le biais de cycles d’essais et d’erreurs. En outre, le modèle pourrait évoluer en prenant compte des avis précédemment émis par les électeurs ou leurs cercles d’amis.

Gagner à tout prix

L’outil hypothétique Clogger aurait donc pour seul et unique but de faire gagner son utilisateur, peu importe la manière. Ainsi, les messages générés ne contiendront pas forcément des informations politiques et se contenteront de se baser sur les préférences des électeurs cibles. Par exemple, pour cibler les électeurs d’un parti adverse, les messages générés pourraient être orientés vers leurs passions (sport ou divertissement), afin de « masquer » un peu les messages politiques inclus, qui ne correspondraient pas à ce qu’ils auraient préféré voir. Une autre stratégie consisterait à manipuler les cercles sociaux et leurs préférences, afin de titiller le besoin d’appartenance des électeurs, en donnant l’impression que leurs amis soutiennent le candidat en question (qui utilise l’IA).

En outre, Clogger n’aurait techniquement aucun scrupule à propager de la désinformation, du moment que cela peut faire gagner des points à son candidat. L’outil diffusera ainsi sans scrupules ce que l’on appelle des « hallucinations d’IA », son objectif étant la victoire de son candidat et non la propagation d’informations véridiques. Ces hallucinations font référence aux erreurs que les modèles de langage peuvent commettre en donnant des réponses incorrectes ou biaisées. Ces erreurs sont particulièrement difficiles à détecter, étant donné l’apparente fiabilité des réponses données. De plus, étant donné que l’IA alimentant Clogger pourrait être de type « boîte noire », il n’y aurait aucun moyen de connaître précisément les stratégies utilisées.

Un non-respect de la démocratie

Une fois Clogger adopté par un parti politique, les partis adverses pourraient également adopter la technologie afin de « se battre à armes égales ». Par ailleurs, il sera probablement difficile pour les politiciens de ne pas être tentés d’utiliser un tel outil, qui vise à considérablement augmenter les chances de victoire. Sans compter les autres facteurs d’élection, le gagnant pourrait être celui doté du modèle le plus efficace.

Cependant, ces élections entièrement contrôlées par les IA ne tiendront pas forcément compte des objectifs politiques des candidats et de la volonté des électeurs. De ce fait, la notion de démocratie ne serait plus complètement respectée.

Pour pallier ce problème, les experts suggèrent d’améliorer le contrôle de l’accès à la vie privée. En effet, l’efficacité de futurs outils tels que Clogger dépendra de leur capacité à cibler les préférences des électeurs, en accédant à de grandes quantités de données personnelles. Des réglementations strictes pourraient également être instaurées pour les partis choisissant d’utiliser l’outil. L’Union européenne semble prendre les choses en main, en révisant un projet de loi sur l’IA qui désigne sa capacité à influencer les électeurs, comme étant à haut risque.

Laisser un commentaire