Les risques de l’intelligence artificielle appliquée au terrorisme

juriste premier plan souligne risques intelligence artificielle terrorisme
| Gerd Altmann / Pixabay.
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

Les intelligences artificielles pourraient-elles être utilisées pour enrôler des recrues terroristes ? C’est l’un des risques soulevés par Jonathan KC Hall, juriste de premier plan qui se consacre à la législation antiterroriste. Sa crainte est que les textes de loi actuels ne soient pas armés pour contrer une telle menace. 

Jonathan KC Hall, homme de droit, est aussi l’actuel examinateur indépendant de la législation antiterroriste du Parlement britannique. Et cette dernière, affirme-t-il, a un dangereux train de retard sur le développement de l’intelligence artificielle. « Je pense qu’il est tout à fait concevable que des chatbots IA soient programmés – ou, pire encore, décident – de propager une idéologie extrémiste violente », affirme-t-il dans un article du Daily Mail, ajoutant que « les attaques fondées sur l’IA sont probablement à nos portes ». Il craint également que ces compagnons virtuels ne soient particulièrement efficaces sur des personnes seules vulnérables, que cela soit pour des raisons médicales ou autres.

Concernant sa première allégation, il y a peu de doutes sur le fait qu’une intelligence artificielle conversationnelle soit en effet capable d’une telle chose. Les derniers programmes les plus connus en la matière, comme ChatGPT, ou encore Bard, se sont révélés capables de passer des examens avec succès, et tiennent des conversations cohérentes sur de nombreux sujets. Habilement programmés, des agents artificiels similaires pourraient sans problème tenir des discours extrémistes à qui voudra les entendre, ou encore entretenir une conversation dans le but de recruter pour des actions terroristes. En fait, il n’y a même pas réellement besoin de programmer une IA conversationnelle pour obtenir de tels résultats. Concernant ChatGPT, Bard, ou encore BingChat, des garde-fous sont mis en place, avec plus ou moins de succès pour tenter d’éviter que la conversation ne glisse vers ce genre de terrains.

Mais ces IA phares ne sont pas les seules en lice. Récemment, une start-up a par exemple pris le parti de donner un accès public à une IA sans limites éthiques, arguant que ça n’était pas à l’outil de limiter l’utilisateur dans son usage. « Pendant les quelques heures où j’ai joué avec lui, le programme s’est fait un plaisir d’accéder à toutes mes demandes. Il a fait l’éloge d’Hitler, a rédigé un article d’opinion préconisant d’abattre les personnes non logées de San Francisco pour résoudre la crise des sans-abri de la ville et a essayé de me convaincre que l’élection présidentielle de 2020 était truquée, une théorie du complot qui a été démentie. Il a également utilisé le mot ‘n’ », décrit un journaliste de Buzzfeed, qui a effectué quelques tests sur cette IA nommée FreedomGPT.

La question n’est donc pas vraiment de savoir si des terroristes pourraient tirer avantage de l’IA. Il s’agit plutôt de se demander si les lois sont suffisamment adaptées à l’arrivée de cette nouvelle technologie. Concernant le Royaume-Uni, la réponse est résolument non, affirme Jonathan KC Hall. Dans le cas d’un tel usage, « comme le droit pénal ne s’applique pas aux robots, l’IA recruteuse ne sera pas inquiétée. Il [le droit] ne fonctionne pas non plus de manière fiable lorsque la responsabilité est partagée entre l’homme et la machine », précise le juriste. Autrement dit, demande-t-il, « quand ChatGPT commencera à encourager le terrorisme, qui y aura-t-il à poursuivre ? ». Une question qui reste globalement sans réponse pour le moment. Pour lui, il y a d’autant plus urgence que les terroristes, rappelle-t-il, sont des « adoptants précoces de la technologie ». Il cite en exemple l’utilisation d’armes à feu imprimées en 3D, de la cryptomonnaie, ou encore des drones.

Même dans le cas où des barrières de sécurité sont effectivement supposées être mises en place, elles ne sont pas claires, affirme Jonathan KC Hall. « On ne sait pas si des systèmes d’alerte sont en place en cas de conversations suspectes détectées », explique-t-il. « Lorsque, dans le cadre d’un exercice, j’ai demandé à ChatGPT comment il excluait toute utilisation terroriste, il m’a répondu que son développeur, OpenAI, procédait à des ‘vérifications approfondies des antécédents des utilisateurs potentiels’. Comme j’ai pu m’inscrire moi-même en moins d’une minute, c’est manifestement faux ».

La commission scientifique et technologique du Parlement du Royaume-Uni mène actuellement une enquête sur l’IA et la gouvernance, pour répondre à ces questionnements. « Nous reconnaissons qu’il y a des dangers et nous devons mettre en place une bonne gouvernance. Il a été question de jeunes gens aidés à trouver des moyens de se suicider et de terroristes efficacement préparés sur l’internet. Compte tenu de ces menaces, il est absolument crucial que nous maintenions la même vigilance à l’égard des contenus automatisés non générés par l’homme », a souligné son président, le député conservateur Greg Clark.

Laisser un commentaire
Cliquez pour accéder à d'autres articles sur ce sujet.