Des scientifiques chinois ont développé une intelligence artificielle qui peut exécuter certaines tâches qu’effectue un procureur. Elle sait notamment reconnaître et porter des accusations pour huit des crimes les plus courants commis à Shanghai. Une avancée qui ne fait pas l’unanimité au sein de la justice chinoise, d’autant plus que le système ne semble fiable qu’à 97% — un bon score pour une IA, mais insuffisant pour une telle application selon certains experts.
L’invention n’est pas sortie du cerveau de Georges Orwell, le célèbre auteur de 1984, mais elle pourrait tout à fait avoir sa place dans le monde de Big Brother. L’équipe de scientifiques chinois développe une intelligence artificielle capable de remplir certaines fonctions propres à un procureur, comme l’explique le South China Morning Post qui a pu consulter l’article paru dans Management Review.
Cette machine a été « entraînée » entre 2015 et 2020. Elle a étudié 17 000 cas en cinq ans, ce qui lui permet aujourd’hui d’identifier huit des délits les plus courants commis à Shanghai et de porter plainte contre leurs auteurs. Ainsi, l’IA peut reconnaître les fraudes à la carte de paiement, les jeux d’argent illégaux, la conduite dangereuse, les blessures intentionnelles, le vol, les entraves à la fonction officielle et un délit plus étonnant : « se disputer et provoquer des ennuis ». Derrière cette accusation plutôt étonnante se cache une réalité plus sombre : elle serait souvent utilisée pour étouffer les affaires de dissidence politique avec le régime.
« Il y aura toujours un risque d’erreur »
Cette intelligence artificielle a été conçue, développée et testée par le parquet populaire de Shanghai Pudong, le bureau de procureur de district le plus grand et le plus actif du pays. D’après les chercheurs, cette « IA procureur » peut porter une accusation avec une précision de 97%.
La marge d’erreur (3%) fait tiquer un procureur de Guangzhou (sud de la Chine), comme le relate notre confrère du SCMP. « La précision de 97% peut être élevée d’un point de vue technologique, mais il y aura toujours un risque d’erreur. Qui assumera la responsabilité lorsque ça arrivera ? Le procureur, la machine ou le concepteur de l’algorithme ? », interroge-t-il. Sans compter que l’intervention de cette intelligence artificielle pourrait effacer peu à peu l’autonomie d’un procureur.
Le professeur Yong Shi, de l’Académie des Sciences de Chine et principal scientifique sur le projet, assure que la machine deviendra plus puissante avec les mises à niveau de l’intelligence artificielle. Elle devrait alors être capable de reconnaître des crimes moins courants et de porter plusieurs accusations contre un suspect.
« Tous les outils d’IA ont un rôle limité »
Cette « IA procureur » s’installe sur un bureau standard. Pour chaque suspect, l’outil se baserait sur 1000 « caractéristiques » obtenues à partir de la déposition, dont la plupart ne font pas sens pour les humains. Le système 206 prendrait alors la relève pour évaluer la preuve de la culpabilité ou non.
Ce système 206 serait utilisé par les procureurs chinois depuis 2016 selon le SCMP. C’est un outil qui évalue la force des preuves, les conditions d’une arrestation et le degré de dangerosité du suspect pour le public. « Mais tous les outils d’IA existants ont un rôle limité, car ils ne participent pas au processus décisionnel consistant à porter des accusations ou suggérer des peines », a déclaré Shi.
Si la machine devait prendre de telles décisions, il faudrait qu’elle soit capable d’identifier et de supprimer d’un dossier tout ce qui ne concerne pas l’affaire, sans éliminer les informations utiles. Sans oublier qu’il faudrait traduire le langage humain, complexe, dans un format mathématique rigide. Une traduction qui pourrait induire l’IA en erreur.
De plus, l’outil développé par le professeur Yong Shi et son équipe se sert de ses expériences antérieures pour déposer une accusation. Il n’est alors pas capable de faire preuve de souplesse ni de s’adapter aux changements, inhérents à la nature humaine. « L’IA peut aider à détecter une erreur, mais elle ne peut pas remplacer les humains dans la prise de décision », s’agace le procureur de Guangzhou.