Les avancées technologiques en termes d’algorithmes et d’intelligence artificielle continuent de repousser les limites, quitte à nous mettre devant des dilemmes moraux. Supposons qu’un modèle statistique prédit qu’un crime est hautement susceptible de se produire dans un pâté de maisons au cours des trois prochains jours, que faire de ces informations ? Faut-il agir ? Si oui, comment et, surtout, qui devrait le faire ? La modélisation prédictive de la criminalité peut produire de puissants outils statistiques, mais les chercheurs doivent tenir compte de considérations importantes pour éviter qu’ils ne deviennent contre-productifs et dangereux. Un nouvel algorithme développé par des chercheurs américains utilise des données accessibles publiquement pour prédire avec précision la criminalité dans huit villes américaines, tout en révélant une réponse policière accrue dans les quartiers riches, au détriment des zones moins favorisées.
Les progrès de l’apprentissage automatique et de l’intelligence artificielle ont suscité l’intérêt des gouvernements qui souhaitent utiliser des outils de police prédictive pour dissuader le crime. Les premiers efforts de prédiction de la criminalité ont cependant été controversés, car ils ne tiennent pas compte des biais systémiques dans l’application de la loi et de sa relation complexe avec le crime et la société.
La nouvelle recherche de l’Université de Chicago (UChicago), menée par Rotaru et ses collègues, semble inspirée du film « Minority Report », dans lequel en l’an 2054, la société du futur a éradiqué les crimes en se dotant d’un système de prévention, de détection et de répression le plus sophistiqué du monde. Dissimulés de tous, trois extra-lucides transmettent les images des crimes à venir aux policiers de la Précrime. Ici, il s’agit d’un algorithme, programmé certes par des humains, mais dont la précision serait de 90%. Les travaux de l’équipe sont publiés dans la revue Nature Human Behavior.
Un algorithme plus précis et évolutif
L’équipe de recherche, spécialisée en données et sciences sociales, a développé un nouvel algorithme qui prédit la criminalité en apprenant des modèles obtenus à partir de données publiques sur les crimes violents et contre les biens. Les modèles permettent de faire correspondre des lieux géographiques avec le risque de crime à un moment précis, ce qui surpasse les précédents modèles de prédiction.
En effet, les efforts antérieurs de prévision de la criminalité utilisent souvent une approche épidémique ou sismique. En d’autres termes, la criminalité semble émerger de certains « points chauds » (comme l’épicentre d’un séisme ou le premier cas d’une infection) puis se propage aux zones environnantes (comme les ondes sismiques ou les cas contacts pour une pathologie). Cependant, ces outils ne tiennent pas compte de l’environnement social complexe des villes ni de la relation entre la criminalité et les effets de l’application de la loi par la police. Il n’y a pas que des biais de conception, les biais humains sont nombreux, souvent sur fond de racisme ou de préjugés sociaux.
Le sociologue et co-auteur de l’étude James Evans, professeur à la UChicago et au Santa Fe Institute, déclare dans un communiqué : « Les modèles spatiaux ignorent la topologie naturelle de la ville. Les réseaux de transport tiennent compte des rues, les trottoirs, les lignes de train et d’autobus. Les réseaux de communication tiennent compte des zones d’origine socio-économique similaire. Notre modèle permet de découvrir ces connexions ».
L’outil a été testé et validé à l’aide de données historiques de la ville de Chicago autour de deux grandes catégories d’événements signalés : les crimes violents (homicides, agressions et coups et blessures) et les crimes contre les biens (cambriolages, vols de véhicules). Ces données ont été utilisées parce qu’elles étaient plus susceptibles d’être signalées à la police dans les zones urbaines où il existe une méfiance historique et un manque de coopération avec les forces de l’ordre. Ces crimes sont également moins sujets à la partialité de l’application de la loi, comme c’est le cas des crimes liés à la drogue, des contrôles routiers et d’autres délits.
Le nouveau modèle isole la criminalité en examinant les coordonnées temporelles et spatiales d’événements, et en détectant des modèles pour prédire les événements futurs. Il divise la ville en circonscriptions d’environ 305 mètres de diamètre et prédit la criminalité dans ces zones, au lieu de s’appuyer sur les quartiers traditionnels ou les frontières politiques, également sujettes à des biais. Le modèle a tout aussi bien fonctionné avec les données de sept autres villes américaines : Atlanta, Austin, Detroit, Los Angeles, Philadelphie, Portland et San Francisco. Le modèle peut prédire les crimes futurs une semaine à l’avance avec une précision d’environ 90%.
Evans souligne : « Nous démontrons l’importance de découvrir des modèles spécifiques à la ville pour la prédiction des crimes signalés, ce qui génère une nouvelle vision des quartiers de la ville, nous permettant de poser de nouvelles questions et d’évaluer l’action de la police de manière nouvelle ».
Un biais de réponse par la police
Dans un modèle distinct, l’équipe de recherche a également étudié la réponse de la police à la criminalité, en analysant le nombre d’arrestations à la suite d’incidents et en comparant ces taux entre les quartiers de statut socio-économique différent. Ils ont constaté que la criminalité dans les zones les plus riches entraînait davantage d’arrestations, tandis que les arrestations dans les quartiers défavorisés diminuaient. Cette constatation suggère un parti pris dans la réponse et l’application de la loi par la police.
Ishanu Chattopadhyay, professeur adjoint de médecine à la UChicago et auteur principal de l’étude, note que la précision de l’outil ne signifie pas qu’il doit être utilisé pour diriger les forces de l’ordre, les services de police l’utilisant pour envahir les quartiers de manière proactive afin de prévenir le crime. Au lieu de cela, il devrait être ajouté à une boîte à outils de politiques urbaines et de stratégies policières pour lutter contre la criminalité.
Elle déclare : « Maintenant, vous pouvez l’utiliser comme outil de simulation pour voir ce qui se passe si la criminalité augmente dans un quartier de la ville, ou si l’application de la loi est renforcée dans un autre quartier. Si vous appliquez toutes ces différentes variables, vous pouvez voir comment les systèmes évoluent en réponse ».
D’ailleurs, les forces de l’ordre de l’Illinois mettront en commun les informations sur les armes à feu utilisées dans les crimes à travers l’État, créant une base de données qui permettra à la police de mieux suivre le trafic d’armes illégales, a annoncé mercredi le procureur général de l’État, Kwame Raoul, lors d’une conférence de presse à Chicago.
La base de données de l’Illinois permettra de rechercher et partager des informations très facilement, et les algorithmes signaleront les modèles suspects, comme les armes à feu d’un seul magasin qui se retrouvent dans des crimes peu de temps après leur achat, pour identifier les « acheteurs de paille » potentiels qui achètent des armes légalement pour les revendre au marché noir.
Vers une justice algorithmique ?
Enfin, en mars, le Santa Fe Institute, qui a collaboré avec l’Université de Chicago, a réuni des experts de diverses disciplines, dont l’informatique, le droit, la philosophie et les sciences sociales, pour discuter de la question suivante : les algorithmes peuvent-ils faire pencher la balance vers la justice ? L’atelier a été organisé par les professeurs Melanie Moses et Sonia Gipson Rankin (Université du Nouveau-Mexique), ainsi que Tina Eliassi-Rad (Northeastern University).
Pour commencer, le groupe a analysé la notion de justice elle-même, qui a tendance à être comprise très différemment par les informaticiens, les éthiciens et les avocats. Les informaticiens ont tendance à avoir une vision étroite, mais précisément définie, de l’équité — une vision utile pour écrire ou analyser des algorithmes, mais souvent trop utilitaire pour saisir ce que les spécialistes des sciences sociales, les philosophes, les avocats et les gens ordinaires entendent par « justice ».
L’un des défis consiste à trouver des moyens pratiques d’approfondir la justice algorithmique pour intégrer des définitions plus larges. Ils ont également discuté des réglementations ou des incitations nécessaires pour garantir le fonctionnement juste et éthique de ces algorithmes. Melanie Moses conclut dans l’article : « Nous apprenons les uns des autres et traçons une voie à suivre où l’intelligence artificielle fait progresser la justice, plutôt que d’exacerber ou d’accélérer les injustices ».