La démarche a généré de vives critiques sur les réseaux sociaux. Les services de police d’Edmonton, au Canada, ont affirmé recourir à des portraits-robots générés par l’analyse de l’ADN pour identifier des suspects. Une technologie qui n’aurait pourtant pas fait ses preuves…
Générer un portrait de suspect à partir de données issues de l’ADN… L’idée semble tout droit sortie d’un scénario de film de science-fiction. C’est pourtant bien ce concept que les services de police de la ville d’Edmonton affirment avoir d’ores et déjà mis en place. Dans un communiqué publié sur leur site internet, ils décrivent un cas d’agression sexuelle survenu en 2019. Selon eux, aucun témoin n’avait pu être interrogé. L’agresseur portait des vêtements couvrants, et n’a donc pas pu être décrit par la victime de façon efficace.
Les services de police ont donc tenté d’innover en se tournant vers un service d’analyse de l’ADN. « Le service utilisé dans ce cas était le phénotypage ADN, le processus de prédiction de l’apparence physique et de l’ascendance à partir de preuves ADN non identifiées », décrit le communiqué. Récemment, le compte Twitter de la police d’Edmonton a posté un portrait du suspect en question généré de cette façon. Il a été retiré, après avoir reçu de nombreuses critiques.
The EPS has issued a statement on Tuesday’s DNA phenotyping media release.
To read it, please visit our website.
— Edmonton Police (@edmontonpolice) October 6, 2022
Le reproche majeur que l’on peut faire à cette méthode est… qu’elle ne semble pas validée scientifiquement. D’ailleurs, le communiqué lui-même souligne déjà l’approximation de l’analyse : « Il est important de noter que les composites de phénotypage d’ADN sont des approximations scientifiques de l’apparence basées sur l’ADN et ne sont pas des répliques exactes de l’apparence », peut-on y lire.
Le suspect généré par l’intelligence artificielle étant noir, les internautes et les experts n’ont pas tardé à tirer la sonnette d’alarme sur les risques de stigmatisation. « Vous ne pouvez pas faire de profils faciaux ou de prédictions précises de pigmentation à partir de l’ADN, c’est de la poudre de perlimpinpin », affirme purement et simplement Adam Rutherford, professeur de génétique à l’University College de Londres, dans un tweet répondant à celui de la police d’Edmonton.
Geneticist here. You can’t make facial profiles or accurate pigmentation predictions from DNA, and this is dangerous snake oil. https://t.co/UCzknc9I10
— Dr Adam Rutherford (@AdamRutherford) October 5, 2022
Une technologie imprécise
La technologie à l’origine de tout ce débat a été achetée auprès de la société Parabon. Sur son site web, celle-ci n’y va pas par quatre chemins pour attirer l’attention des services de police ou de recherche : « Résolvez vos cas les plus difficiles – rapidement ! », clame l’entreprise.
Pourtant, comme le souligne Adam Rutherford, la science est loin de pouvoir répondre à une telle exigence. À l’heure actuelle, il est impossible d’évaluer avec précision la plupart des caractéristiques physiques à partir d’un phénotype. « Des prédictions individuelles ont été faites pour l’ascendance du sujet, la couleur des yeux, la couleur des cheveux, la couleur de la peau, les taches de rousseur et la forme du visage », affirme pourtant la police d’Edmonton. Au-delà même de ces considérations, une analyse ADN ne peut évidemment pas prévoir comment un individu va évoluer au cours de son existence, en fonction de son hygiène de vie et de facteurs environnementaux. De même, l’âge ne peut être deviné à partir de l’ADN.
Tout cela laisse une zone de flou assez conséquente. Sous le feu des critiques, la police d’Edmonton a publié un second communiqué. « Le potentiel qu’un profil visuel puisse fournir une caractérisation beaucoup trop large au sein d’une communauté racialisée et dans ce cas, la communauté noire d’Edmonton, n’était pas quelque chose que j’ai suffisamment pris en compte », a écrit Enyinnah Okere, directrice du Bureau de la sécurité et du bien-être de la police d’Edmonton. « Il est important d’équilibrer la valeur d’investigation potentielle d’une pratique avec les risques trop réels et les conséquences imprévues pour les communautés marginalisées », a-t-elle ainsi reconnu.