Une IA capable d’estimer des caractéristiques personnelles avec précision simplement en observant votre visage

ia capable reveler traits personnalite analysant visage couv
| Trust My Science
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

La reconnaissance faciale par intelligence artificielle est en train de franchir de nouvelles frontières, mais à quel prix ? Un psychologue computationnel de l’Université de Stanford, Michal Kosinski, qui est également « data scientist », affirme que l’IA qu’il a développée peut estimer des caractéristiques personnelles telles que le quotient intellectuel, les préférences sexuelles et les orientations politiques avec une grande précision, simplement en analysant un visage. Bien que sa technologie présente des capacités impressionnantes, elle soulève des questions éthiques et des inquiétudes profondes.

Kosinski a conçu un modèle de reconnaissance faciale capable de prédire les croyances politiques d’une personne avec une précision de 72 %, contre 55 % pour les humains. Bien qu’il insiste sur le fait que son travail devrait être perçu comme un avertissement aux décideurs politiques, les implications de ses recherches sont alarmantes. « Compte tenu de l’utilisation généralisée de la reconnaissance faciale, nos résultats ont des implications critiques pour la protection de la vie privée et des libertés civiles », écrit-il dans son document d’étude.

Une IA capable de prédire l’imprévisible ?

En 2021, Kosinski a publié dans Nature une étude montrant que son IA peut prédire les orientations politiques des individus avec une précision étonnante. En analysant simplement une photographie de visage, l’algorithme développé par Kosinski peut notamment déterminer si une personne a des tendances conservatrices ou libérales avec une précision de 72 %. Pour comparaison, les humains ne réussissent qu’à 55 % dans de telles prédictions. Cette capacité repose sur la détection de différences subtiles dans les traits du visage, qui peuvent refléter les influences culturelles et environnementales associées à différentes orientations politiques.

Les résultats soulèvent ainsi des questions éthiques importantes. En effet, si l’IA peut déduire des informations aussi sensibles à partir de simples photos, cela pourrait mener à des utilisations malveillantes pour discriminer ou cibler des personnes en fonction de leurs croyances politiques. Kosinski lui-même souligne que cette technologie pourrait être exploitée de manière abusive, et appelle à des actions visant à protéger la vie privée et prévenir les discriminations.

Les applications potentielles de cette technologie sont variées, mais beaucoup sont préoccupantes. Par exemple, un autre modèle de reconnaissance faciale capable de prédire l’orientation sexuelle avec une précision de 81 % (pour les hommes) a été vivement critiqué par des organisations de défense des droits de l’homme telles que Human Rights Campaign et GLAAD. Elles ont qualifié ce type de technologie de « dangereuse et imparfaite », craignant qu’elle ne soit utilisée pour discriminer les personnes queer.

Des IA similaires ont déjà mené injustement des personnes derrière les barreaux

Les risques associés à une utilisation incorrecte ou abusive de cette technologie sont déjà visibles. Par exemple, des magasins comme Rite Aid ont été accusés de cibler injustement des minorités comme voleurs à l’étalage, tandis que Macy’s a incorrectement accusé un homme d’un vol violent qu’il n’avait pas commis.

L’une des critiques majeures de la reconnaissance faciale par IA est son potentiel à renforcer les biais existants. Les algorithmes d’IA sont souvent entraînés sur des ensembles de données qui reflètent les préjugés sociaux, ce qui peut conduire à des erreurs d’identification et à des discriminations accrues contre les groupes marginalisés. L’utilisation de la reconnaissance faciale sans consentement préalable porte atteinte aux droits fondamentaux des individus, peut-on comprendre dans un article de blog de Joy Buolamwini, scientifique en informatique connue pour ses recherches sur les biais dans l’IA au MIT.

Les experts s’accordent à dire que l’IA et les humains doivent collaborer pour maximiser l’exactitude de la reconnaissance faciale. Une étude de 2018 de l’Institut National des Standards et de la Technologie (NIST) a révélé que les experts en reconnaissance faciale performaient mieux lorsqu’ils travaillaient avec un partenaire IA plutôt qu’avec un autre expert humain. Cependant, Meredith Broussard, professeure de journalisme à l’Université de New York, avertit que l’application de l’IA à des problèmes sociaux profondément enracinés peut produire des résultats désastreux.

Les technologies de reconnaissance faciale évoluent plus rapidement que les lois et les réglementations. Aux États-Unis, bien que certaines juridictions aient adopté des lois pour réguler l’utilisation de cette technologie, il n’existe pas encore de cadre réglementaire fédéral complet. Des organisations comme l’Académie Nationale des Sciences appellent à une intervention rapide du gouvernement pour protéger la vie privée, l’équité et les libertés civiles. « Le gouvernement fédéral devrait s’efforcer d’établir un ensemble de normes et de méthodes à l’échelle de l’industrie avec des partenaires internationaux et industriels. Il s’agirait notamment de normes de processus dans des domaines tels que la sécurité des données et de normes définissant la qualité minimale acceptable des images, les taux de faux positifs et de faux négatifs et la variation de la précision entre les phénotypes pour des applications données », peut-on lire dans leur article à ce sujet.

Ces exemples confirment que la reconnaissance faciale par IA soulève des questions éthiques et juridiques sérieuses. Ainsi, l’avenir de cette technologie dépendra certainement de notre capacité à équilibrer innovation et protection des droits fondamentaux.

Laisser un commentaire

Vous voulez éliminer les publicités tout en continuant de nous soutenir ?


Il suffit de s'abonner !


JE M'ABONNE

Cliquez pour accéder à d'autres articles sur ce sujet.