L’évolution fulgurante de ChatGPT a suscité l’inquiétude concernant son utilisation abusive, en particulier chez les étudiants. Une étude menée par des chercheurs de l’Université de Stanford a révélé que près de 70 % des étudiants utilisaient l’IA dans le cadre d’examens. Par ailleurs, les créateurs de contenus se heurtent désormais à la difficulté de distinguer les œuvres originales de celles générées par l’IA. Pour répondre à ce problème, OpenAI a développé un détecteur montrant une fiabilité de 99,9 %. Toutefois, l’entreprise hésite à le rendre public, invoquant la stigmatisation entourant l’utilisation de ChatGPT.
Le Wall Street Journal a récemment rapporté qu’OpenAI « dispose d’une méthode pour détecter de manière fiable quand quelqu’un utilise ChatGPT pour rédiger un essai ou un document de recherche ». Le média souligne également que le géant technologique a commencé à discuter de la nécessité de développer cet outil de filigrane invisible dès le lancement de ChatGPT en 2022. Le logiciel a été créé peu de temps après.
Le fonctionnement de cet outil repose sur une technique innovante de watermarking. Pour le déployer, OpenAI a modifié ChatGPT afin d’introduire des motifs invisibles dans les textes générés par le chatbot. Lorsque ces textes sont soumis au détecteur de filigrane, celui-ci analyse les motifs et affiche un pourcentage indiquant la probabilité que le texte ait été généré par ChatGPT. Les tests internes d’OpenAI ont montré que l’introduction de ces motifs n’altérait pas la qualité du contenu.
Un projet embourbé dans un débat interne
Selon OpenAI, l’efficacité de cet outil de détection est de 99,9 %, surpassant de loin celle des logiciels de détection d’IA actuellement disponibles sur le marché. Cependant, l’entreprise hésite encore à le déployer pour diverses raisons. La société reconnaît que, bien que cet outil ait fait ses preuves lors des tests, il ne se montre pas concluant face aux méthodes les plus sophistiquées telles que la réécriture.
Cette situation met en lumière la possibilité pour les utilisateurs de contourner tout système de détection. Le système pourrait également stigmatiser involontairement les anglophones non natifs, qui utilisent ChatGPT pour améliorer leur écriture, en signalant leurs écrits comme générés par l’IA.
Un porte-parole de l’entreprise a déclaré : « La méthode de filigrane que nous développons est techniquement prometteuse, mais elle comporte des risques importants que nous évaluons tout en recherchant des alternatives, notamment la possibilité d’être contournée par de mauvais acteurs et celle d’avoir un impact disproportionné sur des groupes tels que les non anglophones ». OpenAI doit également explorer l’impact éducatif et social de cet outil, arguant que « si un article universitaire sur 1 000 est faussement qualifié de contenu IA, cela pourrait avoir des conséquences malheureuses pour des étudiants innocents ».
Au-delà des défis techniques, le projet a fait l’objet d’un débat interne depuis environ deux ans et est prêt à être publié depuis un an. Certains employés d’OpenAI plaident pour la sortie de l’outil, tandis que d’autres estiment que ce serait une mauvaise décision. Pour trancher, l’entreprise a réalisé une enquête, selon WSJ. Les résultats ont montré un soutien massif du grand public à la mise en œuvre d’outils de filigrane. Cependant, une seconde enquête auprès des utilisateurs de ChatGPT a révélé que jusqu’à 30 % d’entre eux cesseraient d’utiliser ChatGPT si ses textes sont filigranés.
La décision d’OpenAI de suspendre son outil de détection d’IA résulte donc d’une réflexion complexe. Actuellement, l’entreprise explore des solutions alternatives, telles que l’inclusion de métadonnées signées cryptographiquement dans les sorties. La question reste de savoir quand cet outil de détection sera finalement publié.