La qualité des futures recherches scientifiques risque de se dégrader avec l’implication toujours plus répandue de l’IA générative. Du moins, c’est ce que suggèrent certains chercheurs qui soulignent les risques associés à ces technologies, notamment en raison des erreurs encore trop fréquentes qu’elles génèrent. Toutefois, des chercheurs de l’Université d’Oxford proposent une solution : utiliser les LLMs (grands modèles de langage) en tant que « traducteurs zero-shot ». Selon eux, cette méthode pourrait permettre une utilisation sûre et efficace de l’IA dans la recherche scientifique.
Dans un article paru dans la revue Nature Human Behaviour, des chercheurs de l’Université d’Oxford partagent leurs préoccupations concernant l’utilisation des grands modèles de langage (LLMs) dans la recherche scientifique.
Ces modèles peuvent générer des réponses erronées pouvant réduire la fiabilité des études et même conduire à la diffusion de fausses informations par la création de fausses données d’études. De plus, la science a toujours été décrite comme une activité intrinsèquement humaine. Elle fait appel à la curiosité, à la pensée critique, à la création de nouvelles idées et hypothèses et à la combinaison créative de connaissances. Le fait de « déléguer » tous ces aspects humains à des machines soulève des inquiétudes au sein des communautés scientifiques.
L’effet Eliza et la confiance excessive aux IA
Les scientifiques d’Oxford ont évoqué deux principales raisons liées à l’utilisation des modèles de langage dans la recherche scientifique. La première est la tendance des utilisateurs à attribuer des qualités humaines aux IA génératives. C’est un phénomène récurrent qui porte le nom « d’effet Eliza », dans lequel les utilisateurs considèrent inconsciemment ces systèmes comme étant compréhensifs et empathiques, voire sages.
La deuxième raison est que les utilisateurs peuvent montrer une confiance aveugle aux informations fournies par ces modèles. Pourtant, les IA sont susceptibles de produire des données incorrectes et ne garantissent en rien la véracité des réponses, malgré les récentes avancées.
Par ailleurs, selon les chercheurs de l’étude, les LLMs fournissent souvent des réponses qui semblent convaincantes, qu’elles soient vraies, fausses, ou imprécises. Face à certaines requêtes par exemple, au lieu de répondre « je ne sais pas », les IA préfèrent fournir des réponses incorrectes, car elles ont été entraînées pour satisfaire les utilisateurs, et notamment pour simplement prédire une suite de mots logique face à une requête.
Tout cela remet évidemment en question l’utilité même des IA génératives dans le cadre de la recherche, où l’exactitude et la fiabilité des informations sont cruciales. « Notre tendance à anthropomorphiser les machines et à faire confiance aux modèles comme s’ils étaient des diseurs de vérité à l’image de l’homme, en consommant et en diffusant les mauvaises informations qu’ils produisent dans le processus, est particulièrement inquiétante pour l’avenir de la science », écrivent les chercheurs dans leur document.
La traduction « zero-shot » comme solution au problème ?
Les chercheurs proposent toutefois une autre manière plus sûre d’impliquer l’IA dans la recherche scientifique. Il s’agit de la « traduction zero-shot ». Dans cette technique, l’IA fonctionne à partir d’un ensemble de données entrantes qui sont déjà considérées comme fiables.
Au lieu de générer des réponses nouvelles ou créatives, l’IA se concentre dans ce cas sur l’analyse et la réorganisation de ces informations. Son rôle se limite ainsi à manipuler les données, sans introduire de nouvelles informations.
Dans cette approche, le système n’est donc plus utilisé comme un vaste répertoire de connaissances, mais plutôt comme un outil visant à manipuler et réorganiser un ensemble spécifique et fiable de données afin d’en tirer des apprentissages. Néanmoins, contrairement à l’utilisation ordinaire des LLMs, cette technique requiert une compréhension plus approfondie des outils d’IA et de leurs capacités, et selon l’application, de langages de programmation tels que Python.
Afin de mieux comprendre, nous avons directement demandé à l’un des chercheurs de nous expliquer plus en détail le principe. Pour commencer, selon lui, utiliser les LLMs pour transformer des informations précises d’une forme à une autre, sans formation spécifique pour cette tâche, amène les deux avantages suivants :