Depuis son lancement il y a quelques mois, l’IA conversationnelle ChatGPT d’OpenAI est toujours au cœur de l’actualité mondiale. Reconnue comme une véritable révolution technologique, elle s’est insérée dans le quotidien de nombreux professionnels. Toutefois, la question demeure : peut-on vraiment se fier à cet outil ?
Pour une grande partie du public, l’intelligence artificielle (IA) exploitée par les grands modèles de langage (LLM), tels que ChatGPT, est promise à un succès fulgurant. Ses traits de plus en plus « humains » semblent augurer un monde entièrement révolutionné. Souvent, devant ces performances, les professionnels oscillent entre une fascination enthousiaste et une appréhension d’être supplantés par ces nouveaux outils de notre époque. Un observateur, Rodney Brooks, envisage la situation sous un angle radicalement différent. Expert en robotique, il perçoit un courant d’excès d’optimisme concernant l’IA, la considérant « plus stupide que l’on ne pense », selon ses propres mots.
Rodney Brooks, entrepreneur dans le secteur de la robotique et ancien chercheur affilié à plusieurs universités américaines, a exprimé son opinion sur cette frénésie de progrès technologique, notamment en matière d’IA, lors d’une interview réalisée par IEEE Spectrum. Selon lui, il est erroné de prêter une once d’intelligence aux technologies fondées sur les LLM. Ces dernières ne seraient, d’après ses propos, ni intelligentes ni interactives.
Encore loin de l’IGA
L’IGA, ou « intelligence générale artificielle », désigne un système dont l’intelligence se rapproche de celle de l’être humain. Équipé de cette technologie, un appareil serait capable de manifester des capacités cognitives humaines et de résoudre différents types de problèmes. L’évolution de l’IA laisse à penser que nous atteindrons bientôt ce stade, mais Brooks réfute cette idée, arguant que les modèles de langage actuels, déconnectés du monde réel, ne disposent pas du modèle de représentation approprié.
En effet, l’humain est capable de comprendre les compétences qui sous-tendent une performance et de porter rapidement un jugement. Cette capacité ne peut être transférée aux systèmes d’IA. En somme, Brooks réduit la capacité de ChatGPT à une simple corrélation de langage. Autrement dit, le programme émet des réponses par simple prédiction, sans « réfléchir » comme le ferait un humain donc. En se basant sur cette analyse, l’ancien professeur estime que la perspective d’atteindre l’IGA est encore lointaine.
Il convient toutefois de noter que d’autres professionnels se penchent également sur la question et arrivent à des conclusions différentes. Selon le chercheur Sebastien Bubeck par exemple, ChatGPT-4 démontrerait certaines capacités correspondant à des critères d’intelligence. En effet, plusieurs études ont révélé que l’outil est capable de résoudre des problèmes complexes, de raisonner et de comprendre, bien qu’à sa manière.
Des erreurs fréquentes
Lors de son interview, Brooks a également souligné que l’IA commet souvent des erreurs. L’outil semble « convaincu » de la véracité de ses réponses, induisant ainsi l’utilisateur à lui faire confiance alors que les informations peuvent être erronées. En réalité, le système se contente d’illustrer à quoi devrait ressembler une réponse sans forcément fournir des informations précises.
Brooks a lui-même expérimenté cela lorsqu’il a utilisé une IA pour l’assister pour rédiger du code informatique. Il raconte avoir utilisé les réponses fournies par le système avant de réaliser qu’elles étaient en réalité incorrectes. « La moitié du temps, c’est complètement faux », précise-t-il dans son témoignage. Pour lui, un outil comme ChatGPT n’est qu’un instrument de recherche performant, surpassant les moteurs de recherche traditionnels tels que Google. En définitive, les opinions divergent. Espérons toutefois que l’IA ne parviendra pas à égaler l’intelligence humaine, car une telle situation pourrait entraîner de profonds bouleversements à plusieurs égards.