« Ni additionner ni faire une racine carrée ». Avec ces mots, un professeur universitaire espagnol a mis sur la table l’un des débats les plus vifs concernant l’intelligence artificielle : ses limites. Sa phrase a fortement résonné car, bien que les IA rédigent des textes, répondent à des questions et génèrent des idées avec une fluidité surprenante, elles butent encore sur des opérations aussi basiques qu’une addition ou une racine carrée.
Le moment où la critique est devenue virale
Julio Antonio Gonzalo Arroyo, professeur à l’Université Nationale d’Éducation à Distance (UNED), n’a pas tourné autour du pot lorsqu’on lui a demandé quel était le point faible de ChatGPT. Sa réponse fut directe et sans ambiguïté : « Ni additionner ni faire une racine carrée ». Cette clarté fait partie de son succès viral : dans un monde habitué aux détours, Gonzalo a choisi l’honnêteté sans fioritures.
Le professeur qui dévoile le « point faible » de ChatGPT
Julio Antonio Gonzalo Arroyo n’est pas un critique improvisé. Il est professeur titulaire à l’UNED et un spécialiste du traitement du langage naturel, avec des années de recherche sur l’IA et la linguistique informatique. Dans l’échange devenu viral, il a contextualisé sa critique sur un ton didactique : il voulait bien faire comprendre qu’en dépit de la capacité impressionnante des modèles comme ChatGPT, leur maîtrise des mathématiques de base reste limitée et peu fiable.
« Ni additionner ni faire une racine carrée » : la phrase devenue virale
Cette phrase n’est pas seulement une pique. C’est un appel à la vigilance. « Ni additionner ni faire une racine carrée » est devenu un exemple de ce qui arrive quand on idéalise l’intelligence artificielle. Beaucoup de gens sont impressionnés par la capacité de ChatGPT à répondre dans des dizaines de langues, écrire des poèmes ou résumer des documents complexes. Pourtant, lorsqu’on lui demande une opération simple, l’IA peut échouer de manière spectaculaire.
La critique pointe l’architecture même du système : ChatGPT n’est pas une calculatrice, mais un modèle statistique entraîné à prédire le texte le plus probable. Il peut parfois donner des résultats corrects, mais il se trompe aussi sans savoir qu’il s’est trompé.
Que signifie réellement cette critique ?
Pour le professeur Gonzalo, le problème n’est pas que ChatGPT soit « stupide », mais que sa conception n’est pas orientée vers la précision numérique. Ce n’est pas un défaut mineur : cela souligne une limite structurelle. Lorsque les utilisateurs placent des attentes excessives dans ces outils, ils peuvent utiliser leurs réponses sans les valider, même dans des contextes sensibles comme l’éducation, le journalisme ou la science.
En soulignant son incapacité à résoudre correctement des additions ou des racines carrées, la critique du professeur sert de rappel : l’IA générative est puissante pour produire du langage, mais ne remplace pas le raisonnement formel ni le calcul exact.
La réaction de la communauté et l’avenir de l’IA
Les réactions du public ont été variées. Certains applaudissent la sincérité du professeur : ils apprécient qu’un expert explique en termes simples ce que ChatGPT fait mal. D’autres estiment que la critique est injuste ou trop simplifiée, car OpenAI et d’autres travaillent à intégrer des modules de calcul symbolique et des outils mathématiques formels pour pallier cette lacune.
En attendant, les développeurs d’IA reconnaissent ces limites et s’efforcent de les atténuer. Certaines versions avancées intègrent déjà des connexions à des moteurs de recherche ou à des programmes mathématiques pour corriger les erreurs. Cependant, même avec ces améliorations, la base reste un modèle statistique qui ne « raisonne » pas comme un humain.
Réflexion finale et appel à l’action
Le commentaire du professeur Gonzalo Arroyo a suscité un débat nécessaire : savons-nous vraiment ce qu’est et ce que n’est pas l’intelligence artificielle ? Au milieu de l’enthousiasme pour ses possibilités, sa phrase nous oblige à rester lucides et à reconnaître ses limites.
« Ni additionner ni faire une racine carrée » n’est pas seulement un reproche : c’est un rappel que nous devons utiliser ces outils avec discernement et précaution. Devons-nous exiger plus de transparence sur leurs lacunes ? Devons-nous apprendre à mieux interroger ces outils pour en tirer parti sans commettre d’erreurs ?
Partagez votre avis : pensez-vous que ces limites sont préoccupantes ou normales pour une technologie émergente ? Avez-vous été surpris qu’un modèle aussi avancé échoue sur quelque chose d’aussi basique ? Commentez, partagez et faites vivre le débat.