Une intelligence artificielle peut-elle aider un élève à mieux apprendre ? C’est en tout cas le pari qu’a fait une école privée située dans la Silicon Valley, aux États-Unis. Elle utilise un chatbot basé sur un système d’IA pour accompagner les élèves dans leur apprentissage.
Le « tuteur » artificiel proposé aux élèves par l’école Khan Lab School se nomme « Khanmigo », et a déjà pris ses fonctions, selon un article du Washington Post qui s’est penché de près sur le sujet. Ce programme conversationnel a été développé en collaboration avec OpenAI. La plupart du temps, les intelligences artificielles conversationnelles sont des programmes destinés à répondre à des questions de la manière la plus précise possible. Ce chatbot de « tutorat » a une approche un peu différente, puisqu’il est programmé pour essayer d’amener les élèves vers une réponse sans la donner immédiatement, dans un but éducatif.
Pour le moment, Julia Doscher, enseignante dans cette école, se dit plutôt satisfaite des interactions des élèves avec cette IA. Elle affirme que les enfants se sont plutôt focalisés sur leur apprentissage et ne sont pas trop amusés à dévier du sujet, comme elle l’avait craint. Elle reconnaît qu’il existe un risque que les élèves se reposent trop sur ce « tuteur » et que cela ralentisse leur apprentissage. Toutefois, elle souligne aussi le fait que les étudiants, surtout les timides, peuvent grâce à cette technologie poser bien plus de questions que ce qu’ils n’auraient osé pendant un cours. Ils ont également moins « honte » de demander de l’aide sur des sujets apparemment évidents.
Un élève de huit ans, interrogé par le Washington Post, se montre mitigé sur ce tuteur d’un genre nouveau. « Il donne une description plus détaillée que celle que j’aurais faite dans ma tête ou sur papier, ce qui peut être utile ou ennuyeux », déclare ainsi Neil Siginatchu dans des propos également rapportés dans un article de Futurism. « Parce que si c’est trop détaillé… c’est beaucoup à lire et si je n’en ai pas besoin, c’est tout simplement excessif ». Au-delà des retours des jeunes utilisateurs, c’est surtout la question de la sécurité et de la fiabilité qui reste en suspens.
L’IA, encore trop instable pour être laissée aux mains d’enfants ?
La fiabilité, tout simplement parce que toutes les IA conversationnelles, sans exception, relaient encore parfois avec beaucoup d’aplomb des informations totalement fausses. La dernière version de ChatGPT, ChatGPT-4, réputée pour être bien plus puissante que ses prédécesseurs, n’a pas pour autant résolu le problème. Entre autres soucis, l’IA a toujours des « hallucinations », ce phénomène qui touche les IA et les amène à inventer des faits. « Lorsqu’on lui a demandé les adresses de sites Web décrivant les dernières recherches sur le cancer, il a parfois généré des adresses Internet qui n’existaient pas », témoigne ainsi un article du New York Times sur ce sujet. Laissé entre les mains d’un enfant, un tel outil pourrait donc lui inculquer de fausses idées.
Pire, il arrive également que les intelligences artificielles « déraillent » et puissent tenir des propos déplacés. « Les risques connus associés aux modèles linguistiques plus petits sont également présents avec GPT-4. GPT-4 peut générer des contenus potentiellement dangereux, tels que des conseils sur la planification d’attaques ou des discours haineux. Il peut représenter divers préjugés sociétaux et visions du monde qui peuvent ne pas être représentatifs de l’intention de l’utilisateur ou de valeurs largement partagées », peut-on lire dans un rapport technique concernant le développement de ChatGPT-4. Bien entendu, les ingénieurs à l’œuvre dans le développement des IA cherchent à limiter ce type de risque. La technologie reste toutefois à un stade d’expérimentation qui peut poser question quand on en vient à un usage scolaire.