|Mise ร disposition du public vendredi 5 aoรปt, BlenderBot 3 est la nouvelle IA de discussion par messages (ou chatbot) de Meta. Mais comme pour tous les systรจmes de ce type qui imitent du contenu, il y a des dรฉrapages. Meta affirme cependant avoir rรฉcemment rรฉduit les rรฉponses offensantes de 90%.
Le principe de ce systรจme basรฉ sur le ยซ machine learning ยป (apprentissage automatique) est simple : il se dรฉveloppe ร partir des donnรฉes quโon lui fournit. Contrairement aux versions prรฉcรฉdentes du chatbot, celle-ci peut mรชme effectuer des recherches sur Internet pour ยซ discuter ยป dโร peu prรจs tous les sujets avec des humains. Pour ce faire, le systรจme sโappuie sur les capacitรฉs fournies par les versions prรฉcรฉdentes du BlenderBot, comme la personnalitรฉ, l’empathie et la connaissance sur le long terme.
Pour dรฉvelopper son apprentissage sur une large gamme de sujets, Meta a mis le chatbot ร disposition du public. Mais comme toujours, le risque de circulation de fausses informations et de propos dรฉplacรฉs demeure. Dans une conversation avec un journaliste d’Insider, BlenderBot en a profitรฉ pour qualifier Mark Zuckerberg โ son fondateur โ ยซ dโeffrayant et manipulateur ยป. Il a รฉcrit ร un autre journaliste que Trump ยซ sera toujours ยป prรฉsident, et a mรชme vantรฉ la thรฉorie antisรฉmite du complot selon laquelle il n’รฉtait ยซ pas invraisemblable que des Juifs contrรดlent l’รฉconomie ยป.
รvidemment, ce nโest pas la premiรจre fois quโun chatbot part ร la dรฉrive. En 2016, Microsoft avait sorti Tay, un systรจme dโIA conversationnel, clรดturรฉ aprรจs qu’il a commencรฉ ร faire l’รฉloge d’Adolf Hitler.
Comme pour tous les systรจmes d’IA, les rรฉponses du robot ont รฉgalement virรฉ au racisme. Le mรฉdia Vice rapporte que les propres chercheurs de Facebook ont dรฉcrit le modรจle comme ayant ยซย une forte propension ร gรฉnรฉrer un langage toxique et ร renforcer les stรฉrรฉotypes nuisibles, mรชme lorsqu’on lui fournit une entrรฉe relativement inoffensive ยป.
Certes, Facebook admet que le robot gรฉnรจre des rรฉponses biaisรฉes et nuisibles, et demande aux utilisateurs de reconnaรฎtre qu’il est ยซย susceptible de faire des dรฉclarations fausses ou offensantesย ยป et aussi d’accepter ยซย de ne pas influencer intentionnellement le systรจme pour qu’il fasse des dรฉclarations offensantes ยป. Mais la nouvelle IA de Meta nรฉcessiterait plus de contrรดle afin dโรฉviter une fin prรฉmaturรฉe.
Des rรฉsultats impossibles ร contrรดler ?
ยซย Comme tous les chatbots d’IA conversationnelle sont connus pour imiter et gรฉnรฉrer parfois des remarques dangereuses, biaisรฉes ou offensantes, nous avons menรฉ des รฉtudes ร grande รฉchelle, co-organisรฉ des ateliers et dรฉveloppรฉ de nouvelles techniques pour crรฉer des protections pour BlenderBot 3 ยป, รฉcrit Meta dans un blog annonรงant la sortie du chatbot. ยซ Nous comprenons que tous ceux qui utilisent des chatbots n’ont pas de bonnes intentions, c’est pourquoi nous avons รฉgalement dรฉveloppรฉ de nouveaux algorithmes d’apprentissage pour distinguer les rรฉponses utiles des exemples nuisiblesย ยป.
En outre, les utilisateurs peuvent signaler les rรฉponses inappropriรฉes de BlenderBot 3, comme le note Bloomberg, et Meta affirme les prendre en compte et avoir rรฉduit les rรฉponses offensantes de 90%. Pourtant, les chercheurs en รฉthique de l’IA ont averti ร plusieurs reprises que les modรจles linguistiques massifs qui alimentent ces systรจmes sont trop importants et imprรฉvisibles pour garantir des rรฉsultats รฉquitables et impartiaux. Il n’y aurait pas non plus de moyen clair de distinguer les rรฉponses utiles des autres rรฉponses, mรชme en intรฉgrant les commentaires des utilisateurs.


