Claude, l’IA qui vient concurrencer ChatGPT ?

claude ia qui vient concurrencer chat gpt
| iStock
โ‡ง [VIDร‰O]   Vous pourriez aussi aimer ce contenu partenaire

ยซ Utile, inoffensif et honnรชte ยป : c’est en ces termes que se dรฉcrit ยซ Claude ยป, la nouvelle intelligence artificielle (IA) de l’entreprise Anthropic. Tout comme son cousin ChatGPT, le programme commence pourtant dรฉjร  ร  en inquiรฉter certains. Il vient notamment de rรฉussir un examen de droit et d’รฉconomie corrigรฉ ร  l’aveugle.

Plutรดt bon รฉlรจve, ce Claudeโ€ฆ Si lโ€™on exclut le fait qu’il ne s’agisse pas d’un humain, bien sรปr. Pendant que l’IA ChatGPT รฉtait sous les feux de tous les projecteurs mรฉdiatiques, il se prรฉparait discrรจtement ร  entrer en scรจne, ร  la fin de l’annรฉe 2022. Dรฉveloppรฉ par l’entreprise Anthropic, il fonctionne au premier abord un peu de la mรชme faรงon que ChatGPT de OpenAI. Il suffit de lui poser une question pour qu’il se mette ร  dialoguer, et apporter des rรฉponses. Et celles-ci peuvent รชtre consรฉquentes !

Afin de tester ses capacitรฉs, les chercheurs lui ont demandรฉ de rรฉpondre ร  des questions issues d’un examen de droit et d’รฉconomie. La copie obtenue ร  partir de cette demande a รฉtรฉ corrigรฉe ร  l’aveugle parmi d’autres copies, ร  la George Mason University. Elle est parvenue ร  obtenir une note la qualifiant pour passer l’examen. Alex Tabarrok, professeur d’รฉconomie, a publiรฉ l’une de ses rรฉponses sur son blog. ยซ La plus impressionnante ยป, selon lui. Elle portait sur une question de droit de la propriรฉtรฉ intellectuelle. L’IA devait formuler des recommandations pour des modifications de loi. ยซ Globalement, l’objectif devrait รชtre de rendre les lois sur la propriรฉtรฉ intellectuelle moins restrictives et de mettre plus d’ล“uvres ร  la disposition du public plus tรดt ยป, a conclu Claude. ยซ Mais il est important de continuer ร  fournir des incitations et des compensations aux crรฉateurs pendant une pรฉriode limitรฉe. ยป

Mรชme si ce professeur lui a reconnu une rรฉponse ยซ meilleure que celles de bien des humains ยป, certains se montrent plus critiques. On peut voir dans les commentaires de l’article de multiples internautes qui soulignent le fait que l’IA se contredit elle-mรชme dans certaines rรฉponses. ยซ Pour รชtre honnรชte, on dirait que Claude a simplement consommรฉ et vomi un rapport McKinsey ยป, critique aussi le Financial Times.

Une IA constitutionnelle

Claude fait-il donc beaucoup de bruit pour rien ? Pas nรฉcessairement. En rรฉalitรฉ, les scientifiques l’ont conรงue dans l’idรฉe de travailler sur l’idรฉe d’une ยซย IA constitutionnelleย ยป. C’est donc lร  que rรฉsident les principales avancรฉes des chercheurs.

Alors, qu’est-ce qu’une IA constitutionnelle, et quel est son intรฉrรชt ? ยซ Souvent, les modรจles linguistiques formรฉs pour รชtre ‘inoffensifs’ ont tendance ร  devenir inutiles face ร  des questions contradictoires ยป, explique l’entreprise dans un tweet de dรฉcembre. ยซ Nous expรฉrimentons des mรฉthodes pour former un assistant IA inoffensif par l’auto-amรฉlioration, sans aucune รฉtiquette humaine identifiant les sorties nocives ยป, expliquent-ils. ยซ Le processus implique ร  la fois un apprentissage supervisรฉ et une phase d’apprentissage par renforcement ยป.

Autrement dit, cette IA serait capable d’identifier lorsqu’un propos est, par exemple, discriminant, par un auto-apprentissage, en suivant non pas un รฉtiquetage fait par des humains, mais plutรดt de grands principes : une ยซ constitution ยป, en somme. Au-delร  de cette diffรฉrence, Claude constitue un sรฉrieux concurrent ร  ChatGPT. L’entreprise Scale, qui travaille sur le dรฉveloppement d’applications basรฉes sur des IA, a entrepris de les tester sur les mรชmes types de demandes. Entre autres constats, il en ressort que Claude a davantage tendance ร  se rendre compte de quand il est inexact : en revanche, il est moins bon que ChatGPT pour รฉcrire du code informatique. Les deux IA montrent toutefois encore toutes deux des faiblesses, se trompant sur des rรฉponses, ou allant parfois jusqu’ร  inventer des faits. ChatGPT, comme Claude, rencontre par exemple des difficultรฉs ร  rรฉsumer les diffรฉrentes saisons de la sรฉrie Lost sans affabuler. Mais peut-on vraiment leur en vouloir pour รงa ? ยซ Il semble que, comme la plupart des tรฉlรฉspectateurs humains de l’รฉmission, la mรฉmoire de ChatGPT et de Claude de Lost est au mieux floue ยป, concluent les testeurs de Scale, non sans un certain humour.

Laisser un commentaire
Cliquez pour accรฉder ร  d'autres articles sur ce sujet.