Les intelligences artificielles conversationnelles n’ont pas fini de faire parler d’elles… Alors que ChatGPT fait régulièrement les gros titres, Google vient d’annoncer le lancement d’un outil concurrent, appelé « Bard ».
« Bard peut être un exutoire pour la créativité et une rampe de lancement pour la curiosité, vous permettant d’expliquer les nouvelles découvertes du télescope spatial James Webb de la NASA à un enfant de 9 ans, ou d’en savoir plus sur les meilleurs attaquants de football du moment, puis d’obtenir des exercices pour développer vos compétences », décrit le directeur général de Google, Sundar Pichai, dans un article de blog annonçant le lancement de Bard. Plus concrètement, il s’agit d’un outil basé sur une IA conversationnelle, du même acabit que le bien connu ChatGPT.
Bard s’appuie donc sur un programme d’apprentissage automatique nommé LaMDA. Nourri de données tirées d’internet, il sera capable de fournir un texte en réponse à une requête écrite. Le programme LamDA avait déjà fait parler de lui il y a quelque temps : notamment lorsqu’un des développeurs travaillant sur le projet avait affirmé qu’il était « conscient ». S’il ressort aujourd’hui du placard, c’est parce que Google a décidé de faire passer Bard en phase de test : « aujourd’hui, nous franchissons une nouvelle étape en l’ouvrant à des testeurs de confiance avant de le rendre plus largement accessible au public dans les semaines à venir », affirme ainsi l’entreprise.
En IA, tout est question de données. C’est en effet en alimentant le programme via de nombreuses données que celui-ci est capable d’apprendre et de s’affiner. Cette ouverture à une base d’utilisateurs plus large devrait donc permettre de faire évoluer LamDA et l’outil Bard associé. « Nous sommes ravis que cette phase de test nous permette de continuer à apprendre et à améliorer la qualité et la rapidité de Bard », assure ainsi Google. « Nous combinerons les commentaires externes avec nos propres tests internes pour nous assurer que les réponses de Bard atteignent un niveau élevé de qualité, de sécurité et d’ancrage dans les informations du monde réel ».
« Développer l’IA de manière responsable »
Les progrès récents des IA fascinent cependant autant qu’ils effraient. Des juristes aux artistes, nombreux sont ceux qui se posent la question de l’impact de cette nouvelle technologie sur le futur de nos métiers. D’autre part, les pratiques des grandes entreprises dans le développement de leurs IA ont parfois laissé à désirer d’un point de vue éthique. Récemment, une enquête du Times avait révélé qu’OpenAI, l’entreprise mère de ChatGPT, payait des Kenyans 2$ de l’heure pour consulter toute la journée des contenus violents, racistes, pédophiles… Objectif : apprendre à ChatGPT à repérer et éviter ces contenus. L’un des employés avait alors décrit ce travail comme « une torture ».
Sans entrer véritablement dans les détails, Google affirme que les considérations éthiques liées à l’IA seront prises en compte : « nous nous engageons à développer l’IA de manière responsable », précise donc le directeur, arguant d’un travail préexistant sur le sujet : « en 2018, Google a été l’une des premières entreprises à publier un ensemble de principes relatifs à l’IA. Nous continuons à fournir des formations et des ressources à nos chercheurs, à nous associer à des gouvernements et à des organisations externes pour développer des normes et de bonnes pratiques, et à travailler avec des communautés et des experts pour rendre l’IA sûre et utile ». Le grand public devrait en tout cas bientôt avoir un aperçu des dernières recherches en IA de Google. En effet, l’entreprise souhaite intégrer « bientôt » des fonctionnalités alimentées par IA dans la barre de recherche Google.