Le 11 décembre, Google DeepMind a levé le voile sur plusieurs innovations, dont le très attendu Gemini 2.0 et des avancées majeures du projet Astra. Si ces produits ne sont pas encore accessibles au grand public, leur potentiel, esquissé lors de cette présentation, pourrait renforcer la position de Google en tant qu’acteur majeur de l’intelligence artificielle.
Depuis le lancement de Gemini 1.0 en décembre 2023, Google a démontré sa volonté de s’imposer sur le terrain des technologies multimodales. Ce premier modèle, conçu pour traiter simultanément des données issues de divers formats – texte, image, vidéo, son ou encore code – représentait une étape importante.
Avec Gemini 2.0, l’entreprise franchit une étape supplémentaire, en dotant son IA de capacités enrichies destinées à créer des agents intelligents capables d’interagir avec les utilisateurs tout en exécutant diverses tâches à leur place (par le biais d’un smartphone adapté notamment). Cette nouvelle version alimente également Astra, un projet d’assistant dévoilé en mai dernier, qui vise à surpasser les fonctionnalités des assistants vocaux traditionnels tels que Siri ou Alexa.
Gemini 2.0 : l’avènement des TPU Trillium
Gemini 2.0 se distingue par des performances nettement supérieures à celles de son prédécesseur, Gemini 1.5. Sa vitesse de traitement est doublée, et ses résultats sur des benchmarks de référence comme le MMLU-Pro (Massive Multitask Language Understanding – Professional) témoignent de sa puissance, avec une augmentation de plusieurs points sur les scores de compréhension dans des domaines variés, tels que les mathématiques, la philosophie ou encore la psychologie.
L’efficacité de Gemini 2.0 repose sur les TPU Trillium, la sixième génération de processeurs développée par Google. Ces composants matériels optimisent tant l’entraînement que l’inférence du modèle, permettant des traitements plus rapides et une efficacité accrue.
Pour l’instant, cette version n’est accessible qu’à des développeurs et testeurs triés sur le volet. Aucune date de lancement public n’a encore été communiquée. Cependant, Google prévoit d’intégrer Gemini 2.0 dans plusieurs de ses produits phares, à commencer par son moteur de recherche, où il sera utilisé dans les systèmes « AI Overviews » pour synthétiser les résultats de recherche. Une version allégée, baptisée Gemini 2.0 Flash, est déjà disponible pour le grand public via l’outil Gemini.
Astra : un assistant universel en devenir
En exploitant pleinement les capacités multimodales de Gemini 2.0, Astra facilite des interactions naturelles et fluides avec l’utilisateur. Il répond aux questions, assiste dans l’exécution de tâches variées et s’appuie, si nécessaire, sur les services Google tels que Search, Maps ou Lens pour enrichir ses réponses.
L’une des fonctionnalités les plus remarquables d’Astra est sa capacité de mémorisation à « étendue optimisée ». En bref, l’assistant se souvient des échanges passés sur plusieurs sessions, mais dans une période relativement limitée et bien pensée, ce qui lui permet d’adapter ses réponses au contexte et aux besoins spécifiques de l’utilisateur sans exagérer les références. Cela s’ajouterait donc à une capacité de mémorisation sur le long terme, telle que celle de ChatGPT.
Dans une démonstration publiée par Google, le système montre une fluidité impressionnante, comme illustré dans la vidéo ci-dessous. Cependant, des critiques subsistent. Un journaliste du MIT Technology Review, qui a eu l’occasion de tester Astra, pointe des « lacunes notables » et évoque un « gouffre » entre les promesses des démonstrations et la réalité.
Vidéo de présentation du projet Astra :