Nvidia dévoile un superordinateur dédié à l’IA qui vous mettra au chômage beaucoup plus rapidement

nvidia dgx gh200 supercalculateur ai couv
Nvidia dévoile le supercalculateur DGX GH200 AI, dont les performances vont jusqu'à 1 exaflop (un milliard de milliards d’opérations en virgule flottante par seconde). | Nvidia
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

À mesure que l’intelligence artificielle (IA) devient de plus en plus complexe et les modèles d’IA de plus en plus grands, l’industrie a besoin de matériel plus puissant et de meilleures technologies de gestion des données pour suivre le rythme. Nvidia, le géant de l’informatique, a récemment fait une série d’annonces qui pourraient révolutionner le domaine, notamment en dévoilant le superordinateur DGX GH200 dédié à l’IA et une nouvelle technologie Ethernet conçue pour gérer de grands volumes de données pour les tâches d’IA.

L’industrie de l’intelligence artificielle (IA) est en constante évolution, avec des avancées technologiques qui repoussent continuellement les limites du possible. La demande dans le secteur est croissante, et concerne maintenant des technologies capables de gérer des volumes massifs de données et d’accélérer la formation des modèles d’IA.

Dans ce contexte dynamique, les dernières annonces de Nvidia pourraient marquer un tournant dans le domaine. Au cours de la conférence technologique Computex à Taipei, Taiwan, l’entreprise, leader dans le domaine de l’IA et des supercalculateurs, a dévoilé le DGX GH200, un superordinateur de nouvelle génération qui promet de révolutionner la formation des modèles d’IA, ainsi qu’une nouvelle technologie Ethernet conçue pour gérer de grands volumes de données pour les tâches d’IA.

Un supercalculateur ultrapuissant

Le DGX GH200 est un superordinateur de nouvelle génération alimenté par les super-puces GH200 Grace Hopper de Nvidia, combinant plusieurs composants de traitement en un seul, comme une unité de traitement central (CPU) et une unité de traitement graphique (GPU). Il est conçu pour permettre le développement de modèles d’IA de nouvelle génération pour des applications de langage génératif comme ChatGPT, des systèmes de recommandation et des charges de travail d’analyse de données.

Le DGX GH200 utilise la technologie d’interconnexion NVLink pour combiner 256 super-puces GH200, leur permettant de fonctionner comme une seule unité de traitement graphique (GPU). Cela fournit une performance de 1 exaflop — une unité de mesure utilisée en informatique pour quantifier la performance d’un ordinateur, un exaflop équivalant à un milliard de milliards d’opérations en virgule flottante par seconde — et 144 téraoctets (To) de mémoire partagée, soit près de 500 fois plus de mémoire que le précédent superordinateur DGX A100 de Nvidia.

Comme mentionné précédemment, les super-puces GH200 éliminent le besoin d’une connexion traditionnelle CPU-GPU. Cela augmente la bande passante, c’est-à-dire la quantité de données qui peut être transférée entre le processeur graphique (GPU) et le processeur central (CPU) de 7 fois par rapport à la dernière technologie PCIe. Un autre avantage est la consommation d’énergie de l’interconnexion réduite de plus de 5 fois et la fourniture d’un bloc de construction GPU pour les superordinateurs DGX GH200.

Un système Ethernet plus performant que jamais

En plus du DGX GH200, Nvidia a également dévoilé une nouvelle technologie Ethernet dédiée au déplacement de grands volumes de données pour les tâches d’IA. Connue sous le nom de Spectrum-X, cette famille de produits Ethernet est présentée comme le premier système Ethernet haute performance destiné à l’IA. Le Spectrum-4, première itération de Spectrum-X, est décrit comme le premier commutateur Ethernet de 51 Tb/sec (térabits par seconde, mesurant la vitesse de transfert de données) conçu spécifiquement pour les réseaux d’IA. Il fonctionne en conjonction avec les unités de traitement de données (DPU) BlueField de Nvidia, qui gèrent la récupération et la mise en file d’attente des données, et les émetteurs-récepteurs à fibre optique de Nvidia.

Le Spectrum-X est conçu pour répondre à la division des centres de données en deux formes. D’une part, les « usines d’IA », qui sont des installations coûtant des centaines de millions de dollars avec les GPU les plus puissants basés sur NVLink et Infiniband de Nvidia, utilisés pour l’entraînement de l’IA, servant un « petit nombre » de tâches très rigoureuses.

D’autre part, le cloud d’IA, qui est multilocataire et basé sur Ethernet, gère des centaines et des centaines de tâches simultanément pour divers clients. Il est axé sur des tâches comme la fourniture de prédictions aux consommateurs d’IA, qui seront servis par le Spectrum-X.

Nvidia explique dans communiqué : « La première itération du GH200 est en pleine production. Les supercalculateurs mondiaux et les centres de supercalcul en Europe et aux États-Unis sont parmi plusieurs clients qui auront accès à des systèmes alimentés par GH200 ».

nvidia ceo jensen huang
Le PDG de Nvidia, Jensen Huang, a présenté la première itération de Spectrum-X, la puce Spectrum-4, avec cent milliards de transistors dans une matrice de 90 millimètres sur 90 millimètres. © Nvidia

Nvidia développe également son propre superordinateur basé sur le DGX GH200 pour alimenter le travail de ses chercheurs et équipes de développement. Nommé NVIDIA Helios, le superordinateur comportera quatre systèmes DGX GH200. Chacun sera interconnecté avec le réseau InfiniBand Quantum-2 de NVIDIA pour augmenter le débit de données pour la formation de grands modèles d’IA. Helios comprendra 1024 super-puces Grace Hopper et devrait être opérationnel d’ici la fin de l’année.

Nvidia est donc en train de redéfinir l’avenir de l’IA avec le lancement du supercalculateur DGX GH200 et de la nouvelle technologie Ethernet pour l’IA Spectrum-X. Ces innovations promettent de transformer la manière dont les modèles d’IA sont formés et les données gérées, ouvrant la voie à une nouvelle ère de progrès.

Laisser un commentaire
Cliquez pour accéder à d'autres articles sur ce sujet.