Des chercheurs de Google ont conçu un simulateur propulsé par l’IA pour garantir l’exactitude des prévisions météorologiques tout en réduisant les calculs nécessaires. Baptisé NeuralGCM, il fournit des prévisions aussi précises que les modèles conventionnels, qui sont pourtant plus gourmands en ressources et plus lents.
Les prévisions météorologiques reposent sur des modèles d’équations dynamiques mécaniques et fluides exécutés par des superordinateurs. Dès leur apparition il y a près de 70 ans, ces modèles ont été utilisés autant par les professionnels de la météorologie que les climatologues. Depuis, ils ne cessent d’évoluer, mais cette évolution s’accompagne d’un besoin croissant en puissance de calcul.
Plusieurs approches visant à réduire ces calculs intenses ont été proposées au fil des années. Cependant, la fiabilité de ces modèles a toujours laissé les climatologues perplexes, notamment vis-à-vis de leur incapacité à reproduire fidèlement les méthodes de calcul initiales. De plus, ces modèles sont surtout focalisés sur les données historiques, ce qui les rend incapables de prévoir des phénomènes qui n’ont jamais eu lieu — mais qui se produisent actuellement avec le changement climatique.
En tenant compte de cette situation, une équipe de recherche de Google, en collaboration avec des experts du MIT, de Harvard et du Centre européen pour les prévisions météorologiques, a adopté une approche plus complexe basée sur l’IA.
Dans leur étude, publiée dans la revue Nature, les chercheurs déclarent que leur modèle se montre plus précis et économique pour les tâches de prévisions météorologiques à moyen terme. Baptisé NeuralGCM, ce modèle combine les meilleures fonctions des modèles conventionnels avec une nouvelle approche reposant sur l’apprentissage automatique. Plus précisément, la clé de ce simulateur réside dans la formation de réseaux neuronaux pour prédire la météo tout en se basant sur des données historiques pour consolider ses apprentissages.
En évoquant le processus de création du NeuralGCM, l’équipe a déclaré dans un communiqué du MIT avoir évité les problèmes observés dans les expériences précédentes en utilisant uniquement l’IA. Stephan Hoyer, chercheur chez Google et qui dirige le projet, a affirmé : « Nous avons vraiment essayé de démonter la boîte noire, au lieu de nous contenter d’un simple modèle d’IA ».
Quand l’innovation est au cœur du sujet
Pour capturer des systèmes climatiques et météorologiques à grande échelle, les modèles climatiques classiques rassemblent des données physiques transformées en données vectorielles et algorithmes, dans lesquels sont classées les principales composantes du système terrestre : la terre, l’atmosphère, l’océan et la glace. Cependant, les nuages, les précipitations et les cyclones/tornades concernent parfois des échelles si petites qu’il est impossible d’effectuer des simulations à des résolutions plus élevées tout en en tenant compte. Les scientifiques les estiment généralement à partir de données réelles qui sont continuellement ajustées, puis les programment en tant que « paramètres » dans les modèles.
Le modèle expérimental NeuralGCM, à la base, est un « modèle de circulation générale » qui contient une description mathématique de l’état physique de l’atmosphère terrestre. En même temps, il est en mesure de résoudre des équations complexes pour prédire les conditions météorologiques. Pour garantir des résultats cohérents avec les lois de la physique, il utilise également l’apprentissage automatique. Ainsi, par la combinaison de ces deux méthodes, il prend en charge les estimations à petite et à grande échelle tout en limitant les calculs — et de ce fait la consommation énergétique.
Des prévisions à haute résolution
En intégrant des jetons d’image représentant les conditions atmosphériques au simulateur NeuralGCM, les chercheurs ont pu apporter une nette amélioration de la compréhension des interactions météorologiques. Avec cette nouvelle approche, même en se basant sur des données de basse résolution, NeuralGCM est en mesure d’obtenir des résultats de prévision de haute résolution, et ce, avec des temps de calcul très brefs. D’ailleurs, l’équipe a indiqué que le modèle a traité 70 000 jours de simulations en seulement 24 heures, et ce avec une seule puce de traitement tensoriel (TPU).
Pour analyser davantage les performances de NeuralGCM, l’équipe l’a comparé à d’autres modèles en utilisant le WeatherBench 2 (un ensemble standardisé de tests de prévisions météo). Les résultats obtenus se sont avérés concluants d’après les chercheurs. Pour les prévisions sur 3 et 5 jours, NeuralGCM a surpassé Pangu et GraphCast (des modèles météorologiques par apprentissage automatique de référence). Pour les prévisions sur 10 et 15 jours, NeuralGCM était aussi précis que les meilleurs modèles traditionnels utilisés à ce jour. Le simulateur a même réussi à prévoir des phénomènes météorologiques moins courants, comme les cyclones tropicaux et des rivières atmosphériques.
Bien que les prévisions météorologiques à court terme soient de plus en plus fiables grâce aux avancées de l’IA, l’application de méthodes similaires à la modélisation climatique est encore pleine de défis. Tim Palmer, de l’Université d’Oxford, a fait part de ses inquiétudes en déclarant : « Je ne suis pas très à l’aise avec l’idée que nous abandonnions complètement les équations de mouvement et que nous nous contentions d’un système d’IA, que même les experts diront ne pas vraiment comprendre ».
Quoi qu’il en soit, cette approche hybride de NeuralGCM a ouvert la voie à de nouvelles perspectives, mettant en exergue les futures implications et orientations de la météorologie pilotée par l’IA. « C’est un pas dans la bonne direction et c’est le type de recherche que nous devrions faire. C’est formidable de voir toutes ces méthodes alternatives », conclut Palmer.