La modélisation climatique et météorologique a toujours été un élément fondamental de l’informatique haute performance. Cependant, alors que les météorologues cherchent à améliorer la rapidité et la précision des prévisions, l’apprentissage automatique s’intègre de plus en plus dans ce domaine.

Dans un article récemment publié dans la revue Nature, une équipe de Google et du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) a présenté une approche innovante qui utilise l’apprentissage automatique pour surmonter les limites des modèles climatiques existants, dans le but de générer des prévisions plus rapidement et avec une meilleure précision.

Appelé NeuralGCM, ce modèle a été élaboré à partir de données météorologiques historiques collectées par le CEPMMT et utilise des réseaux neuronaux pour compléter les simulations physiques traditionnelles basées sur l’informatique haute performance.

Comme l’a expliqué Stephan Hoyer, membre de l’équipe derrière NeuralGCM, la plupart des modèles climatiques actuels prédisent le climat en divisant la Terre en cubes de 50 à 100 kilomètres de côté, puis en simulant le mouvement de l’air et de l’humidité à l’intérieur de ces cubes selon des lois physiques connues.

NeuralGCM fonctionne de manière similaire, mais l’apport de l’apprentissage automatique permet de suivre des processus climatiques qui ne sont pas toujours bien compris ou qui se produisent à des échelles plus petites.

« De nombreux processus climatiques importants, tels que les nuages et la précision, varient sur des échelles beaucoup plus petites (millimètres à kilomètres) que les dimensions des cubes utilisés dans les modèles actuels et ne peuvent donc pas être calculés uniquement sur la base de la physique, » a écrit Hoyer.

Traditionnellement, ces phénomènes à petite échelle ont été suivis à l’aide de modèles secondaires simplifiés, appelés paramétrisations. Hoyer a noté que ces approximations simplifiées limitent intrinsèquement la précision des modèles climatiques basés sur la physique. En d’autres termes, ces paramétrisations ne sont pas toujours fiables et peuvent dégrader l’exactitude globale du modèle.

NeuralGCM remplace ces paramétrisations par un réseau neuronal. Trois modèles ont été formés sur des données météorologiques existantes collectées par le CEPMMT entre 1979 et 2019, avec des résolutions de 0,7, 1,4 et 2,8 degrés.

Les résultats sont très prometteurs, selon l’article. En utilisant le cadre WeatherBench2 de Google, l’équipe a constaté que NeuralGCM pouvait atteindre une parité avec les modèles de prévision de pointe existants jusqu’à cinq jours à une résolution de 0,7 degré, tandis qu’à 1,4 degré, les prévisions de cinq à quinze jours étaient encore plus précises.

De plus, à 2,8 degrés, l’équipe a découvert que le modèle pouvait prédire la température moyenne mondiale entre 1980 et 2020 avec un taux d’erreur moyen d’un tiers de celui des modèles atmosphériques existants.

NeuralGCM s’est également révélé très compétitif par rapport à des modèles plus ciblés comme X-SHiELD, qui, selon Hoyer, offre une résolution beaucoup plus élevée mais nécessite plus de ressources informatiques.

Lors des tests, le modèle de 1,4 degré de NeuralGCM a pu prédire l’humidité et les températures de 2020 avec 15 à 20 % d’erreurs en moins par rapport à X-SHiELD. Au cours de ce même test, ils ont pu prévoir les schémas de cyclones tropicaux qui correspondaient au nombre et à l’intensité observés cette année-là.

Accélération des prévisions

L’équipe n’a pas seulement remplacé les paramétrisations par des réseaux neuronaux. L’ensemble de NeuralGCM a été développé en utilisant Google JAX, un cadre d’apprentissage automatique pour transformer des fonctions numériques pour une utilisation en Python.

Selon Hoyer, le passage à JAX présente plusieurs avantages, notamment une plus grande stabilité numérique pendant l’entraînement et la possibilité d’exécuter le modèle sur des TPU ou des GPU. En comparaison, les modèles météorologiques ont traditionnellement fonctionné sur des CPU, bien que l’utilisation des GPU soit de plus en plus courante.

Étant donné que NeuralGCM fonctionne nativement sur des accélérateurs, Google affirme que son système est de plusieurs ordres de grandeur plus rapide et moins coûteux à exécuter.

« Notre modèle de 1,4 degré est plus de 3 500 fois plus rapide que X-SHiELD, ce qui signifie que si des chercheurs simulaient l’atmosphère pendant un an avec X-SHiELD, cela leur prendrait 20 jours contre seulement huit minutes avec NeuralGCM, » a écrit Hoyer.

De plus, Hoyer affirme que cette simulation peut être réalisée sur un seul TPU, contrairement aux 13 000 CPU nécessaires pour faire fonctionner X-SHiELD, et il est même possible d’exécuter NeuralGCM sur un ordinateur portable.

  • La Chine dévoile un radar météorologique spatial qu’elle prétend être une avancée majeure
  • Le futur de Nvidia dans le calcul scientifique repose sur une fusion de l’IA et de l’informatique haute performance
  • Le superordinateur climatique d’Italie, Cassandra, combinera HPC et IA
  • La NASA lance enfin le satellite scientifique PACE

Bien que prometteur, il est important de noter que NeuralGCM n’est qu’un point de départ, Hoyer admettant librement qu’il ne s’agit pas d’un modèle climatique complet. Cependant, cela semble être l’objectif à long terme.

« Nous espérons finalement inclure d’autres aspects du système climatique terrestre, tels que les océans et le cycle du carbone, dans le modèle. Ce faisant, nous permettrons à NeuralGCM de faire des prévisions sur des échelles de temps plus longues, allant au-delà des prévisions météorologiques sur des jours et des semaines pour faire des prévisions sur des échelles climatiques, » a écrit Hoyer.

Pour soutenir ces efforts, le code source et les poids du modèle ont été rendus publics sur GitHub sous une licence non commerciale, permettant aux météorologues amateurs de s’en servir.

L’essor de l’apprentissage automatique dans la modélisation climatique

Cela ne constitue pas la première utilisation de l’apprentissage automatique dans la modélisation climatique. Le modèle climatique Earth-2 de Nvidia est un autre exemple de la manière dont l’IA et l’informatique haute performance peuvent être combinées pour améliorer non seulement la précision des prévisions, mais aussi leur rapidité.

Annonce lors du GTC ce printemps, Earth-2 est essentiellement un jumeau numérique massif conçu pour utiliser une combinaison de HPC et de modèles d’IA afin de générer des simulations haute résolution jusqu’à deux kilomètres.

Cela est en partie possible grâce à un modèle appelé CorrDiff, un modèle de diffusion que Nvidia affirme capable de générer des images de motifs météorologiques à une résolution 12,5 fois supérieure et jusqu’à 1 000 fois plus rapidement que d’autres modèles numériques. Le résultat est un modèle suffisamment rapide et précis pour susciter l’intérêt de Taïwan, qui envisage d’utiliser cette plateforme pour améliorer ses prévisions de typhons.

Parallèlement, de plus en plus de centres de recherche climatique adoptent des systèmes accélérés par GPU. La recherche climatique est l’un des nombreux domaines d’étude ciblés par le système Isambard-AI de 200 pétaFLOPS (FP64) qui est déployé à l’Université de Bristol.

Plus tôt cette année, le Centre euro-méditerranéen sur le changement climatique à Lecce, en Italie, a fait appel à Lenovo pour son nouveau superordinateur Cassandra, qui sera alimenté par des CPU Intel Xeon Max et un petit complément de GPU Nvidia H100, que le laboratoire prévoit d’utiliser pour exécuter une variété de simulations climatiques basées sur l’IA.

Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *