Accueil > Actu > 2 millions de PC vont aider à améliorer la prévision du climat

2 millions de PC vont aider à améliorer la prévision du climat

mardi 16 septembre 2003

Les météorologues britanniques lancent une nouvelle expérience de calcul distribué qui devrait durer jusqu’en 2005

Une vaste expérience de modélisation climatique faisant appel au calcul distribué a été lancée, le 12 septembre 2003, par des météorologues britanniques. Elle devrait impliquer deux millions d’utilisateurs d’ordinateurs personnels dans le monde. Son but : parvenir à réduire la marge d’erreur des modèles de prédiction du climat utilisés aujourd’hui.

Toute personne possédant un PC récent (466 MHz minimum) peut télécharger sa propre version du modèle climatique développé par le bureau météorologique britannique (Met Office) et plusieurs universités, dont celles de Reading et d’Oxford sur le site climateprediction.net.

Les calculs nécéssaires à ce programme s’effectueront sur les ordinateurs des volontaires, pendant les périodes d’inactivité de leur processeur. Une fois terminée, l’analyse lancée sur chaque ordinateur sera retransmise aux météorologues via l’internet. Sur une machine équipée d’un processeur de 800 MHz, les calculs devraient prendre 12 semaines. Le programme (7,57 MB) ne fonctionne pour l’instant que sous Windows. Une version sous Linux devrait bientôt être disponible.

Les modèles climatiques développés aujourd’hui un peu partout dans le monde, dans le but de prédire l’évolution du temps pour le prochain siècle, comportent une large part d’incertitude. Le modèle utilisé par le Groupe intergouvernemental d’experts sur l’évolution du climat (GIEC) dans son rapport 2001 table sur une augmentation des températures comprise entre 1,4 et 5,8°c d’ici à 2100. Les spécialistes cherchent à ressérer cet écart.

Il y a deux façons de réduire l’incertitude d’un modèle scientifique. La première consiste à le faire "tourner" en le nourrissant de données de départ de plus en plus fiables. Ce processus d’amélioration est très long. Dans le cas de la prédiction climatique, il passe par une collecte de données météo toujours plus denses et précises.

Des centaines de paramètres

La seconde (celle utilisée par climateprediction.net) permet de contourner cette contrainte, qui demande à la fois beaucoup de temps et beaucoup d’argent. Elle vise à tester tout l’éventail des hypothèses disponibles - et entre lesquelles on ne sait pas vraiment trancher - en vérifiant lesquelles sont capables de reproduire avec succès les évolutions passées du climat.

Le projet britannique, d’abord baptisé Casino 21 en référence à cette méthode aléatoire de validation des données, va faire tourner des centaines de milliers de versions différentes d’un même modèle, dans lesquelles les données de départ varieront à chaque fois un petit peu. Les modèles qui n’auront pas reproduit correctement l’évolution de la météo passée seront rejetés.

Le programme débute par des calculs effectués à partir de données prélevées depuis les océans (telles que le taux de salinité, par exemple). Cette analyse devrait prendre fin mi-2004, date à laquelle débutera la partie essentielle de l’expérience : la simulation du climat de 1950 à 2000. Les paramètres validés au cours de cette phase seront ensuite testés sur une simulation anticipant le changement climatique sur une période allant de 2000 à 2050.

"Il est fondamental que nous réussissions à réduire l’incertitude de nos modèles, afin de les rendre plus crédibles", explique le Dr Myles Allen, à l’origine de climateprediction.net. "Si les modèles actuels surestiment la rapidité et l’importance du changement climatique, nous pourrions être amenés à investir d’immenses quantités d’argent pour lutter contre un phénomène qui n’est pas si grave que ça. Dans le cas contraire, nous risquons d’agir trop peu et trop tard en croyant à tort que les changements seront mineurs et progressifs", précise le physicien.

La technique mise en oeuvre par les chercheurs britanniques permet de gagner un temps précieux en partageant les calculs sur des dizaines de milliers d’ordinateurs de bureau classiques. Un calcul qui aurait pris des années s’il avait été lancé sur un nombre restreint de super-calculateurs. Le principe du calcul distribué a été rendu célèbre par Seti@home, une expérience lancée en 1999 par l’université californienne de Berkeley, dont l’objectif consiste à rechercher d’éventuelles communications extraterrestres à travers l’analyse de l’activité radio céleste. Pour l’instant, aucune présence extra-terrestre n’a été décelée. L’expérience climateprediction.net devrait rencontrer plus de succès...

Matthieu Auzanneau


Voir en ligne : Article de Transfert.net - 16/09/2003

Messages

Un message, un commentaire ?

Forum sur abonnement

Pour participer à ce forum, vous devez vous enregistrer au préalable. Merci d’indiquer ci-dessous l’identifiant personnel qui vous a été fourni. Si vous n’êtes pas enregistré, vous devez vous inscrire.

Connexions’inscriremot de passe oublié ?