Comprendre le climat tropical :12 octobre 2011, lancement du satellite Megha-Tropiques

Posté par : Michel Desbois

Les régions tropicales et équatoriales constituent la principale source d'énergie pour le sytème océan-atmosphère : C'est là que le soleil réchauffe le plus la surface terrestre, l'océan et l'atmosphère. Elles sont donc le lieu de phénomènes puissants qui concernent les courants aériens et marins, ainsi que le cycle de l'eau (évaporation, précipitations). Par exemple, on peut citer les moussons, les cyclones tropicaux, les lignes de grains comme en Afrique. Événements dont l'évolution peut être catastrophique pour les pays concernés (sécheresses, cyclones destructeurs, inondations,...).

Les modèles de climat n'ont pas tous les éléments pour représenter parfaitement les phénomènes tropicaux: comment se répartit la vapeur d'eau, comment se forment les divers types de nuages, comment interagissent-ils avec le rayonnement visible et infrarouge, comment et où se forment les précipitations. Ces modèles sont donc pour le moment insuffisamment documentés pour prévoir l'évolution du climat dans ces régions (et ses conséquences pour les autres régions du globe).

Les satellites météorologiques ont déjà permis d'améliorer la connaissance des phénomènes atmosphériques tropicaux, notamment les nuages. Les satellites géostationnaires comme METEOSAT ont en effet une vue privilégiée puisque leur orbite les situe 36000 km au-dessus de l'équateur. Mais leur très haute altitude ne leur permet pas d'avoir accès à des paramètres comme la vapeur d'eau ou les précipitations. Il y a donc un manque dans l'observation simultanée des nuages, de la vapeur d'eau, des précipitations et du bilan de rayonnement. Ce manque concerne surtout les régions tropicales, puisque les satellites météorologiques d'orbite "polaire" couvrent mal les régions intertropicales.

C'est pourquoi, dès le début des années 1990, l'un des auteurs de ce blog (Michel Desbois) a promu une mission satellitaire susceptible de combler ce manque. A la suite de longue péripéties, cette mission a été développée en coopération avec l'Inde, sous le nom de Mégha-Tropiques. Le satellite Megha-Tropiques, réalisé en coopération entre le CNES et l'ISRO (les agences spatiales de la France et de l'Inde) a été lancé le 12 octobre 2011. Pour plus de détails, vous pouvez consulter les sites du CNES, de l'Ecole Polytechnique, de l'IPSL, de l'IRD, etc... Par exemple pour le CNES : http://www.cnes.fr/web/CNES-fr/9599-gp-lancement-reussi-de-megha-tropiques.php

Les responsables scientifiques, chercheurs CNRS, ont été successivement Michel Desbois (jusqu'en 2007), puis Rémy Roca. Ils se sont associés à de nombreux chercheurs d'autres laboratoires français et internationaux. L'expérience contribuera par exemple au programme international "Global Precipitation Mission" qui impliquera plusieurs autres satellites US ou américano japonais.

Bon, on en reparlera : les instruments viennent d'être mis en marche pour tests: tout à l'air de marcher, aujourd'hui 13 Octobre.

Excusez-moi d'être ému devant les premières données...

Michel Desbois

 

 

 

2010: fin de la première décade du 21ème siècle, la plus chaude jamais enregistrée

Posté par : Michel Desbois

 

Nous avions fait le point l’an dernier sur la décade 2000-2009 (voir notre note 2000-2009 : une décennie climatiquement exceptionnelle?). Nous disposons maintenant des données pour 2010, qui s’inscrit encore comme une des années les plus chaudes jamais enregistrées, même a priori comme la plus chaude, à égalité avec 2005. Le réchauffement climatique se poursuit donc comme prévu, alors que la concentration de CO2 dans l’atmosphère continue à croître. Nous reviendrons sur certains détails de cette évolution dans de prochaines notes .

509796main_GISS_annual_temperature_anomalies_running

 

Ces courbes représentent l’évolution des températures à la surface du globe de 1880 à 2010, selon la NASA-GISS. La courbe fine joint les points représentant les anomalies moyennes annuelles, alors que la courbe en gras est une moyenne glissante sur 5 ans. On visualise à la fois la forte croissance de la température moyenne à partir de 1980, proche de 0,2°C par période de 10 ans, et les fluctuations interannuelles, qui peuvent atteindre aussi 0,2°C. Ceci montre une nouvelle fois que la valeur relevée une année particulière ne peut servir de référence pour indiquer une tendance climatique. Des moyennes sur 5 ans minimum doivent être utilisées.

 

 

 

Les modèles de prévision de l'évolution du climat sont-ils fiables ?

Posté par : Michel Desbois

Nous publions ici une note rédigée par Olivier Talagrand, un chercheur du Laboratoire de Météorologie Dynamique / IPSL, en réponse à un article d'Henri Atlan paru dans le journal "Le Monde"

 

Réponse à Henri Atlan.

 

Dans son article intitulé La religion de la catastrophe, publié dans Le Monde daté des 28 et 29 mars, Henri Atlan décrit dans les termes suivants les ‘modèles’ utilisés par les climatologues :

Il y a un problème de crédibilité des modèles de changements climatiques et des prédictions qui en sont déduites. Ces modèles concernent en effet un domaine - le climat - où le nombre de données disponibles est petit par rapport au nombre de variables qui sont prises en compte dans leur construction, sans parler des variables encore inconnues.

Cela implique qu'il existe un grand nombre de bons modèles, capables de rendre compte des observations disponibles, alors même qu'ils reposent sur des hypothèses explicatives différentes et conduisent aussi à des prédictions différentes, voire opposées. Il s'agit là d'une situation dite "des modèles par les observations", cas particulier de "sous-détermination des théories par les faits", bien connue des chercheurs engagés dans la construction de modèles de systèmes complexes naturels, où le nombre de données ne peut pas être multiplié à l'envi par des expérimentations répétées et reproductibles. Conséquence : les modèles sur les changements climatiques ne peuvent être que des hypothèses, mises en formes informatiques très sophistiquées mais pleines d'incertitudes quant à leur relation à la réalité ; et il en va de même des prédictions qui en sont déduites'

 Cette description est fondamentalement erronée, et peut induire gravement en erreur des lecteurs peu ou mal informés. Quelques éléments de base seront ici appropriés. Les modèles utilisés pour les prévisions climatologiques ne sont pas guidés par les observations, mais par les lois qui régissent l’évolution de tout système physique : les lois de la conservation de la masse, de l’énergie et de la quantité de mouvement, familières à tout étudiant en licence de physique.

Plus précisément, les modèles utilisés pour étudier les variations du climat sont des codes pour ordinateurs qui simulent l’évolution de l’écoulement atmosphérique et océanique sur la base des trois lois qui viennent d’être citées. Le développement de tels modèles, destinés d’abord à la prévision météorologique, a commencé, il y a maintenant plus de soixante ans, grâce aux premiers calculateurs électroniques. L'amélioration lente mais continue des modèles, ainsi que la disponibilité d'observations de plus en plus nombreuses et précises (ces observations ne servent pas à guider le modèle, mais simplement à définir le point de départ de la prévision, à partir duquel le modèle évolue suivant sa dynamique propre) contribuent à l'augmentation régulière de la qualité des prévisions météorologiques.

Depuis la fin des années soixante, les mêmes modèles numériques, ‘intégrés’ sur des périodes de plus longues (quelques mois ou années à l’origine, maintenant des siècles ou des millénaires) ont servi à simuler le climat et ses variations sous l’effet de toutes les causes dont on pense qu’elles peuvent le faire varier : rayonnement solaire, grandes éruptions volcaniques, changement de la composition de l’atmosphère, ….  Des approximations sont bien sûr nécessaires, ne serait-ce que pour les calculs puissent être menés à terme dans un temps acceptable.  Certains processus, même parfaitement connus et compris dans leur nature physique intrinsèque, ne peuvent en pratique pas être décrits dans les modèles avec tout le détail que l’on pourrait souhaiter.  Cela est vrai, en particulier, des processus complexes d’absorption et d‘émission de rayonnement électromagnétique (rayonnement visible d’origine solaire et rayonnement infrarouge émis par la surface des océans et des continents, et par les différentes couches de l’atmosphère). La présence d’eau, sous ses trois phases solide, liquide et gazeuse, contribue d’ailleurs à compliquer significativement la description de ces processus radiatifs.  D’autres approximations doivent aussi être faites, en particulier en ce qui concerne le rôle de la végétation, dans la description des échanges complexes d’eau et de quantité de mouvement entre l’atmosphère et les océans et continents sous-jacents.

Ces approximations, et les incertitudes qui en résultent, sont parfaitement identifiées (et explicitement mentionnées, si c’est là la question, dans les rapports successifs du Groupe d'experts Intergouvernemental sur l'Évolution du Climat, GIEC). Les incertitudes restent grandes, comme le montrent les différences de plusieurs degrés Celsius prévues par les différents modèles, pour la même quantité de gaz à effet de serre, quant à l’échauffement à attendre au XXIème siècle. Mais ces incertitudes ne sont aucunement dues, contrairement à ce qu’écrit Henri Atlan, au fait que le nombre de coefficients a ajuster dans les modèles est beaucoup plus grand que le nombre d’observations disponibles. La situation est d’ailleurs inverse : dans l’état actuel des modèles, le nombre de coefficients incertains est de l’ordre de quelques dizaines, tandis que plusieurs dizaines de millions d’observations météorologiques (et donc climatiques) sont recueillies chaque jour. Il n’y a guère de place pour un ajustement des coefficients aux observations.

Dans les limites de ces incertitudes, les modèles numériques climatologiques ont largement été validés, directement et indirectement. Ils simulent pour l’essentiel les grandes variations passées du climat, sous l’effet en particulier des variations de la distribution spatiale de l’insolation. Ils ont prévu dès le début des années 1970 une élévation de la température en réponse à l’augmentation de la quantité de gaz à effet de serre (un rapport de l'Académie des Sciences américaine dirigé par Jules Charney en fait état en 1979). Une élévation rapide a été observée 20 ans plus tard, à l’échéance et dans la fourchette d’amplitude prévues. Et, comme il est mentionné dans le dernier rapport du GIEC, les modèles ne peuvent expliquer l’élévation de température par aucun autre mécanisme (variation de l’activité solaire, éruptions volcaniques, …) que l’augmentation de l’effet de serre. Mais la meilleure preuve de la qualité physique de ces modèles est peut-être ce qu’ils produisent quand on les ‘transporte’ sur les autres planètes. Une telle opération est dans son principe facile à effectuer. Il suffit de changer les valeurs numériques des paramètres pertinents : insolation, rayon et vitesse de rotation de la planète, propriétés thermodynamiques et radiatives du gaz atmosphérique, relief montagneux, …. Les modèles, ainsi adaptés, par exemple, aux atmosphères de Mars et Vénus, y produisent une structure thermique et un régime de circulation en très bon accord avec les observations (dans le cas de Mars, l’accord est simplement excellent).  Ces deux atmosphères sont pour l’essentiel constituées de gaz carbonique, et l ‘effet de serre qu’y simulent les modèles est conforme à ce qu’on observe. Un tel accord serait bien peu plausible si, comme le suggère Henri Atlan, la qualité des modèles n’était due qu’à un ajustement ad hoc aux observations terrestres.

La climatologie n’a certes pas atteint la fiabilité d’autres domaines de la science. La prévision du climat n’a pas la précision de celle des éclipses. Tout n’est pas encore expliqué dans les variations passées du climat, et la question reste ouverte de savoir si l’échauffement récent n’est pas dû, au moins en partie, à d’autres causes que les activités humaines. Mais, pour ce qui est des modèles numériques utilisés par les climatologues, ils sont construits sur les lois physiques pertinentes, et non sur un ajustement empirique aux observations. Ces modèles, encore imparfaits, sont en perpétuelle évolution pour simuler l’atmosphère de façon toujours plus réaliste. Ils offrent surtout la seule approche capable d’intégrer de façon globale et cohérente l'ensemble des processus mis en jeu dans le climat. À ce titre, ils sont indispensables et irremplaçables. Non seulement ces modèles constituent de loin le meilleur outil disponible aujourd’hui pour expliquer le climat comme résultant d’un ensemble complexe de processus physiques, mais leur qualité a atteint un niveau qui montre le haut degré de confiance qu’on peut désormais leur accorder à l’intérieur de limites clairement identifiées.

 

Olivier Talagrand, Directeur de Recherches au CNRS

3 avril 2010


Quelles régions se sont le plus réchauffées depuis les années 1950-1980 ?

Posté par : Michel Desbois

Nous publions ci-dessous une carte du réchauffement mesuré sur la période 2001-2009 par rapport à la période 1951-1980. Cette carte provient de la NASA-GISS.

Carte augT
La carte représente la différence entre la température moyenne des années 2001-2009 et la température moyenne des années 1951-1980, en °C. Les quelques régions de refroidissement apparaissent en vert et bleu pâle. Le réchauffement est codé de jaune à brun selon son intensité. Les régions en grisé sont celles où il n'y a pas assez de mesures.

On remarque bien sûr le réchauffement remarquable des régions polaires Nord. Ailleurs, les contrastes continents océans sont importants, le réchauffement étant généralement plus faible sur les océans. Cependant, certaines régions océaniques tropicales se sont réchauffées aussi notablement, comme par exemple l’Océan Indien.



 

Janvier 2010 – vous avez dit réchauffement ?

Posté par : Michel Desbois

Nous avons tous ressenti cette année en France un hiver particulièrement froid, neigeux et long. Les conversations courantes ne manquent pas de railler le réchauffement climatique devant l’évidence d’un hiver plus froid que ces dernières années.

C’est une occasion pour nous d’insister, comme nous l’avons déjà fait dans plusieurs « posts » sur la différence entre la météorologie régionale et le climat global. Nous avons aussi déjà mis en évidence la très particulière répartition des températures en janvier 2008 (voir notre note de mars 2008). Cette année encore, il y a de forts contrastes entre régions, comme le montre l’analyse des températures de janvier 2010 fournie par la NOAA :

Jan2010

Cette figure montre les anomalies de températures (positives en rouge, négatives en bleu) observées en janvier 2010 par rapport à la moyenne 1971-2000. Il apparaît clairement que si l’Europe et la Russie ont eu des températures plus froides que la moyenne, l’essentiel du reste du monde a connu des températures plus chaudes que cette moyenne.

En moyenne globale, la température en janvier 2010 a été supérieure de 0,6°C à la moyenne des mois de janvier de tout le 20ème siècle. Il s’agit du 4ème mois de janvier le plus chaud depuis 1880.


2000-2009 : une décennie climatiquement exceptionnelle ?

Posté par : Michel Desbois

Michel Desbois

Un point sur la température moyenne du globe au cours des dix premières années du 21ème siècle peut maintenant être fait, car les statistiques de 2009 sont accessibles (notons cependant que la décennie climatologique officielle sera 2001-2010). Nous donnons ci-dessous les résultats affichés par la NASA et la NOAA (la météo américaine).

Fig.A2.lrg
  Cette courbe représente l’évolution des températures de 1880 à 2009, selon la NASA-GISS. Durant les dix dernières années, l’écart à la moyenne climatologique 1951-1980 a été en moyenne supérieur à + 0.5°C. La barre d’erreur pour une mesure sur 5 ans est de ± 0,05° C, soit de l’ordre de moins de 0,035° C pour une moyenne sur 10 ans.

Global-jan-dec-error-bar

La deuxième courbe montre l’évolution de la température moyenne du globe selon la NOAA. La période de référence est ici le 20 ème siècle (1901-2000). La dernière décennie se situe plus de 0,5°C au-dessus de cette référence. Les barres d’erreur annuelles estimées sont de l’ordre de  ± 0,13°C, soit environ  ± 0,04°C pour une moyenne sur 10 ans.

 

L’Unité de Recherche Climatique britannique (CRU, université d’East Anglia), de son côté, affiche pour 2009 un écart à la moyenne des températures climatiques  1961-1990 d’environ  + 0.44°C, assez similaire à ceux des années 2001 à 2007 (2000 et 2008 ayant été un peu plus froides, de l’ordre de + 0,3°C). Si ces chiffres sont inférieurs aux deux autres estimations, c’est à cause de la période de référence choisie, qui inclut la décennie 1981-1990, où un fort réchauffement s’était déjà produit.

 

Les trois organismes sont donc tout à fait d’accord sur le fait que la décennie 2000-2009 est la plus chaude depuis 1880, date de la généralisation de mesures météorologiques fiables. Ils sont également d’accord sur l’amplitude du réchauffement et sa vitesse : plus de 0,5°C depuis les années 1960 – 1980, où la température moyenne était relativement stable. De 1980 à 2009, la vitesse de croissance de la température globale a été de un peu moins de 0,2°C par décennie.



Le CO2 est-il sensible à la crise ?

Posté par : Michel Desbois

posté par Michel Desbois

Avec la crise économique mondiale, on pourrait espérer que faute de mesures autoritaires pour diminuer nos consommations de combustibles fossiles, cette consommation diminue d’elle même (moins de transports, moins d’usines,…). Le taux de CO2 dans l’atmosphère pourrait alors croître moins rapidement que les années précédentes. Ce n’est pas ce que montrent les mesures de 2009 :

Co2_trend_gl 

Cette courbe représente l’évolution de la concentration de CO2 à la surface du globe au-dessus des sites de mesure océaniques entre 2005 et la fin 2009. On retrouve en 2009 comme tous les ans le cycle saisonnier reflétant l’absorption du gaz carbonique par la végétation en été de l’hémisphère Nord. La différence hiver - été 2009 atteint une même une forte valeur proche de 4.5 ppm. Mais la tendance générale d’augmentation se maintient à un peu moins de 2 ppm par an, comme le montre la courbe corrigée des variations saisonnières moyennes (en noir).

Eh bien non, le CO2 n’est pas sensible à la crise, il continue à croître ; il est vrai que dans les grands pays émergents, Chine, Inde,… La croissance continue, même si elle est un peu ralentie.



Ras le bol du changement climatique?

Posté par : Michel Desbois

Il y a eu tant de « buzz » autour du changement climatique cette année que nous avons renoncé provisoirement à alimenter ce blog. Les observations et explications scientifiques que nous cherchons à rendre accessibles ici sont en effet couvertes par le bruit médiatique, internetique, et politique qu’ont suscité le Grenelle de l’environnement, le sommet de Copenhague ou les tentatives de mise en place d’une taxe carbone.

On comprend que cela suscite une forte lassitude lorsque la crise économique touche de plus en plus de gens, que les équilibres mondiaux sont instables et que diverses catastrophes, naturelles ou non, provoquent des dégats immédiats qui doivent être gérés dans l’urgence. Alors, le changement climatique, on parviendra bien à en assumer les conséquences lointaines. D’ailleurs il y a des voix, y compris chez des scientifiques, qui en contestent l’existence et surtout le lien avec les activités humaines.

Les chiens aboient, la caravane passe… Tout ceci ne change rien à la physique, la chimie et la biologie qui règlent l’évolution de notre planète. Et le climat est une des variables qui évolue d’une manière qui mérite l’attention. Pas question de faire du catastrophisme, mais mesurer et comprendre les évolutions pour en évaluer l'ampleur et les conséquences est le devoir de la communauté scientifique. Cette tâche est loin d'être terminée. Plus l'information de la société sera précise, plus elle sera capable de définir les mesures à prendre aussi bien pour ralentir le changement climatique que pour s'y adapter. Mais même si pour l'instant on peut être déçu par le peu de mesures prises aussi bien localement qu'à l'échelle mondiale, il y a bien émergence d'une prise de conscience de plus en plus réelle tant par les citoyens et que par les politiques.

 

La température globale à la surface du globe en 2008 : un refroidissement ?

Posté par : Michel Desbois

Le bilan des températures moyennes de l’année 2008 a maintenant été tiré par les trois principaux centres d’analyse du climat global : La « Climate Research Unit » britannique et les deux centres américains de la NOAA (la météo américaine) et de la NASA (Goddard Institute of Space Studies, New-York). Nous reproduisons ci-dessous les courbes de l’évolution des températures de surface globales fournies par ces trois centres.

Gtc2008
évolution des températures de surface globales, d'après la Climate Research Unit (U.K.)
Global-jan-dec-error-bar-pg
Même évolution, vue par la NOAA (USA) - et avec les barres d'erreur-

Fig.A2.lrg

Et ici, la version de la NASA/GISS (USA)


Malgré quelques différences, on constate que l’année 2008 se situe au 8ème rang des années les plus chaudes pour les deux centres américains, au 10ème pour le centre britannique. Ces trois centres montent une anomalie positive par rapport à la moyenne 1961-1990 de 0,4 à 0,5°C. Ils montrent aussi un léger refroidissement par rapport aux années 2002-2006, mais il n’est pas possible d’en tirer une conclusion sur l’évolution du climat, ces écarts interannuels de température restant dans la fourchette normale des fluctuations, et même dans la marge des erreurs de mesure. Pour analyser plus en détail les causes éventuelles des variations observées, il faut en particulier tenir compte des analyses régionales, des contrastes océans continents, des circonstances météorologiques particulières de telle ou telle saison. La carte ci-dessous, issue de la NOAA, montre la répartition régionale des anomalies de température en 2008.

Map-blended-mntp-200801-200812-pg
On constate que les plus fortes anomalies positives sont sur le continent eurasiatique, que les régions polaires sont insuffisamment documentées, que les océans présentent des anomalies plus faibles. Des régions d’anomalies négatives existent même dans certaines régions océaniques, notamment le Pacifique équatorial. Ceci est lié au phénomène La Niña.
Profitons en pour rappeler que les températures de surface ne sont qu’un indicateur approximatif des tendances climatiques : la quantité de chaleur accumulée dans l’ensemble de l’atmosphère, de l’océan et du sol continental serait plus appropriée, mais n’est hélas pas mesurable  avec suffisamment de précision par nos moyens de mesure.




 

Le changement climatique s'est-il arrêté ?

Posté par : Michel Desbois

Nous n’avons pas ajouté de texte au « blog climat » depuis quelques mois. Une année 2008 relativement froide et les préoccupations liées à la crise économique mondiale ont fait passer le sujet au second plan. Par ailleurs, les « posts » que nous avons édités depuis septembre 2007 sont toujours d’actualité, comme par exemple :

- en septembre 2007 : « réchauffement global : et localement ? »
- en octobre 2007 : « la banquise du pôle nord est-elle en train de disparaître ? »
- en novembre 2007 : « pourquoi attribue-t-on le réchauffement climatique actuel à l’influence de l’homme ? » « y-a-t-il déjà eu sur Terre des périodes plus chaudes qu’actuellement ? »
- en décembre 2007 : « El Niño et les variations récentes de température »
- en janvier 2008 : « 2007, une des années les plus chaudes jamais enregistrées », et « un point sur rayonnement et effet de serre »
- en février 2008 : « qu’est-ce que le GIEC ? »
- en mars : « quelques anomalies intéressantes du climat global en janvier 2008 » et « la météorologie concerne notre vie quotidienne, la climatologie notre mode de vie »
- en avril : « cycle solaire et réchauffement climatique » et « à propos du dérèglement climatique »
- en juin 2008 :  « les variations du climat d’une année sur l’autre » et les 3 posts intitulés : « changement climatique : le point de vue d’un physicien du climat ».

Sans compter les réponses que nous avons faites aux internautes qui ont bien voulu intervenir sur le blog. Et puis nous avons marqué une pause, mais ce n’est pas parce que le changement climatique n’est plus en marche. Nous reviendrons bientôt sur quelques points d’actualité :

- Le bilan de l’année 2008 dont on sait d’ores et déjà qu’elle a été plus froide au niveau global que les années précédentes, tout en restant parmi les dix années les plus chaudes ,
- Le comportement de la banquise de l’hémisphère Nord en été 2008, dont on sait qu’elle ne s’est pas autant rétractée qu’en 2007,
- L’évolution récente des gaz à effet de serre, dont la concentration a continué à croître
- Le suivi du cycle solaire, avec les premières taches du cycle 24
- L’évolution de la température du Pacifique équatorial, liée à el-niño / la-niña
- Les anomalies globales de température en fonction des saisons en 2008, suite à nos remarques sur janvier 2008

Et bien d’autres points ou phénomènes physiques que nous n’avons pas encore abordés, comme le niveau de la mer, l’effet des particules (aérosols) sur le climat, etc… Et n’hésitez pas à nous poser les questions qui vous intéressent