Nous publions ici une note rédigée par Olivier Talagrand, un chercheur du Laboratoire de Météorologie Dynamique / IPSL, en réponse à un article d'Henri Atlan paru dans le journal "Le Monde"
Dans son article intitulé La religion de la
catastrophe, publié dans Le Monde daté des 28 et 29 mars, Henri Atlan décrit dans les
termes suivants les ‘modèles’ utilisés par les climatologues :
‘Il y a un problème de
crédibilité des modèles de changements climatiques et des prédictions qui en
sont déduites. Ces modèles concernent en effet un domaine - le climat - où le
nombre de données disponibles est petit par rapport au nombre de variables qui
sont prises en compte dans leur construction, sans parler des variables encore
inconnues.
Cela implique qu'il
existe un grand nombre de bons modèles, capables de rendre compte des
observations disponibles, alors même qu'ils reposent sur des hypothèses
explicatives différentes et conduisent aussi à des prédictions différentes,
voire opposées. Il s'agit là d'une situation dite "des modèles par les
observations", cas particulier de "sous-détermination des théories
par les faits", bien connue des chercheurs engagés dans la construction de
modèles de systèmes complexes naturels, où le nombre de données ne peut pas
être multiplié à l'envi par des expérimentations répétées et reproductibles.
Conséquence : les modèles sur les changements climatiques ne peuvent être que
des hypothèses, mises en formes informatiques très sophistiquées mais pleines
d'incertitudes quant à leur relation à la réalité ; et il en va de même des
prédictions qui en sont déduites'
Plus précisément, les
modèles utilisés pour étudier les variations du climat sont des codes pour
ordinateurs qui simulent l’évolution de l’écoulement atmosphérique et océanique
sur la base des trois lois qui viennent d’être citées. Le développement de tels
modèles, destinés d’abord à la prévision météorologique, a commencé, il y a
maintenant plus de soixante ans, grâce aux premiers calculateurs électroniques.
L'amélioration lente mais continue des modèles, ainsi que la disponibilité
d'observations de plus en plus nombreuses et précises (ces observations ne
servent pas à guider le modèle, mais simplement à définir le point de
départ de la prévision, à partir duquel le modèle évolue suivant sa dynamique
propre) contribuent à l'augmentation régulière de la qualité des prévisions
météorologiques.
Depuis la fin des années
soixante, les mêmes modèles numériques, ‘intégrés’ sur des périodes de plus longues
(quelques mois ou années à l’origine, maintenant des siècles ou des
millénaires) ont servi à simuler le climat et ses variations sous l’effet de
toutes les causes dont on pense qu’elles peuvent le faire varier :
rayonnement solaire, grandes éruptions volcaniques, changement de la
composition de l’atmosphère, ….
Des approximations sont bien sûr nécessaires, ne serait-ce que pour les
calculs puissent être menés à terme dans un temps acceptable. Certains processus, même parfaitement
connus et compris dans leur nature physique intrinsèque, ne peuvent en pratique
pas être décrits dans les modèles avec tout le détail que l’on pourrait
souhaiter. Cela est vrai, en
particulier, des processus complexes d’absorption et d‘émission de rayonnement
électromagnétique (rayonnement visible d’origine solaire et rayonnement
infrarouge émis par la surface des océans et des continents, et par les
différentes couches de l’atmosphère). La présence d’eau, sous ses trois phases
solide, liquide et gazeuse, contribue d’ailleurs à compliquer significativement
la description de ces processus radiatifs. D’autres approximations doivent aussi être faites, en
particulier en ce qui concerne le rôle de la végétation, dans la description des
échanges complexes d’eau et de quantité de mouvement entre l’atmosphère et les
océans et continents sous-jacents.
Ces approximations, et les
incertitudes qui en résultent, sont parfaitement identifiées (et explicitement
mentionnées, si c’est là la question, dans les rapports successifs du Groupe
d'experts Intergouvernemental sur l'Évolution du Climat, GIEC).
Les incertitudes restent grandes, comme le montrent les différences de
plusieurs degrés Celsius prévues par les différents modèles, pour la même
quantité de gaz à effet de serre, quant à l’échauffement à attendre au XXIème
siècle. Mais ces incertitudes ne sont aucunement dues, contrairement à ce
qu’écrit Henri Atlan, au fait que le nombre de coefficients a ajuster dans les
modèles est beaucoup plus grand que le nombre d’observations disponibles. La
situation est d’ailleurs inverse : dans l’état actuel des modèles, le
nombre de coefficients incertains est de l’ordre de quelques dizaines, tandis
que plusieurs dizaines de millions d’observations météorologiques (et donc
climatiques) sont recueillies chaque jour. Il n’y a guère de place pour un
ajustement des coefficients aux observations.
Dans les limites de ces
incertitudes, les modèles numériques climatologiques ont largement été validés,
directement et indirectement. Ils simulent pour l’essentiel les grandes
variations passées du climat, sous l’effet en particulier des variations de la
distribution spatiale de l’insolation. Ils ont prévu dès le début des années
1970 une élévation de la température en réponse à l’augmentation de la quantité
de gaz à effet de serre (un rapport de l'Académie des Sciences américaine
dirigé par Jules Charney en fait état en 1979). Une élévation rapide a été
observée 20 ans plus tard, à l’échéance et dans la fourchette d’amplitude
prévues. Et, comme il est mentionné dans le dernier rapport du GIEC, les
modèles ne peuvent expliquer l’élévation de température par aucun autre
mécanisme (variation de l’activité solaire, éruptions volcaniques, …) que
l’augmentation de l’effet de serre. Mais la meilleure preuve de la qualité physique
de ces modèles est peut-être ce qu’ils produisent quand on les ‘transporte’ sur
les autres planètes. Une telle opération est dans son principe facile à
effectuer. Il suffit de changer les valeurs numériques des paramètres
pertinents : insolation, rayon et vitesse de rotation de la planète,
propriétés thermodynamiques et radiatives du gaz atmosphérique, relief
montagneux, …. Les modèles, ainsi adaptés, par exemple, aux atmosphères de Mars
et Vénus, y produisent une structure thermique et un régime de circulation en
très bon accord avec les observations (dans le cas de Mars, l’accord est
simplement excellent). Ces deux
atmosphères sont pour l’essentiel constituées de gaz carbonique, et
l ‘effet de serre qu’y simulent les modèles est conforme à ce qu’on observe.
Un tel accord serait bien peu plausible si, comme le suggère Henri Atlan, la
qualité des modèles n’était due qu’à un ajustement ad hoc aux observations terrestres.
La climatologie n’a certes
pas atteint la fiabilité d’autres domaines de la science. La prévision du
climat n’a pas la précision de celle des éclipses. Tout n’est pas encore
expliqué dans les variations passées du climat, et la question reste ouverte de
savoir si l’échauffement récent n’est pas dû, au moins en partie, à d’autres
causes que les activités humaines. Mais, pour ce qui est des modèles numériques
utilisés par les climatologues, ils sont construits sur les lois physiques
pertinentes, et non sur un ajustement empirique aux observations. Ces modèles,
encore imparfaits, sont en perpétuelle évolution pour simuler l’atmosphère de
façon toujours plus réaliste. Ils offrent surtout la seule approche capable
d’intégrer de façon globale et cohérente l'ensemble des processus mis en jeu
dans le climat. À ce titre, ils sont indispensables et irremplaçables. Non
seulement ces modèles constituent de loin le meilleur outil disponible
aujourd’hui pour expliquer le climat comme résultant d’un ensemble complexe de
processus physiques, mais leur qualité a atteint un niveau qui montre le haut
degré de confiance qu’on peut désormais leur accorder à l’intérieur de limites
clairement identifiées.
Olivier Talagrand,
Directeur de Recherches au CNRS
3 avril 2010
« Les modèles utilisés pour les prévisions climatologiques ne sont pas guidés par les observations, mais par les lois qui régissent l’évolution de tout système physique : les lois de la conservation de la masse, de l’énergie et de la quantité de mouvement, familières à tout étudiant en licence de physique. »
Et cela devrait nous rassurer sur leur qualité?
http://lemytheclimatique.wordpress.com/2010/04/03/%c2%ab-le-monde-%c2%bb-refuse-d%e2%80%99y-voir-clair/#comment-3119
Rédigé par : Antonio San | 04 avril 2010 à 20:18
Bonjour,
au lieu de créer des modèles hyper compliqués et pleins d'incertitudes, pourquoi ne pas se baser sur les relevés de température des années passées et sur l'analyse des carottes de glace, de Sibérie par exemple, qui renseignent avec beaucoup de précision l'évolution des températures à travers les siècles. Votre graphique du chapitre "janvier 2010, vous avez dit réchauffement" montre très clairement une sinusoïde de 30 ans de refroidissement suivis de 30 ans de réchauffement, ce qui confirme ce que j'ai pu lire par ailleurs. Vos observations sont faites sur une période trop brève pour en tirer des conclusions. Je pense que la géologie apporte une vue plus globale que la météorologie. (Les prévisions météo à plus de quelques jours sont peu fiables, malgré les beaux "modèles" de calcul; alors à 50 ans ... Je doute fort.
Rédigé par : Patrick Reding | 04 avril 2010 à 22:26
@patrick reading
C'est sûr que pour faire de la climato, la géologie et la météorologie c'est bien mieux !
Surtout que les carottes nous apprennent énormément sur les GES anthropiques et leurs effets futurs !
Vraiment n'importe quoi.
Rédigé par : Tof | 07 avril 2010 à 16:27
Si j’ai bien compris les épisodes précédents, la validité des modèles est cruciale pour attribuer au CO2 le réchauffement actuel. Je suppose que personne ne doute que ces modèles sont sérieux et reposent sur les équations de base de la physique et qu’ils ne sont pas uniquement phénoménologiques. Néanmoins, je suppose que ces modèles nécessitent de très nombreux calages avec des données expérimentales, comme le suggère l’article ci-dessus. Le problème de la précision des modèles reste donc posé. Je me demande comment on peut sérieusement évaluer la précision de tels modèles, sensés faire des prévisions à long terme, avec aussi peu de recul sur leurs résultats. Quel modèle, publié avant 2000, a prévu l’inflexion de l’évolution de la température moyenne observée actuellement ?
Il me parait donc normal de rester prudent concernant les conclusions qu’on peut tirer de ces modèles. Le mépris dont ont fait l’objet les « climato-septiques » me parait choquant.
Rédigé par : Bernard | 08 avril 2010 à 17:17
@Bernard
Le mépris pour les climato-septiques viens malheureusement la pauvreté de leur argumentation scientifique pour la plus grande majorité. A part quelques exception com R. Lindzen qui manque un peu d'objectivité mais au moins sait de quoi il parle et avance des idées intéressantes et qui ont u sens, la plupart du temps c'est du grand n'importe quoi! Le cas d'Atlan est très symptomatique. Voila quelqu'un qui est biologiste et viens nous parler de climat... (C'est comme si le meilleur artisan de France en pâtisserie venait expliquer à un ébéniste comment faire un meuble...) expliquer en utilisant des termes savants qui font sérieux ce qu'est un modèle de climat mais tombe complétement à coté de la plaque car il n'a manifestement jamais fait de biblio la dessus et ne sait même pas qu'un modèle de climat n'est pas un modèle statistique !!!
Évidemment il existe de très grosses incertitudes sur les projections futures et encore plus sur les impacts du changement climatique ce n'est certainement pas les climatologues qui le nient!!(toutes les incertitudes sont décrites dans les rapports du GIEC par exemple) et il y a a ce sujet et sur d'autres de nombreux débats dans les journaux scientifiques probablement plus que dans beaucoup de disciplines, y compris celle demonsieur Atlan! (certainement pas une pensée unique donc..) il suffit de lire un peu les articles scientifiques sur le sujet Mais encore faut t'il en discuter sur des arguments scientifiquement sérieux !
Concernant les 10 dernières années, vous confondez météorologie et climat ! Du fait du caractère chaotique de la météo, un modèle de climat NE PEUT PAS représenter ce qui se passe tel ou tel année (et donc également sur une décennie particulière)! Il suffit pour cela de relire certains posts de ce blog qui l'explique très bien...
par contre les modèles reproduisent parfaitement (et même pour le futur) des périodes de relative stagnation des températures sur des périodes de 10 à 15 ans comme ce qui est observé ! La encore je vous conseille de vous référer à plusieurs articles publiés sur le sujet.
Rédigé par : olka | 14 avril 2010 à 19:47
Olka écrit : « il suffit de lire un peu les articles scientifiques sur le sujet Mais encore faut t'il en discuter sur des arguments scientifiquement sérieux ! »
Malheureusement a-t’on envie de dire, où sont les vôtres ? Votre divagation « chaotique » démontre la superficialité des connaissances sur lesquelles vous fondez votre argumentaire et votre irrespect crasse de l’orthographe et de la grammaire française finit de vous nuire. Cela fait beaucoup à la fois ! Vous oubliez en outre le cousinage incestueux des modèles de prévision météorologique et des modèles climatiques, cousinage rappelé tant par Le Treut dans Point de Vues Images du Monde de l’Académie des Sciences en Novembre 2009, que par Talagrand dans son billet et d’autres « scientifiques du climat » comme Alain Mazaud du LSCE lors de sa conférence Cyclopéenne, O combien vulgarisatrice, d’Avril 2009.
Dans ces trois documents, la pauvreté du discours qui sous-tend la philosophie de cette science est affligeante et les justifications simplement piteuses : le modèle radiatif de Mr Talagrand « marche » sur Mars où l’atmosphère est 95% CO2, sans océan, sans biosphère, la belle affaire ! Cela vous impressionne peut-être mais il n’y a pas de quoi. Mais le sophisme suprême s’articule autour de la subordination quasi vertueuse, voire morale des créateurs de modèles aux Lois de la Physique, subordination annoncée comme une panacée, garantie d’objectivité et de vérité, mais qui représente surtout un moyen dialectique de désamorcer toute critique des modèles en question: comment oser contester les lois de la physique ? Mais voilà, ce ne sont pas les lois qui sont contestées mais leur usage, et comme dans tout problème physique, il y a discussion sur les causes et les effets et l’applicabilité des principes. Ainsi l’idée que se font les modélisateurs de la physique des échanges d’énergie conditionne leurs modèles. Leur bilan radiatif est présenté comme indiscutable reléguant même les observations à des points anecdotiques et pourtant les approximations abondent et débondent. Quelle réduction arrogante! S’abstraire ainsi de la démarche naturaliste cautionne des aberrations que l’observation récuse. Demandez donc à la climatologue Martine Tabeaud ce qu’elle pense des raccourcis du genre « fonte des Glaciers himalayens= assèchement des fleuves » ?
Heureusement que d’autres cherchent et puisqu’ils ne méprisent pas la connaissance de terrain, ils trouveront à plus ou moins brève échéance: la science du GIEC, visiblement si peu sûre d’elle-même que ses artisans en appellent aux politiques qui l’ont commanditée pour la défendre, ne tient au fond que par des fils ténus de marionnettes. Une découverte majeure peut la réduire en poussière, demain ou dans dix ans : pour le contribuable comme pour la science, le plus tôt sera le mieux !
Rédigé par : Antonio San | 15 avril 2010 à 19:11
""""et votre irrespect crasse de l’orthographe""""
Et on fait des remarques sur l'orthographe des autres (car ce n'est pas la seule faute que vous avez faite)....
Pour le reste, des arguments scientifiques, en avez vous?
Rédigé par : Robert | 15 avril 2010 à 22:26
Robert, achetez un Dournon!
Irrespect: nm
Crasse: nf et adjectif
"…car ce n'est pas la seule faute que vous avez faite)...."
Arrêtez les dégâts là mon petit Robert!
Rédigé par : Antonio San | 15 avril 2010 à 23:47
@olka
Je suis désolé de confondre météorologie et climat pour les 10 dernières années, je sous-estimais la compétence de nos météorologues.
Pour moi la question des modèles est la suivante : l’attribution du réchauffement climatique au CO2 repose sur des modèles, ces modèles, très complexes, doivent être calés avec des données expérimentales, cela est tout à fait normal et n’a rien de choquant. Mais ces modèles doivent être validés avec des données postérieures à celles qui ont servies pour les caler. Vous me dites que ces modèles ne peuvent pas représenter la réalité sur une décennie il faut je suppose attendre une trentaine d’années. Les modèles efficients ont été réalisés dans les années 2000-2005, on va donc attendre les années 2030-2035 avant de vérifier leur validité. D’ici là, on ferme le dossier et on n’en parle plus !
Rédigé par : Bernard | 16 avril 2010 à 15:45
Bernard,
Puis-je vous diriger vers l’excellente conférence de Pierre Morel, le fondateur du LMD dont les arguments et la connaissance infirment les bases du billet de Mr. Talagrand et dont je suis heureux de constater qu’il rejoint mes propres conclusions sur les modèles climatiques. On eût pu espérer que les habitants de la forêt de Sherwood aient fait quelque cas de la conférence de leur ancien patron… Encore un cas de « Et tu Brutus » ?
http://www.canalacademie.com/ida5110-Rechauffement-planetaire-et.html
Rédigé par : Antonio San | 16 avril 2010 à 23:01
@Antonio San
Merci pour le lien. La conférence est effectivement très claire notamment grâce à la distinction entre ce qui se passe dans la troposphère et dans la stratosphère. Ce que j’en retiens est que : 1) le réchauffement climatique est effectivement attribué au CO2 dans la stratosphère, non à cause de modèles complexes mais de calculs relativement simples ; 2) l’effet de ce réchauffement sur la troposphère, donc sur nous, est hors de portée de la modélisation.
Correct ?
Rédigé par : Bernard | 18 avril 2010 à 10:11
Mes réflexions :
1) Un élevage de grenouilles aurait probablement la même force prédictive à moindre coût que les supercalculateurs bardés de modèles climato bidouillés,
2) Les modèles semblent capables de prédire l'imprédictible... Alors à quand la résolution de la fameuse martingale ?
Rem : Une chose est sûre : les enjeux dénoncés par Allègre sont mondiaux et financièrement colossaux ;-)
Rédigé par : Philippe | 23 avril 2010 à 11:23
Aujourd'hui, jusqu'à 14h30, le site de Météo France par exemple, de la pluie est prévue sur Montpellier. Or, le ciel est au plus voilé.
Quid de l'utilité d'une telle information ? Est-ce scientifiquement du même ordre qu'un horoscope astral ?
Question qui fache : qui aurait une idée des budgets alloués aux problématiques météo/climat ...
Rédigé par : Philippe | 23 avril 2010 à 14:41
Antonio san @
Le Robert, le Larousse, le Bescherelle ne donnent pas le mot crasse comme adjectif mais crasseux ou crasseuse. Je suppose que pour le français, vous faites comme pour le climat vous prenez les références qui vous arrangent mais qui ne sont pas forcément les bonnes.
Désolé pour le Avez au lieu de ayez
Rédigé par : Robert | 30 avril 2010 à 00:04
A lire
http://pielkeclimatesci.wordpress.com/2010/05/31/how-independent-are-climate-models/
Rédigé par : Antonio San | 31 mai 2010 à 15:41
@ Robert
Le Larousse, dites vous, vous aurez mal lu.
"Crasse : Se dit d'un défaut qui atteint un très haut degré "
Cet adjectif pourrait qualifier votre arrogance et votre ignorance (qui vont souvent de pair).
C'est ici :
http://www.larousse.fr/dictionnaires/francais/crasse/20243
Rédigé par : Rando | 09 juin 2010 à 21:14
Bonjour,
j'aimerai savoir si le réchauffement du sol du à l'effet de serre radiatif tel que décrit dans le rapport du GIEC est compatible avec le deuxième principe de la thermodynamique (qui dit qu'un corps froid ne peut jamais réchauffer un corps chaud) ? Faut-il en conclure que cette 2iéme loi ne concerne pas les échanges de chaleurs radiatifs ?
Rédigé par : Gilles | 11 juin 2010 à 01:10
le climat c'est comme le cholesterol, à variabilité constante suivant la hausse ou la chute des cours de la bourse,et du pétrole
Rédigé par : lovsmeralda | 08 septembre 2010 à 20:30
pourquoi toujours faire peur aux gens,des changements climatiques ont sans cesse évolué,c'est un renouvellement perpétuel,la nature a toujours eu le dernier mot,laissons la faire son travail,mais n'oublions pas qu'elle n'est pas réglée au rythme horaire des humains,qui avec leurs décalages horaires,ou changement des horaires hiver/été ont toujours un temps de retard ou d'avance sur le moment présent,les éphémérides tendent à le prouver et nos anciens savaient lire les oracles du ciel,sans se montrer défaitistes,au contraire s'il pleuvait ,ils disaient simplement ,demain y'aura soleil,ne cherchons pas d'explications ou il n'y en a pas,car vouloir en trouver c'est vouloir contrer Einstein qui lui avait trouvé la clef manquante ,oui la relativisation ,sans oublier de citer le merveilleux livre de Hubert Reeves Poussières d'étoiles
Rédigé par : lovsmeralda | 14 septembre 2010 à 18:40
"Ces approximations, et les incertitudes qui en résultent, sont parfaitement identifiées"
Question : depuis le rapport Charney, qui a tout de même 30 ans, on a toujours le même "best estimate" de 3°C à l'équilibre pour 2xCO2. La question que l'on se pose, notamment comme citoyen finançant ces recherches, c'est : en sera-t-il toujours de même dans 30 ans et faudra-t-il attendre un doublement effectif du CO2 pour connaître enfin la sensibilité transitoire, puis à l'équilibre? Y a-t-il eu des progrès réels dans les aérosols, la vapeur d'eau, la nébulosité, la variabilité chaotique et si oui, pourquoi les fourchettes ne bougent pas malgré ces progrès? Merci de vos réponses.
Rédigé par : SKePT | 28 décembre 2010 à 21:07
il y a bien émergence d'une prise de conscience de plus en plus réelle tant par les citoyens et que par les politiques.
Rédigé par : 2013Rolex | 25 juin 2013 à 08:41