Overblog
Suivre ce blog Administration + Créer mon blog
24 novembre 2010 3 24 /11 /novembre /2010 10:37

 

 

Afin de compléter l'article précédent, pas forcément très bien interprété par tous les lecteurs, il semble intéressant de comparer les réponses du système climatique au forçage par augmentation de la teneur en CO2 et au forçage par augmentation de l'irradiance solaire.

 

En utilisant les résultats de simulation disponibles sur le site de la NASA, nous comparons ci-dessous les variations de température à différents niveaux de l'atmosphère pour:

 

- un forçage suite à 100% d'augmentation de la teneur en CO2, plus communément appelé 2XCO2, soit environ 3.7W/m2.

 

-un forçage suite à 2% d'augmentation de l'irradiance solaire, 1.02TSI, soit environ 4.8W/m2 en tenant compte d'un albédo de 0.3, certes plus important que le forçage 2XCO2 mais nous nous intéressons surtout aux tendances.

 

 

trois niveaux d'altitude (ou de pression) seront explorés.

 

 

- la surface

 

- la moyenne troposphère correspondant au canal T2

 

- la basse stratosphère correspondant au canal T4

 

 

Pour chaque niveau seront exposées, successivement, les réponses à 2XCO2 et à 1.02 TSI

 

 

On fera attention, toutefois, aux échelles qui sont quelque peu différentes entre 2XCO2 et 1.02TSI et au fait qu'il s'agit des réponses centennales donc pas à l'équilibre.

 

 

 

1- niveau surface


 

2XCO2

 

2CO2 surf

 

 

 

 

1.02TSI

 

solaire 1.02 surf

 

les deux réponses sont très semblables.

 

 

 

2- niveau moyenne troposphère canal T2=TMT

 


 

2XCO2


2CO2 TMT

 

 

 

1.02TSI

 

solaire 1.02 TMT

 

 

 

là aussi très peu de différence, ce qui confirme ce que nous disions sur le hot-spot dans l'article précédent.

 

 

 

3- niveau basse stratosphère

 

 

2XCO2

 

2CO2 strato

 

 

 

 

 

1.02TSI

 

solaire 1.02 strato


 

 

différence évidente, cette fois, entre les deux réponses.

 

entre le refroidissement de la stratosphère dans le cas du CO2 et le réchauffement dans le cas solaire, il n'y a pas à hésiter sur le fait que c'est bien la stratosphère qui permet de révéler la signature des deux forçages en question.

Partager cet article

Repost0
8 novembre 2010 1 08 /11 /novembre /2010 12:06

 

 

 

 

Certains commentaires, parlant de prévisions, pour le 21ème siècle, de montée uniforme de la température, m'ont incité à aller voir, rapidement, les résultats des modèles présentés dans le dernier rapport du GIEC, l'AR4, en attendant ceux, théoriquement meilleurs, de l'AR5.

 

Il m'a semblé intéressant de réaliser une petite juxtaposition de ces prévisions et de la réalité mesurée au travers de la base de données de NASA-GISS.

 

ci dessous les évolutions lissées sur 3 ans des données réelles et prévues par les modèles (voir chapitre 10 de l'AR4 pour les références)

 

nasa + simul

 

 

 

 

Les données NASA-GISS sont ajustées à la même référence, 1980-1999, qui correspond aux simulations du 20ème siècle par les modèles.

 

La variabilité sur des périodes inférieures à 10 ans est comparable entre les simulations et NASA-GISS.

 

Par contre la variabilité multi décennale qui apparaît sur l'anomalie mesurée apparaît peu ou mal sur les simulations.

 

 

On peut y voir plusieurs explications:

 

 

1- la variabilité naturelle interne moyen terme (connue et simulée) est très faible comparée au forçage anthropique du scénario.

Par exemple l'influence de l'oscillation naturelle de l'AMO (Atlantic Meridional Oscillation) serait de 0.1K et une période de 60-80 ans, ce qui est plutôt difficile à discerner sur une courbe qui grimpe, dans le même temps, de 1.6K.

 

 

2- la variabilité naturelle dépend aussi de forçages naturels externes qui ne peuvent être prévus

(solaire et volcanisme)

 

 

3- le scénario utilisé ne reprend pas les variations de forçage d'aérosols comparables à celles de la réalité, notamment entre 1910 et 1980.

 

 

On peut sans doute ajouter d'autres explications mais, apparemment et selon cet examen très rapide, il n'y a pas d'incohérence réelle et inexplicable entre les simulations et les observations.

 

Au passage on remarquera que la dernière valeur (moyenne sur 2009 et 2010, toutefois) est dans la moyenne des modèles.

 

 

 

PS: j'ai rectifié "la variabilité multi décennale qui apparaît sur l'anomalie mesurée n'apparaît pas sur les simulations" en "....apparaît peu ou mal sur les simulations" car on peut distinguer en effet une légère oscillation, de période de l'ordre de 60-80 ans (comme l'AMO), sur la courbe noire.

 

C'est peut-être un hasard mais ça ressemble à la superposition d'une oscillation avec une droite montante comme simulé ci dessous:

 

 

 

osc+droite2

Partager cet article

Repost0
1 octobre 2010 5 01 /10 /octobre /2010 09:48

 

 prév groenland

 

Un article fort intéressant, et à mon sens, honnête, qui concerne l'exploitation d'un modèle imparfait pour prévoir le comportement futur de la calotte glaciaire du Groenland.

 

 

Pour résumer très brièvement, il s'agit de modifier les paramètres d'un modèle, on peut supposer intelligemment, jusqu'à ce que celui-ci reproduise la situation actuelle de la calotte glaciaire groenlandaise.

 

Ca s'appelle "tuner" un modèle…

 

On se sert ensuite de ce modèle "tuné" pour prévoir l'avenir et la conclusion est qu'un collapse important de la calotte glaciaire se produit entre 400 et 560 ppm de CO2 soit à des teneurs beaucoup plus basses que celles des prévisions précédentes.

 

On peut rappeler qu'une disparition complète de la calotte groenlandaise entraîne une élévation du niveau de la mer de l'ordre de 7 m.

 

Evidemment les auteurs ne sont pas dupes de la vraisemblance des prévisions d'un modèle ainsi "tuné" et indiquent bien dans leur conclusion que les modèles actuels de simulation des calottes glaciaires comportent de très nombreuses lacunes qu'il faut combler avant de pouvoir faire des prévisions plus réalistes.

 

Néanmoins, cela peut nous interpeller sur le principe de la paramétrisation, en général, effectuée sur tous les modèles complexes de prévision climatique.

En se rappelant que les modélisateurs ne se contentent pas de simuler la situation actuelle mais vérifient leurs modèles sur le plus de situations possibles.

 

Dans ce cas précis du Groenland les données paléo ne semblent pas suffisamment précises pour qu'on dispose, au moins, d'une autre situation que l'actuelle.

Partager cet article

Repost0
18 août 2010 3 18 /08 /août /2010 18:50

 

 

petit coup de gueule ou quand ça va pas il faut le dire...

 

 

En réponse à un commentaire je faisais part de la difficulté de faire des prévisions d'anomalie de température annuelle.

En effet, un élément important, voire primordial, de la variabilité interannuelle est l'oscillation du Pacifique tropical plus connue sous le nom d' ENSO.

Les variations peuvent aller jusqu'à 0.4°C d'une année sur l'autre si les épisodes sont suffisamment forts.

 

Mais que dire de la prévision dans ce domaine?

 

Et bien elle est tout simplement, à l'heure actuelle, nulle, et ceci, à mon sens, laisse très mal augurer de la capacité des modèles à prévoir une quelconque variabilité climatique réaliste.

 

Rappelons que si des décisions importantes doivent être prises un jour, concernant la consommation d'énergie par exemple, elles ne pourront se faire que si l'on dispose d'outils suffisamment précis pour que l'on puisse vérifier, en temps réel, la justesse des prévisions.

 

On sait bien qu'ajouter du CO2 doit augmenter la température, on sait bien que les aérosols la font baisser.

Oui tout cela, depuis Arrhénius, on le sait.

En 1824 Fourier avait subodoré l'effet de serre par les gaz de l'atmosphère, c'est dire.

On sait aussi que les océans (quoiqu'on le dise moins) sont une formidable source de froid pouvant absorber, potentiellement, 1300 années d'effet de serre anthropique (à 3.7W/m2).

 

Mais plus d'un siècle après Arrhénius, au regard de certains résultats, on peut se poser de sacrées questions sur le chemin qu'il reste à parcourir pour ne pas mettre la charrue avant les bœufs à l'instar du GIEC, incapable d'expliquer, avant Copenhague, la stagnation actuelle (de 2002 à 2009 la tendance est légèrement négative) des températures.

 

Un exemple ci dessous.

 

Les prévisions de la NOAA concernant l'indice d'octobre, à 6 mois d'intervalle, donnent:

 

pour celle du 3 février, 1°C (encore en Niño par conséquent) ,

 

0710 nino 01 prév

 

 

puis, pour la prévi du 3 août, -2.5°C (soit une très forte Niña).

 

0710 nino 07 prév

 

 

C'est franchement impensable d'oser encore sortir ce genre de prévisions, qui me font furieusement penser aux prévisions saisonnières farfelues de nombre d'organismes officiels ou amateurs.

 

Tout ceci donne, quelque part, raison à des gens comme Trenberth qui s'interrogent, à demi-mots, sur la pertinence de la démarche actuelle du GIEC.

Partager cet article

Repost0
11 février 2010 4 11 /02 /février /2010 11:10

On pourrait croire, qu'au fur et à mesure de l'avancée de la science et des techniques, notre compréhension du climat augmenterait et l'incertitude, logiquement, diminuerait.

Et bien non, du moins si on en croît cet article de Nature, écrit comme  par hasard par notre cher ami Kevin Trenberth.

 

en voici une traduction non exhaustive mais reprenant l'essentiel:

 

"Des efforts majeurs sont en cours dans l'amélioration des modèles climatiques pour faire progresser la science et en faire bénéficier la société.

Mais des résultats prématurés pourraient poser des problèmes de compréhension du changement climatique pour le public.

Les scientifiques qui composent le GIEC ne faisaient pas, jusqu'à maintenant, de prédictions mais des projections du climat futur suivant des scénarios d'émissions.

Pour le 5ème rapport, ils envisagent d'examiner des prédictions explicitement pour les prochaines décennies.

Dans le groupe de travail n°I, un chapitre sera dévolu à la possibilité de faire des prévisions à 30 ans.

Un autre chapitre concernera les émissions à plus long terme jusqu'à 2100 et au-delà en utilisant des modèles globaux.

Beaucoup de ces modèles essaieront des représentations nouvelles et meilleures de processus climatiques importants et de leurs rétroactions - autrement dit ces mécanismes qui peuvent amplifier ou diminuer les effets de l'augmentation d'un flux radiatif entrant (d'un forçage en quelque sorte).

Inclure ces éléments rendra ces modèles plus réalistes mais cela introduira de nouvelles incertitudes.


Donc voici ma prédiction: l'incertitude des prédictions climatiques de l'AR5 (5ème rapport du GIEC en 2013) sera beaucoup plus grande que dans les précédents rapports, principalement en raison des facteurs notés ci dessus.


N'est-ce pas une attente raisonnable de penser que, notre savoir et notre compréhension augmentant , l'incertitude devrait décroître?

Mais si notre connaissance de certains facteurs augmente, d'autres facteurs que nous ne prenions pas en compte ou que nous ignorions précédemment doivent être maintenant être intégrés.



de la projection à la prédiction


Dans les rapports initiaux du GIEC, les changements de concentration en gaz à effet de serre et en aérosols étaient calibrés en utilisant des scénarios d'émissions idéalisés, qui donnaient des informations sur ce qui pourrait arriver dans le futur suivant des hypothèses variées concernant la population, le style de vie, l'intensité carbone..


Ainsi les changements climatiques futurs étaient simulés pour chacun de ces scénarios.

Le résultat d'une telle modélisation est appelé usuellement une projection plutôt qu'une prédiction ou prévision.

A l'inverse d'une prévision météo, les modèles dans ce cas ne sont pas initialisés avec l'état climatique actuel ou du passé, donc avec les observations.

Au lieu de cela, ils commencent avec des conditions climatiques arbitraires et examinent seulement le changement du climat projeté, en supprimant ainsi tout biais qui pourrait être associé aux efforts pour simuler de façon réaliste le climat actuel comme point de départ.


Cette technique fonctionne tout à fait bien pour examiner comment le climat pourrait répondre à des scénarios d'émissions variés sur le long terme.


Les modèles climatiques se sont, toutefois, améliorés dans les années récentes et la société demande maintenant des informations plus précises de la part des scientifiques.


Les acteurs politiques et économiques devant s'adapter à un éventail d'impacts possibles veulent savoir comment le climat va changer à des échelles de temps qui influencent leur prise de décision.

Puisque le réchauffement qui se produira en 2030 dépend largement des émissions déjà réalisées, il est théoriquement possible de prédire comment le climat va répondre au cours de cette période.

Dans les années récentes plusieurs groupes de modélisation ont publié de telles prédictions pour les prochaines décennies.(fig 1)

 


fig1-copie-1


Ten-year mean global surface temperatures from observations (red) and from three independent hindcasting studies (green, blue and black)2, 3, 4. Blue bars and grey shading represent statistical error. Separate vertical bars to the right show forecasts of the future. Observations are from two UK Met Office Hadley Centre models, HadISST 1.1 and HadCRU3. Anomalies are departures in temperature from that of a base period, which is different for each of the three studies. See ref. 5 for further details.



Dans les prédictions météo et dans cette nouvelle forme de prédiction climatique, il est essentiel de démarrer le modèle avec l'état actuel du système.


Ceci est réalisé en collectant les observations de l'atmosphère de l'océan, des surfaces continentales, de l'humidité des sols, de l'état de la végétation, des banquises, etc, et en assimilant ces données dans les modèles- ce qui peut s'avérer un challenge étant donné leurs imperfections.


Bien que d'importants progrès aient été réalisés dans ce domaine, les techniques ne sont pas encore pleinement établies.

En partie parce que cela prend au moins une décennie pour vérifier une prédiction d'une décennie et l'évaluation et l'optimisation des modèles est consommatrice de temps.

C'est pourquoi l'écart dans les résultats préliminaires des modèles sera grand, et les incertitudes beaucoup plus grandes, que pour les modèles de la dernière évaluation du GIEC. Il y a tout simplement plus  de choses qui peuvent être fausses.


tenir compte des rétroactions


Pour les projections à long terme, jusqu'à 2100 et au-delà, les modèles utilisés dans AR5 seront d'une complexité sans précédent et permettront de mieux décrire les processus et rétroactions climatiques importantes. Quelques exemples incluent les rejets de gaz à effet de serre provenant du dégel du pergélisol et de l'effet fertilisant du dioxyde de carbone atmosphérique sur la végétation. Comment, de manière réaliste, les modèles peuvent reproduire de telles  rétroactions dépend de façon critique de l'introduction de nombreux autres facteurs, tels la disponibilité en eau, les nutriants et oligo-éléments biogéochimiques, ainsi que les cycles de l'azote et hydrologiques. Tous ces éléments sont représentés à des degrés divers dans les modèles climatiques de l'AR5.


Comme autre exemple, on sait depuis longtemps que les aérosols influencent les nuages, à la fois directement et indirectement, de multiples et complexes façons.

Les aérosols interviennent directement dans le transfert radiatif et en général agissent comme agents de refroidissement dans l'atmosphère, surtout pour la surface de la Terre. Toutefois, ils affectent aussi indirectement le climat en redistribuant l'humidité des nuages et en changeant leur "luminosité", ainsi que leur durée de vie et les précipitations.
Les effets directs des aérosols sur le rayonnement ont été inclus, dans une certaine mesure, dans la composante atmosphérique des modèles climatiques, pour la dernière évaluation du GIEC. Or, les effets indirects sont également inclus, alors même que les chercheurs gagnent sans cesse de nouvelles connaissances sur ces processus à partir des observations par satellite.

Comme différents groupes utilisent des techniques relativement nouvelles pour l'intégration des effets des aérosols dans les modèles, l'étalement des résultats sera probablement beaucoup plus grand qu'avant.



Essais et erreurs



Il a été dit que tous les modèles sont faux, mais que certains sont utiles.

Un modèle climatique n'est qu'un outil, même s'il est très sophistiqué, qui intégre la complexité et la non-linéarité de façons qui sont impossibles à appréhender de manière analytique. Idéalement, un modèle doit intégrer l'état de nos connaissances.

Lorsque les connaissances sont incomplètes, une stratégie consiste à ne pas exécuter certains processus complexes et de supposer qu'ils sont constants, même quand il est connu qu'ils ne peuvent pas l'être. Ajouter de la complexité  à un système modélisé lorsque le système réel est complexe est sans doute essentiel pour le développement du modèle. Cela peut, cependant, faire courir le risque de transformer un modèle utile en un outil de recherche qui n'est pas encore capable de faire des prévisions.


Les résultats de tels modèles expérimentaux devraient-ils être inclus dans le cadre d'un processus qui est utilisé pour informer les décideurs et la société des changements à venir?


Il est essentiel de relever le défi de la prévision décennale. Confronter les résultats du modèle avec les observations du monde réel par de nouveaux moyens conduira éventuellement à leur amélioration et à l'avancement de la science climatique. Il pourrait aussi, comme avantage supplémentaire, fournir des informations qui sont potentiellement utiles pour la société. La même remarque vaut pour les projections à plus long terme, qui comprennent maintenant, de loin, plus de rétroactions et de processus qu'auparavant.

La question n'est pas de savoir s'il faut faire ce genre de travail, mais si les résultats du modèle expérimental devrait être inclus dans le cadre d'un processus qui est utilisé pour informer les décideurs et la société des changements à venir.

Si les mérites d'une technique donnée n'ont pas encore été complètement établis par la littérature "peer-reviewed", est-il approprié de l'employer sous l'égide du GIEC?



Fournir au public une science climatique à la frange de nos connaissances pourrait facilement conduire à des interprétations erronées, et il faudra encore apporter  beaucoup de soin à la communication avec le public et les décideurs et s'assurer que les résultats sont utilisés de manière appropriée.

Une approche rationnelle consisterait à s'assurer que les critères habituels du GIEC - l'évaluation par les pairs des publications, réconcilier les résultats quand c'est possible, et exprimer de manière appropriée les incertitudes - sont appliqués, et que le Groupe continue de défendre le principe selon lequel il ne fait pas de recherche mais évalue plutôt les études publiées.

La première série de projections des modèles pour AR5 doit être terminée pour le dernier trimestre de 2010. Le calendrier dicté par le processus du GIEC implique le risque d'exposer prématurément des problèmes avec des modèles climatiques que nous apprenons à développer.


Dans d'autres disciplines, cela pourrait ne pas avoir tant d'importance, mais ce qu'il faut faire concernant le changement climatique est une issue très exposée, chargée politiquement, impliquant des gagnants et des perdants, et de tels résultats ne peuvent être mal interprétés.


En fait - en guise de prédiction supplémentaire - Je m'attends à ce qu'ils le soient. "


 

Article plutôt intéressant de Trenberth qui nous donne un aperçu de ce que seront les nouveaux modèles exposés dans le 5ème rapport du GIEC.

Il ne reste que quelques mois pour que ces modèles soient réalisés et exploités.

D'avance, Trenberth nous prévient que nous aurons encore plus d'incertitude qu'auparavant et qu'il ne sera guère possible d'utiliser ces modèles autrement que comme outil scientifique mais certainement pas comme outil de décision.

A mon sens cet article confirme ce que je pensais sur la distanciation de quelques scientifiques, dont Trenberth semble être le porte drapeau, vis à vis du GIEC, de ses méthodes et de son évolution.

 

Partager cet article

Repost0
3 juillet 2009 5 03 /07 /juillet /2009 19:19

Pour ceux qui ne connaissent pas encore et pour s'éloigner, pour un temps, des équations, un petit article pour signaler un simulateur du climat en France jusqu'en 2100.

Il émane de l'ONERC, site sérieux et officiel, s'il en est.

Vous pouvez choisir votre ville dans le listing et avoir une idée de ce que prévoit le modèle en cas de scénario d'émissions assez lourd (A2)

Par exemple, pour Muret, ville où j'habite, à 20 km au sud de Toulouse, voici l'évolution prévue de la température moyenne en été.(on peut avoir la maximale aussi)

On constatera peut-être qu'une variabilité forte est bien simulée contrairement à ce que nous assènent certains sceptiques.

Il est d'ailleurs étrange qu'une période de relative stagnation, voire baisse, soit simulée pour la période actuelle.

Le fruit du hasard?

 

autre exemple, l'évolution des précipitations, toujours en été.

 

Comme on peut le constater c'est pas réjouissant, surtout qu'en 2100 le réchauffement n'est pas terminé, loin s'en faut.

 

Cela veut dire la transformation du sud toulousain, pour le moins, en région aride sèche.

 

Vous trouverez également d'autres documents intéressants comme, par exemple, l'évolution de la température moyenne en France métropolitaine, de 1900 à 2007.

 

 

à cette occasion on pourra constater la déclinaison du réchauffement global en France :

 

1.3°C depuis 1970 tout de même, pas mal!

Partager cet article

Repost0
8 mai 2009 5 08 /05 /mai /2009 16:15

 

Le quatrième rapport du GIEC, paru en 2007, nous donnait, par scénario d'émission, une fourchette et une meilleure estimation d'augmentation de température en 2100.

Par exemple, un scénario d'émission faible, comme le B1, nous donnait une fourchette de 1.1 à 2.9°C et une meilleure estimation à 1.8°C.

Un scénario fort, comme le A1FI, nous donnait une meilleure estimation à 4.0°C pour une fourchette de 2.4 à 6.4°C.

Malheureusement, il ne s'agissait que de fourchettes et de meilleures estimations concernant des scénarios théoriques dont les probabilités d'occurrence n'étaient ni indiquées ni même envisagées.

Les scénarios d'émissions des GES (SRES) étaient un moyen d'esquiver, en quelque sorte, une partie importante du problème qui nous préoccupe tous, à savoir la probabilité réelle de telle ou telle augmentation de température, ou de telle ou telle augmentation du niveau de la mer, etc., si on ne change pas de politique, évidemment.

 

La première tentative formelle de couplage des données économiques et climatiques, et donc de fourniture, in fine, de résultats directement exploitables par le grand public et les décideurs, est assez récente puisqu'elle date de 2003 (Webster et al 2003) sous l'égide du MIT.

L'augmentation de température déterminée comme la plus probable à l'époque atteignait la valeur relativement modeste de 2.4°C.

 

La mise à jour, très récente, de cette précédente tentative, sous l'égide du même MIT et par une équipe dont fait partie le fameux Webster, aboutit à une augmentation de température autrement plus importante et inquiétante : 5.1°C.

 

Si on veut résumer d'une phrase, le MIT prévoit comme la plus probable, sans inflexion de la politique énergétique, une augmentation de température de 5.1°C (par rapport au pré-industriel) et ce, sans faire intervenir aucun scénario.(dans le sens des scénarios du GIEC)

 

C'est, en quelque sorte une probabilité "absolue".(quoique l'on ne va pas jusqu'à étudier la probabilité d'un changement de politique)

 

Je vous invite donc à lire avec attention cet  article qui constitue, à mon sens, une facette intéressante de la modélisation numérique en vue de faire des prévisions sur la réponse du climat au forçage anthropique.

 

En voici l'abstract en anglais :

 

"Probabilistic forecast for 21st century climate based on uncertainties in emissions (without policy) and climate parameters


A.P. Sokolov*, P.H. Stone*, C.E. Forest*,$, R. Prinn*, M.C. Sarofim*,&, M. Webster*,+, S. Paltsev*, C.A. Schlosser*, D. Kicklighter#, S. Dutkiewicz*, J. Reilly*, C. Wang*, B Felzer#,@, H.D. Jacoby.*


The MIT Integrated Global System Model is used to make probabilistic projections of climate change from 1861 to 2100. Since the model's first projections were published in 2003 substantial improvements have been made to the model and improved estimates of the probability distributions of uncertain input parameters have become available. The new projections are considerably warmer than the 2003 projections, e.g., the median surface warming in 2091 to 2100 is 5.2°C compared to 2.4°C in the earlier study. Many changes contribute to the stronger warming; among the more important ones are taking into account the cooling in the second half of the 20th century due to volcanic eruptions for input parameter estimation and a more sophisticated method for projecting GDP growth which eliminated many low emission scenarios. However, if recently published data, suggesting stronger 20th century ocean warming, are used to determine the input climate parameters, the median projected warming at the end of the 21st century is only 4.1°C. Nevertheless all our simulations have a much smaller probability of warming less than 2.4°C, than implied by the lower bound of the IPCC AR4 projected likely range for the A1FI scenario, which has forcing very similar to our median projection.. The probability distribution for the surface warming produced by our analysis is more symmetric than the distribution assumed by the IPCC due to a different feedback between the climate and the carbon cycle, resulting from the inclusion in our model of the carbon-nitrogen interaction in the terrestrial ecosystem.

DOI: 10.1175/2009JCLI2863.1

Corresponding author address: Andrei Sokolov, Joint Program on the Science and Policy of Global Change, Massachusetts Institute of Technology, 77 Massachusetts Ave., E40-431, Cambridge, MA 02139. E-mail: Sokolov@mit.edu"


(dans cet abstract les auteurs indiquent une valeur médiane de 5.2°C alors que dans le reste de l'article et dans le tableau en particulier, on parle de 5.1°C)

 

Voici quelques réflexions à la suite d'une lecture rapide de l'article.

 

Dans Webster et al 2003 , on utilisait un modèle , l'ISGM, qui couplait un composant économique, l'EPPA, à un modèle climatique de complexité intermédiaire.

l'ISGM a été conçu pour être flexible tout en étant efficace, numériquement parlant, ce qui permettait son utilisation en termes de probabilités.

 

Le nouvel ISGM a été amélioré par :

 

-augmentation de la résolution du modèle atmosphérique

-remplacement d'un modèle océanique zonal par un modèle en 2D

-un modèle terrestre plus sophistiqué

-une représentation plus détaillée de l'économie globale et régionale.

 

Ces changements ont abouti à des changements relativement modérés des émissions de GES et de la réponse climatique au forçage.

Toutefois, du à la non linéarité des interactions entre ces différents facteurs, l'effet net a été de relever substantiellement la distribution probabiliste du réchauffement en 2100.

 


composants du modèle (voir figure1) :

 

ce modèle se compose :

 

-         d'un modèle des activités humaines et des émissions : EPPA

-         d'un modèle atmosphérique dynamique et chimique qui inclut un sous modèle de chimie urbaine

-         d'un modèle océanique à couche mélangée à anomalie diffusive (ADM) avec un sous modèle à cycle de carbone et de banquise

-         d'un modèle terrestre qui combine un modèle des écosystèmes terrestres (TEM) un modèle des émissions naturelles (NEM) et un « Community Land Model » (CLM) qui décrivent, ensemble, le global et les budgets hydrologiques et d'énergie ainsi que différents autres processus des écosystèmes terrestres.

 

Le composant climatique de l'ISGM est un modèle complètement couplé qui permet la simulation des  rétroactions critiques entre les différents composants.

 

voir détails pages 5 à 12.

 

 

méthodologie

 

la méthode basique pour l'analyse des incertitudes est la méthode de Monte Carlo couplée au « Latin Hypercube Sampling » (LHS) qui permet de réduire l'échantillonnage.

 

 

incertitudes physiques et scientifiques

 

ce sont principalement: la sensiblité climatique (S) , la prise de chaleur de l'océan (Kv) et le forçage des aérosols (Faer).

 

La flexibilité du modèle et la méthodologie permettent de contraindre ces incertitudes sur la réalité observée.

On aboutit ainsi à une distribution de sensibilité climatique transitoire (TCR) telle que figurée sur le graphe de gauche de la fig 3 page 14.

Cette distribution est beaucoup plus étroite qu'auparavant (courbe bleue), décalée vers les plus hautes températures et centrée sur 1.9-2°C environ.

Ceci représente donc une augmentation significative de la sensibilité à l'équilibre.

 

autres incertitudes physico-chimiques (cycle du carbone et précipitations)

 

 

 

incertitudes économiques et sur les émissions

 

Le détail technologique du modèle EPPA a été approfondi avec la représentation explicite des automobiles privées,du transport commercial et le secteur des services et l'addition de biocarburants.

La spécification de l'incertitude dans la croissance économique a été revue.

La simulation par le modèle a permis de déterminer les distributions d'incertitude en les comparant aux données historiques plutôt que de se baser sur le jugement d'experts.

 

La biblio en fin d'article donne pas mal de liens utiles au lecteur désireux d'en savoir plus.

 

 

 

Résultats

 

Ils sont plutôt surprenants et je vous invite à consulter les différentes courbes sur les émissions, les élévations de température, ainsi que le tableau récap de la page 24 dont voici les traits saillants.

 

 

 

la deuxième colonne indique la partie la plus basse de la fourchette 5-95%.

Par exemple, le CO2 a moins de 5% de chance d'être inférieur à 716ppm.

La troisième colonne indique le résultat médian qui représente la valeur au milieu de l'intervalle de probabilités (50% en dessous, 50% au dessus)

La quatrième (95%) représente la valeur haute de la fourchette (95% de chance pour être en dessous de cette valeur et 5% au dessus)

 

 

 

Que penser de tout cela ?

 

Le modèle ISGM du MIT est un prototype de modèle « intégral » qui ne part pas de scénarios économiques et d'émissions préétablis, mais qui élabore un genre de courbe de probabilité d'évolution économique, technologique et donc d'émissions.

Cette courbe est traitée par un modèle complexe mais suffisamment flexible pour être utilisé, au préalable, en « échantillonnage » et donc en détermination des incertitudes sur les différents composants du système terrestre, comme la sensibilité, la prise de chaleur océanique, le forçage des aérosols...

Il n'est pas simple de juger de la validité d'un tel processus, mais les résultats qui en découlent, pour le principal d'entre eux, une augmentation de température globale de 5.1°C , peuvent nous laisser à la fois perplexes et inquiets.

On peut rappeler que cette anomalie de 5.1°C est largement au dessus de la valeur médiane de 4.0°C issue de l'application aux modèles du GIEC, du scénario d'émission le plus sévère, l'A1FI , considéré par certains comme très improbable.


PS: sensibilité du modèle aux paramètres observés

Les auteurs nous donnent l'exemple du paramètre "prise de chaleur océanique" qui varie du plus faible (Levitus 05) au plus fort (Domingues 08).

Les auteurs ont utilisé le plus faible pour comparer à Webster et al 2003.

Si on utilise le plus fort, l'élévation de température en 2100 n'atteint "que" 4°C environ, ce qui la met au même niveau que l' A1FI de l'AR4.

C'est un peu contre-intuitif d'ailleurs...

 

Partager cet article

Repost0