Overblog
Suivre ce blog Administration + Créer mon blog
4 août 2012 6 04 /08 /août /2012 20:49

 

(voir EDIT du 05 août en fin d'article)

 

 

Les sceptiques, en plus de nier le réchauffement actuel et/ou de nier son origine, ont pour fâcheuse habitude de rabaisser son amplitude au regard d' hypothétiques réchauffements du passé.

On connaît tous le fameux Optimum Médiéval, sensé avoir fait reverdir le Groenland, et avoir permis sa colonisation par Eric le Rouge sans oublier le vin en Angleterre, voire en Ecosse etc.

Fameux optimum dont l'amplitude bien supérieure au réchauffement actuel a été "mise en évidence" par le célèbre Beck, falsificateur sceptique (pléonasme?) de son état.

 

Tout est bon pour servir de pâture au peuple sceptique de base qui refuse, par idéologie conservatrice, l'idée même d'un réchauffement anthropique global, car, comme pour ce triste sire d'Inhofe:

 

"Tant que la terre subsistera, les semailles et la moisson, le froid et la chaleur, l'été et l'hiver, le jour et la nuit ne cesseront point.""Dieu est toujours là-haut. Je suis scandalisé par l'arrogance des gens qui pensent que nous, êtres humains, serions capables de changer ce qu'Il fait avec le climat."

 

source: Passeur de sciences

 

 

Venons en au Groenland.

 

Ceux qui s'intéressent aux "arguments" sceptiques, connaissent celui qui évoque la variabilité de la température de surface du Groenland mise en exergue par les températures de GISP2 (45000ans de données).

Ces températures sont déduites du déficit en O18 des échantillons de glace prélevés par carottage dans l'inlandsis au "summit" du Groenland.

 

Alors on vous montre ce genre de courbe ci dessous (je résume car on vous le distille savamment en plusieurs étapes censées vous impressionner de façon faussement pédagogique) :

 

 

alley brut

 

 

Comme vous le voyez le réchauffement actuel est dérisoire par rapport aux différentes pointes de chaleur précédentes.

Ciel!

Beck le falsificateur aurait-il finalement raison?

 

 

Bon, aller, on va "débunker" tout çà.

 

1- "before present"

 

Oui le dernier point de la courbe ci dessus, la fin du "réchauffement moderne", c'est en fait en 1854.

Car en paléo, puisque, le présent change à chaque seconde, le présent, c'est le 1er janvier 1950, par convention.

Comme le premier point de la base de Alley est 0.0951 ky BP, c'est un échantillon qui correspond à 1854.

Mais pour les sceptiques, c'est çà le réchauffement moderne.

 

 

2- La base de données Alley 2000.

 

Bon, c'est tout de même un peu gênant qu'il n'y ait pas les incertitudes.

En général, çà se donne, dans une vraie publication.

 

Si on regarde la figure 3 de Jouzel 94, même si on prend la courbe du bas LGM, pour un même δ 18O, l'incertitude sur la température est de +-5°C.

 

jouzel-94.jpg

 

On peut certes admettre que statistiquement l'incertitude se réduit, soit, mais tout de même, utiliser des mesures aussi imprécises pour gloser sur un optimum médiéval d'amplitude 2°C, il faut le faire.

 

Alors en fait ce n'est pas tant la mesure isotopique elle-même qui est en cause, mais, entre autres, la composition changeante des différentes sources de vapeur d'eau qui va précipiter au-dessus du "summit".

Il y a bien sûr d'autres sources d'incertitudes et il faut être très prudent pour utiliser ce genre de courbe bruitée, mais les sceptiques, n'y connaissant strictement rien, s'en balancent éperdument.

Mais allez, soyons bon prince, utilisons tout de même cette belle courbe de GISP2.

 

 

3- la variation de l'insolation.

 

Eh oui, comme vous le savez tous, l'insolation baisse régulièrement sur le Groenland (et dans l'Arctique en général) depuis le milieu de l'Holocène.

 

Il suffit donc de tracer la régression linéaire de la courbe plus haut sur 8000 ans pour s'apercevoir que, la température baisse d'environ 0.2°C/millénaire (+- quelque chose étant donné l'incertitude vue plus haut).

 

Alley trend

Si on veut comparer à ce qui se passe maintenant, à insolation équivalente donc,il faut donc détrender la courbe, ce qui donne:

 

alley détrendée

 

Bon çà n'a pas tout à fait la même allure, non?

 

Mais enfin le réchauffement moderne n'est pas encore terrible.

 

 

4- la vraie période moderne

 

Ah ces données de BEST, elles sont géniales.

Bon, elles ont aussi une incertitude mais comme l'incertitude on s'en fiche puisqu'on utilise tel quel Alley 2000, allons-y.

 

Voici tout d'abord la courbe de BEST pour le Groenland.

 

BEST greenland

 

 

Je sais pas comment ils ont fait pour les valeurs anciennes mais admettons.

 

On va rabouter les deux courbes, en standardisant à partir de leurs données communes, ce qui n'est pas évident étant donné, répétons le, les incertitudes.

 

alley + best

 

Ah c'est déjà mieux, mais c'est nettement moins bien pour un sceptique, je le reconnais.

 

La courbe rouge est la moyenne glissante sur 10 ans de la série BEST, mais Alley doit être plus lissée.

C'est de plus la moyenne du Groenland alors qu'Alley c'est pour le "summit" uniquement ce qui fait que la variabilité peut être plus importante pour ce point mais ce n'est pas évident sur de longues périodes.

 

Il n'empêche que le vrai réchauffement moderne du Groenland semble tout fait significatif par rapport aux différents "réchauffements" de Alley.

 

 

 

causes des variations de température

 

Evidemment, si on n'a pas l'amplitude exacte des variations ce n'est pas facile d'en donner les causes, sans compter l'erreur sur le temps.

On peut seulement supposer que le Groenland est particulièrement sensible aux oscillations océaniques de l'Atlantique nord, mais les variations passées ne semblent pas être de même période (60 à 80 ans) que l'AMO mais plutôt de l'ordre de plusieurs siècles, voire du millénaire.

Le phénomène suspecté de "sea-saw" entre Antarctique et Arctique aurait une période de 2000 ans et pourrait peut-être détecté dans la série de Alley?

 

D'autres candidats comme les volcans, l'activité solaire, peuvent influencer et il y a peut-être conjonction de plusieurs effets.

Pour le réchauffement actuel, on ne peut évidemment pas oblitérer le rôle anthropique, de par les GES évidemment mais aussi de par les aérosols carbonés qui ont pu avoir une grosse influence au début du 20ème siècle.

 

 

Phénomène de fonte actuel

 

Lorsqu'on a une augmentation de la température moyenne et une augmentation encore plus forte des températures les plus élevées, il est assez évident, ou de bon sens, que les phénomènes de fonte généralisée comme on les a vus récemment, deviennent de plus en plus fréquents.

Et dans les deux derniers millénaires, il est possible, oui, qu'ils soient exceptionnels.

 

 

EDIT du 05 août 2012 à 14H40

 

 

On lira avec intérêt cette étude de Kobashi 2011 qui reconstruit les températures de surface de la neige au "summit" du Groenland.

 

Elle est basée sur les isotopes de l'Argon et de l'azote, piégés dans les bulles d'air de la glace.

 

On est donc cette fois indépendant des sources et la méthode devrait être plus précise.

L'incertitude annoncée est de l'ordre de +-0.5°C.

 

Là aussi il y a "raboutage" avec les températures mesurées T2m près du summit.

 

Le problème étant que le T2m est plus chaud que la Ts de la neige (inversion de très basse couche)

 

Les températures actuelles sont abaissées de 1.75°C par comparaison entre les parties communes.

 

c'est peut-être là, d'ailleurs, que le bât blesse.

 

Quoiqu'il en soit, voici les résultats "bruts" tels que figurés sur la fig 1 de l'étude.

 

kobashi2011

 

Comme on peut le constater, la hausse moderne de la température du Groenland est très relative par rapport à beaucoup de hausses passées.

 

La température de 2010 devient comparable à ces plus fortes hausses et il faut se rappeler que le Groenland bénéficiait d'une insolation plus forte que l'actuelle dans le passé.

 

Les différentes méthodes isotopiques donnent des résultats quelquefois  très contradictoires, voir par exemple le fort réchauffement vers 700 de Kobashi et le refroidissement correspondant chez Alley.

 

comp alley kobashi

 

Ce dernier point ainsi que les méthodes de raboutage de données T2m et de température de neige, la représentativité de la température du summit avec la moyenne du Groenland, etc., doivent amener à considérer, comme d'habitude, ces résultats avec prudence.

Partager cet article
Repost0
21 avril 2012 6 21 /04 /avril /2012 11:29

 

 

Une étude importante, parue dans Nature, apporte un éclairage nouveau sur le rôle du CO2 pendant les cycles glaciaires.

 

Il s'agit de:

 

"Global warming preceded by increasing carbon dioxyde concentrations during the last deglaciation"

 

par:

Jeremy D. Shakun1,2, Peter U. Clark3, Feng He4, Shaun A. Marcott3, Alan C. Mix3, Zhengyu Liu4,5,6, Bette Otto-Bliesner7, Andreas Schmittner3 & Edouard Bard8

 

 

 

 

Lorsqu'on utilise la température de l'Antarctique comme proxy de la température globale on constate que la teneur en CO2 varie, lors des cycles glaciaires, avec un certain retard par rapport à cette "température globale" ainsi définie.

 

Le mécanisme proposé étant, schématiquement, le suivant:

 

variations orbitales => variations de température (via albédo) => variations de la teneur en CO2 => amplification de la variation de température.

 

Dans cette conception des choses, donc avant Shakun 2012, le CO2 n'est qu'un agent contributif, intermédiaire, certes important, des variations de température pendant les cycles glaciaires.

 

D'après l'étude il semble que le processus soit plus complexe et que, finalement, c'est la température globale qui suit le CO2.

Ce point est fondamental et renforce, à l'évidence, le rôle du CO2 comme driver principal du climat pendant les périodes glaciaires.

 

 

reconstruction de la température globale

 

 

C'est la première fois qu'on peut voir aussi clairement, du moins à ma connaissance, une reconstruction, à partir de proxies, de la température globale pendant une phase de cycle glaciaire (ici la dernière déglaciation).

Il est à noter cependant, qu'en l'absence de proxies dans les zones couvertes par les inlandsis, cette température globale est quelque peu biaisée mais représente sans doute relativement bien une très large zone du globe, en gros de 60°N à 60°S soit plus de 80% de la surface terrestre.

 

 

Les proxies

 

 

La base de données utilisée dans cette étude est composée de 80 enregistrements de température dérivés des alkénones (32), de foraminifères planctoniques Mg/Ca (26), d'assemblages de microfossiles (6), de teneur en isotopes stables de carottes glaciaires (6), de pollens (4), de TEX86 (4), et de MBT/CT (2) voir tableau 1.

 

Seuls les enregistrements à haute résolution (<500 ans) sont utilisés.

67 sont datés par carbone 14, 6 sont issus de carottes glaciaires datées par comptage des couches et/ou modèle glaciologique, 4 sont datés par combinaison de radiocarbone et tuning de comptages de couches….."

 

Comme on peut le voir sur la carte des emplacements (figure 1) et suivant la nature de ces proxies (alkénones et foraminifères) une majorité sont marins et donnent ainsi une indication des températures de surface des océans (SST).

 

shakun 2012 fig1

 

Ces emplacements, en outre, permettent une bonne représentation de la température globale "récente", comme indiqué sur ce graphe.(figure S11 suplementary information)

 

shakun 2012 figS11

Les méthodes de traitement de ces proxies, notamment la standardisation et la datation sont décrites dans le supplément.

 

On peut avoir une idée du proxy alkénone (méthode UK'37) ici.

 

 

 

comparaison température globale, antarctique, et teneur en CO2

 


 

shakun 2012 fig2

 

La figure 2a montre une légère avance de la température antarctique (en rouge) sur la teneur en CO2 (ronds jaunes) et un retard de la température globale (en bleu) sur ce même CO2.

 

La fig 2b montre que les choses sont différentes suivant les hémisphères puisque la température de l'hémisphère sud est en avance sur le CO2, alors que c'est l'inverse pour l'hémisphère nord.

Globalement cependant il y a bien retard de la température sur le CO2 et on notera que l'avance, pour l'hémisphère sud est plus diffuse que le retard ne l'est pour l'hémisphère nord.

 

 

mécanisme proposé

 

 

On peut résumer le processus ainsi:

 

Le changement orbital provoque une augmentation de l'insolation sur les hautes latitudes de l'hémisphère nord occupées par des inlandsis.

Au tout début de ce changement des masses de glace fondent en engendrant une baisse dramatique de la circulation océanique atlantique méridienne (AMOC) par invasion d'eau douce dans les zones de convection.

 

La baisse de l'AMOC provoque un réchauffement de l'hémisphère sud et surtout un changement profond du cycle de carbone qui libère alors du CO2 dans l'atmosphère.


Le forçage qui en résulte se manifestant de façon globale, réchauffe ainsi la planète dans son entier.

Ce réchauffement entraîne lui-même un changement du cycle du carbone qui amplifie le phénomène.

Globalement c'est donc le CO2 qui est le driver principal du réchauffement lors de la déglaciation.

 

D'un point de vue global, ce qui est assez nouveau, c'est que l'influence de la fonte des inlandsis semble être relativement faible par rapport à celle du CO2.

La figure 3 est révélatrice à ce sujet puisqu'elle montre que pendant les épisodes d'augmentation de température (Older Dryas et Younger Dryas) les inlandsis ne fondent que très peu alors qu'ils fondent plus dans l'Holocène alors que la température est constante.

 

shakun 2012 fig3

 

Bien sûr les conditions locales doivent changer avec ces variations mais cela n'apparaît pas dans la température globale définie par les auteurs.

 

 

 

conclusion

 

Cette étude ne change pas réellement l'importance du CO2 en tant qu'agent radiatif.

Mais elle révèle que son rôle semble bien plus central et prépondérant qu'on ne le pensait auparavant.

 

Le mécanisme par lequel le CO2 devient cet agent prépondérant reste en grande partie inexpliqué.

Il est à peu près sûr qu'il fait intervenir l'AMOC comme déclencheur de perturbations du cycle du carbone .

Les auteurs suggérant simplement un changement au niveau de l'océan austral.

 

D'un point de vue plus politique à l'égard des sceptiques, cette étude détruit l'argument, imbécile par ailleurs, selon lequel un CO2 qui suit la température ne peut évidemment pas être à l'origine de ses variations.

Et, puisque la température varie "toute seule", comme une grande, par le simple fait de la variabilité climatique ou, quand on a de la chance, par l'effet du soleil, le réchauffement climatique actuel n'est, au mieux, qu'une chimère, au pire un affreux complot vert visant à empêcher la croissance économique....

 

D'un point de vue plus scientifique, le fait que la température globale de Shakun 2012 comporte de très nombreux points dans les basses latitudes, tend à prouver que la sensibilité climatique reste forte même en l'absence de rétroaction-glace locale.

 

En ce sens, cette période de déglaciation peut probablement de plus en plus servir d' "analogue" à la période actuelle.

 

 

 

Partager cet article
Repost0
22 juin 2011 3 22 /06 /juin /2011 13:28

 

 

Je signale cette étude de Kemp et al 2011:

 

"Climate related sea-level variations over the pas two millenia"

 

Au cours de laquelle les auteurs établissent l'évolution du niveau de la mer (corrigée du rebond isostasique) à partir de mesures effectuées en Caroline du nord.

 

Les "proxies" utilisés sont des foraminifères qui se développent dans des marais salants côtiers.

 

En gros, on mesure l'élévation du niveau corrigée de la PME (hauteur de formation des foraminifères actuellement), la chronologie des échantillons, et on applique une formule pour déterminer le rebond isostasique en Caroline du nord.

 

On obtient ainsi l'évolution du niveau de la mer global puisque la Caroline borde l'Atlantique qui n'a aucune raison de se désolidariser de l'océan global.

 

 

niveau Kemp

(courbe en bleu- source Realclimate)

 

 

Comme cette évolution est liée, au premier ordre, à l'évolution de la température globale, il se conçoit que le niveau de la mer peut lui-même être un proxy de la température globale.

 

 

Je ne discuterai pas ici de la validité de la méthode ni de ses incertitudes, mais de deux points en particulier.

 

 

1- faibles variations au cours de l'Optimum Médiéval et du Petit Age Glaciaire

 

 

Cela tendrait à conforter les reconstructions actuelles qui établissent le fait que, globalement, ces deux périodes ont vu des variations de température globale plus faibles que l'actuelle.

 

Ceci ne voulant pas dire non plus, pour prendre l'exemple  de l'Optimum Médiéval, qu'un réchauffement important ne se serait pas produit en Arctique alors que l'Antarctique se serait refroidi.

 

 

2- variation forte pendant le 20ème siècle

 

 

Il est fait référence à l'étude de Church et White 2006 qui concerna la mesure du niveau par marégraphes de 1870 à 2001.

 

On peut mettre en parallèle le niveau marégraphes, selon cette étude, avec l'évolution des forçages anthropiques estimée par Crowley.

 

niveau-forçages 2

 

 

 

 

Il n'y a pas de correspondance évidente entre ces deux évolutions, c'est le moins qu'on puisse dire.

En effet, entre 1934 et 1965 (dates approximatives) le forçage anthropique est quasiment stable et plutôt faible (0.45W/m2) alors que le niveau s'élève de 68 mm (soit 2.12 mm/an) et, entre 1965 et 2001, le forçage augmente de 1.1 W/m2, pour atteindre 1.6W/m2, alors que le niveau s'élève de 77mm (soit 2.07 mm/an).

 

On peut mettre également en parallèle le niveau et la température globale et là aussi il y a des évolutions, à certaines périodes, non corrélées.

 

 

niveau-température

 

 

Entre 1942 et 1977alors que la température globale baisse/stagne, selon Hadley, le niveau continue à augmenter assez fortement.

 

 

On peut envisager, en ce qui concerne le forçage, un retard du à l'inertie du système mais ce n'est qu'une explication partielle et de toute façon insuffisante.(à moins aussi que les estimations de forçages aérosols soient complètement farfelues)

Pour la température, les deux composantes du niveau (stérique et massique) compliquent probablement sa corrélation avec le niveau mais dans ce cas, pourquoi évoquer dans Kemp et al 2011, une proportionnalité de la hausse avec la température: dH/dt = a(T-T0).

 

Il apparaît donc deux évidences: 

 

- le niveau semble s'élever assez fortement de façon non exclusivement dépendante du forçage anthropique avec une légère accélération à 3 mm/an dans les deux dernières décennies, pouvant faire suspecter, en première analyse, que l'influence humaine ne serait pas responsable de la totalité de la hausse du niveau.

 

- le niveau s'élève, grossièrement, avec la température (ce n'est pas un scoop) mais, dans le détail, de fortes divergences apparaissent, laissant suspecter que les variations locales de température pourraient avoir une influence non négligeable sur le niveau global (dans l'Arctique par exemple).

 

 

Voilà, je ferai une autre conclusion plus générale concernant le discours médiatique actuel qui impute la hausse actuelle du niveau uniquement à l'influence humaine.

En fait, on pourrait imaginer qu'il y ait une montée naturelle du niveau, assez significative, sur laquelle viendrait se rajouter une montée "anthropique" encore relativement modérée.

Bon on regardera les post-scriptums qui, concernent l'aspect différentiel des choses et qui modèrent un peu ces deux premiers alinéas.

 

 

réflexions complémentaires

 

 

1- un point à priori plutôt surprenant qui concerne le premier graphique de cet article.

 

en effet, la courbe rouge (modèle) suit parfaitement bien l'évolution des derniers siècles.

Ceci paraît étonnant, étant donné le fait que les forçages, au moins pendant 30 ans (1935-1965) sont plutôt faibles.

Donc qu'est-ce qui peut bien faire augmenter autant le niveau quand forçages et température sont aussi  faibles? 

Le déstockage ou la baisse des précipitations sur les terres?

Les oscillations océaniques?

 

 

2- signal différentiel : hausse du niveau

 

il n'est pas facile de comparer un niveau, qui représente un cumul, avec la température.

J'ai donc regardé plus précisément ce que donnait le signal différentiel, le fameux dH/dt et voilà ce que çà donne:

 

niveau différentiel

 

là non plus il n'y a pas de corrélation évidente même au niveau des moyennes décennales glissantes, du moins on vérifie difficilement dH/dt = a (T-T0).

 

 

 

3- corrélation entre les moyennes décennales glissantesde dH/dt et T

 

niveau corré 3

 

Le coefficient de corrélation, égal à 0.53, n'est pas excellent

 

Il sembe toutefois y avoir un retard du dH/dt par apport à la température.

 

Vérifions ce que çà donne avec un décalage de 12 ans.

 

niveau corré 4

 

La corrélation s'améliore (0.63) de façon sensible.

 

Le phénomène semblant après tout relativement normal, puisqu'il est concevable que le phénomène de fonte ne soit pas immédiat après une augmentation de température.

 

 

4- causes de l'augmentation du niveau

 

 

l'équation bilan qui relie la puissance reçue (Pr) par le système à la température de surface et au forçage est la suivante:

 

Pr = F - T/S

 

Mais suivant que cette puissance est utilisée à fondre la glace ou à chauffer l'océan, les conséquences en terme d'élévation du niveau changent de façon drastique.

 

exemple pour Pr = 1W/m2

 

si c'est intégralement utilisé pour chauffer l'océan, cela correspond à une hausse de 1.8mm/an

si c'est intégralement utilisé à fondre la glace, cela correspond à une fonte de 94.2 kg glace par an et par m2, soit 94 mm/an.

La fonte est 52 fois plus efficace que le réchauffement de l'océan pour faire monter le niveau de la mer.

 

Cette constatation doit permettre de regarder tout ce que j'ai raconté plus haut de façon différente.

 

Si, pour une raison ou pour une autre la circulation atmosphérique/océanique change de façon à attaquer différemment les glaces, on peut avoir variation significative du niveau avec une température de surface qui semble ne pas varier.(exemple: période 1942-1970)

Ceci doit rendre prudent sur une utilisation trop simpliste de la relation dH/dt = a(T-T0) et subordonne à mon sens la variation de niveau à l'utilisation de modèles complexes.

 

 

5- local vs global

 

Un réflexion intéressante, émanant de divers commentateurs, concerne l'aspect très local de la mesure en Caroline du nord et sa représentativité du niveau global.

 

En effet quand on regarde par exemple cette représentation (site AVISO)

 

niveau local

 

on peut distinguer des zones de hausse et des zones de baisse, au cours des 18 années de mesure satellitaire.

 

La zone "Caroline du nord" semble d'ailleurs assez perturbée.

 

Mais on peut se douter aussi que sur 18 ans il y ait influence des changements de circulation océanique.

 

Enfin c'est pas simple.

 

Toutefois, à leur décharge, les auteurs de Kemp et al 2011, présentent, dans les infos supplémentaires, ce graphe (fig S6):

 

niveau S6

 

qui indique une corrélation acceptable, sur 300 ans tout de même, entre le niveau local en question et le niveau global par marégraphes suite à Jevrejeha et al 2008.

 

Ceci ne veut pas dire que c'est bon sur les 2000 ans bien sûr.

 

Concernant la validité des corrections de niveau isostasique sur 2000 ans, des avis de spécialistes seraient souhaitables.

 

liens

 

Kemp et al 2011: http://www.pnas.org/content/early/2011/06/13/1015619108.full.pdf

 

article Realclimate: http://www.realclimate.org/index.php/archives/2011/06/2000-years-of-sea-level/

 

Church and White 2006 : http://naturescapebroward.com/NaturalResources/ClimateChange/Documents/GRL_Church_White_2006_024826.pdf

 

données du niveau par marégraphes: http://www.cmar.csiro.au/sealevel/sl_data_cmar.html

Partager cet article
Repost0
10 juillet 2010 6 10 /07 /juillet /2010 17:57

panorama alpes 

(photo wiki)

 

A lire cette  étude de Corona et al parue dans "Climate of the Past",qui concerne une reconstruction des températures estivales du dernier millénaire dans les Alpes européennes.

 

En dehors des conclusions qui en découlent, elle présente l'intérêt d'être réalisée par une équipe qui comporte une majorité de français, ce qui me rassure personnellement sur l'état de la science paléoclimatique, en particulier des reconstructions des derniers millénaires, dans notre pays.

 

Nous n'entrerons pas dans les détails des méthodes utilisées.

Les lecteurs intéressés les trouveront dans l'étude elle-même et, si besoin, en communiquant avec les auteurs eux-mêmes.

 

 

 

résumé

 

 

Cette étude présente une reconstruction des températures estivales de la région alpine (44.05-47.41N, 6.43-13E), pendant le dernier millénaire, basée sur un réseau de 38 chronologies de mélèzes et de pins.

Les anneaux de croissance sont standardisés en utilisant une courbe de croissance régionale adaptative, qui essaie d'éliminer l'effet d'âge des variations basse fréquence dans les séries.

Les proxys sont calibrés en utilisant les températures moyennes de juin à août des séries HISTALP de 1818 à 2003.

La méthode combine une technique des analogues, qui est capable de rallonger les séries trop courtes, un réseau neuronal artificiel pour une calibration optimale non linéaire incluant un  bootstrap pour estimer l'incertitude de la reconstruction.

Environ 50% de la variance est reconstruite.

Les données instrumentales de basse altitude jusqu'à 1760 comparées aux données instrumentales cibles révèlent une divergence entre des données instrumentales plus chaudes que les  estimations par proxys.

La reconstruction indique des conditions froides du milieu du 11ème siècle au milieu du 12ème en relation avec le minimum solaire de Oort suivi d'une courte période médiévale chaude (1200-1400).

Le petit Age Glaciaire (1420-1830) est particulièrement froid entre 1420 et 1820 avec des anomalies estivales de -0.8°C par rapport à 1901-2000.

La nouvelle reconstruction suggère que le réchauffement de la fin du 20ème est sans précédent.

Il révèle aussi des similarités significatives avec d'autres reconstructions alpines

 

 

discussion

 

l'étude aboutit à la reconstruction suivante:

 

évol 1000-2003

 

 

 

validation

 

 

La période de validation utilisée, entre 1760 et 1816, ne montre qu'une corrélation plutôt moyenne entre proxys et instruments(0.45 avec lissage 20 ans) et notamment un biais froid des proxys par rapport aux mesures instrumentales.

les auteurs y voient plusieurs raisons dont un manque de données instrumentales permettant une bonne homogénéisation  pour cette période.(on verra une autre cause dans la conclusion)

 

 

 

histoire climatique des Alpes

 

 

données haute fréquence (annuelles)

 

 

anomalies annuelles positives

 

avant 1986 on relève deux groupes d'années particulièrement chaudes au début du 19ème (+1.9°C en 1846) et au 12 ème et 13ème (+1.2 en 1161).

 

anomalies annuelles négatives

 

l'année 1816 (connue comme "l'année sans été" dans le Nouveau Monde)  constitue l'année la plus froide selon Pfister (1992-1999) et Casty et al 2005.

dans la reconstruction de Corona et al elle est assez bien placée également avec une anomalie de -2°C.

 

après 1986 les températures dépassent 9 fois le seuil de 1.2°C.

 


 

données basse fréquence (lissées à 20 ans)

 

 

Elles figurent dans la courbe du bas du graphique ci-dessus

Les auteurs déclinent les variations observées en fonction des estimations de forçage solaire, volcanique et anthropique

 

 

corrélations avec d'autres reconstructions

 

 

Après avoir lu les corrélations à l'échelle régionale on s'intéressera avec la corrélation entre cette étude et les reconstructions hémisphériques du moins concernant le signal lissé.

Le coefficient de corrélation est de 0.40 avec des divergences au cours de certaines périodes comme les 10ème et 11ème siècles mais des convergences importantes pour l'Optimum Médiéval et le Petit age Glaciaire.

 

 

 

conclusion

 

 

Il y a le bémol de la validation pour la période 1760-1818.

Il est à noter, cependant, une explication postérieure à la réalisation de cette étude proposée dans The early instrumental warm-bias: a solution for long central European temperature series 1760-2007 (document complet ici) qui concerne la possibilité d'un biais chaud de 0.21°C à 0.93°C, selon les stations, des données instrumentales pour, entre autres, la période de validation utilisée.

La divergence indiquée par les auteurs ne serait plus alors que de -0.75 -(- 0.57) = -0.18°C.

 

Ce bémol étant presque levé, on peut accepter un peu mieux une des conclusions des auteurs concernant le caractère exceptionnellement chaud de la toute fin du 20ème siècle dans les Alpes.

 

Au regard de la bonne corrélation (voir courbes ci-dessous) entre les températures instrumentales alpestre et globale, il n'est pas insensé d'étendre cette conclusion à l'ensemble de la planète.

 

Tout d'abord, d'après ZAMG-HISTALP (version 2008), l'évolution des températures alpestres

 

1760-2007

 

 

 

Puis, selon HADCRUT, l'évolution de la température globale

 

 

HadCRUT

 

la corrélation entre les évolutions de température alpestre et globale, au moins pour 1850-2007, est évidente.

Partager cet article
Repost0
30 juin 2010 3 30 /06 /juin /2010 17:33

sol jeune photo nasa

(photo NASA)

 

 

 

Mais qu'est-ce donc que ce paradoxe du soleil jeune?

 

 

Les températures des époques très lointaines, d'il y a plusieurs milliards d'années, sont considérées comme ayant été proches, voire supérieures, à la température actuelle.

Si on met à part, bien sûr, de possibles épisodes de glaciation intense (type Terre boule de neige)

 

 

Depuis sa naissance, il y a 4.5 à 5 milliards d'années, la puissance émise par le soleil ne fait que croître.

On estime que cette puissance a augmenté de 35 % depuis son origine.

L'âge de la Terre étant très proche de celui du soleil, notre planète a donc connu des flux solaires beaucoup plus faibles qu'actuellement.

 

Rappelons que la température effective actuelle, pour un albédo de 0.30, est de -18°C.

Avec un flux solaire égal à 65% du flux actuel, pour le même albédo, cette température tombe à  -44°C.

 

Si on se place au Néo Archéen (Late Archean dans l'article cité plus bas), soit il y a environ 2.5 milliards d'années, on estime que le flux était de 80% l'actuel, soit une température effective de -32 °C

 

Si, actuellement, la température réelle moyenne de la surface est de 15°C soit une augmentation de 33°C par rapport à la température effective, et que l'on connaît la responsabilité de l'effet de serre naturel dans ces 33°C, la question que l'on se pose est:

 

Qu'est-ce qui explique, au Néo archéen, une augmentation de température, par rapport à l'effective, de 47°C?

 

 

L'explication traditionnelle est qu'une teneur plus grande en GES, à l'époque, était nécessaire pour rendre l'atmosphère plus opaque à l'infrarouge terrestre.

les candidats étant bien sûr le CO2 mais aussi le CH4 (certainement plus concentré avant les eucaryotes).

En très gros, si on suppose que ce rôle réchauffant était dû entièrement au CO2, cela aurait nécessité des teneurs de l'ordre de 20 à 30 fois l'actuelle, soit de l'ordre de 1%, pour fixer les idées.

Depuis les origines la teneur en CO2, à partir de valeurs très élevées, est descendue, avec des hauts et des bas, jusqu'à des valeurs de 200 à 280 ppm actuellement (mis à part l'augmentation récente bien sûr

En conséquence l'hypothèse du CO2, toutes choses étant égales par ailleurs, est tout à fait plausible.

 

 

Cependant, le "toutes choses étant égales par ailleurs" est une hypothèse d'école, car forcément, il y a 2.5 milliards d'années, tout n'était pas pareil que maintenant.

 

Les sceptiques, qui font la chasse à toute hypothèse mettant en jeu le rôle du CO2, nous font remarquer, à juste titre pour une fois, que les calculs sont faits à albédo constant.

 

Or cet albédo était il le même qu'actuellement?

Sans doute pas, mais quelle pouvait être sa valeur à l'époque?

On peut calculer très facilement l'albédo nécessaire à l'obtention d'une température effective de -18°C.

Il est de 242/(0.8*342) = 0.884.

 

Mais la température effective n'est pas tout.

On cherche en effet ce qui peut faire monter la température de surface pour atteindre 15°C et, pour ce faire, des éléments autres que les GES, qui augmentent l'effet de serre.

 

Vous aurez bien sûr reconnus les excellents candidats que sont les nuages.

 

 

Après cette longue introduction, je vous propose la lecture d'un article très récent paru dans "climate of the past"

 

Il s'agit de : "clouds and the faint young sun paradox" de Goldblatt et Zahnle publié le 10 juin 2010.

 

Les auteurs examinent certaines hypothèses (dont certaines d'entre elles ont été émises par des sceptiques très connus) concernant des variations supposées des nuages, en quantité et qualité, lors du Néo archéen, par rapport à l'actuelle.

J'ai personnellement trouvé cet article très intéressant car, s'il ne répond évidemment pas de manière définitive à la question, il donne des pistes pour juger de la vraisemblance des hypothèses et apporte de vraies informations sur un tas d'autres sujets.

 

Je ne vais pas vous en faire un résumé exhaustif, mais vous brosser les grands traits des conclusions auxquelles il aboutit.

 

 

le déficit de forçage radiatif

 

si les GES ne sont pas présents, le déficit en forçage , à combler donc par d'autres acteurs, est de 50 W/m2.

 

 

l'albédo de surface

 

Là, je dois dire que j'ai pas mal appris car je n'avais pas conscience du fait que, lors des temps très anciens, la Terre était très proche du "waterworld" cher à nos écrivains de SF.

 

En effet, les continents ne sont pas apparus subitement, comme ça, d'un seul coup mais se sont extraits progressivement du manteau et de l'océan.

 

Au début de l'Archéen, il y a 3.8 milliards d'années, les continents n'occupaient que 5% de leur surface actuelle et lors du néo archéen, objet de l'article, entre 20 et 60%.

 

L'albédo actuel de surface est estimé à 0.124 par les auteurs.

 

C'est la moyenne pondérée des surfaces de l'albédo des océans (0.090) et de l'albédo des terres (0.214).

On peut ainsi avoir une idée de l'albédo du Néo archéen et donc du forçage que ça représentait soit 4.8W/m2.

De plus l'humidité, du fait de l'absence de terres, aurait pu être plus élevée et ajouter un forçage complémentaire.

Mais on est loin du compte toutefois.

 

 

 

venons en aux nuages

 

 

les auteurs explorent les effets d'une large gamme de nuages.

 

Les nuages les plus influents, comme nous l'avons vu dans l'article précédent  , sont les nuages bas, à fort pouvoir refroidissant, et les nuages très hauts, à fort pouvoir réchauffant.

 

Les stratus

 

Ce qui fait le pouvoir refroidissant des nuages bas, c'est leur fort pouvoir réfléchissant et leur faible effet de serre.

Le pouvoir réfléchissant provient de la taille et du nombre des micro gouttelettes qui composent le nuage.

Et ce qui joue, entre autres, sur la taille des micro gouttelettes, ce sont les aérosols qui jouent le rôle de noyaux de condensation (CCN).

S'il y a peu de CCN les gouttelettes sont plus grosses, il pleut  plus et les stratus sont plus minces tant optiquement qu'en contenu d'eau.

 

Dans ce cas, ils laissent d'avantage passer la lumière vers la surface et refroidissent moins.

 

Rosing et al (2010) ont proposé qu'il y avait moins de CCN à cette époque étant donné que les émissions de DMS (diméthyl sulfide) auraient été plus faibles.

Ceci repose sur une hypothèse dont on est loin d'être sûr, car le DMS qui est émis par certains êtres vivants n'est pas la seule substance qui fournit l'acide sulfurique en tant que CCN.

 

D'autre part les tailles de gouttelettes envisagées par Rosing (jusqu'à 30 microns) sont sans commune mesure avec les tailles maximales des gouttelettes trouvées dans les régions actuelles très pauvres en DMS, comme l'océan austral.

 

Notons d'ailleurs que les stratus sont très abondants actuellement dans l'océan austral.

 

Il n'y a donc pas de raison valable de supputer que les stratus étaient moins nombreux et moins efficaces que maintenant.

De plus, le fait qu'il y ait moins de terres, donc moins de CCN, n'est pas synonyme loin s'en faut de moins de nuages.

Il y a plus de nuages dans l'hémisphère sud (85% d'eau environ) que dans l'hémisphère nord (55% d'eau environ).

 

sol jeune répartition nuages

 

Il n'y a donc pas de raison valable de considérer que les stratus puissent expliquer une part significative, ou même sensible, du déficit.

 

 

 

Les cirrus


 

Ce qui fait le pouvoir réchauffant des cirrus, c'est leur très faible albédo pour un effet de serre important.

 

L'effet réchauffant global des cirrus dépend donc de la surface couverte et de leur émissivité.

 

Les auteurs calculent qu'avec une épaisseur 3.5 fois plus grande que l'actuelle et avec une couverture de 100% de la surface, on arriverait à 25W/m2.

 

Si on suppose en plus qu'ils sont plus hauts et atteignent la pression très faible de 100hPa, on arrive à 50 W/m2.

 

 

Rondanelli et Lindzen (2010) ont proposé que la couverture totale du ciel par les cirrus pouvait expliquer l'énigme du soleil jeune.

 

C'est encore une fois le fameux effet d'iris de Lindzen qui sert de base à la démonstration.

 

En effet, selon notre sceptique préféré, notre planète possède un merveilleux iris qui s'ouvre quand il fait plus chaud et qui se ferme quand il fait plus froid.

 

Cet iris ce sont les cirrus.

 

La théorie de Lindzen s'appliquait auparavant aux cirrus tropicaux mais là ça s'étend à l'ensemble de la planète.

 

Il n'est pas justifié, et à mon sens peu plausible, que, dans un monde plus froid les cirrus non seulement couvrent toute la planète, mais aussi sont plus hauts et plus épais.

 

Rappelons aussi que l'effet d'iris n’a pas reçu confirmation de son existence.

 

De plus, si on calcule l'effet de la couverture totale par des cirrus plus épais et plus froids on aboutit à un monde où la température est au moins égale à la température actuelle.

 

Donc l'effet d'iris, en supposant qu'il soit exact, n'aurait aucune raison de fonctionner d'une façon différente de l'actuelle puisque la température serait la même.

Ce qui voudrait dire, in fine, moins de cirrus et donc une température plus froide...

on ne s'en sort plus..

c'est un paradoxe dans le paradoxe.

 

Ou alors il faudrait supposer que l'iris soit un thermostat réglé à 15°C, ce qui ne tient évidemment pas étant donné ce que l'on sait des températures des périodes glaciaires par exemple, où la température était nettement plus basse que l'actuelle.

La question subsidiaire, à poser au sceptique Lindzen, c'est:

Pourquoi donc l'iris n'a pas fonctionné lors des périodes glaciaires pour empêcher la température globale de chuter de 5 à 6°C?

Etant donné que les "théories" de Lindzen, ainsi que celles de la "science" sceptique n'ont pas d'autre but que de contrer systématiquement tout ce qui peut concerner l'effet du CO2, en niant et en falsifiant l'évidence scientifique, on ne risque pas d'avoir une réponse rapide...

 

 

 

En conclusion, il n'y a pas d'explication valable, hors GES, à l'énigme du soleil jeune.

 

Les hypothèses alternatives n'aboutissent, au mieux, qu'à un léger comblement du déficit de 50W/m2.

 

On peut  retenir, éventuellement, un effet d'albédo de surface permettant de combler environ 10% du déficit, mais les hypothèses sur les nuages ne semblent pas réalistes.

 

Tout ceci renforce encore le rôle indubitablement très important des gaz à effet de serre, non seulement dans le passé, mais aussi dans le réchauffement actuel.

Partager cet article
Repost0
16 février 2010 2 16 /02 /février /2010 11:37

En complément à l'article précédent, il peut être intéressant d'examiner certaines présentations de la série de HadCET (Hadley Central England Temperature) dans d'autres sites, comme celui-ci, par exemple.

 

 

Ce dernier est un site sceptique très connu, très productif (4 à 5 articles/jour surtout en ce moment), très visité, et très commenté (par exemple 945 commentaires sur la seule journée du 14 février 2010!).

Il donne une idée de la vigueur du scepticisme concernant le RCA et a contrario de la mollesse défensive des "réchauffistes" (je n'aime pas ce terme mais c'est celui qui semble s'imposer).

L'opposition internet au scepticisme, en dehors de Realclimate (plutôt très défensif actuellement) et de quelques rares autres, est quasi-inexistante ou alors très généraliste rappelant quelques banalités..

Je ne pense d'ailleurs pas que les scientifiques impliqués dans ce domaine prennent la juste mesure du phénomène sceptique.

 

Enfin bref, c'est leur problème, revenons à cette présentation.

 

En voici le graphe issu de Watts:

 

watts 

 

voici le commentaire de Watts (ou plutôt de son invité la guest star Willis Eschenbach) :

 

"Now, where in that record is there anything which is even slightly abnormal? Where is the anomaly that the entire huge edifice of the AGW hypothesis is designed to elucidate? The longest sustained rise is from about 1680 to 1740. That time period also has the steepest rise. The modern period, on the other hand, is barely above the long-term trend despite urban warming. There is nothing unusual about the modern period in any way."

 

en gros:

 

"Où y a t'il dans ce graphe quelque chose qui est même légèrement anormal?

Où est l'anomalie que l'immense édifice de l'hypothèse du RCA (réchauffement climatique d'origine anthropique est chargée d'élucider?....

La période moderne d'un autre côté est à peine au dessus, en dépit de l'effet urbain, du trend long terme.

Il n'y a rien d'inhabituel en ce qui concerne la période moderne, en aucune façon"

 

Et voilà comment on peut convaincre les bonnes gens.

 

D'aucuns auront vu une différence évidente entre la courbe présentée dans l'article précédent et celle de Watts.

Mais quelle courbe est la vraie?

 

Toutes les deux, mon cher Watson.

 

En effet, en dessous de la bande bleue pâle (un peu fouillis), la courbe noire de Watts, concerne la tendance linéaire sur 25 ans, alors que ma courbe noire concerne la moyenne décennale.

 

Ci dessous la reproduction de la courbe de Watts (c'est toujours assez facile de reproduire les courbes sceptiques) qui représente la tendance linéaire glissante et la courbe de climat-evolution qui représente la moyenne glissante sur 10 ans à partir des mêmes données.

 

watts refait

moy 10 ans

 

Et évidemment la différence est de taille.

 

Pour illustrer un peu mieux le truc, pour ne pas dire le subterfuge, je vais vous montrer une simulation.

 

Voici ci dessous la tendance linéaire sur 25 ans d'un signal de température:

 

 simul tend

 

 

 

Les variations sont très importantes au début puis s'estompent vers la fin.

On pourra se dire, tel Watts : "mais que la situation est devenue calme, pourquoi s'embêter et mobiliser d'énormes moyens pour résoudre la fin de la courbe?"

 

 

Sauf que voici le signal d'origine de la courbe de tendance présentée ci dessus:

 

 

simul signal-copie-1

 

 

 

C'est marrant, non?

 

Y a un "truc"?

 

Bon, accessoirement, l'augmentation de température est de 3°C et n'importe qui de sensé verra qu'il y a quelque chose d'anormal en fin de courbe alors que la courbe du haut permettait de dormir sur ses deux oreilles..


 

 

Mais rassurons nous, les sceptiques peuvent encore remettre en cause la série HadCET elle-même (ils le font avec tout le professionnalisme qu'on leur connaît) et très peu de monde dans ce cas peut vraiment leur apporter la contradiction, si ce n'est les gens du Hadley eux-mêmes.

Or, ils sont évidemment aux abonnés absents en ce moment, à part Phil Jones qui s'épanche assez maladroitement dans les médias actuellement.

Chez nous, les gens de Météo France sont manifestement sur une autre planète...

 

On dira, ce sont des détails que tout cela.

La vraie science poursuit son chemin inexorable, comme la caravane qui passe...

 

Sauf que cette attitude faussement indifférente, qui essaie de se draper dans quelques lambeaux de dignité outragée, pourrait finalement passer pour de l'incompétence réelle, certes concernant des détails, mais n'oublions pas que:

 

"Le Diable est dans les détails"

 

 

Partager cet article
Repost0
14 février 2010 7 14 /02 /février /2010 11:15


frost fair 1683

"frost fair in 1683": foire gelée en 1683, sur la Tamise (wikipedia)

 

 

Certains d'entre vous connaissent sans doute cette célèbre série de températures qui concerne l'Angleterre centrale et qui s'étage de 1659 à 2009.(en 1659 nous étions, mine de rien, sous le règne de Louis XIV et sous la gouvernance de Mazarin, ça date un peu tout de même)

La période couverte, égale à 350 ans, est considérable et sans doute sans équivalent.

 

Ses intérêts sont multiples:

 

-évolution de la température actuelle dans un contexte multicentenaire

-informations climatologiques diverses sur les records, moyennes, etc

-informations sur le Petit Age Glaciaire (1550-1860)

-...

 

Après une simple visualisation et un exposé rapide de la série, nous tenterons ici, de quantifier la corrélation avec les séries modernes de température globale, et, plus loin, nous appliquerons cette corrélation pour tenter une reconstruction de la température globale de 1659 à 2009.

 

 

La série

 

Le lecteur trouvera des informations générales sur cette série ici.

Des informations plus précises sont disponibles dans Manley74.

La série elle-même est disponible gratuitement au Hadley Center.

 

 

Il s'agit donc de la série des températures mensuelles depuis 1659 en Angleterre centrale.

 

on peut tracer la courbe de l'évolution annuelle

fig1-copie-2

 

un examen rapide montre une période froide entre 1670 et 1705 environ, suivie d'une période plutôt chaude culminant en 1733.

 

C'est à partir des années 1980-1990 que le réchauffement actuel se détache réellement du bruit climatologique, du moins dans la période envisagée.

Le réchauffement, dans le cadre du réchauffement global, dans cette région, est donc quelque chose de très récent (20 ans environ).

 

évolution saisonnière

 

 

fig2

 

C'est assez nettement l'hiver qui subit les plus fortes variations, l'écart-type étant de  1.36°C, tandis que les autres saisons sont plus tranquilles avec un écart-type de 0.8-0.9°C.

C'est également l'hiver qui enregistre la plus forte variation linéaire sur la période 0.038°C/décennie, alors que l'été est seulement à 0.009°C/décennie.

 

L'hiver le plus froid est celui de 1684 avec une moyenne de -1.2°C suivi par 1740 (-0.4°C) et 1963 (-0.3°C).

Ceci permet d'avoir une idée de l'importance du PAG du moins au cours de cette période, par rapport, par exemple, à l'hiver rigoureux que certains ont connu en 1963.

 

1963 tamise

Tamise gelée en 1963 (photo windsor lien ci dessus)

 

 

L'été le plus chaud est celui de 1976 avec 17.8°C (année "sécheresse" pour ceux qui se souviennent), devant 1826 (17.6°C) et 1995 (17.4°C).

En moyenne décennale les dernières décennies sont, sans contestation, les plus chaudes, tant annuellement que de façon saisonnière, quoique cela soit vraiment très juste en été.

Voilà un premier examen rapide de la climatologie de la période pour cette région.

Cette climatologie pouvant être étendue sans que cela pose des problèmes excessifs, dans un rayon minimum de 500 km, par exemple pour le nord de la France, la Belgique, la Hollande,etc.

 

 

reconstruction de la température globale

 

Nous allons tenter de produire une reconstruction globale basée sur les valeurs instrumentales de l'Angleterre centrale en utilisant la plus ancienne série de données globales avec la plus ancienne série de données locales.

On notera au passage que ces deux séries émanent toutes deux du Hadley center.

 

la fig3 offre une comparaison visuelle des moyennes sur 20 ans des deux séries sur la période 1850-2009

 

fig3

Le coefficient de corrélation (fig4) est proche de 0.835 ce qui est satisfaisant et permet de tenter une reconstruction sur des bases pas trop farfelues.

 

fig4

 

Nous avons, en effet, un proxy, la température locale en Angleterre centrale, bien corrélé à la température globale sur 150 années.

Ce proxy répond à un critére important, souvent réclamé, qui est celui de reproduire l'augmentation de température récente, après 1960 donc, ce que ne reproduisent pas les proxies traditionnels (cernes d'arbres entre autres).

Ce proxy est certes unique, toutefois, la position de cette région, en plein dans le flux zonal, permet de faire l'hypothèse, pas trop légère à mon sens, d'une bonne réaction au comportement global de l'atmosphère, en tous cas sur une moyenne de 20 ans.

Nous pouvons ainsi reconstruire l'anomalie de température globale (fig5) (on notera que le premier point, 1660, est l'anomalie décennale de la période 1659-1668)

 

fig5

 

D'emblée, il apparaît que la période actuelle est très nettement la plus chaude des 3.5 derniers siècles.

 

On constate, entre 1660 et 1720, un creux très important qui correspond au Petit Age Glaciaire (PAG).

Son amplitude est de l'ordre de -0.5 à -0.6°C si on s'en réfère à 1980.

Notons que cette amplitude est plutôt dans la  partie supérieure de la fourchette des amplitudes habituellement reconstruites pour le PAG.

On peut mettre en perspective l'évolution de la température globale avec la reconstruction (effectuée par l'auteur de ce blog en fonction de Wang 2005) de la TSI (irradiance solaire) et des estimations de l'influence de cette dernière sur la température.

Pour cette dernière estimation nous avons mis les résultats en "direct" sans passer par le modèle et donc nous ne bénéficions pas de l'effet "décalage" que ce dernier implique.

Toutefois la figure 6 montre une corrélation assez claire entre PAG et activité solaire pendant cette période.

 

fig6-copie-1

 

 

conclusion

 

Pour les raisons évoquées ci dessus cette reconstruction n'est sans doute pas beaucoup plus approchée que bien des reconstructions basées sur les variations infimes de certaines caractéristiques de proxies.

Ces caractéristiques, de plus, dépendent d'autres paramètres, ce qui entraîne des traitements statistiques assez poussés pour essayer de dégager, à grand peine et avec beaucoup d'incertitude, une évolution de la température globale en l'absence de mesures instrumentales.

Il suffit de regarder l'évolution des travaux d'un Michael Mann depuis sa crosse de hockey vers quelque chose de beaucoup plus tourmenté, ou l'éventail des reconstructions (de Mann à Moberg par exemple) pour comprendre que beaucoup de chemin reste à faire.

D'après ma connaissance du sujet, certes limitée, la reconstruction des températures pour les 3.5 derniers siècles, présentée ici, est une approche qui peut se défendre, mais qui mériterait certainement d'être validée par les modèles de circulation atmosphérique, afin de rendre plus robuste l'hypothèse de départ.

Toutefois elle ne répond évidemment pas à la question assez cruciale des températures des deux derniers millénaires.

A mon sens, la meilleure réponse, pour le moment, reste la reconstruction par les forçages dont les traces semblent un peu plus précises que les proxies.

On peut éventuellement y ajouter les grands cycles connus (AMO,PDO) pour avoir une idée de ce que pourraient être les amplitudes maximales.

 

Ce sera peut-être pour une prochaine fois...

Partager cet article
Repost0
20 octobre 2009 2 20 /10 /octobre /2009 10:36

(je remercie un lecteur de ce blog qui a attiré mon attention sur cette nouvelle)

 

 

Si l’on sait, très convenablement, estimer la teneur en CO2 atmosphérique de ces 800000 dernières années, par l’analyse du gaz contenu dans les microbulles piégées dans les carottes glaciaires, il semblait jusqu’à maintenant plus difficile de connaître avec une bonne précision les teneurs en CO2 avant cette période.

 

D’après cette news de l'UCLA, les choses sont peut-être entrain de changer sérieusement.

 

Aradhna Tripati et ses collègues ont mis au point une méthode qui consiste à relier la teneur du CO2 atmosphérique avec la mesure du ratio Bore/Calcium d’échantillons d’anciennes algues unicellulaires sédimentées.

Ce n’est pas la première fois que nous entendons parler de la mesure de ce ratio, mais il semble, cette fois, qu’on soit parvenu à une bonne précision (+-14ppm).

Il n’est pas inutile de souligner que les analyses des carottes de glace valident la méthode, sur la période des derniers 800 ka.

Tripati et ses collègues sont ainsi capables de reconstituer le CO2 atmosphérique jusqu’à 20 millions d’années dans le passé, et travaillent pour reculer encore cette limite.

 

une forte corrélation entre CO2 et climat du passé.

 

Le climat global pouvant être reconstitué par les mesures isotopiques ou chimiques (rapport Mg/Ca), les auteurs ont pu établir une forte corrélation entre teneur en CO2 atmosphérique et climat.

 

“Pendant le milieu du Miocène (entre 14 et 20 Ma) les niveaux de CO2 étaient d’environ 400ppm, ce qui est à peu près ce que nous avons aujourd’hui et globalement les températures étaient de 3 à 6°C plus élevées que maintenant, un écart énorme ».


Les relations entre CO2 et niveau des océans, sont exprimées de façon un peu confuse dans la news.

On y parle en effet d’élévation de ce niveau pendant le Miocène, alors que dans l'abstract, on parle d’un niveau des océans de 25 à 40m plus élevé que l’actuel.

Il faudrait lire l'intégralité de l'étude  de Tripati et al.

On notera la synchronisation entre les baisses de teneur en CO2 et les épisodes majeurs d’expansion glaciaire pendant le mi-Miocène (14-10 Ma) et la fin du Pliocène (3.3 à 2.4Ma).

 

 

rapprochement avec la situation actuelle

 

 

le graphe associé à la news permet de bien se représenter les teneurs en CO2 de différentes périodes :

 

- les 1000 dernières années

- la période actuelle

- les projections suivant les différents scénarios

- les périodes glaciaires récentes (800 ka) : trait vertical bleu

- le Miocène (20-15Ma) : trait vertical rouge

 

Ce dernier s’étage de 380 à 500 ppm environ, pour, donc, une température de 3 à 6°C plus élevée que l’actuelle (on suppose donc que ce n’est pas par rapport à la température préindustrielle).

 

Comment expliquer une telle différence ?

 

Tout d’abord, comme nous l’avons déjà vu ici, nous bénéficions de l’effet parasol des aérosols anthropiques, ce qui n'était pas le cas au Miocène.

Cet effet réduit de 40% environ, l'effet des GES anthropiques, et comme l’élévation de température relative à ces derniers est de l’ordre de 0.7°C, depuis le préindus, on peut considérer que 0.5°C manquent à l’appel.

De même, la chaleur prise par les océans, est responsable d’un manque d'environ 0.4°C et de 0.7°C si on considère l’absence, virtuelle, d’aérosols.

Ceci pour une teneur moyenne, depuis 1950, de l’ordre de 340 ppm, soit 100ppm de moins que la teneur moyenne du Miocène où le delta de température par rapport à l’actuelle est de 4.5°C environ.

Si on suppose qu’une élévation moyenne de 280 ppm à 340 ppm est responsable de 1.5 à 2°C potentiels (il faut aussi tenir compte des autres GES), une élévation de 340ppm à 440 ppm devrait provoquer une augmentation comparable par rapport à l’actuelle potentielle.

Il s’agit bien sûr de calculs à « coups de serpe » donc très imprécis, mais les auteurs indiquant plus du double, il faut certainement chercher du côté des sols (végétation notamment) et surtout de la cryosphère.

En effet, un monde sans glace (Antarctique et Groenland presque vierges de glaces permanentes) et avec des couvertures de neige moins fréquentes en hiver et à plus hautes latitudes, ainsi que l’absence de banquises de mer, jouent un rôle certainement non négligeable par effet d’albédo notamment.

 

PS: si on tient compte d'un CO2 pendant le Miocène de 440 ppm, ceci correspond à un forçage de 2.4W/m2, soit, si on utilise une sensibilité de 0.8°Cm2/W, une augmentation de température de 1.9°C par rapport au préindustriel.

l'augmentation en 2009 est de l'ordre de 0.8°C par rapport à ce préindus ce qui porte à 1.1°C la différence entre Miocène et maintenant si ne on tient compte que du forçage CO2.

On est assez loin des 4.5°C de différence et il faudrait un forçage de 3.4°C/0.8 = 4.3W/m2 supplémentaire pour expliquer une telle différence.

La disparition complète des calottes du Groenland et de l'Antarctique provoquerait un forçage positif qu'on peut estimer grossièrement si on suppose une variation d'albédo de l'ordre de 0.5, un flux solaire moyen de l'ordre de 120 W/m2 pour une proportion de le surface terrestre de l'orde de 3.5%.

Ce forçage serait donc de l'ordre de 2.1W/m2.

Restent donc 2.2W/m2 à répartir entre éléments cryosphériques non compris dans la sensibilité classique, les effets de  la végétation et sans doute d'autres éléments à identifier.


Cette nouvelle pourrait paraître assez inquiétante pour notre futur.

Il convient cependant de mentionner que le CO2 émis actuellement ne rencontre pas le même monde que celui du Miocène.

Les puits de carbone étant différents, la teneur en CO2 devrait pouvoir redescendre à des niveaux bien inférieurs à l’actuel, si on arrêtait immédiatement les émissions, et ce, dans des temps relativement faibles par rapport aux époques géologiques envisagées dans l’étude.

Il faut de plus un temps certain pour fondre des calottes type de celle de l’Antarctique, quoique des phénomènes thermomécaniques rapides puissent avoir lieu.

D’un autre côté on ne sait pas quels seront exactement les niveaux atteints par le CO2 dans un futur proche, quoique l’on puisse estimer probables ou possibles des teneurs nettement au dessus de celles du Miocène (600 ppm par exemple)

Donc difficile de se faire une opinion tranchée sur les températures de ce siècle et des suivants à partir de cette étude.

 

Mais il semble se confirmer que les niveaux atteints par le CO2 actuellement (ou dans quelques décennies) soient parmi les plus élevés depuis 15 à 20 Ma (les plus élevés depuis 14Ma) et que les conséquences sur le climat de telles teneurs, dans les circonstances mentionnées différentes des circonstances actuelles, soient très importantes.

 

 

PS2: comme il était suggéré plus haut, une bonne partie du CO2 anthropique devrait être absorbée relativement rapidement par le milieu.

Il y a plusieurs réservoirs ou puits de CO2 qui réagissent avec des constantes de temps très différentes, mais on peut estimer qu'il resterait, au bout de plusieurs milliers d'années, un CO2 résiduel de l'ordre de 25% du CO2 émis.

On peut se demander par conséquent, le pourquoi de teneurs nettement supérieures au CO2 actuel pendant des millions d'années.

Autrement dit, pourquoi le milieu est-il capable d'absorber, rapidement, du CO2, et pas au Miocène?

La réponse à cette question est sans doute très complexe, mais ne pourrait-elle pas résider, en partie, dans le fait qu'à ces époques lointaines, la température était beaucoup plus élevée que maintenant.

Ceci serait plutôt "gênant" pour la réaction de notre système futur aux émissions de C anthropique car ceci voudrait dire des concentrations en CO2 plus élevées que celles obtenues avec les puits tels qu'ils fonctionnent actuellement.

Autrement dit ce serait un indice d'une possibilié de rétroaction positive du cycle du carbone.

 

 

 

Partager cet article
Repost0
11 février 2009 3 11 /02 /février /2009 12:16


Curieux mais pourtant bien intéressant article paru dans le dernier Nature.

 


contexte


Pendant des  périodes passées très chaudes comme lors du PETM  (Paleocene-Eocene Thermal Maximum), les zones polaires et en particulier la zone arctique semblent avoir subi des températures de plusieurs dizaines de degrés supérieures aux températures d'aujourd'hui.

Les fossiles de reptiles comme des crocodiles, trouvés dans ces zones, l'attestent.

Par contre, jusqu'à maintenant, les températures des zones tropicales semblaient, d'après certains proxies (paléo indicateurs du climat), n'avoir que  peu augmenté.


Les modèles climatiques standard indiquent que des températures, des hautes latitudes, aussi élevées, sont incompatibles avec des températures tropicales quasiment identiques à celles d'aujourd'hui.

C'est principalement une question de gradient thermique méridional sur laquelle nous reviendrons plus tard.

 



découverte d'un boa géant

 


Les auteurs ont découvert, en Colombie, un boa géant fossilisé, datant de 58 à 60 Ma, dont ils ont estimé la longueur à 13 m et le poids à 1135kg.

Ces dimensions en font le plus grand et plus lourd spécimen de serpent, jamais découvert sur Terre.

Se basant sur le fait que ces animaux sont des poïkilothermes , et que leur taille augmente avec la température, les auteurs établissent que les températures des zones tropicales auraient été de fait, supérieures aux anciennes estimations, basées sur la flore, de 6 à 8°C.


Des températures tropicales de 10°C plus chaudes, par rapport à maintenant, ne seraient donc pas à exclure, ce qui serait bien d'avantage en conformité avec les modèles qui ne peuvent rendre compatibles un Arctique présentant une anomalie de 30°C, et des zones tropicales dont les températures augmenteraient de 2°C seulement.


Bien sûr tout ceci est à prendre avec des pincettes, mais cela m'a semblé intéressant pour introduire le problème du gradient thermique méridional, sujet de futurs articles.

D'un autre côté, des températures aussi importantes sembleraient témoigner d'une résistance générale de la faune et de la flore plus élevée qu'on ne le pensait...


Partager cet article
Repost0
3 octobre 2008 5 03 /10 /octobre /2008 12:24
Avant de vous quitter pour une semaine, un petit peu de paléoclimatologie.

 

Si l'on excepte les glaciations très anciennes, comme celles, par exemple, qui ont eu lieu au  Néoprotérozoïque , de -850 à -630 Ma, où la Terre aurait été très proche de la "boule de neige" (snowball Earth), on pensait généralement que, si les glaciations "récentes" avaient affecté le continent antarctique vers -35Ma environ, elles n'avaient concerné l'HN qu'à partir de -3Ma.

Etant donnée que la cause évidente de ce passage à l'état "icehouse" (je laisse traduire en français) était la baisse de la teneur en CO2, je me suis toujours demandé pourquoi des teneurs comparables en CO2 il y a 30Ma et il y a 3Ma, avaient des effets différents sur les glaciations de l'HN.

 

J'avais posé la question à Gavin Schmidt sur Realclimate:

 

"Hi Gavin

I have a problem of understanding for the Lunt et al 2008 paper.

When they write:

"suggest Eocene atmospheric CO2 of the order of 1,000 p.p.m.v., falling to levels as low as 200 p.p.m.v. in the Middle Miocene,"

Why could Greenland avoid a glaciation when the CO2 was only 200ppm?

For them, in the Pliocene, the fall from 400 to 280 ppm was sufficient and a fall from 1000 ppm to 200ppm in the Miocene was not?
(I believe it was sufficient for Antarctica glaciation)

can you explain me?

[Response: Fair point - I don't really know. However, judging from figure 6.1 in the IPCC report, it's clear that the estimates for CO2 through the Cenozoic prior to the ice core records (including the Pliocene and Miocene) are pretty uncertain. - gavin]"

 

 

Cette étude parue dans le dernier Nature, apporte des éléments nouveaux qui permettent de comprendre un peu mieux la différence de comportement entre Arctique et Antarctique.

 

en voici l'abstract:

 

Thresholds for Cenozoic bipolar glaciation

Robert M. DeConto1, David Pollard2, Paul A. Wilson3, Heiko Pälike3, Caroline H. Lear4 & Mark Pagani5

  1. Department of Geosciences, University of Massachusetts, Amherst, Massachusetts 01003, USA
  2. Earth and Environmental Systems Institute, Pennsylvania State University, University Park, Pennsylvania 16802, USA
  3. National Oceanography Centre, University of Southampton, Southampton SO14 3ZH, UK
  4. School of Earth and Ocean Sciences, Cardiff University, Cardiff CF10 3YE, UK
  5. Department of Geology and Geophysics, Yale University, New Haven, Connecticut 06520, USA

Correspondence to: Robert M. DeConto1 Correspondence and requests for materials should be addressed to R.M.D. (Email: deconto@geo.umass.edu).

 

traduction

 

L'historique glaciaire de la Terre du Cénozoïque montre une glaciation de l'Antarctique, pendant l'Oligocène inférieur (-33.6Ma), suivie par le début des cycles glaciaires de l'hémisphère nord, environ 31 Ma plus tard.

Le pivot de l'évènement de l'Oligocène inférieur est caractérisé par une montée rapide de la concentration en isotope de l'oxygène (évènement Oi-1) de 1.5 pour mille dans les foraminifères benthiques du fond des océans en quelques centaines de milliers d'années.

L'absence de refroidissement simultané détecté dans les enregistrements de Mg/Ca profonds, toutefois, a pu servir d'argument pour dire que la glace formée à cette époque n'aurait pu être contenue sur le seul Antarctique; ceci, combiné au fait de l'évidence d'un refroidissement continental et de débris glaciaires dans l'hémisphère nord, augmenterait la possibilité que le Oi-1, représente le précurseur d'une glaciation bi-polaire.


Ici, nous testons cette hypothèse en utilisant un modèle climatique global intégrant les inlandsis qui utilise à la fois la baisse à long terme de la teneur en CO2 et les effets du forçage orbital.

Nous montrons que la concentration minimale en CO2, à laquelle peut se produire une glaciation de l'Arctique, soit 280 ppm, est beaucoup plus basse que pour l'Antarctique (750 ppm).

C'est pourquoi, une croissance des inlandsis dans l'HN, suivant immédiatement la glaciation antarctique aurait requis une rapide baisse du CO2 à des niveaux inférieurs à ceux relevés par les proxies et les modèles de cycle du carbone.

A la place d'une glaciation bipolaire, nous trouvons que le Oi-1 est mieux expliqué par la croissance de l'inlandsis antarctique seul, combiné avec un refroidissement de l'océan profond et un inlandsis, moins modifié isotopiquement, que précédemment suggéré.

Les proxies de CO2 restent au dessus du seuil de 280ppm précédemment dterminé, jusqu'à -25Ma , mais ont été proches ou en dessous, depuis cette époque.

Ceci implique que des épisodes de glaciation dans l'HN ont été possibles 20 Ma plus tôt que précédemment admis (bien que encore plus tard que Oi-1) et pourraient expliquer une certaine variabilité dans les enregistrements de niveau de la mer du Miocène.

 

Cette étude, très importante, à mon sens, permet d'une part d'expliquer les différences de comportement "glaciaire" entre Arctique et Antarctique, et d'autre part de mettre en évidence, une fois de plus, le rôle primordial du CO2 dans le climat du passé.

 

Pour se répérer un peu dans le maquis des époques géologiques:

(extrait de Wikipedia)

Partager cet article
Repost0