Overblog
Suivre ce blog Administration + Créer mon blog
30 septembre 2013 1 30 /09 /septembre /2013 17:31

Je ne fais plus guère d'articles ni ne lis beaucoup de publications et, rassurez-vous, mes activités actuelles ne vont pas me permettre de m'y remettre comme un fou.

Néanmoins, comme çà mousse depuis quelques semaines au sujet du nouveau rapport du GIEC, j'ai regardé quelques sites spécialisés dans le climat, à savoir un des tous premiers d'entre eux, Realclimate.

Il s'agissait de cet article  "paleoclimate: the end of Holocene" .

Je ne l'ai parcouru que très distraitement (trop peut-être) mais je suis tombé sur un graphe qui m'a particulièrement interpelé.

 

recons 30092013

 

Il s'agit du raccordement/juxtaposition de plusieurs reconstructions/observations/simulations qui émane de ce site.

J'y ai ajouté quelques repères permettant d'estimer grossièrement le delta de température entre le LGM (Last Glacial Maximum) vers -20000 ans BC, période, si je ne me trompe pas, théoriquement la plus froide de la dernière période glaciaire, et la période préindustrielle qu'on peut situer au début de la courbe rouge (HadCRUT4) vers 1850.(en fait on situe habituellement cette époque préindustrielle vers 1750-1800 quelque chose comme çà mais çà n'a guère d'importance).

Cette différence est estimée à 2.9°C, je dirais, seulement.

En principe, on le prend avec ironie ou sérieux, il n'y a pas lieu de suspecter ce graphe d'être un fake puisqu'il est utilisé par des scientifiques non réputés sceptiques, des scientifiques du consensus comme on dit.

Bon, voilà pour le premier terme qui va nous permettre de calculer une sensibilité climatique.

Je dis "une" parce que si je dis "la" je vais encore me faire traiter, aimablement, de "puant".

La sensibilité climatique c'est la réponse de la température à un forçage normalisé qui correspond à un doublement de la teneur en CO2 de l'atmosphère soit 3.7W/m2.

Il nous reste donc à connaître une estimation du forçage entre le LGM et l'époque préindustrielle.

Et là on ne peut mieux choisir que le rapport du GIEC, l'AR4 car nous n'avons pas l'AR5 définitif.

 

Que dit ce rapport au "9.2.1.3 Radiative Forcing of Pre-Industrial Climate Change"?

 

je cite:

 

" Insolation at the time of the LGM (21 ka) was similar to today. Nonetheless, the LGM climate remained cold due to the presence of large ice sheets in the Northern Hemisphere (Peltier, 1994, 2004) and reduced atmospheric CO2 concentration (185 ppm according to recent ice core estimates, see Monnin et al., 2001). Most modelling studies of this period do not treat ice sheet extent and elevation or CO2 concentration prognostically, but specify them as boundary conditions. The LGM radiative forcing from the reduced atmospheric concentrations of well-mixed greenhouse gases is likely to have been about –2.8 W m–2 (see Figure 6.5). Ice sheet albedo forcing is estimated to have caused a global mean forcing of about –3.2 W m–2 (based on a range of several LGM simulations) and radiative forcing from increased atmospheric aerosols (primarily dust and vegetation) is estimated to have been about –1 W m–2 each. Therefore, the total annual and global mean radiative forcing during the LGM is likely to have been approximately –8 W m–2 relative to 1750, with large seasonal and geographical variations and significant uncertainties (see Section 6.4.1)."

 

Vous avez bien lu, le forçage estimé est de -8W/m2.

 

Ou de +8W/m2 dans l'autre sens, si on veut.

 

Alors quelle sensibilité çà nous fait, çà?

 

Eh bien c'est très facile à calculer:

 

sensibilité = delta T /forçage * 3.7W/m2 = 2.9°C/8W/m2*3.7W/m2 = 1.34°C.

 

Les échelles de temps étant suffisamment grandes pour qu'on estime être à l'équilibre, il s'agit bien d'une sensibilité à l'équilibre et pas d'une transitoire.

 

Une sensibilité très faible donc en rapport avec mes propres estimations exposées dans l'article précédent.

J'ai utilisé pour ce faire des documents exclusivement issus de sites et d'organismes non-sceptiques.

 

A moins que j'ai fait moi-même une erreur, c'est toujours possible, mais si ce n'est pas le cas, est-ce que les scientifiques du consensus se rendent comptent, de temps en temps, de leurs incohérences?

 

 

 

 

Partager cet article
Repost0
20 octobre 2012 6 20 /10 /octobre /2012 13:57

 

 

 

De nombreux auteurs ont écrit récemment pour démontrer, de façon statistique, le lien entre le réchauffement climatique et des records de température maximale sans cesse battus au cours de la dernière décennie alors que les records de froid l'étaient de moins en moins.

(Cette dernière assertion étant importante pour contrer les arguments sceptiques indiquant que les records sont faits, de toute façon, pour être battus.)

 

Citons Hansen et al 2012, par exemple, et son graphique de distribution des anomalies de température, en fonction de la période.

 

hansen1

 

On constate que la probabilité d'occurrence de températures élevées augmente avec le réchauffement global.

 

Il n'y a cependant pas, à ma connaissance en tout cas, de preuve, autre que statistique, que le RC influe de cette façon.

 

Des auteurs comme Trenberth estiment que les modèles, actuellement peu performants pour simuler les extrêmes, ne peuvent donc être utilisés à cet usage.

Et sans modèle, évidemment, il est quasiment exclu de quantifier les parts relatives de la variabilité climatique et du réchauffement climatique dans les valeurs des anomalies de température extrêmes.

 

 

essai de modélisation sur climat-evolution

 

Nous allons tenter de modéliser, de façon très simplifiée, ce qui détermine la température sur une zone quelconque.

Il suffit d'observer les processus qui mènent à certaines vagues de chaleur ou de froid, pour comprendre que les phénomènes d'advection thermique entre zones jouent un rôle considérable.

Par exemple la vague de froid célèbre de février 1956 avec advection d'air froid sur l'Europe occidentale:

 

02021956 gfs

 

 

ou la vague de chaleur d'août 2003 avec advection d'air tropical:

 

 

080803 gfs

 

 

Une zone donnée se réchauffe suite au RC, mais continue à  échanger de la chaleur avec ses voisines qui elles aussi se réchauffent, suivant le schéma ci-dessous:

 

schéma

 

 

 

On peut donc modéliser de façon très simple l'évolution de la température en simulant des échanges aléatoires entre les zones (flèches noires sur le schéma)

 

Voici ce que çà donne pour un réchauffement global nul et pour un réchauffement global non nul de 0.2°C/décennie (les unités de temps sont en 1/1000ème de décennie soit de l'ordre de 4 jours)

 

graphe1

 

Très clairement les températures extrêmes maximales augmentent fortement en cas de réchauffement.

L'écart-type augmente également fortement en quadruplant, quasiment.

 

graphe1b

 

 

 

La déclinaison des résultats en terme de distributions, à l'instar du graphique de Hansen, donne la même évolution que ce dernier.

 

 

graphe2

 

 

A savoir, un décalage vers les anomalies élevées et un aplatissement de la courbe de distribution.

Ce décalage est supérieur à l'augmentation de température globale.

Si on passe de 0.8°C à 2°C de réchauffement global, soit 1.2°C d'augmentation, la température extrême atteinte, dans les hypothèses retenues pour la simulation, passe de 2°C à 3.7°C soit 1.7°C d'augmentation.

 

 

 

conclusion

 

 

Bien entendu il s'agit d'un modèle très simplifié exploitant quelques processus simples de la physique climatique, notamment l'advection, mais générés de façon aléatoire et non par modèle complexe.

Il peut être critiqué par exemple dans la mesure où la mécanique de l'advection ne change pas avec le réchauffement global.

De plus la durée des évènements extrêmes n'étant absolument pas simulée bien des phénomènes amplificateurs, comme la diminution de l'humidité des sols, n'y figurent évidemment pas.

 

Mais il soulève à mes yeux une notion peut-être importante qui permet d'assimiler, du moins en partie, les extrêmes climatiques à des concentrations de chaleur, en certains points.

Le réchauffement global, au travers de la variabilité climatique, subit le même processus de concentration.

La chaleur concentrée peut être de la chaleur sensible, donnant des vagues de chaleur, mais peut être aussi de la chaleur latente (vapeur d'eau) donnant des tempêtes ou des épisodes de pluie violents.

Partager cet article
Repost0
2 août 2012 4 02 /08 /août /2012 18:34

 

 

 

La plupart des modèles  indiquent que lors d'un réchauffement (refroidissement) global, la température des terres est "esclave" de la température des océans.

Si dans un modèle on fixe la température des océans, la température des terres ne varie quasiment pas comme l'indique cette figure (voir dans Isaac Held's blog ).

 

sst fixes

 

Lorsqu'on "libère" les océans la température des terres suit la température de ces derniers mais avec un écart important comme le montre la carte ci-dessous au bout de 580-600 ans après 2*CO2:

 

sst libres

 

Comme l'indique Sutton et al 2007 (d'autres publications donnent des résultats similaires) le rapport entre anomalie des terres et des océans est de 1.51 +-0.13 suivant les modèles et de 1.54 +-0.09 suivant les observations.

Ce rapport ne semble pas bouger pendant tout le réchauffement y compris à l'équilibre.

 

Les causes de ce phénomène sont à rechercher dans la circulation atmosphérique et ses échanges d'énergie induits entre terres et océans.

 

Pour tenir compte de ce couplage nous allons modifier quelque peu le modèle maison de climat-evolution en adoptant le schéma de couplage suivant:

 

 

schéma couplage

 

 

 

dans ce schéma les terres ne se réchauffent pas de façon indépendante mais bien grâce au flux océanique.

 

 

on modifie l'équation de base en écrivant:

 

 

équation de base

 

FR = forçage (W/m2)

m = masse couche superficielle océan (kg)

c = capacité calorifique de l'eau liquide = 4186J/°C.kg

surf = surface (m2)

T = variation de température océan (°C)

Tland = variation de température terres (°C)

q = flux transféré vers couches océaniques de sub-surface (W/m2)

S = coefficient de sensibilité climatique (°C.m2/kg)

 

S est supposée constant entre océans et terres

 

 

si on pose:

 

Tland = ratio*T

 

et

 

frac = surf land/surf oc

 

 

l'équation devient:

 

équation de base2

 

C'est cette équation qui sera utilisée par itération notamment dans cet article.

Partager cet article
Repost0
19 février 2012 7 19 /02 /février /2012 17:37

 

 

 

Ainsi que nous l'avons vu plusieurs fois, on assiste, depuis une décennie environ, à la stabilisation de la température moyenne de surface.

 

Pour expliquer cette stabilisation, en restant déterministe et dans le consensus, il y a deux possibilités évidentes:

 

- l'augmentation du flux de chaleur captée par l'océan profond (hypothèse océanique)

- la diminution du forçage TOA (hypothèse forçage)

 

Bien qu'il existe peut-être d'autres possibilités plus ou moins exotiques ou plus ou moins complexes, je me limiterai à ces deux là.

 

hypothèse océanique

 

données de chaleur océanique

 

Je me réfère à la plus récente étude à ce sujet à savoir Loeb 2012, ainsi qu'aux données 0-2000m de Levitus

 

Selon Loeb 2012, de janvier 2001 à décembre 2010, le flux de chaleur moyen a été de 0.50+-0.43W/m2 sur l'ensemble de la surface terrestre.

Ceci correspond, pour la valeur médiane, et si on néglige les termes glace, atmosphère et terres à 0.7W par m2 de surface océanique.

Comme j'utilise un logiciel qui fonctionne sur une aqua planète, c'est ce chiffre de 0.7W/m2 qui sera utilisé.

 

Les données de Levitus  sont très proches pour la période 2001-2010 puisqu'on obtient 0.60W/m2.

Pour la période 1964-2000, le flux de chaleur est de 0.46W/m2.

D'après Levitus, il y a bien augmentation du flux vers les années 2000.

 

levitus

 

forçage et sensibilités utilisés

 

Je calcule une variation de forçage telle que la variation des SST soit égale à la variation observée de 1964 à 2003 soit 0.115°C/décennie.

Cette variation de forçage correspond quasiment à une allure de doublement de la teneur en CO2 en 110 ans et à un forçage de 1.4W/m2 en 2005, soit largement dans les clous de la fourchette GIEC présentée dans l'AR4 (1.6+-1.0W/m2).

Ces données et calculs sont choisies et réalisés pour ne pas être trop éloigné des observations et estimations de forçage.

Toutefois, c'est plutôt sur le principe qu'il faut regarder les résultats.

 

sensibilité : 0.8K.m2/W

 

flux de chaleur océanique calculé

 

On considère la période 1964-2010 tout d'abord sans stabilisation des températures.

 

 

graphe1

 

Le flux océanique moyen calculé, entre 1964 et 2000, est de 0.38W/m2 assez proche des 0.46W/m2 de Levitus, mais le flux moyen entre 2001 et 2010 est de 0.77W/m2 pour un flux moyen Levitus de 0.60W/m2 et selon Loeb 2012 de 0.70W/m2.

Le flux trouvé par simulation est donc plus fort que la valeur médiane observée mais dans le domaine d'incertitude toutefois.

Rappelons que les SST augmentent "normalement" dans la période.

 

voyons maintenant ce que donne ce même flux avec stabilisation des températures par modification interne du transfert océanique

 

 

graphe2

 

si on veut stabiliser les températures à partir de 2001, il faut  augmenter le transfert océanique interne à partir de 2001, pour atteindre 0.84W/m2 en moyenne sur 2001-2010.

Ce dernier chiffre est toujours dans le domaine d'incertitude de Loeb 2012.

 

Cette hypothèse de stabilisation des températures par augmentation interne du transfert de chaleur océanique est donc compatible avec les données Loeb 2012.

 

Le terme "interne" signifie une augmentation du flux non liée au forçage mais dépendant de l'océan lui-même, par exemple si on imagine un mélange mécanique accru.

 

 

 

hypothèse forçage

 

 

Nous appliquons une variation de forçage sans toucher aux échanges océaniques internes.

 

 

graphe3

 

On calcule qu'il faut une forte baisse du forçage (-0.49W/m2) compatible, par exemple, avec la variation de TSI entre un maxi et un mini solaire affectée d'un coefficient d'amplification de 3.

 

Le flux océanique moyen entre 2001 et 2010 baisse à 0.57W/m2 ce qui reste dans le domaine d'incertitude de Loeb 2012.

 

 

conclusion

 

Les flux océaniques obtenus dans les deux hypothèses, variation interne du transfert océanique ou variation du forçage, sont dans le domaine d'incertitude des valeurs de Loeb 2012.

Il n'est pas possible de choisir entr'elles à partir de valeurs aussi imprécises.

Il est d'ailleurs possible qu'on ait un mélange des deux à savoir baisse du forçage et augmentation du transfert interne océanique.

 

Néanmoins, dans les deux cas, malgré une stabilisation de la température de surface (ici les SST mais c'est transposable à la température de surface globale), les deux hypothèses sont compatibles avec l'augmentation continue de la chaleur océanique observée ou estimée.

 

Dans le cas de l'augmentation du transfert océanique, on doit se poser la question de la cause.

En effet, il est à rappeler qu'il y a théoriquement assez de "froid" stocké sur Terre (le froid représentant ici les couches océaniques dont la température est inférieure à la température moyenne de surface et la glace) pour stabiliser la température pendant des durées considérables (1000 à 2000 ans).


Moyennent ce stock de froid considérable, si augmentation du transfert il y a, il est donc impératif d'en comprendre les mécanismes afin d'en prédire leur pérennité.

Les implications pour la température future et les conséquences en général seraient bien moindres si le transfert interne océanique augmentait que si la stabilisation actuelle des températures, comme je le pense, provenait tout simplement de la baisse de l'activité solaire et était donc tout à fait provisoire.

Partager cet article
Repost0
20 octobre 2011 4 20 /10 /octobre /2011 16:08

 

 

 

La combustion de carbone fossile (pétrole, gaz, charbon), du fait des activités humaines, entraîne l'émission de quantités importantes de CO2 dans l'atmosphère.

Les puits de carbone océanique et terrestre absorbent un peu moins de la moitié du CO2 émis annuellement et cette proportion est remarquablement constante.

Néanmoins c'est la pression partielle de CO2 dans l'atmosphère qui pilote l'absorption et, en conséquence, lorsque la pression baisse (en l'absence d'émissions par exemple) l'absorption par les puits diminue jusqu'à zéro suivant leur constante de temps.

In fine c'est du puits terrestre minéral (silicates) que va dépendre la teneur résiduelle en CO2 dans l'atmosphère.

Comme la constante de temps de ce puits est très grande (le puits réagit très lentement) les émissions de CO2 anthropiques passées, actuelles, et futures, laisseront une trace non négligeable pendant des durées très grandes de plusieurs dizaines de millénaires.

 

L'influence climatique du CO2 étant avérée, on peut alors parler d'irréversibilité du changement climatique à des échelles dépassant largement l'échelle historique (5000 ans environ).

 

 

Gillett 2011

 

 

Afin de quantifier cette irréversibilité, du moins pendant le 3ème millénaire, Gillett et al ont, dans Ongoing climate change folowwing a complete cessation of carbon dioxyde emissions, étudié les conséquences d'un arrêt brutal des émissions après un cumul de 500 Gt en 2010 et un cumul de 2200 Gt en 2100.(émissions exprimées en Gt de carbone)

 

Ces cumuls correspondent au scénario A2 caractérisé par une émissions d'une trentaine de Gt/an en 2100.

 

Le cumul en 2100 est compatible avec les estimations des ressources ultimes et les émissions en 2100 correspondent à un taux d'augmentation annuel inférieur à 1.3% inférieur lui-même à celui des 90 années précédentes,  soit 2.5% de 1918 à 2008 en tenant compte du carbone fossile uniquement et pas de celui issu de l'usage des sols (CDIAC).

Mais ceci reste un scénario bien entendu.

 

Nous nous intéresserons ici au scénario arrêt en 2100 (ZE2100) en soulignant quelques points qui semblent importants avec des explications à la fois tirées du texte et personnelle.

 

 

1- la teneur en CO2 baisse d'abord rapidement puis bien plus lentement

 

voir fig 1

 

- c'est la pression partielle en CO2 qui pilote l'absorption par les puits

- la végétation terrestre commence à relarguer du CO2 à partir des températures élevées.

- in fine c'est le puits silicate terrestre qui "règle" la teneur en CO2 dans l'atmosphère

 

2- la température globale reste constante

 

 voir fig 2

 

- La température de surface des océans, driver important de la température globale, se réchauffe suite au forçage et se refroidit par échange avec les couches plus profondes.

En cas de baisse du forçage (relativement modérée puisque le CO2 reste à une valeur bien supérieure à celle de l'équilibre initial) le réchauffement des couches plus profondes diminue le flux de chauffage océanique et permet à la température de surface de ne pas baisser.

 

 

3 - la température de l'océan profond continue à augmenter

 

voir fig 4

 

Le flux de chauffage de l'océan diminue fortement lorsque le forçage baisse mais reste néanmoins positif grâce au relatif maintien de ce forçage.

L'océan profond continue alors de se réchauffer, et, sur 900 ans, son élévation de température atteint 2.6°C à 1400m.

 

 

 

4 - déclinaison régionale de la température après 2100


 

CO2 cess fig3

 

 

Si jusqu'en 2100, l'évolution régionale de la température est "habituelle", l'après 2100 est un peu plus difficile à comprendre.

Les explications des auteurs manquent quelque peu de clarté à ce point de vue.

Par exemple concernant le refroidissement de l'hémisphère nord et en particulier celui des SST de la zone arctique (au dessus de la Scandinavie) après 2100.

Selon les auteurs ce serait le refroidissement plus poussé des terres de la zone arctique qui piloterait ce refroidissement plus intense des SST jouxtant ces zones.

Mais l'étagement des températures figurant sur leur graphe justifierait plutôt l'inverse.

On pourrait plutôt penser à un déplacement de la zone de plongée des eaux profondes plus au sud du Groenland comme ils le suggèrent eux-mêmes.

Le changement le plus significatif, qui saute aux yeux, est la toujours forte augmentation des températures de l'océan austral et de l'Antarctique après l'arrêt des émissions.

Il ne semble pas que ce soit cet arrêt qui en soit à l'origine mais plutôt le fait que les eaux profondes de l'hémisphère nord subissent un upwelling dans l'océan austral.

 

 

5- les précipitations

 

(voir fig 3 ci dessus)

 

L'évolution des précipitations ressemble fortement à ce que nous avons l'habitude de voir dans les modèles, du moins jusqu'en 2100.

 

L'évolution après 2100 suit grossièrement l'évolution des températures mais les explications données par les auteurs notamment lorsqu'ils disent ceci:

 

"Global mean precipitation increases through the ZE2100 simulation, particularly in the first decades after emissions cease (Fig. 2b): such an increase in global mean precipitation is an expected response to decreasing atmospheric CO2 concentration in the presence of constant global mean surface temperatures12,13, because more efficient radiative cooling to space allows a larger latent heat release in the troposphere"

 

 

mériterait d'être un peu plus expliqué car, a priori, la diminution du CO2 devrait faire diminuer le refroidissement radiatif de la troposphère.

 

 

6-niveau des océans


(voir fig 2)

 

Le niveau stérique (du à la température) augmente d'environ 1m jusqu'en l'an 3000.

Les auteurs font cependant l'impasse sur une estimation de l'augmentation du niveau massique (fonte des glaces continentales) ce qu'on peut évidemment comprendre.

Toutefois ils mettent l'accent sur l'importance du très fort réchauffement de l'Antarctique et de l'océan austral dans les processus de fonte de l'inlandsis notamment dans sa partie ouest.

 

 

conclusion

 

Les causes de la déclinaison locale de la température après 2100  semblent quelque peu complexes et difficiles à comprendre au premier abord (voire l'évocation de la cellule de Deacon).

D'autre part, on ne sait pas bien si c'est l'arrêt des émissions ou la continuation des processus suite au réchauffement initial (évolution au cours d'un temps long) qui sont à l'origine des différences régionales constatées.

 

Le plus important reste cependant la mise en évidence d'un certain caractère irréversible du réchauffement puisque la température globale ne change pas pendant 900 ans après l'arrêt des émissions même si elle baisse assez légèrement dans l'hémisphère nord.

 

Dans un prochain article on regardera les résultats du petit modèle climat-evolution appliqué à ce cas et à un autre qui concernera l'exploitation d'une partie conséquente (environ 7000Gt sur un temps beaucoup plus long, 1150 ans) des ressources ultimes estimées, en essayant d'être un peu plus réaliste en ce qui concerne les consommations annuelles.

Partager cet article
Repost0
28 février 2011 1 28 /02 /février /2011 17:24

 

 

 

Une récente publication, résumée et obtenue grâce au site de Libération , permet de comparer les précipitations extrêmes observées (Hadley) à celles simulées par les modèles.

 

Les évènements de précipitations extrêmes étudiés ont une durée de 1j (RX1D) et 5j (RX5D)

 

Les modèles sont répartis en 2 catégories:

 

ANT (pour des modèles qui utilisent uniquement les forçages ANThropiques)

ALL (pour des modèles qui utilisent TOUS les forçages y compris les forçages naturels).

 

Selon cette étude, les modèles sous-estiment les probabilités de précipitations extrêmes, et ceux qui n'utilisent que le forçage anthropique ont le rapport signal/bruit le plus proche des observations.

 

étude 1

 

Les précipitations extrêmes observées sont en augmentation de 1951 à 1999 de façon plus prononcée que les précipitations extrêmes simulées.

 

 

étude 2

 

 

 

Ces résultats sont cependant à considérer avec prudence du fait, notamment, de la grande incertitude sur la valeur du forçage anthropique (aérosols en particulier)

 

Il semble un peu étrange, d'autre part, que l'ajout des forçages naturels  n'apporte  pas d'amélioration.

 

 

 

Dans le cadre de cette étude, qui fait un point intéressant sur les observations, les performances des modèles et qui tente de détecter un signal anthropique, il semble bon de donner quelques pistes très simples sur ce qui lie réchauffement et précipitations.

 

 

Je me suis basé principalement sur cette publication récente de  Kevin Trenberth avec ses références.

 

 

 

Influence du réchauffement sur la teneur en vapeur d'eau de l'atmosphère

 

 

 

La teneur en VE suit, à saturation, la loi de Clausius-Clapeyron (CC) qui lie sa pression partielle à la température T.

 

on a :

 

eq1

 

 

 

L est la chaleur latente de vaporisation, supposée, ici, constante

R, la constante des gaz parfaits

T0 et p0 les température et pression de référence.

 

la forme différentielle étant:

 

eq2

 

dans les conditions atmosphériques moyennes on a:

 

eq3

 

 

La pression partielle de la VE augmente de 7% par °C ou K d'augmentation de température.

 

 

Dans l'atmosphère réelle on n'est pas à saturation du fait du mélange d'air sec et d'air humide.

 

On définit l'humidité relative de l'air par le rapport de la pression partielle réelle de la VE sur la pression de vapeur saturante.

 

on a:

 

eq4-copie-1

 

On fait l'hypothèse, à peu près bien vérifiée par les modèles et les observations, que RH est constant pour une variation de température faible.

 

La pression en vapeur d'eau réelle varie donc de 7% par °C ou K.

 

Autrement dit, l'air contient 7% de plus de vapeur d'eau s'il se réchauffe de 1°C ou K.

 

Cette augmentation, pour un réchauffement de 3K, est donc de 21% ce qui est considérable.

 

 

 

précipitations

 

 

Lorsque l'air humide se refroidit, la vapeur d'eau qu'il contient commence à se condenser quand la température atteint la température de saturation correspondant à sa pression partielle.

 

L'air se refroidit lorsqu'il perd de la chaleur et/ou lorsqu'il s'élève dans l'atmosphère de façon adiabatique, en effectuant un travail contre les forces de pression.

 

Le refroidissement adiabatique est majoritairement responsable de la baisse de  température.

 

Il s'effectue par des mouvements de convection ou par soulèvement de masses d'air humide dans les fronts froids et chauds, par exemple.

 

Il y a alors formation de nuages qui sont des ensembles de micro gouttelettes (ou cristaux de glace) en suspension.

 

Ces micro gouttelettes grossissent s'il y a alimentation  en vapeur d'eau et par coalescence.

 

Lorsqu'elles sont trop grosses pour rester en suspension, il y a précipitation.

 

Lors de la condensation, la vapeur d'eau cède de la chaleur à l'air dont la température baisse alors beaucoup moins qu'en adiabatique sec.

 

Ce phénomène entretient et renforce la convection humide jusqu'à ce que la chaleur dégagée soit insuffisante pour compenser les pertes.

 

 

 

origine  de la vapeur d'eau qui se condense en précipitations

 

 

Une colonne d'atmosphère de 1 m2 contient, du sol à la tropopause, une hauteur type d'eau précipitable de 25 mm.

 

Autrement dit si toute l'eau présente sous forme de vapeur et de nuages précipite on obtient une hauteur d'eau, au sol, de 25 mm.

 

Malgré les précipitations, il reste toujours de l'eau présente dans la colonne et la hauteur d'eau réellement précipitable n'atteint que 30% de cette valeur maximum, soit 7.5 mm.

 

L'intensité des précipitations atteint souvent cette valeur en 1 heure seulement et le taux de précipitation type est de 45 mm/j.(lorsqu'il pleut)

 

Autrement dit, il peut pleuvoir, typiquement, 6 fois la quantité d'eau précipitable, en une seule journée.

 

 

En moyenne, le taux de précipitation est de 2.8 mm/j.( hauteur de précipitation annuelle divisée par 365j)

 

A l'équilibre il n'y a pas de variation du stock d'eau atmosphérique et l'évaporation est égale aux précipitations.

 

Le taux d'évaporation moyen est donc de 2.8 mm/j.

 

L'évaporation est continue et dépendante de l'humidité disponible dans les sols (ce qui n'est pas une limitation pour les océans)

 

 La fréquence moyenne des pluies étant de 7% du temps total l'humidité nécessaire pour alimenter les pluies modérées ou fortes sur une région donnée, ne peut venir directement uniquement de l'évaporation locale mais aussi et surtout de la convergence de l'humidité provenant d'autres régions.

 

On considère qu'il y a un facteur 16 entre les surfaces des régions qui fournissent l'humidité et la surface où cette humidité est utilisée pour les pluies modérées ou fortes.

 

Si une zone de précipitations fait 4 km de diamètre, cas d'un petit orage, la région drainée est de 16km.

Si une zone de précipitations  de la zone barocline (rail des perturbations entre 40 et 60°N par exemple) a un diamètre de 800km, la zone drainée fait 3200km.

 

Ce sont des ordres de grandeur.

 

 

 

détermination de la variation des précipitations avec la température


 

Nous avons vu que le taux d'évaporation et de condensation était, actuellement, de 2.8 mm/j.

 

Ceci correspond à un flux de 76 W/m2.

 

Dans le même temps la surface émet 390 W/m2.

 

Si on suppose les caractéristiques de la circulation atmosphérique peu modifiées par une élévation de température globale faible on suppose que le taux de convection humide par rapport au flux est constant.

 

3K d'augmentation entraînent un flux de 407 W/m2 rayonné par la surface et donc un flux convectif de 76/390*407 = 79.3W/m2

 

soit encore près de 1.5% par K (ou °C)

 

Le chiffre retrouvé par les modèles est de l'ordre de 2%/K soit assez proche du chiffre estimé grossièrement  plus haut.

 

 

 

humidité et précipitation en fonction du réchauffement

 

 

Il est intéressant de rapprocher l'augmentation de teneur en vapeur d'eau de l'atmosphère et le taux d'évaporation et donc de précipitation.

 

On a  7%/K de variation de teneur alors que les précipitations n'augmentent que de 2%/K.

 

Alors, quid du changement de régime de ces précipitations?

 

Nous avons vu plus haut que les précipitations utilisaient l'humidité des zones avoisinantes.

 

Si  cette humidité augmente, la force des précipitations augmente puisque d'avantage d'humidité (du fait des 7%/K) alimente la zone.

 

Le schéma ci-dessous permet de se représenter très simplement, ce processus.

 

zones de précipitation - drainage

 

 

Lorsque les précipitations s'arrêtent, le faible taux d'évaporation supplémentaire entraîne une recharge plus lente de l'atmosphère en humidité.

 

Les précipitations sont donc plus fortes mais moins fréquentes.

 

Si on considère la circulation atmosphérique peu modifiée, les zones où il pleut déjà beaucoup seront des zones où il pleuvra  encore d'avantage, alors que celles affectées par la sécheresse seront encore plus sèches.

 

 

"Les riches seront plus riches et les pauvres plus pauvres"

 

 

 

Suivant cette approche simple il semble logique de considérer que les évènements extrêmes liés à l'humidité sont, effectivement, plus sévères en cas de réchauffement.

Partager cet article
Repost0
10 décembre 2010 5 10 /12 /décembre /2010 13:40

 

...lors des oscillations de l'ENSO et à long terme (voir PS2)

 

 

 

nuages

 

 

 

 

Décidément, Realclimate semble, enfin, renouer avec ses articles passionnants d'avant octobre 2009, avant donc que les sceptiques aient commencé leur offensive anti-Copenhague.

 

 

On aborde ici le toujours très intéressant, et fondamental, problème de la rétroaction des nuages à la suite d'une variation de température interne court terme (et non pas long terme)

 

 

Dessler étudie les nuages lors d'évènements climatiques à forte répercussion, telles les variations de l'ENSO.

 

Je n'ai pas encore eu le temps de regarder avec précision son étude mais les résultats indiquent une rétroaction positive de 0.54+-0.74W/m2 par degré de réchauffement.

 

Dessler n'exclut donc pas une rétroaction légèrement négative de -0.2W/m2 par degré, mais il n'exclut pas non plus une rétroaction, très positive cette fois, de 1.28W/m2 par degré.

 

Inutile de dire qu'avec une telle rétroaction on serait plus près des 4°C de sensibilité que des 3°C, si on pouvait étendre ces résultats au long terme.

 

 

On suivra, en parallèle, le "débat" avec le sceptique, et créationniste, Spencer.

 

Ce dernier prétendant, sans aucune preuve évidemment, que l'ENSO est provoquée par les nuages, alors qu'ils sont, à l'évidence, une rétroaction.

 

 

citons une partie du dialogue entre cet adorateur de la Bible, et Dessler:

 

 

" Spencer: l'ENSO est causée par les nuages. Vous ne pouvez pas déduire la réponse des nuages à la température de surface dans une telle situation.

    Dessler: l'ENSO n'est pas causée par les nuages, mais est entraînée par la dynamique interne du système océan-atmosphère. Les nuages peuvent amplifier le réchauffement, et c'est la rétroaction des nuages que je suis en train de mesurer."

 

 

 

Bref, on retrouve le gap habituel de compétence entre les scientifiques du climat et leurs quelques rares homologues sceptiques.

 

 

On pourra ainsi avoir une notion de l'abîme incommensurable séparant ces mêmes scientifiques de certains qui s'incrustent dans les blogs sceptiques français ou américains.

 

 

 

PS: il est bon d'insister sur le fait qu'extrapoler une rétroaction nuages à un forçage, comme celui résultant du CO2, à partir d'une rétroaction nuages/ENSO, n'est pas évident à prori.

 

 

lire ce que dit Raypierre en réponse à un commentaire, à ce sujet:

 

 

"[Response: What Andrew gets, strictly speaking, is the feedback of clouds on ENSO. For the reasons you point out, there are reasons to doubt that this feedback can be extrapolated to warming caused by CO2 increase. Still, it's one more number you can throw into the pot of estimates of feedbacks. If one is going to estimate cloud feedbacks from ENSO, one ought to at least do it right, and I think Andrew has done this a lot more right than Roy has. We can go into the reasons in a future post. Note also that, as Andrew noted, documenting cloud feedbacks of this sort give you another way of checking the cloud parameterizations in models. Given the large error bars, though, it doesn't help us narrow the estimates of climate sensitivity much, especially at the high end. It is another nail in the coffin of the idea that climate sensitivity is low, since to get low climate sensitivity you need a strong negative cloud feedback, and that is definitively ruled out by the data, to the extent that you can extrapolate from ENSO to CO2. --raypierre]"

 

 

nuages 2

photo college of geosciences ATM

 

 

 

 

PS2: dans ScienceDaily, Andrew Dessler se montre cependant plus clair quant à sa certitude du comportement long terme des nuages.

 

 

"C'est un cercle vicieux - à la suite d'une température globale plus élevée les nuages piègent plus de chaleur, ce qui, à son tour, entraîne encore plus de réchauffement", explique Dessler. Son travail est publié dans le magazine Science du 10 décembre et est soutenu par une subvention de recherche de la NASA.


Bien que les modèles climatiques avaient prédit depuis longtemps que la rétroaction nuageuse amplifiait le réchauffement dû à l'activité humaine, il était impossible, jusqu'à récemment, de tester les modèles à partir d'observations.
"Ce travail suggère que les modèles climatiques font un travail assez correct pour simuler la façon dont les nuages répondent à l'évolution climatique", dit Dessler.


Certains climatosceptiques ont récemment fait valoir que les nuages auraient pour effet de stabiliser le climat, empêchant ainsi un réchauffement significatif par les gaz à effet de serre.

 

 "Sur la base de mes résultats, je pense que les chances que les nuages nous sauvent de changements climatiques dramatiques sont très faibles", a t-il expliqué.

 

"En fait, mon travail montre que les nuages vont probablement amplifier le réchauffement d'origine anthropique."
"Je pense que nous pouvons être assez sûrs que les températures vont augmenter de plusieurs degrés Celsius au cours du siècle prochain(?), si nous continuons nos émissions actuelles de gaz à effet de serre."

 

 


Partager cet article
Repost0
21 novembre 2010 7 21 /11 /novembre /2010 21:09

 

 

 

Il s'agit ici de démonter une croyance basée sur l'absence de connaissance réelle de ce qu'est l'effet de serre ainsi de ce que sont certains mécanismes climatiques de base.

 

Inutile de dire qu'on rencontre cette croyance principalement chez les sceptiques, dont on sait, depuis longtemps, qu'ils sont fâchés avec la vraie science.

 

Mais comme certains lecteurs peuvent être légitimement troublés,

 

d'où vient la confusion?

 

Cette croyance, donc, c'est le fait que l'on impute la présence d'un hot spot (point chaud) dans les couches supérieures de l'atmosphère à l'effet de serre issu des émissions anthropiques de CO2 et autres gaz.

 

Elle vient, entre autres, d'une mauvaise interprétation de l'image ci-dessous parue dans le dernier rapport de l'AR4 qui décrit, comme explicité dans la légende:

 

 

"Figure 9.1. Zonal mean atmospheric temperature change from 1890 to 1999 (°C per century) as simulated by the PCM model from (a) solar forcing, (b) volcanoes, (c) well-mixed greenhouse gases, (d) tropospheric and stratospheric ozone changes, (e) direct sulphate aerosol forcing and (f) the sum of all forcings. Plot is from 1,000 hPa to 10 hPa (shown on left scale) and from 0 km to 30 km (shown on right). See Appendix 9.C for additional information. Based on Santer et al. (2003a)."

 

 

 

profils réchauffement réel

 

 

 

Les variations de température (en °C/siècle) pour chacun des différents forçages et calculées par les modèles pour la période 1890-1999.

 

La somme de toutes ces températures correspond à l'anomalie totale de la période.

 

Il ne s'agit donc pas, vous l'aurez compris, d'une même variation de température globale pour chacun des forçages, mais de la décomposition du signal global suivant les différents forçages.

Ce serait d'ailleurs ridicule si on songe que les volcans ne réchauffent pas mais refroidissent.

 

En conséquence, les couleurs sont différentes puisque les amplitudes de température sont différentes.

 

Par exemple, si les modèles considèrent que le forçage solaire représente maxi 0.1°C ou 0.2°C/siècle, il ne peut apparaître la couleur rouge sur la case solaire (a).

Ce qui n'est pas le cas pour le forçage par GES où la couleur rouge apparaît.

 

 

Pour mieux comprendre encore, voici, issu de Realclimate, ce que donnerait un doublement de CO2

 

CO2

 

 

et son équivalent solaire (soit environ 2% de variation de TSI)

 

solaire

 

 

Comme vous pouvez le constater, les graphes sont cette fois les mêmes, mis à part, principalement, le refroidissement de la stratosphère (bande violette en haut) pour le CO2, absent pour le solaire.

 

 

Voilà pour cette vieille antienne qu'on peut rêver de voir abandonner un jour par les sceptiques (non militants bien sûr).

 

 

Mais pourquoi ce hot spot est-il commun au CO2 et au solaire?


 

Principalement à cause de la convection humide.

 

Au dessus d'une région donnée on a un certain gradient de température qui, pour faire simple est situé entre le gradient adiabatique sec (-9.8K/km) et le gradient adiabatique humide (-3K/km environ à 40°C /1000hPa).

 

Lorsqu'on chauffe la surface celle-ci réagit en rayonnant mais aussi en chauffant l'air qui la surplombe.

Lorsqu'il y a présence d'eau liquide il y a également évaporation qui consomme de la chaleur et qui vient charger en vapeur d'eau l'air chaud.

On peut dire aussi que la pression de vapeur est plus élevée dans de l'air plus chaud ce qui revient au même.

Cet air chaud et humide est très souvent plus chaud que l'air un peu plus haut et s'élève donc, puisque plus léger.(on fera aussi intervenir l'instabilité atmosphérique mais faisons simple)

 

Le fait qu'il y ait de la vapeur entretient cette flottabilité puisqu'en se condensant (l'air qui monte se refroidit et la vapeur se condense) elle libère elle-même de la chaleur.

 

Enfin bref, on reparlera de ça plus tard, on va pas faire un cours.

 

Mais il est important de remarquer que plus on a de chaleur, plus on a de convection, et plus on a un gradient qui s'affaiblit ce qui correspond à un réchauffement des hautes couches.

 

Dans les régions tropicales ce phénomène est d'autant plus important que peu de rayonnement, provenant de la surface, peut s'échapper de l'atmosphère chargée en vapeur ce qui permet à la convection d'évacuer une partie importante de la chaleur en surplus, d'où un hot spot plus important qu'ailleurs.

 

Le CO2 supplémentaire qu'on peut ajouter dans les couches saturées en VE n'a qu'un effet marginal et, par conséquent, le hot spot n'est pas la signature de l'effet de serre mais c'est la signature du fait que le climat se réchauffe.

 

Comme vous le savez, il est très probable que ce réchauffement soit d'origine anthropique.

 

 

D'où le fait qu'on dise que le hot spot est la signature du réchauffement anthropique (en ajoutant , éventuellement, par émissions de gaz à effet de serre.

 

 

Voilà l'histoire et nous verrons par la suite la mise en évidence, laborieuse, il est vrai, de ce hot spot.

Partager cet article
Repost0
30 janvier 2010 6 30 /01 /janvier /2010 09:02

 

à lire cet article du Guardian concernant une nouvelle découverte sur l'action éventuelle de la vapeur d'eau (VE) stratosphérique.

 

 

traduction résumée

 

"La VE stratosphérique expliquerait 1/3 du réchauffement des années 90 et une diminution significative de sa teneur depuis 2000, pourrait être à l'origine de la stagnation relative des températures de ces toutes dernières années.

 

Cette nouvelle recherche, conduite par Susan Solomon, contributrice du dernier rapport du GIEC en 2007, a été publiée dans le journal Science.

 

Solomon indique que cela ne change pas le fait que les activités humaines "drivent" le climat, mais cela montre qu'il ne faut pas surinterpréter le court terme.

 

Cela montre aussi que des scientifiques travaillent dur pour expliquer honnêtement et ouvertement ce qui s'est passé lors de la dernière décennie.

 

Les mesures satellitaires montrent que la VE a diminué de 10% depuis 2000 et qu'elle pourrait bien avoir baissé de 25% selon les modèles.

 

Ce déclin pourrait avoir contribué à l'aplatissement de la courbe des températures au cours de la dernière décennie.

 

Les scientifiques ont examiné également la période 1980-2000, pendant laquelle les observations d'un seul ballon sonde rendraient probable une augmentation de VE stratosphérique expliquant 30% du réchauffement pendant cette période.

 

La VE stratosphérique (VES)  serait donc un important driver des variations climatiques décennales.

Ceci serait mal pris en compte par les modèles qui devraient progresser sur ce point.

 

Ces variations de VES, encore mal comprises, proviendraient de variations des SST (températures de surface océaniques) en envoyant, par convection, des quantités plus ou moins grandes de VE dans la stratosphère.

 

L'origine de la baisse de VES depuis 2000 pourrait provenir d'une fluctuation naturelle ou être induite par le réchauffement climatique (RC).

Dans ce dernier cas, cela pourrait constituer une rétroaction négative du RC et contribuer à freiner celui-ci."

 

Nouvelle très intéressante, qui nous laisse cependant sur notre faim.

Le fait que de la VE rentre dans la stratosphère peut venir, à mon sens, en grande partie tout au moins, de phénomènes de convection très profonde.

Cette forme de convection est surtout présente dans les régions tropicales, mais dans ces zones la stratosphère commence également à très haute altitude (>17km).

Ces phénomènes se seraient produits à partir des années 80 jusqu'en 2000 environ, puis se seraient mis à décroître.

Pour le moment on ne peut que se perdre en conjectures, mais le fait est qu'il y a encore du pain sur la planche pour les scientifiques et que l'avenir de la recherche dans le domaine climatique nous réserve sûrement encore bien des surprises.

Quant à la rétroaction négative espérée, elle ne peut être très conséquente étant donné de toute façon, la faible teneur en VE de la stratosphère.

à suivre...

 

PS: Realclimate consacre une page à ce sujet.(je n'ai pas encore lu)

Partager cet article
Repost0
24 septembre 2009 4 24 /09 /septembre /2009 17:30

Les aérosols, particules solides ou liquides, dont la très petite taille leur permet de flotter dans l’atmosphère, ont des propriétés radiatives très puissantes, notamment par diffusion et absorption du rayonnement électromagnétique.

 

On parle de l’effet direct des aérosols pour exprimer le forçage radiatif induit par l’aérosol lui-même.

 

Les aérosols peuvent servir de noyaux de nucléation autour desquels se forment les gouttelettes d’eau ou de glace qui composent les nuages.

Ils ont donc un effet sur la taille et la concentration (CDCN) de ces gouttelettes et, de ce fait, modifient les propriétés radiatives des nuages, notamment en augmentant  leur réflectivité.

Ils modifient également la façon dont les précipitations vont se former dans le nuage en les diminuant.

L’ensemble de ces effets sur les nuages constitue l’effet indirect des aérosols.

Dans cet article il sera question du forçage total des aérosols, résultant  de la somme des effets direct et indirect.

 

Etant donné l’immense hétérogénéité des propriétés des aérosols, les conditions infiniment variées d’émission (hauteur, circulation atmosphérique, lieu, …), la plus grande complexité des interactions avec le rayonnement (qu’elle ne l’est par exemple pour les GES) et enfin la complexité des phénomènes se passant dans les nuages, on conçoit que la détermination du forçage des aérosols soit plutôt ardue.

 

Cependant, de nombreuses techniques de mesures et ou détermination existent, aboutissant à une meilleure estimation de -1.2W/m2, avec cependant une marge d’erreur très importante.

 

Dans ce contexte, signalons cette étude très récente, parue dans JGR dont voici la traduction de l’abstract :

 

An observationally based energy balance for the Earth since 1950

Murphy, D. M., S. Solomon, R. W. Portmann, K. H. Rosenlof, P. M. Forster, and T. Wong (2009), An observationally based energy balance for the Earth since 1950, J. Geophys. Res., 114, D17107, doi:10.1029/2009JD012105.


« Nous examinons le bilan énergétique terrestre depuis 1950, identifiant des résultats obtenus sans l’utilisation de modèles climatiques.

les termes importants qui peuvent être obtenus en utilisant seulement les mesures, les modèles de transfert radiatifs, sont le contenu en chaleur de l’océan, les forçages radiatifs des GES (Gaz à effet de serre), et des volcans.

Nous considérons explicitement l’émission d’énergie d’une Terre qui se réchauffe, en utilisant les corrélations entre température de surface et les données de flux radiatifs mesurés par satellite et montrons que ce terme est déjà significatif.

Environ 20% du forçage des GES, des volcans et du Soleil, depuis 1950, a été rayonné dans l’espace.

Seulement 10% du forçage positif (soit 1/3 du forçage net) a réchauffé la Terre (presque entièrement les océans).

20% a été équilibré par les aérosols volcaniques.et les 50% restants sont principalement attribuables aux aérosols anthropiques.

Après avoir tenu compte des termes mesurés le forçage résiduel entre 1970 et 2000, du au forçage des aérosols, à l’effet semi direct ( ? ) des GES ainsi qu’à celui de mécanismes inconnus peut être estimé à 1.1 +-0.4 W/m2.

Ceci est consistant avec les meilleures estimations de l’IPCC mais exclut les valeurs très importantes de forçage indirect des aérosols.

Plus loin, les données impliquent une augmentation des années 50 aux années 80 suivie par une constance ou légère décroissance jusque dans les années 90 consistantes avec les enregistrements d’émissions de sulfates.

Une augmentation apparente dans la deuxième moitié des années 90 est discutée. »

 

 

Voici quelques explications complémentaires issues ou inspirées par la lecture de l’étude en elle-même.

Leur compréhension implique qu’on soit un peu familiarisé avec les bilans TOA et donc qu’on ait lu les articles de ce blog qui en parlent (entre autres sources bien sûr)

 

L’étude est donc bâtie autour de l’équation suivante :

 

N = -λ ΔT + F +ε

 

où :

 

N est le flux net TOA

λ ΔT est le flux induit par le changement de température (en supposant la linéarité)

F est le forçage net

ε est le bruit et la variabilité interne.

 

sur un temps suffisamment long 1/λ représente la sensibilité climatique S.

 

Cette formule n’est pas sans rappeler celle déjà utilisé ici dans cet article par exemple, mais on fera attention aux noms de variables différents.

 

détermination de λ

 

L’équation ci-dessus peut être utilisée de manière à ce que l’on ait:

 

flux montant – F = -λ T

 

on a d’autre part

 

F = Fc + Fi  où c et i désignent « connus » et « inconnus » respectivement.

 

Fc = F GES + F volcans + F solaire

 

Fi = F des aérosols, principalement.

 

Fi, par définition, n’est pas connu mais il est supposé constant au cours des 2 périodes de mesures satellitaires soit 1985-1999 pour ERBE et 2000-2005 pour CERES.

 

Des mesures de l’effet direct ainsi que les mesures de la concentration en sulfates piégés dans les glaces appuient cette hypothèse.

En conséquence la détermination de λ se fait par mesure de la pente de la régression linéaire de :

 

flux montant – Fc

 

on peut appeler le flux montant, N également, puisque les variations du flux descendant (solaire) sont prises en compte.

 

comme dans l’étude, Fc sera pris égal à F,  et donc λ est bien la pente de la droite (issue de la régression) N - F  en fonction de T.

notons que T est cette fois la température absolue de la surface.

 

 

les différents points de mesure concernent des mesures inter-saisonnières et interannuelles en conséquence les périodes sont trop courtes pour que l’on puisse assimiler 1/λ à S.

Toutefois, sur l’ensemble des 2 périodes, la relative constance de λ peut permettre le rapprochement de son inverse avec la sensibilité long terme.

 

Le flux montant N est la somme des flux SW (visible) et LW (IR) mesurés par les satellites.

Voici ci-dessous l’allure des régressions linéaires.

 

 

Le flux LW augmente avec la température, ce qui est assez normal

Pour le SW, il diminue, une partie de l’explication pouvant résider dans la diminution des zones enneigées avec la température, mais il n’y a pas grand chose à ce sujet dans l’étude.On peut aussi imaginer une variation des nuages.

La valeur de λ, déterminée par régression linéaire, est de 1.25 +- 0.5 W/m2.°K

 

notons que l’inverse de cette valeur aboutirait à une sensibilité 2*CO2 de 3.5 +- 1.4°C.

 

détermination du forçage des aérosols

 

revenons à l’équation initiale:

 

N = -λ ΔT + F +ε

 

qu’on peut modifier de la façon suivante :

 

N = -λ ΔT + Fc +Fi  (ε est intégré dans Fi)

 

λ est considéré comme une constante intrinsèque au système climatique terrestre, ne variant par conséquent pas, du moins dans l’intervalle 1950-2005.

ΔT est l’anomalie de température (par exemple l’anomalie issue de HadCRUT)

on connaît donc -λ ΔT

on connaît Fc

on connaît N = puissance thermique fournie au système par les mesures de chaleur de l’océan (Domingues, GECCO,…)

 

par conséquent on connaît Fi = N +λ ΔT - Fc

 

La valeur du Fi moyen de 1970 à 2000 est -1.1 +- 0.4 W/m2 avec les données de chaleur océanique de Domingues.

 

Cette valeur est consistante avec la meilleure estimation du GIEC, -1.2W/m2, mais elle en  restreint fortement la fourchette, excluant ainsi les valeurs très fortes de forçage indirect.

 

évolution du forçage de 1950 à 2005

 

les auteurs repèrent une augmentation du forçage des 50s aux 80s, puis une très légère diminution ou une quasi stagnation, avec toutefois un saut vers 1996.

Ce saut, corroboré par aucune autre analyse, laisse penser aux auteurs qu’il s’agit d’un biais du aux mesures de chaleur océanique.

 

 

quelques réflexions supplémentaires

 

L’attribution du forçage inconnu en quasi-totalité aux aérosols peut laisser dubitatif, surtout que cette attribution est utilisée dans la détermination de λ.

Néanmoins on ne connaît pas de forçage négatif naturel suffisamment important pour être pris en compte.

Alors c’est un peu par défaut, ce qui est dommage.

 

La prise en compte de courbes de chaleur océanique différentes donnent des valeurs de forçage d’aérosols quelque peu différentes, mais pas en dehors de la fourchette.

Cependant, les auteurs ne semblent pas douter de la variation de forçage aérosols au cours de la période sauf pour 1996. Leur raisonnement manque peut-être de rigueur quoique qu’il s’appuie sur les mesures altimétriques de niveau de la mer.

 

Si l’on s’attache aux résultats, en dehors de ces quelques critiques, les proportions signalées dans l’abstract peuvent paraître surprenantes.

 

en effet, l’énergie cumulée apportée au système depuis 1950 par les GES et le forçage solaire a été consommée de la façon suivante :

 

20% a été équilibrée par les volcans

20% a été rayonnée dans l’espace

10% a chauffé les océans

50% a été équilibrée par les aérosols anthropiques.

 

C’est le 20% rayonné dans l’espace qui nous donne la variation de température de surface.

Si on traduit en flux, 20% représente un flux moyen de 0.384 W/m2 rayonné vers l’espace, alors que la variation de température moyenne est de 0.3°C pendant cette période.

Ceci aboutit à une sensibilité climatique, en utilisant l’équation plus haut, de 0.78 °C.m2/W.

 

Ce, seulement, 20% de chaleur rayonnée, nous donne la mesure de ce pourrait être vraiment le RC, si aucun forçage négatif n’existait.

Rappelons que ce forçage négatif par les aérosols (si on tient compte des résultats de l’étude) compense 70% du forçage positif GES + solaire.

La hausse de la température moyenne aurait été 5 fois plus forte, soit de l’ordre de 1.5°C au cours des 50 dernières années, ce qui est, fort heureusement, une hypothèse d’école.

 

Le flux de réchauffage de la Terre est très faible en proportion, puisqu’il représente seulement 10% du flux positif total.

Cependant il témoigne du fait qu’il y a environ 0.15°C (toujours en moyenne sur les 50 dernières années) dans le « tuyau », ou si on raisonne en gros, et par rapport à la situation actuelle, 0.3°C par rapport à 0.6°C.

 

Voilà, c'est un peu compliqué, mais cela permet une évaluation du forçage des aérosols et de la sensibilité en se basant sur les observations (plus les modèles de transfert radiatif qui permettent de calculer les forçages connus) sans avoir recours aux modèles climatiques.

 

Partager cet article
Repost0