Overblog
Suivre ce blog Administration + Créer mon blog
12 août 2008 2 12 /08 /août /2008 19:03

 

 

Voici, ci-dessous, l'évolution du niveau de la mer depuis 1993, mise en parallèle avec l'évolution des SST.


 

 

 

les données du niveau proviennent de l'université du Colorado à Boulder.

 

Il s'agit des données avec correction barométrique, quoique cette dernière ne joue pas , théoriquement, sur le niveau global.

 

On peut constater que le niveau a légèrement décroché de la tendance au cours du début de l'année 2007.

Ce décrochage est assez bien corrélé à la SST.

A l'inverse on observe que le niveau était monté en 1997-1998 lors du fameux et exceptionnel (pour les dernières décennies) épisode El Niño.

voir la représentation du niveau de la mer mesurée par Jason en octobre 1997:




 

 

 

Il semble donc que le niveau monte pendant les El Niño et qu'il baisse pendant les Niña.

Ces variations sont d'autant plus fortes que les épisodes sont forts.

 

Le niveau de la mer varie pour deux raisons principales: la fonte des glaces terrestres, ou des inlandsis, et la dilatation thermique due au réchauffement global de l'océan.

Il existe d'autres raisons plus subalternes comme par exemple la rétention des eaux continentales par les barrages (qui fait baisser le niveau) ou, autre exemple, la teneur en eau de l'atmosphère.

Il ne faut pas négliger, mais c'est sur le plus long terme, les échanges entre les océans et l'eau contenue dans la croûte et le manteau terrestres.

 

Si l'on revient à la courbe, le réflexe est de dire: lors des Niño, les SST augmentent, l'océan se dilate, le niveau monte.

Et inversement pour les Niña.

 

Néanmoins un problème se pose, à mon sens.

 

En effet, si on considère l'ENSO comme un phénomène de bascule, il n'y a pas, à proprement parler, de variation du contenu de chaleur, globalement, des océans.

L'eau chaude, accumulée à l'ouest du bassin Pacifique, se déverse vers l'est du bassin, ce qui augmente les SST, soit, mais pas le contenu global de chaleur.

Or c'est bien ce contenu global qui conditionne l'augmentation, dite thermostérique, du niveau.

Ci-dessous, de façon très simplifiée, la bascule de l'ENSO.


 

d'abord la phase neutre et Niña:


 



 

puis la phase Niño:


 

 

 

Je ne reviens pas sur le mécanisme, d'ailleurs fort complexe, de cette bascule.

Simplement, on s'aperçoit qu'elle ne fait pas, apparemment, intervenir de forçage thermique, seul capable de faire varier la chaleur globale de l'océan.

Pis, on pourrait dire qu'un El Niño "gaspille" dans l'espace, la chaleur accumulée lors des phases neutres ou les phases Niña.

On devrait donc avoir baisse du niveau pendant un Niño.

Pis encore, la variation de densité avec la température, est d'autant plus forte que la pression est élevée.

Lors du Niño, de l'eau chaude, stockée en profondeur, se répandant à la surface, devrait, là aussi, contribuer à faire baisser le niveau.

Hormis des phénomènes de forçage radiatif liés à la nébulosité, ou à une variation de l'ES due à une variation de la quantité de vapeur d'eau dans l'atmosphère, difficile de comprendre le pourquoi de ces variations de niveau.

 

explication partielle possible

 

Les oscillations de l'ENSO s'accompagnent de variations fortes du régime de précipitations dans le Pacifique équatorial.

Ces variations sont principalement dues au changement de circulation atmosphérique et donc aux emplacements des cellules convectives.

Autrement dit, lors d'un Niño, il pleut énormément sur le Pacifique central et oriental.

En phase Niña, il pleut sur le Pacifique occidental, en Indonésie, Australie,...

Il apparaît que les précipitations sont moins intenses sur les terres, lors des épisodes Niño, et inversement lors des Niña.

 

Pour s'en convaincre on lira cette étude de Dai et al 1997 dont on peut extraire ceci:

 

"Also, although ENSO-related regional precipitation can be large, the ENSO signal in globally averaged land precipitation is only about 10-30 mm, or 1%-4%(a decrease during El Niños)"

 

on lira également cette présentation du GPCP, dont ce graphe nous intéresse directement:


On regardera en particulier le graphe (b) "response to ENSO" et on notera la baisse  des précipitations sur les terres pendant les ENSO (courbe rouge en pointillés)

 

Mais quel rapport avec le niveau de la mer?

 

L'idée est simple.

 

Lorsqu'il pleut moins sur les terres et plus sur les océans, il y a par définition, moins de perte d'eau de l'océan vers les terres, alors que le réservoir terrestre continue, pour un temps, à se vider vers l'océan.

En conséquence, le niveau des océans monte.

C'est l'inverse lorsqu'il pleut plus sur les terres, puisque les réservoirs terrestres se remplissent avant de se déverser à nouveau vers l'océan.

Il y a à l'évidence un temps de réponse.

Mais comme on peut le voir sur la courbe du haut, la variation n'est que de quelques mm par épisode fort.


 

Bon, j'avoue que je n'ai lu nulle part cette explication dans la littérature.

C'est donc à vérifier.

Un autre phénomène pourrait être les variations du bilan des glaces continentales avec la température globale.

Je n'ai malheureusement pas les moyens d'aller plus loin pour apprécier ces différentes contributions.

Partager cet article
Repost0
3 août 2008 7 03 /08 /août /2008 16:50

lag

EDIT: prise en compte des résultats RSS océans TLT de juillet 2008


Désolé, il ne s'agit pas du "lag" entre température et CO2 lors des périodes glaciaires, ce sera pour une autre fois, peut-être.
Mais j'avais promis hier un article sur le décalage constaté  entre températures de surface et températures de la basse troposphère.

C'est pas très intéressant, je le reconnais,  mais ça va pas être trop long.

J'ai limité l'analyse aux océans.

Après tout ils occupent plus des 2/3 de la surface globale et leur "poids", dans l'anomalie globale, est évidemment très important.

 

Sur le plan physique, le raisonnement est que, globalement (pas localement), la surface, par nature plus chaude que l'atmosphère, absorbant la majorité du rayonnement, est la source principale de chaleur.

Que ce soit de façon adiabatique ou diabatique (avec échange de chaleur), l'air circule verticalement, pompe l'énergie de la surface et transmet  la chaleur plus haut.

C'est bien la surface qui pilote l'atmosphère.

Ces processus ne sont pas instantanés, dans la très basse atmosphère, à l'intérieur de la couche limite, ça va assez vite étant donnée la turbulence.

Plus haut c'est un peu plus lent bien sûr.

De plus les échanges de chaleur entre la couche d'eau de plusieurs dizaines de m, où le mélange n'est pas trop mauvais, et l'atmosphère au contact ne sont pas non plus instantanés.


Mais je pense d'avantage que c'est la partie diabatique qui retarde la variation de température de l'atm.

Ceci dit c'est bien globalement que les choses sont envisagées.
Régionalement la circulation atmosphérique a une importance énorme.

 

C'est à l'occasion de mes "recherches" ( avec de gros guillemets) sur les relations ENSO et SST que j'ai constaté l'existence d'un certain décalage.

Etant donné d'autre part qu'un intervenant mettait en doute ce lag, voici donc quelques courbes et corrélations.


On peut analyser les SST (données NOAA) et les TLT océans mesurées par RSS, mensuelles, sur 10 ans, de janvier 1999 à juin 2008.

Les corrélations entre les deux courbes sont effectuées simplement avec les nuages de points xy des graphiques excel.

On peut bien sûr décaler les séries l'une par rapport à l'autre et déterminer à chaque fois le coefficient de corrélation R2.

 

Il est ensuite facile de tracer la courbe R2 = f (lag)

 

La voici:



 

La corrélation s'effondre pour les lags négatifs (TLT en avance sur les SST).

Par contre le maximum de corrélation se situe entre 1 et 2 mois de retard.

Quoiqu'il ne s'effondre pas, loin de là, pour des lags de 3 et 4 mois.

Même pour un lag de 6 mois, la corrélation est la même qu'avec une réponse instantanée.

On peut donc estimer que le lag moyen est de l'ordre de 3 mois.

C'était la raison de ma réponse à un commentaire dans l'article sur juillet.

 

Pour essayer de mieux figurer ce que cela représente, voici les SST et TLT depuis janvier 2007.

Le premier graphe représente les données brutes, le deuxième, les mêmes courbes, mais décalées de 2 mois (proche du maxi de la courbe plus haut).


 

 


 


 

 

 

Les valeurs en rouge sont les valeurs  de TLT simulées grâce à la tendance de la courbe xy (2 mois).

On peut également s'apercevoir que certains points correspondent bien avec un retard de 0 et plus avec un décalage.

Mais statistiquement c'est bien le décalage qui est le plus probable.

 

Les prochaines valeurs des RSS TLT océans (pour juillet et août donc) devraient être, le plus probablement, de cet ordre.

 

Enfin nous verrons bien, car j'ai bien conscience que le climat réel ne peut s'analyser et se prévoir avec des analyses aussi primaires.

En particulier, il semble que les différents épisodes forts de l'ENSO influencent ce lag.

Or nous étions assez récemment en Niña forte.


 

EDIT:


 

les valeurs de juillet pour les TLT RSS océans viennent de paraître.

Je les ai incorporées à la courbe ci dessus.

L'anomalie est de 0.0780 pour un "prévu" de 0.129°C

La variation par rapport à juin est de 0.133°C pour un "prévu", sur le graphique, de 0.184°C.

Le réel est donc de 72% de ce qui était prévu, ce qui n'est pas forcément si mal pour une approche aussi rudimentaire.

Voici en vert la donnée réelle mais retardée de 2 mois évidemment.


 

 

Pour le moment, la "théorie" n'est donc pas en défaut.

 

 



 

Partager cet article
Repost0
31 juillet 2008 4 31 /07 /juillet /2008 16:54

EDIT 5 août 2008: ajout GISTEMP


 

Encore une fois, c'est un peu ma manie sur ce blog, nous allons regarder ce qu'est l'évolution de l'anomalie de température globale, corrigée de l'ENSO et de la variation solaire cyclique.

J'y reviens car je lis, ici ou là, des énormités balancées à la va-vite, sans réflexion et dans un esprit partisan.

Que cet esprit soit politique, "scientifique", ésotérique, ou autre, ni change évidemment rien.

Mais j'ai bien peur qu'après l'accalmie (je reparle des températures pas des négateurs), ressentie ces tous derniers mois, la progression des températures en surprenne plus d'un.

Enfin je n'aurai pas l'outrecuidance non plus de prévoir l'avenir proche évidemment, n'étant pas à l'abri d'un nouveau revirement de l'ENSO comme cela s'est vu en 2000 par exemple.

 

 

Voici d'abord la courbe de l'indice composite de l'irradiance solaire (TSI) selon PMOD.

J'ai été un peu surpris, à dire vrai de la TSI actuelle.

 

 

 

 

 

La sensibilité de la température de surface est en moyenne et selon les auteurs, de 0.1°C.m2/W en ce qui concerne le cycle solaire.

Attention il s'agit de W/m2 de TSI et pas de flux TOA/4 (on verra l'article sur la température des planètes chapitre 1).

Les temps de réponse, notamment pour David H Douglass étant de l'ordre de quelques mois (3 mois) il ne m'a pas paru nécessaire d'en tenir compte dans les courbes de variations annuelles.

 

 

 
Il m'a semblé intéressant, en outre, de faire la correction tenant compte d'une des dernières estimations dans ce domaine de la sensibilité au cycle de 11 ans, à savoir celle de Camp and Tung 2007.

 

Dans cette étude la sensibilité au cycle solaire  passe à 0.18°C.m2/W.

C'est considérable.

Il n'est pas fait mention d'un quelconque délai entre activité et température.

En conséquence, là aussi, je n'en n'ai pas tenu compte.(dans le deuxième graphique)

 

Enfin j'ai corrigé du signal ENSO (on verra l'article sur la stagnation de la température globale à ce sujet.

 

Voici donc ce que donnent les courbes corrigées, en magenta, par rapport à la courbe de l'anomalie non-corrigée, en bleue.


 

 

 

On voit l'effet sur l'allure générale de la tendance pour les dernières années.

On n'est plus dans la stagnation, encore moins dans le refroidissement.

Il est bon de rappeler que cette stagnation constitue La "preuve sceptique de base" contre la réalité, non seulement du réchauffement climatique, mais également de son origine.

A savoir l'effet de serre provoquée par des émissions incontrôlées de CO2 et autres gaz actifs.

 

On remarquera  les tendances décennales importantes des anomalies corrigées, soit 0.192 et 0.210°C/décennie.

 

Si ces tendances sont exactes et je ne vois pas pourquoi elles ne le seraient pas, nous sommes largement au-delà des scénarii les plus durs du GIEC.

Par exemple le scénario A1FI qui ne prévoit que 0.14°C entre 2000 et 2010.

Nous serions donc en grand danger si cela se vérifiait.

 

Tout cela pour dire:

 

attention aux faux-semblants et à leurs promoteurs.

 

PS: je précise que ma correction ENSO est évidemment imparfaite, surtout, comme x fois répété, pour l'épisode El Niño 97-98.

On regardera cet article pour une meilleure correction.

 

EDIT du 05 août 2008


En utilisant les données GISTEMP corrigées,  présentes dans l'article de Realclimate, ainsi que la même correction TSI Camp and Tung 2007, voici ce que cela donne:

 

de 1979 à 2007

 


 

et de 1998 à 2007:

 

 

On retrouve le même ordre de grandeur que précédemment pour 30 ans (ou à peu près ayant supprimé 2008 non entière).

Par contre, pour 10 ans, l'augmentation décennale de l'anomalie corrigée d'ENSO et de TSI (CetT2007), est assez ahurissante.

0.38°C/décennie, cela nous mènerait joyeusement à 4.5°C d'anomalie à la fin du siècle par rapport à l'époque préindustrielle.

 

Alors je ne prétends pas que cette correction reflète parfaitement ce qui se "cache" derrière ce que l'on mesure et constate.

Et, après tout, Camp et Tung ont peut-être été un peu loin, je n'en sais trop rien..

Le "consensus" relatif est autour d'une sensibilité de 0.1 au lieu de 0.18 par W/m2 de TSI ce qui ramènerait la tendance sur les 10 dernières années à 0.287°C/décennie.

Ceci amènerait la température de la fin du siècle à 3.4°C d'anomalie par rapport à l'époque préindindustrielle.

Une autre observation que l'on peut faire, au regard des 2 courbes plus haut, c'est que 2007 est, sans conteste, l'année, hors ENSO et TSI, la plus chaude de ce siècle et vraisemblablement des dernières centaines d'années.

Nous laisserons l'Optimum Médiéval, poire pour négateur assoiffé, de côté pour aujourd'hui, mais il se pourrait bien qu'il faille remonter à la mi-Holocène pour trouver aussi chaud.

1998, tant exhibée par les négateurs, pour faire croire au chaland à une décroissance de la température (et encore en utilisant la "bonne" base de données), est maintenant ravalée au rang d'année normale de progression des températures dans un monde qui se réchauffe inexorablement.

Il est bien clair, dans mon esprit, que l'explication provient, très très probablement, de l'augmentation non moins inexorable de la concentration en GES et il est très probable, aussi, que la sensibilité climatique est bien dans le haut de la fourchette indiquée par le GIEC dans son dernier rapport, voire dans les précédents.

Et au delà de tout cela, force est de constater que le GIEC, et les scientifiques sur lesquels il s'est appuyé, ont, pour le moment, très probablement raison.

 

NOTA:

Il est un argument de négateur, couramment et sans vergogne, utilisé.

C'est celui de l'augmentation de la TSI moyenne, jusqu'en 1960 environ, pour expliquer une bonne partie, voire tout (en association avec d'autres phénomènes naturels, évidemment, disculpant ainsi la responsabilité humaine), de l'augmentation constatée au 20ème siècle.

Ramenons donc le solaire à sa juste place dans le contexte de cet article.

En effet, si je m'en réfère à cette figure issue d'un article précédent (désolé je me cite mais on trouvera les références dans l'article en question) l'augmentation de TSI était en première moitié du siècle d'environ 0.5W/m2.

En appliquant CT 2007, cela nous donnerait une augmentation de 0.09°C.

En appliquant le coeff de  sensibilité, classique, de 0.75°C.m2/W, mais appliqué cette fois au forçage TOA, soit 0.5 *0.70/4 * 0.75 = 0.07°C.

C'est bien dans ses limites qu'il faut chercher l'influence du solaire dans le réchauffement actuel, soit de 8 à 11%.

Partager cet article
Repost0
3 juin 2008 2 03 /06 /juin /2008 17:50

 

A l'occasion de ma lecture de:

 A large discontinuity in the mid-twentieth century in observed global mean temperature

David W. J. Thompson1, John J. Kennedy2, John M. Wallace3 & Phil D. Jones4

 

à l'origine d'un précédent article , j'ai eu mon attention attirée par ce paragraphe:

 


                                                                                                        31/10/1952 Mike:10.4Mt

                                                                                                            (source)



"The step in late 1945 does not appear to be related to any known physical phenomenon. No substantial volcanic eruptions were reported at the time, and the nuclear explosions over Hiroshima and Nagasaki are estimated to have had little effect on global-mean temperatures: 100 Hiroshima-sized explosions are predicted to lead to a global-mean cooling of ,1.25 °C (ref. 5), thus two such explosions might be expected to lead to a cooling of less than 0.03 °C."

 

En gros, on ne pouvait envisager que la baisse de température constatée en 1945 soit due à un phénomène physique connu.

Les explosions d'Hiroshima et de Nagasaki pouvant être responsables de seulement 0.03°C sur les 0.3°C, suite au fait que 100 explosions de type Hiroshima seraient responsables d'une baisse globale de 1.25°C.

 

Là j'ai été surpris tout de même, car 100 explosions de type Hiroshima, cela fait 100*15kt , soit une puissance totale de 1.5MT.

C'est donc une puissance très faible qui serait responsable d'une baisse de température considérable, de 1.25°C.

Comme les auteurs de l'article de Nature sont des gens sérieux, j'ai cherché à en savoir un peu plus et je suis tombé sur deux études d' Alan Robock.

 

Là aussi ce monsieur a un pédigree, si je peux me permettre, convenable, et j'ai pensé que cela valait le coup d'en parler ici.

 

L'intérêt que j'y ai vu, outre l'aspect catastrophique et générateur d'une misère humaine immense, c'est celui de l'importance des aérosols.

 

Donc on y va et on commence par la première étude:

 

"Climatic consequences of regional nuclear conflicts

 
A. Robock
1, L. Oman1, G. L. Stenchikov1, O. B. Toon2, C. Bardeen2, and R. P. Turco3


1Department of Environmental Sciences, Rutgers University, New Brunswick, NJ, USA

2Department of Atmospheric and Oceanic Sciences and Laboratory for Atmospheric and Space Physics, University of Colorado, Boulder, USA

3Department of Atmospheric and Oceanic Sciences, University of California, Los Angeles, USA"

 

Je suis certain que vous allez lire cette étude avec attention, mais à destination de ceux qui n'auraient pas le temps, voici ce que j'en ai retenu, illustré de quelques graphes révélateurs issus de cette étude.

 

Les auteurs étudient donc les conséquences d'un conflit nucléaire régional, dans la zone sub-tropicale, mettant en jeu des pays que l'on pourrait considérer comme des PVD.

Les explosions nucléaires se produisent dans des zones fortement urbanisées avec des ratios donnés de substances carbonées par habitant.

Ces explosions déclenchent des incendies gigantesques avec fortes émissions de fumées de noir de carbone (BC)

La forte convection, engendrée par les incendies, propulse ces fumées dans la haute troposphère.

Par chauffage solaire ces fumées s'élèvent encore (les aérosols BC étant très absorbants) et se retrouvent dans la  basse, moyenne et haute stratosphère.

Les aérosols BC ont un diamètre très faible, de l'ordre de 0.1micron.

Leur durée de vie est donc bien supérieure à celle des aérosols sulfatés volcaniques.

Leur pouvoir d'absorption étant de plus très fort, on peut s'attendre à des effets bien supérieurs, à masse égale, à ceux d'une éruption volcanique.

 

La masse de carbone utilisée dans cette première étude, est de 5 Tg atteignant la haute troposphère, soit 5 millions de tonnes, ce qui est une masse très faible, si on la compare aux émissions d'aérosols annuelles anthropiques, par exemple.

Le forçage radiatif de surface résultant, en SW (ou rayonnement solaire si on préfère) est de -15 W/m2.

L'éruption du Pinatubo, en comparaison, avait donné un RF de surface de -3W/m2.

Cela fixe les idées.

Voir ci-dessous, la fig 3 de l'étude, qui comporte deux graphiques.

Le premier représente la courbe des température et des précipitations, le deuxième représente les forçages radiatifs de surface des 5Tg et de l'éruption du Pinatubo.

Le Pinatubo est vraiment "hors course".

 

La figure 4 nous donne l'évolution du profil vertical de température en fonction du temps.

Vous noterez les +50°C d'augmentation dans la stratosphère.

 

 

La figure 5 nous donne la déclinaison régionale de la baisse de la température globale.

 

 

Je passe maintenant à l'autre étude qui revisite les conséquences d'un conflit nucléaire généralisé.

 

"Nuclear winter revisited with a modern climate model and current nuclear arsenals: Still catastrophic consequences

Alan Robock,1 Luke Oman,1,2 and Georgiy L. Stenchikov1"

 

Elle reprend les mêmes items que l'étude précédente mais envisage des masses de BC bien supérieures soit 50 et 150 Tg de BC.

Là aussi, le mieux est de lire l'étude.

J'extrairais simplement deux figures.

 

La première simule la baisse de température, dans l'hémisphère nord, pour trois masses de BC injectées, en la mettant en perspective avec l'évolution depuis l'an 1000.

 

La deuxième décline les variations régionales un an après l'injection.

 

Ces deux graphiques se passent de commentaires.


 

 

Conclusion

 

Ces résultats sortent de modèles climatiques récents et il semble difficile d'expliquer, simplement, pourquoi des fumées de noir de carbone sont beaucoup plus efficaces que les fumées volcaniques (sulfates), dans la stratosphère, pour provoquer un refroidissement aussi cataclysmique de la surface.

Néanmoins, cela constitue un excellent exercice théorique pour les spécialistes du transfert radiatif.

Sur le plan de la vraisemblance de tels scénarios, je me garderai bien d'avoir un avis tranché.

Simplement, le fait d'envisager un conflit localisé, n'est pas, compte tenu de ce qu'on peut percevoir comme risques  dans l'actualité récente, complètement invraisemblable.

Hélas, loin de là.

 

Sur le plan des nuisances, le mot est faible, que l'humanité peut déclencher, en dehors de tout ce qu'on a déjà évoqué ici et ailleurs, il me semble qu'il était bon de rappeler que l'hiver nucléaire ne semble pas, d'après ces études en tous cas, une notion dépassée.

 

EDIT1: voir  ici l'animation dans le cas 5Tg de la diffusion du BC


 

EDIT2: en réponse à un intervenant concernant Robock et la "vieille affaire de l'hiver nucléaire", voici un extrait de ce qu'on peut lire sur son site:

"In the 1980s much of my work addressed the problem of nuclear winter, the climatic effects of nuclear war, demonstrating long-term (several year) effects with a computer model, disproving the dirty snow effect, and discovering observational evidence of surface cooling due to forest fire smoke plumes in the atmosphere. I am now once again doing research in this area, using modern climate models to look at the climatic effects of regional nuclear conflictsOur latest work (this link includes all our recent papers and PowerPoints) shows that even a "small" regional nuclear conflict could have severe global climatic effects, and that there are still enough nuclear weapons in global arsenals to produce nuclear winter, which would last much longer than previously thought.  This is the most serious environmental threat faced by humans and demands immediate policy attention."

donc effectivement c'est une "vieille affaire" mais Robock l'a remise au goût du jour en utilisant les nouveaux modèles.
C'est d'ailleurs ce que j'ai indiqué dans l'article.
Il n'y a pas plus de raison, a priori, de prétendre, sans démonstration, que ce qui est présenté ici est faux, que de prétendre qu'il y a un risque de réchauffement climatique suite à l'injection de GES.
Pour les deux problèmes c'est une question de physique et de modèles.


 

 

 

Partager cet article
Repost0
14 mai 2008 3 14 /05 /mai /2008 14:24

Est venu maintenant le temps de la critique de l'hypothèse du refroidissement de l'Atlantique nord et de la pause dans le réchauffement global, telle que décrite dans l'article précédent.

 

Cette critique ne vient pas de scientifiques français du climat, désolé, mais du côté anglo-saxon ou allemand.

En l'occurrence, ici, ce sont  les gens de Realclimate qui s'y collent.

 

Après quelques errements (de mon point de vue) concernant un pari un peu douteux, et non relevé d'ailleurs, sur la non- réalisation de la prévision des gens du Leibniz Institute, voici, enfin, un article de Realclimate basé sur des considérations plus scientifiques.

 

J'en propose ici un résumé traduit.

 

la critique se décline en 8 points:

 

(extrait Realclimate)

Figure 4 from Keenlyside et al '08. The red line shows the observations (HadCRU3 data), the black line a standard IPCC-type scenario (driven by observed forcing up to the year 2000, and by the A1B emission scenario thereafter), and the green dots with bars show individual forecasts with initialised sea surface temperatures. All are given as 10-year averages.

 

 

 

1.dans leur figure 4, ci-dessus, le scénario standard A1B reproduit légèrement mieux les 50 dernières années que leur nouvelle méthode avec SST initialisées.

la courbe verte, qui correspond à une moyenne glissante sur 10 ans, centrée sur l'année en abscisse, devrait, par construction, reproduire mieux la réalité, puisqu' initialisée avec les données réelles.

Or, manifestement, elle n'améliore pas la modélisation (voir courbes verte, rouge et noire en traits pleins)

 

2. leur prédiction de refroidissement n'a pas passé le test pour la période passée recalculée (hindcast).

la température (toujours en décennal) a augmenté de façon monotone, alors que leur modèle indique 2 refroidissements l'un centré sur 1970, l'autre sur 1999.

 

3. leur prédiction n'était pas seulement trop froide pour 1994-2004 (assez visible sur la fig4) mais aussi pour la période 2000-2010, où il faudrait avoir tous les mois à partir de maintenant au moins aussi froids que janvier 2008, mois le plus froid, de loin, de la décade.(ou une moyenne équivalente à...)

Cela signifierait donc un refroidissement extrème pour les 2.5 prochaines années.

C'est peu probable.

 

4. pour l'Europe, il semble apparaître un biais systématique dans le modèle.

plusieurs refroidissements prédits n'ayant pas eu lieu.

 

5. un de leurs arguments clés est l'utilisation des SST pour analyser le comportement de l'AMOC.

Une SST élevée indiquant une AMOC forte et une SST faible une AMOC faible.

Or ce n'est évidemment pas si simple (un des auteurs de la critique est Rahmstorf, spécialiste de la circulation océanique).

En effet si le modèle trouve des SST trop froides, par rapport à la réalité, il les force vers des SST plus chaudes.

Mais des SST plus chaudes entraînent aussi des eaux moins denses (notamment dans les zones de convection) et donc une AMOC plus faible, ce qui va en sens inverse de la corrélation, base de leur modèle.

 

6. quand les modèles ne sont plus drivés par les SST observées et qu'on les laisse calculer librement leurs SST, il se produit un "choc de couplage" qui introduit, automatiquement, une oscillation de l'AMOC.

Nous suspectons que les oscillations trouvées par Keenlyside et al. ont pour origine ce défaut des modèles et ne représentent pas la réalité.

 

7. dans la fig1a, le modèle de Keenslyside et al indique des zones bleues (comportement négatif) dans les mers du Labrador, du Groenland, de l'Islande et de Norvège, ainsi que dans la région du Gulf stream.

Ceci veut dire que pour des zones critiques de l'AMOC, leur méthode rend les prévisions plus mauvaises qu'elle ne les améliore.

Elle n'est donc pas capable de prévoir les variations de l'AMOC.

Cette méthode montre bien le comportement de certaines régions mais cela pourrait venir d'avantage d'advection d'eaux de surface plutôt que du comportement de l'AMOC.

 

8. tous les modèles utilisés par le GIEC prennent en compte la variabilité intrinsèque de la MOC mais aussi de la PDO et de la NAO.

Ces modèles montrent qu'un refroidissement dans un scénario de réchauffement global est extrèmement improbable et n'arrive presque jamais.

Ceci suggère que le refroidissement global, trouvé par Keenslyside, est en dehors de la variabilité naturelle trouvée dans les modèles (et probablement dans le monde réel) et est peut-être un artifact de leur méthode d'initialisation.

 

Notre évaluation peut être fausse bien entendu, mais la chose intéressante est que nous le saurons bientôt....

Partager cet article
Repost0
1 mai 2008 4 01 /05 /mai /2008 15:28


(support: photo NASA)
 

Décidément le refroidissement est à la mode ces temps-ci,
 

que ce soit suite à l'influence de la PDO ou de la Niña (voir les articles précédents).

 

 

Les promoteurs du réchauffement d'origine anthropique (dont, modestement, je soutiens les fondements, mais pas forcément tous les "détails" d'application) vont avoir beaucoup de travail pour convaincre les décideurs et le citoyen lambda, de la justesse de leurs théories et prédictions, au regard de ce qui risque de survenir au cours de la prochaine décennie.

 

Du moins si on en croît cette nouvelle étude, parue dans le dernier Nature, dont les conclusions, sont, pour le moins surprenantes:

 

 

"Advancing decadal-scale climate prediction in the North Atlantic sector"

réalisée par des gens, semble t'il, sérieux:

NS Keelyside, M Latif (Leibniz Institute of Marine sciences)

J Jungclaus, L Kornblueh, E Roeckner (Max Planck Institute of Meteorology)

 

dont voici le résumé traduit:

 

 

"La prédiction climatique à l'échelle décennale dans le secteur Nord-Atlantique, avance.

 

Le climat de la région nord-atlantique présente des fluctuations décennales, qui ont de grandes conséquences sociétales.

Des exemples frappants concernent l'activité cyclonique dans l'Atlantique nord, les températures et les pluies en Amérique du Nord, en Europe et en Afrique du nord.

Bien que les variations multidécennales soient potentiellement prévisibles, si l'état actuel de l'océan est connu, le manque d'observations, sous la surface de l'océan, constitue un facteur limitant pour la pleine réalisation de telles prédictions.

Ici, nous appliquons une approche simple qui utilise seulement les SST (températures de surface de la mer) pour surmonter partiellement cette difficulté et accomplir des prédictions rétrospectives avec un modèle climatique.

Le savoir faire est amélioré considérablement, par rapport aux prédictions faites avec une connaissance incomplète de l'état de l'océan., particulièrement dans les océans Atlantique nord et Pacifique tropical.

Donc ces résultats indiquent la possibilité de prévisions décennales de routine.

 

 

En utilisant cette méthode et en considérant à la fois la variabilité interne et le forçage anthropique projeté nous faisons la prévision suivante:

 

Au cours de la prochaine décennie la circulation méridionale océanique atlantique s'affaiblira à sa valeur moyenne sur le long terme; de plus les SST nord atlantiques et les températures de surface en Amérique du nord et en Europe baisseront légèrement alors que les SST tropicales du Pacifique resteront pratiquement inchangées.

 (gloups!)

 

Nos résultats suggèrent que la température globale ne peut augmenter au cours de la prochaine décennie, alors que les variations climatiques  dans l'Atlantique nord et dans le Pacifique tropical, inhiberont le réchauffement climatique anthropique prévu.

  (regloups!)

 

 

 

quelques commentaires "à chaud"

 

Cette étude ne prévoit donc rien moins qu'un refroidissement, certes léger, de l'Atlantique nord et donc de l'Europe au cours des prochaines 10 années (en gros jusqu'en 2015-2020)

 

 

La lecture de ce qu'il y a après l'abstract, indique que la température globale (voir fig 4) devrait recommencer à augmenter vers 2010-2011, selon le modèle des auteurs, pour rejoindre la prévision des modèles classiques vers 2025.(il semble y avoir une contradiction, si j'ai bien compris, quant à la période de stagnation de la température globale)

 

 

Il semble cependant que les résultats du modèle dépendent, comme on s'en doute, des conditions initiales et donc de la connaissance de l'état de l'océan.

 

 

Mais encore une fois, la gestion scientifique et "politique" d'un refroidissement ou d'une stagnation des températures ou d'un moindre réchauffement, c'est selon,(déjà commencée depuis quelques années), s'il se produisait, même partiellement, risque d'être plutôt délicate....

 

Si l'on suit un peu, par exemple, les efforts d'un Hansen pour contrer, dans son pays, le recours quasi-inexorable, au charbon, en remplacement du pétrole, on se demande un peu si 10 années "froides" aux US, vont être un argument décisif qui va convaincre les décideurs politiques ou, pire, les décideurs économiques.
Surtout si on tient compte de l'urgence dont Hansen assortit son discours.
Enfin c'est à suivre...
 

D'une manière plus générale, il apparaît, de toutes ces études diverses concernant l'océan, que son influence sur le réchauffement climatique, suite au forçage des GES, manque encore de certitude(s).
C'est le moins que l'on puisse dire.
Les modèles actuels ont plutôt tendance à prévoir une stratification accrue de l'océan, c'est à dire un moindre mélange.
Mais il semble que côté hémisphère sud (voir article sur inertie thermique) ce ne soit pas vérifié et qu'on suspecte au contraire un mélange plus important.
Il en est de même pour La Niña, pour laquelle, d'après un scientifique peu soupçonnable de scepticisme, Gavin Schmidt, on suspecterait maintenant que le réchauffement favorise, de par un renforcement des alizés, les épisodes Niña, établissant ainsi une rétroaction négative supplémentaire.
 

Enfin, pour le fun, une petite réflexion amusante (enfin je trouve):
 

L'océan représente une masse immense dont la température moyenne est de l'ordre de 3 à 4°C.

 

Il représente donc un stock de froid gigantesque, à comparer à une couche de surface assez fine, finalement, de température moyenne égale à 15°C.
Si, par le plus grand des hasards, l'océan parvenait à se mélanger parfaitement et progressivement (en maintenant la température de surface à 15°C), il serait capable de contrer, intégralement, environ 3000 ans de réchauffement climatique anthropique (en supposant un passage de 385 à 560ppm de CO2)
Et encore, sans compter le stock de glace qui ajouterait 400 années supplémentaires.
 

Sans en arriver à de telles extrémités, exposées simplement pour fixer les idées, on peut peut-être mieux comprendre pourquoi la question du mélange de l'océan est aussi importante  et pourquoi un soubresaut de la  circulation océanique peut apporter d'aussi grands désordres.(quoique dans le cas de l'AMOC c'est plutôt l'océan vecteur de chaleur méridienne qui est en cause)

 

Ah oui je rajoute un petit truc tout de même.


 

En supposant que tout l'océan se mélange et que sa température moyenne augmente de 11.5°C, ce seraient des quantités énormes de CO2 qui seraient larguées dans l'atmosphère.

Ce qui bien sûr augmenterait considérablement le forçage et réduirait la période d'inhibition du RC.


 

Partager cet article
Repost0
29 avril 2008 2 29 /04 /avril /2008 11:54

 

 

Le fait que cette période de réchauffement climatique paraisse, au premier abord, interrompue depuis quelques années, peut dérouter même les plus acquis à la thèse du réchauffement anthropique.

 

Les fluctuations que nous constatons, pas seulement à court terme (mois, année), pourraient, cependant masquer l'évolution long terme, nous faisant ainsi "oublier" certaines bonnes résolutions de modération énergétique.

 


C'est cet article récent de la NASA qui a attiré mon attention.

 

résumé traduit:

 

 

 

"Un phénomène climatique de grande ampleur, dans le Pacifique, fait persister la Niña actuelle.

 

 


 

Boosté par l'influence d'un plus vaste phénomène climatique dans le Pacifique, une des plus fortes Niña depuis de nombreuses années, commence actuellement à s'affaiblir, mais recouvre encore l'océan Pacifique près de l'équateur...

La représentation des niveaux de l'océan montre que la Niña se produit dans le contexte du début de la phase froide de la Pacific Decadal Oscillation (PDO) .


La PDO est une oscillation à long terme dans le Pacifique qui alterne ses phases froides et chaudes tous les 5 (?) à 20 ans.

Dans la phase froide, des hauteurs de niveau océanique  plus élevées, venant d'eaux plus chaudes, forment une structure en  "fer à cheval" qui connecte le nord, l'ouest et le sud du Pacifique, alors qu'une zone plus froide, et de hauteur de niveau plus bassse, se situe au mileu de ce fer à cheval.

Pendant les années 80 et 90 nous étions en phase chaude durant lesquelles les comportements des régions indiquées étaient inversés.
 .....


Cette tendance froide sur plusieurs années peut intensifier les Niña et diminuer les Niño.

La persistance  de ce comportement de grande échelle, nous dit qu'il y a bien plus qu'un évènement Niña isolé " dit Bill Patzert, un océanographe et climatologiste du NASA JPL Pasadena...

Le changement dans la PDO, aura des implications pour le climat global étant donnée l'étendue  concernée.

Cela peut affecter l'activité cyclonique atlantique et Pacifique, les sécheresses et les inondations autour du bassin Pacifique, les écosystèmes marins et les températures terrestres.
 
Les allées et venues des El Niño, La Niña, et de la PDO, font partie (?) du plus long changement, en cours, du climat, dit Josh Willis, océanographe et scientifique du climat au JPL.

L'augmentation du niveau de la mer et le réchauffement global, dus à l'augmentation des gaz à effet de serre, peuvent être fortement affectés par de grands phénomènes naturels, tels la PDO et l'ENSO.

En fait, dit Willis, ces phénomènes naturels peuvent quelquefois cacher le réchauffement global du aux activités humaines.

Ou ils peuvent avoir l'effet inverse en l'accentuant...

Jason 2 est prévu être lancé en juin prochain et étendra la durée de mesures de Jason 1 et de Topex/Poseidon, sur les deux prochaines décennies...."

 


ci-dessous, extraite de ce lien, une représentation des caractéristiques de circulation atmosphérique et de SST sur le Pacifique, pendant les phases froide et chaude de la PDO.

 

 


 

 

 

 

Nous allons maintenant essayer de déterminer l'influence réelle de la PDO.


 

 

reconstruction des températures et projections

 

 

Dans l'article sur l'inertie thermique, nous avions vu, qu'actuellement, et étant donnée la forte inertie thermique estimée dans les océans de l'hémisphère sud, la hauteur d'eau équivalente corroborant l'augmentation de température globale, était de l'ordre de 450m.

Je rappelle que le "modèle" utilisait les données de Levitus, l'évolution du forçage selon NASA-GISS (de 1880 à 2003) , ainsi que l'évolution des températures selon NOAA.

On aboutissait ainsi à une sensibilité climatique estimée à 0.75°C/(W/m2).

Bien entendu, cette reconstruction ne tenait pas compte des derniers résultats des balises ARGO, signalés dans l'article "le mystère de la chaleur manquante".

Les simulations, concernant l'après 2003, dans le présent article,sont effectuées en tenant compte d'une augmentation de forçage radiatif de 0.03W/m2.an, ce qui correspond, grosso modo, à une augmentation annuelle de la teneur en CO2 d'un peu plus de 2 ppm.

 

voici tout d'abord le graphique rassemblant l'indice PDO et l'anomalie globale NOAA.

 

 

puis la courbe de corrélation entre les deux séries

 

 

 

La corrélation est très mauvaise.

Cet indice est toutefois corrigé du trend global d'augmentation des SST, ce qui,étant donnés les ordres de grandeur respectifs, ne modifie que légèrement une tendance éventuelle.

 

voici d'ailleurs la définition de cet indice, telle qu'elle apparaît dans la base de données:

 

 

"Updated standardized values for the PDO index, derived as the leading PC of monthly SST anomalies in the North Pacific Ocean, poleward of 20N. The monthly mean global average SST anomalies are removed to separate this pattern of variability from any "global warming" signal that may be present in the data."

 

 

voici ce que donne la reconstruction des températures avec les paramètres rappelés plus haut suivie de la corrélation entre cette reconstruction et l'anomalie globale NOAA.

 

 

 

 

 

la corrélation entre les deux séries est très bonne.

Il semble qu'il y ait une bonne cohérence entre toutes les séries de données utilisées.

 

Le signal PDO est maintenant ajouté en utilisant différents coefficients d'atténuation.

Le meilleur coefficient d'atténuation est déterminé par le meilleur coefficient de corrélation entre l'anomalie globale et la reconstruction.

On aboutit à un coefficient d'atténuation très faible de 0.05.

 

 


 


 

 

Ce résultat, un peu surprenant, étant donné ce qui est dit dans l'article NASA, nous mène à une amplitude maximale de signal PDO, sur l'anomalie globale, de 0.2°C environ.

 

La comparaison des reconstructions et de l'anomalie NOAA, ci-dessous, montre que la reconstruction avec PDO, reproduit l'anomalie avec d'avantage de réalisme, notamment la stagnation/baisse des températures, à partir des années 45-50.

 

 

 

 

Par contre la baisse des températures de 1900 à 1910 est très faible avec les reconstructions (avec ou sans PDO), comparée aux séries de données climatologiques, en l'occurrence, ici, de la NOAA.

L'influence d'autres oscillations climatiques, ENSO, AMO, AO, NAO,... serait sans doute à prendre en compte, mais la combinaison de toutes ces oscillations climatiques déborde largement des capacités de calcul utilisées ici.

 

Afin de prévoir l'influence future de la PDO, on peut se livrer à une petite simulation, à prendre pour ce qu'elle est, c'est-à-dire une  grosse approximation.

 

On utilise pour cela un signal sinusoïdal, sensé reproduire le signal PDO.

 

 

 

 

Il est évident, au regard de ce graphique, que l'oscillation PDO est loin d'être régulière.

Par exemple, la phase froide entre 1900 et 1920, est en fait une phase neutre.

Il en est de même de la fréquence du signal et de son amplitude.

 

 

La période actuelle semble entrer avec retard en phase froide et nous ne sommes pas du tout certains que cette dernière ne sera pas une phase neutre, comme au début du 20ème siècle.

 

Néanmoins, il peut être intéressant de pousser un peu la simulation.

 

ci-dessous une projection d'un futur possible, où l'on voit bien l'oscillation PDO qui accélère ou ralentit le réchauffement.

 

 

 

 

Il peut être intéressant également de mettre en évidence l'influence de la PDO sur la tendance décennale calculée par régression linéaire sur des périodes de 30 ans.

 

 

 

 

Si cette simulation se réalisait, la tendance devrait continuer à ralentir jusqu'en 2020-2025 jusqu'à 0.13°C/décennie puis accélérer à 0.3°C/décennie jusqu'en 2045-2050.

Puis à nouveau ralentir,....puis à nouveau accélérer, et ainsi de suite.

 

Il faut avoir conscience qu'il ne s'agit que d'un exercice destiné à montrer l'influence d'une oscillation climatique, dont on connaît mal l'amplitude et dont on n'est pas sûr qu'elle ne peut être modifiée avec l'évolution à long terme.

 

Disons que cela permettra peut-être d'aider à comprendre notre situation actuelle.

 

 

 

 

 

 

 

 

 

Partager cet article
Repost0
26 février 2008 2 26 /02 /février /2008 17:54
Il s'agit, dans cet article, de faire un panorama de la nature des variations et des mesures de l'activité solaire, ainsi que d'aborder son influence sur le climat de ces tous derniers siècles.

Pour des raisons indépendantes de la volonté de l'auteur de cet article, certaines images et figures ont disparu.
Nous vous demandons de bien vouloir nous excuser pour ce désagrément.



le soleil en quelques chiffres
(1)
 


 

Une très grosse boule d'un rayon de 695990 km, soit 109 fois plus grand que la Terre.

Sa masse est de 1.989 1030 kg soit 330000 fois la masse de notre planète.

Il est 1050 fois plus massif que la planète la plus lourde du système solaire, Jupiter, et représente  99.85% de la masse du système solaire.

 

Les réactions nucléaires de fusion, qui ont lieu dans le cœur de l'étoile dégagent de l'énergie se dissipant à la surface du soleil, au travers des zones radiative et convective.

 

La température externe de la zone convective (appelons la, la surface) est de 5770 °K.

On peut remarquer que toute l'énergie du soleil est émise par la surface d'une densité très faible, soit 1.6 10-4 la densité de l'air à la surface de la Terre.

C'est donc un gaz presque évanescent qui rayonne toute la puissance des réactions nucléaires ayant lieu dans un cœur dont la densité est plusieurs fois celle de l'acier.

 

La puissance dissipée, sous forme radiative, est de 3.846 1026 W.

 

Cette puissance se conserve en cheminant dans l'espace, mais son flux (en W/m2) diminue avec le carré de la distance à l'astre.

 

La Terre, qui est à une distance moyenne de 149.6 Mkm2, reçoit ainsi un flux de 1367 W/m2 environ.

Le disque terrestre reçoit donc une puissance de 1.748 1017 W soit 0.45 milliardième de la puissance solaire totale.

La puissance solaire reçue par la Terre, au sommet de l'atmosphère, est près de 12000 fois la puissance utilisée par l' humanité.

 

C'est ce flux qui est responsable des caractéristiques thermodynamiques de la surface, des océans et de l'atmosphère terrestres.


 
 

La TSI (Total Solar Irradiance) et le flux solaire TOA (Top of Atmosphere) varient par:

  

- augmentation sur le très long terme, 6.7% par milliard d'années, due au "vieillissement" (noyaux de plus en plus lourds) de la matière solaire et à l'évolution des réactions nucléaires vers des réactions plus énergétiques.

- variations de l'orbite terrestre

- variations à court et moyen terme (années, décennies,…,)

 
  
 
variations à court et moyen terme
 
 

elles sont dues essentiellement à l'activité magnétique du soleil.

 
 

Tout mouvement de particule chargée engendrant un champ magnétique, le plasma qui compose le soleil crée des champs magnétiques puissants.

La génération et l'organisation du magnétisme solaire sont réalisées par ce que l'on appelle la dynamo solaire.

Cette dernière fait l'objet de nombreuses recherches et études très complexes, visant à modéliser son fonctionnement.

Le bouclage des lignes de champ sur elles-mêmes, l'effet alpha, engendre, au travers de la couche convective, différents phénomènes, comme les les taches solaires et les facules.

Les taches sont plus sombres que la surface du soleil, elles diminuent donc la TSI, tandis que les facules sont plus brillantes et l'augmentent.

La variation de TSI globale du soleil, est donc la somme algébrique des contributions des taches et des facules.

Cette somme est toujours en faveur des facules.

Ceci entraîne, qu'en période de forte activité, visible par un grand nombre de taches, la TSI augmente.

Les facules accompagnent principalement les taches solaires, mais sont aussi réparties sur l'ensemble de la surface où elles constituent le "réseau magnétique" (2)

 

Il n'a pas encore été repéré (2), de variations de TSI en dehors de ces phénomènes magnétiques.

 
Il faut distinguer 2 cycles d'activité, en fait liés.
 



Le cycle de 11 ans ou cycle de Schwabe, qui concerne l'amplitude du champ magnétique et donc du nombre de taches (et de facules) et le cycle de 22 ans qui concerne le sens du champ magnétique.



Tous les 11 ans le champ magnétique s'inverse et sa direction redevient identique au bout de 22 ans.



Les causes de cette périodicité ne sont pas encore parfaitement comprises, mais tout tient très probablement dans le fonctionnement de la dynamo solaire, voir (1).
 

Les modèles magnétohydrodynamiques actuels ne permettent pas de retrouver la périodicité du cycle mais, par contre, ébauchent déjà le fait qu'un cycle existe et que son intensité soit variable voire nulle pendant plusieurs décennies.(fonctionnement chaotique de la dynamo)

Voir ce genre de modèle, par exemple, sur lequel travaille, entr'autres, Paul Charbonneau.

Pour ceux qui veulent se lancer dans une compréhension plus approfondie de la modélisation et en même temps du fonctionnement de la dynamo solaire on pourra se plonger dans cet article du même auteur.


 
On verra que c'est une science qui ne souffre pas de simplification abusive…

 
 
 
 Les variations maximales, d'un maxi à un mini solaire, relevées avec les instruments embarqués, sont de l'ordre de 0.1%.
 

Le Soleil émet son rayonnement suivant le spectre du corps noir (grossièrement sans tenir compte des absorptions à certaines fréquences).

 

ci-dessous, la répartition du flux et de sa variation entre mini et maxi solaire:

undefined  




on voit qu'une partie très importante, 40%, de la variation de flux, concerne les UV compris entre 0.2 et 0.3 microns (200-300 nm).

 
 
Une bonne partie de ce rayonnement (90% environ) étant absorbé par la stratosphère, on remarque que 70% environ de la variation de TSI due au cycle de 11 ans, rentre dans la troposphère.

Si on néglige la diffusion dans le reste de l'atmosphère, l'albédo imputable à l'ensemble troposphère + surface étant de 0.3 (autrement dit 30% du rayonnement réfléchi vers l'espace sans absorption), c'est, grosso modo, 50% de la variation de TSI qui va être absorbée par l'ensemble troposphère + surface.

Si on ramène ce flux TOA au forçage radiatif il faut encore diviser par 4 le résultat.

 

Autrement dit, une variation typique de TSI de 1 W/m2, va engendrer un forçage sur troposphère + surface, de 0.122 W/m2.
Si on considère le couple "ensemble de l' atmosphère + surface", le forçage est de 0.175 W/m2.

 

Une telle variation, 0.5 millième du flux incident moyen,  compte tenu, en outre, de l'inertie du système, est relativement faible si on la compare aux changements de flux saisonniers par exemple.

Relativement à la puissance absorbée par la stratosphère la variation de TSI, 1.3% environ, qui concerne cette couche, est un peu plus significative, 26 fois plus que précédemment.

 
 
méthodes de mesures et de suivi de l'activité solaire
 


 

1- le nombres de taches
 
2 nombres normalisés:
 

- le nombre de Wolf, ou international sunspot number, est produit par le SIDC (Solar International Data analyse Center).

 
Sa valeur est:
 
R = K(10g+s)
 
 

où K est un coefficient relatif à l'observation (observateur, lieu, instrumentation,…)

g est le nombre de groupes de taches identifié (1 groupe comprend de 1 à n taches), s est le nombre total de taches.

 

nota: dans les tables apparaît le ssn qui est le spotnum lissé.

 

Il n'est donc pas évident de retrouver les spotnums journaliers à partir des photographies du soleil telle que celle du 7 janvier 2003 par exemple.(source spaceweather)

 

 

 


le spotnum brut est de 141, le ssn est de 90 seulement.
 

Mais on verra mieux la différence entre brut et lissé sur ce graphe du SIDC.

 
 
 

- le nombre de groupes de taches créé par Doug-Hoyt et Schatten, Rg, qui ne tient compte que du nombre de groupes de taches.

 
Sa valeur est :
 

 Rg =1/N somme (12.08*gi)

 

où N = nombre d'observations, gi = nombre de groupes de taches par observation

 

le coefficient 12.08 est un coefficient de normalisation destiné à "coller" au nombre de Wolf.

Ces deux nombres représentent, selon les auteurs, un peu mieux l'un que l'autre certaines caractéristiques de l'activité solaire.

 

Ci-dessous, deux évolutions de l'activité solaire, la première, utilisant R, issue des données du SIDC, de 1700 à 2007.

 
fig(2)Documents-and-Settings-test-Bu-e1-solaire1fig2-copie-1-6606.jpg
 
 
 

La seconde, issue des données de NGDC/WDC, utilisant Rg, retrace l'évolution de 1610 à 1995.

 
Documents-and-Settings-test-Bu-e1-solaire1fig3-copie-1-6606.jpg


 
 Si cette seconde courbe présente l'avantage de nous donner un aperçu de la situation de l'activité pendant le minimum de Maunder, il faut toutefois, bien avoir conscience que les données d'avant 1700 sont fortement soumises à caution.

 
 

remarque: si on fait l'hypothèse, réaliste, que l'amplitude maximum des cycles est, exprimée en W/m2, de l'ordre de 1.2W/m2, il apparaît que la variation de TSI, mesurée par le nombre de taches (R ou Rg), entre le MM (Minimum de Maunder) et l'époque actuelle, est de l'ordre de 0.5-0.6 W/m2.



Ceci correspond à un forçage, très faible, de 0.1 W/m2 .
 

 
 
2- le flux radio à 10.7cm
 
  

ce flux suit très bien l'activité solaire et le nombre de taches en particulier.

 
fig4

Documents-and-Settings-test-Bu-e1-solaire1fig4-copie-1-6606.jpg
 



il est à noter que si le nombre de taches peut tomber à zéro, il n'en n'est pas de même pour le flux radio.


Le niveau minimum correspondant à la l'activité de surface non perturbée.

 

Le coefficient de corrélation entre flux radio et SSN égal à 0.98, est évidemment excellent..

 
Documents-and-Settings-test-Bu-e1-solaire1fig5-copie-1-6606.jpg
 
 
3- les rayons cosmiques

 
 
 Le soleil émet, en permanence, le vent solaire.

Ce dernier est composé de particules chargées et d'un champ magnétique.

Les particules chargées émises à 400 km/s de la couronne solaire, ralentissent en rencontrant la matière interstellaire.

Le lieu où la vitesse de ces particules devient égale à la vitesse des particules interstellaires, s'appelle l'héliosphère dont la forme plus ou moins sphéroïdale forme un genre de coque magnétique et de particules chargées, englobant le système solaire dans son entier.

Le vent solaire variant avec l'activité solaire, la "force" ou le rôle d'écran magnétique de l'héliosphère varie dans le même sens.

 

Les rayons cosmiques sont des particules chargées (protons) à très haute énergie, plusieurs Gev.

Ils sont émis à l'occasion de phénomènes cosmiques cataclysmiques et violents comme les explosions de supernovae, par exemple.

Ils ne viennent donc pas et en aucun cas, du soleil.
 

Malgré cette haute énergie qui se traduit par des vitesses relativistes, lorsqu'ils rencontrent le champ magnétique de l'héliosphère, ils sont plus ou moins déviés suivant la force du champ magnétique.

 

La force qui s'exerce sur une particule de charge q, de vitesse v, dans un champ magnétiqueB est :

 
F = qv ^ B
 

En conséquence , lors des périodes de forte activité, moins de rayons cosmiques (GCR) rentrent à l'intérieur de l'héliosphère et par conséquent viennent toucher la Terre.

 

Lorsque ces GCR frappent notre atmosphère, ils ralentissent en formant des gerbes de particules de plus en plus lentes, dont des neutrons.

Ce sont ces neutrons qui faisant l'objet de comptages sont donc représentatifs de l'intensité des GCR qui frappent la Terre et par là-même de l'activité solaire.

Moins de neutrons voulant dire plus d'activité solaire et plus de neutrons voulant dire moins d'activité solaire.

 

Les mesures neutroniques existent déjà depuis 5 décennies et sont réalisées par plusieurs observatoires de par le monde.

Nous avons réalisé un signal neutronique composite de 4 observatoires différents, Huancayo, Kiel, Moscou, Climax (voir les données NGDC).

Le graphe ci-dessous représente le comptage neutronique de 1970 à 2006 (période commune des comptages) ainsi que le SSN.

 
fig 6
 
Documents-and-Settings-test-Bu-e1-solaire1fig6-copie-1-6606.jpg
 

on voit bien l'anti-corrélation entre les 2 signaux, quoique le coefficient de corrélation, égal à 0.64, soit moyennement bon.

 
fig7

Documents-and-Settings-test-Bu-e1-solaire1fig7-copie-1-6606.jpg
 

Malgré tout le signal neutronique n'est pas à écarter comme mesure, approximative, de l'activité solaire.

 
 
4- les isotopes cosmogéniques
 
 

Les GCR (rayons cosmiques) qui rencontrent les noyaux des atomes de gaz atmosphérique, provoquent, soit directement, par spallation des noyaux d'azote, d'oxygène, ou Argon, le 10Be (Beryllium 10), soit par capture de neutrons thermiques le 14C à partir de 14N.

 

Le 14C est généralement stocké dans les végétaux et notamment dans les cernes d'arbre où on peut mesurer sa teneur.

 
le 10Be est retrouvé dans les carottes glaciaires.
 

Comme les rayons cosmiques, qui passent au travers de l'héliosphère, varient avec l'activité solaire (modulation solaire), les teneurs en 14C et 10Be varient également.

 

Concernant le 14C, un problème important se pose à partir du 20ème siècle suite à l'utilisation des combustibles fossiles et, pire, suite aux essais nucléaires à partir de la fin de la 2ème guerre mondiale.

 

Pour le 10Be, il semble que sa teneur dans la glace dépende assez significativement du cycle hydrologique et du climat.

 

Un autre inconvénient à l'utilisation des isotopes est l'influence du géomagnétisme.

Cette influence implique, de plus, des variations suivant la latitude.

 

Nous avons vu, en outre, que les variations de flux de GCR ne reproduisaient qu'approximativement les variations de TSI et ne permettaient donc pas une reconstruction  précise de la TSI.

 

Par conséquent, il nous semble difficile, pour le moment, d'utiliser ces proxies, pour décider définitivement de l'amplitude de la variation de l'activité solaire depuis le Minimum de Maunder par exemple.

 

Il y a bien entendu de nombreux articles et études parus sur le sujet.

 

 

Les séries temporelles des isotopes sont relativement peu disponibles en libre accès, du moins en apparence.

 

ci-dessous une des rares séries trouvées concernant le 2ème millénaire de notre ère.

 
fig8
 




il s'agit de la variation de l'inverse du 10Be mesuré dans les carottes PS1 du pole sud comparée à la variation du GSN.

 

on remarque que si les 2 tendances évoluent, grossièrement, dans le même sens, le "détail" de la courbe GSN n'est que partiellement reproduit par la courbe isotopique.

 
 
 
 
5- le problème du "background"
 
 

les premières mesures de le TSI par satellite ont incité les scientifiques à étendre la connaissance de la TSI à la période pré- satellitaire en raccordant ces mesures avec le nombre de taches solaires (SSN ou GSN), puisque ce dernier était connu depuis 1610.

 

D'un autre côté, les faibles variations de TSI trouvées par les satellites ne rendaient pas compte, selon eux, des variations climatiques de l'époque pré- industrielle, ou même de la première moitié du 20ème siècle.

 

Ils ont donc été tentés de trouver une variation de TSI supplémentaire à la variation déduite des taches.

C'est cette variation supplémentaire qui a été désignée par Judith Lean (3), en particulier, comme le "background".

 

Ils (Baliunas) ont cru pouvoir mettre en évidence ce background en observant les étoiles semblables, ou les plus semblables, au Soleil.

 

En effet, certaines de ces étoiles, en situation de minimum de Maunder (MM) apparent, présentaient une activité magnétique plus faible que le soleil lorsqu'il est en minimum d'activité.

 

Depuis, Hall et Lockwood 2004 (4) en utilisant un échantillonnage supérieur d'étoiles, n'ont pas retrouvé la distribution bimodale trouvée notamment par Baliunas et Jastrow concernant les étoiles "en activité" et les étoiles en MM.

Si des étoiles sont bien en activité plus faible, la majorité des étoiles en MM ont une activité égale et supérieure au Soleil en activité basse lors de ses cycles.

 

Il n'y a donc pas de raison objective de privilégier l'hypothèse basse pour tenter d'expliquer des variations climatiques supposées du moins supposées en amplitude.

 

Les reconstructions de Lean 1995 et 2004, montrent les différences importantes entre les delta de TSI suivant la prise en compte ou non, du background.

  
 

 
 
D'autres hypothèses concernent la présence d'un background faisant intervenir les évolutions des isotopes et du géomagnétisme.

voir chapitre 2 AR4 p190.

   

Cependant les travaux de Wang 2005 (5), notamment, comprenant l'introduction d'un modèle de transport de flux magnétique, réfutent la présence d'un tel background.



Voir ci-dessous la reconstruction, extraite de AR4 chap 2 p190, de la TSI de Wang 2005.
 

 
Documents-and-Settings-test-Bu-1-solaire1fig10-copie-1-d109.jpg



Cette reconstruction laisse apparaître un delta MM/ contemporain de 1W/m2, alors que le delta 2000-1900 est de 0.5W/m2.

 

Rappelons que ces variations de TSI correspondent à des forçages TOA respectivement de 0.175 et 0.087 W/m2.

 
 
 
6- les relevés satellitaires
 
 
 
il s'agit de la mesure, en direct, de la TSI.
 

L'appareillage utilisé est du type radiomètre comme le TIM utilisé dans le projet SORCE.

 

Malheureusement et contrairement à ce que l'on pourrait croire, les mesures de TSI depuis 1978, date de la mise en orbite du premier satellite destiné à mesurer l'activité solaire, sont très dispersées.

 

Voici le graphique des mesures effectuées par les satellites depuis 1978 ainsi que les 3 reconstructions ACRIM, PMOD, et IRMD.

 
 
fig11
 
Documents-and-Settings-test-Bu-1-solaire1fig11-copie-1-d109.jpg



Nous ne développerons pas outre mesure la polémique entre ACRIM (Wilson) et PMOD (Frölich) au sujet de minimum du cycle 22 plus élevé de 0.4W/m2 pour ACRIM que pour PMOD.

Simplement la reconstruction ACRIM se targue d'être la meilleure car utilisant les "véritables" données (voir la dispersion), dont la calibration est loin d'être assurée, alors que PMOD essaie de corroborer ces données avec d'autres proxies et les modèles de reconstruction de TSI à partir des taches et des facules.

Il est bien clair que le SSN, les modèles, le flux radio, le flux neutronique ne corroborent pas un minimum 22 aussi élevé.

 
On lira le chapitre 2 de l'AR4 page 189, à ce sujet.
 

On notera en outre que SORCE, qui constitue le projet le plus récent et le plus "up-to-date" , se situe à 4.5W/m2 en moyenne, en dessous de ACRIM3 et VIRGO pour des raisons encore en cours d'étude.

Les résultats de TSI sont dispersés sur 1% environ alors que l'on cherche une précision de l'ordre de 0.01%.

Ceci ne voulant pas dire que l'on ne peut corréler tous ces enregistrements, bien sûr, pour obtenir une tendance fiable, mais il reste une inconnue sur la valeur absolue exacte.

les espoirs actuels des scientifiques se portent désormais sur SORCE.

 
 
 

INFLUENCE SUR L' EVOLUTION CLIMATIQUE du 20ème siècle

 
 
1- le problème de l'amplitude de la variation de TSI
 
 

Nous utilisons l'évolution de la TSI de Wang 2005 (5) ainsi que les valeurs du cycle sans background de Lean 2004.(3)

 
voici ce que donne cette évolution:
 
fig 12
 
Documents-and-Settings-test-Bu-1-solaire1fig12-copie-1-d109.jpg

 
 

 
la variation entre 1713 et 2007 est de l'ordre de 1 W/m2, ce qui correspond à un forçage de 0.175W/m2.

On notera que ce forçage, qui prend en compte toutes les longueurs d'onde, est un peu supérieur à la "meilleure estimation" du GIEC, soit 0.12W/m2.

On notera également la valeur assez basse de la TSI en 2007.
 

Nous allons maintenant reconstruire l'évolution de l'anomalie théorique de température, si le forçage solaire était le seul à agir.

Nous utilisons pour ce faire le "modèle" décrit dans l'article "anomalie de température et inertie thermique" sur ce même site.

 

La hauteur d'eau équivalente est prise égale à 230 m, ce qui correspond à la HEE de 300m de 1955 à 2003 calculée dans l'article, pour l'océan global, et la HEE de 80 m environ pour les terres, avec les hypothèses prises sur les forçages et sur les valeurs Levitus.

 

Bien entendu, nous avons conscience que cette HEE serait fortement différente si les forçages réels étaient fortement différents.

 

voici donc ce que donne cette reconstruction mise en perspective avec l'évolution de la température selon Hadley.

 
fig 13

Documents-and-Settings-test-Bu-1-solaire1fig13-copie-1-d109.jpg

 


la valeur de l'anomalie due au soleil est à peine de 0.1°C sur les 0.8°C mesurés et on voit que même la période 1910-1940 n'est pas entièrement explicable, loin s'en faut, par l'évolution solaire.

 

on peut remarquer aussi la très faible amplitude de l'oscillation due au cycle de 11 ans, inertie thermique oblige.

 

Pour avoir une évolution qui ressemble à l'évolution réelle, il faudrait multiplier le forçage par un facteur 10.

 
fig 14

Documents-and-Settings-test-Bu-1-solaire1fig14-copie-1-d109.jpg
 



Bien entendu, on pourrait aussi avoir toutes les valeurs comprises entre 1 et 10 si on associe ce forçage avec d'autres forçages, anthropiques et volcaniques, notamment.

 

Il est donc clair que, pour accorder une importance significative au Soleil, dans l'évolution actuelle, il faut trouver un forçage supplémentaire, important, qui accompagne l'évolution du forçage solaire brut.

Ce forçage n'est pas à considérer comme une rétroaction positive de la température et donc ne fait pas intervenir la sensibilité climatique au sens habituel du terme.

 
 
2- l'action des rayons cosmiques sur les nuages
    
 
 

Marsh et Svensmark sont à l'origine de cette hypothèse qui est fortement controversée, cela va sans dire.
 
 
Mais venons en à l'hypothèse.
 

Nous avons vu que les rayons cosmiques variaient en sens inverse de l'activité solaire.

Ces rayons cosmiques sont suspectés, par les tenants de la théorie, provoquer, dans la basse troposphère, des nucléations de gouttelettes d'eau, à l'origine des nuages.

C'est le principe de la chambre de Wilson (à vapeur saturante) qui permet de détecter les trajectoires de particules (nucléons par exemple) issues de collisions.

La théorie prévoit, dans sa dernière mouture, que l'action des rayons cosmiques se fera sentir dans la formation des nuages de basse altitude (gerbes de particules en forme parapluie), les stratus notamment.

Comme ces nuages ont un effet d'albédo fort pour un effet de serre quasi-nul, le raisonnement est :

activité solaire basse => GCR forts => plus de nuages bas => plus d'albédo => baisse de la température globale accentuée.

 
 
Le raisonnement est simple, mais il se tient.
 
Alors pourquoi n'est-il pas plus pris en considération?
 

Nous allons essayer de tirer quelques courbes et comparaisons à ce sujet.

 

Nous utiliserons les comptages neutrons normalisés, suivant plus haut, et la base de données sur les nuages ISCCP.

 
Regardons tout d'abord les nuages bas observés en visible.
 
fig 15
 
Documents-and-Settings-test-Bu-1-solaire1fig15-copie-1-d109.jpg

 


il apparaît , que la corrélation des données brutes est non significative, R2 = 0.0006, pour ce qui concerne le visible et sur l'ensemble de la période.

Elle s'améliore un peu cependant si on réduit cette période qui déjà n'est pas très longue, 26 ans, climatologiquement parlant.

 

La corrélation semble meilleure lorsqu'on regarde les nuages bas en IR.

 
fig 16
 
Documents-and-Settings-test-Bu-1-solaire1fig16-copie-1-d109.jpg



cette corrélation passe à 0.06, et quoique  peu signicative, s'améliore d'un facteur 100 par rapport aux nuages bas visibles (NBVI)

 

Elle est d'ailleurs bien meilleure sur les 2 premiers cycles, mais la fin de la courbe ne confirme pas.

 

Ajoutons maintenant à la courbe précédente, les nuages de niveau moyen (NM) ainsi que la somme NMIR et NBIR.

 
fig 17

Documents-and-Settings-test-Bu-1-solaire1fig17-copie-1-d109.jpg
 


 
il apparaît une chose assez étrange qui mériterait approfondissement.

 

En effet, la courbe des nuages moyens semble la symétrique, moins prononcée sur le premier cycle, de la courbe des nuages bas.

 
 
commentaires sur ces courbes et pistes de réflexion

 
 

On constate que la corrélation entre nuages bas et activité solaire n'apparaît que pour l'IR.

On pourrait objecter que le visible est soumis au parasitage du volcanisme (voir Pinatubo en 1992) mais, malgré ce point, la corrélation reste très mauvaise.

nota: El Chichon, en 1985, peut masquer également les nuages bas, mais cela ne change pas la corrélation puisque ça va dans le même sens.

 

Concernant l'IR, la corrélation est effectivement meilleure sur les 2 premiers cycles, mais le fait que les nuages moyens diminuent quand les nuages bas augmentent, semble peu explicable physiquement en tous cas par les GCR.

On peut penser plutôt à un biais de la mesure qui prend des nuages moyens pour des nuages bas.



Si c'est le cas, la corrélation s'effondre complètement.

Mais il y a peut-être une explication physique à rechercher dans la convection quoiqu'il faudrait expliquer que tous les nuages bas (dans le 2 ème cycle) nouvellement formés, empêchent les nuages moyens de se développer.

Cela ne paraît pas très vraisemblable.
 

Il est également très étrange de constater, que, alors que l'influence supposée des nuages bas se produit uniquement dans le domaine visible, la corrélation soit absente dans ce même domaine.

De plus la détection des nuages bas en IR peut sembler un peu délicate étant donnée la température, très proche de la température de surface, du sommet des nuages bas.

 

En dehors des fluctuations dont nous venons de parler, la tendance à la baisse des nuages bas dans le visible, est très forte, de l'ordre de 4% entre 1983 et 2006.

 

Un petit calcul permet de corréler la baisse de 1% des nuages bas au forçage.

Ce forçage est de l'ordre de 1.3 W/m2 par % de hausse.

En admettant une valeur de sensibilité de 0.77°C.m2/W cela nous mène à une augmentation de température de 4°C à l'équilibre et pour tenir compte de l'inertie thermique, de l'ordre de 1.5°C en 2006 par rapport à 1983.

La base Hadley nous donne 0.5°C seulement.



On pourrait dire également, que la forte baisse des nuages bas est compensée par la hausse des nuages moyens, mais ces nuages moyens sont considérés comme neutres d'un point de vue forçage, leur effet d'albédo équilibrant leur effet de serre.

Donc si ce trend était réel il se verrait forcément dans des anomalies de température très élevées.

Ceci n'étant pas le cas, il peut sembler alors que les mesures de nuages,  manquent de fiabilité et que les résultats que l'ISCCP nous livre, soient à prendre avec une extrème précaution.

 

On lira ce que pense le GIEC, non pas de l'ISCCP, mais des rayons cosmiques, toujours au chapitre 2 de l'AR4 p193.

 
principalement:
 
-la non justification d'un détrending opéré par Svensmark

-le pb visible/IR

- l'absence de tendance sur les anciennes bases de données de nuages

- le fait que des influences locales (RU) soient équilibrées par des tendances locales inverses (USA)

-le fait que les variations solaires en elles-mêmes peuvent provoquer des changements dans la convection

-la variabilité décennale interne
-l'influence de l'ENSO
 
 
 
3- les autres phénomènes climatiques induits
 
 

Nous avons vu au début de cet article que 30 % environ de la variation de TSI affectait la stratosphère directement.

Le changement de "chauffage" de cette dernière étant de l'ordre de 1% entre un maxi et un mini solaire, il ne faut pas attendre à priori de bouleversements émanant de cette couche.

 

Il semble cependant, selon de nombreux auteurs, que le signal du cycle de 11 ans soit, sur les températures de surface, de l'ordre de 0.1°C, alors qu'il devrait être 5 à10 fois inférieur si on ne tenait compte que de l'effet radiatif combiné à l'inertie du système.
Il semble également que l'origine principale de cette variation forte soit une modification des interactions stratosphère / troposphère, engendrée par une variation du chauffage de la stratosphère, et donc une modification de la circulation atmosphérique qui affecte directement notre climat.
Certaines études parlent même d'une modification de la circulation océanique, engendrée par les mouvements de l'amosphère, l'ENSO par exemple.

 

Ces mécanismes, certainement très complexes, ne sont pas encore bien identifiés et expliqués, mais une rétroaction positive provenant de stratosphère paraît assez probable si on en croit les centaines ou milliers d'articles à ce sujet.(6)

 
conclusion générale
 

Nous avons exploré quelques uns des moyens d'évaluation de l' activité (TSI) solaire concernant les quatre derniers siècles.
Nous avons vu que cette activité était très fortement corrélée à l'activité magnétique du soleil et que, le background n'étant pas prouvé, sa prise en compte n'était pas justifiée.

Ceci nous a conduit à envisager comme probable une variation de l'ordre du Watt/m2 de la TSI depuis le minimum de Maunder et donc comme probable une variation du forçage solaire de l'ordre de 0.175 W/m2.

Cette variation n'ayant qu'un effet très faible sur la température globale, de l'ordre de 10% de l'évolution constatée depuis 1850, il a fallu envisager le "recours" à des forçages "supplétifs".

Parmi ceux-ci le forçage par les nuages, via les rayons cosmiques, semble, pour le moment, plutôt ne pas passer le cap des simples corrélations visuelles, du moins sur une période suffisamment longue et dans un contexte (nuages moyens et problème du visible) cohérent.

Il reste donc, de la part de ses promoteurs, à exploiter les résultats de l'expérience CLOUD (7) et à passer à une théorie plus structurée.

Les influences de l'activité solaire sur la stratosphère n'ont été qu'effleurées car non précisément connues.

Mais on peut en déduire, pour le moment, que l'hypothèse d'un réchauffement climatique récent, principalement d'origine anthropique et, secondairement, solaire, est  la plus probable.

 
 


références et liens
 
(1) NASA Solar physics
 
(2) Variations in solar luminosity and their effect on the Earth's climateP. Foukal1, C. Fröhlich2, H. Spruit3 and T. M. L. Wigley4
 
(3) Lean, J.. 2004.
Solar Irradiance Reconstruction.IGBP PAGES/World Data Center for Paleoclimatology

Data Contribution Series # 2004-035.

NOAA/NGDC Paleoclimatology Program, Boulder CO, USA.




(4) THE CHROMOSPHERIC ACTIVITY AND VARIABILITY OF CYCLING AND FLAT

ACTIVITY SOLAR-ANALOG STARS

Jeffrey C. Hall and G. W. Lockwood
 



(5) MODELING THE SUN’S MAGNETIC FIELD AND IRRADIANCE SINCE 1713

Y.-M. Wang, J. L. Lean, and N. R. Sheeley, Jr.

 


(6) DECVAR
 


(7) cloud experiment
Partager cet article
Repost0
4 février 2008 1 04 /02 /février /2008 18:24
l'anomalie de température et l'inertie thermique
  EDIT 05/02/08 (voir dans les conclusions)
  
 
1- le constat
 


 

si les différentes bases de données ne sont pas d'accord concernant le rang de 2007 d'un point de vue global, elles sont cependant tout à fait en phase concernant ce même rang en ce qui concerne cette fois les terres de l' Hémisphère Nord (HN).

 
 

voir la fig1 ci-dessous qui ne laisse aucun doute.

 
 

fig1terres-HN.jpg


  

Il est à noter que la tendance moyenne est de 0.34°C/décennie sur les terres de l'HN, soit encore une tendance de 3.4°C/siècle.

 

 

lorsqu'on compare les anomalies des terres avec celles des océans, par exemple pour NOAA, voilà ce que ça donne sur la fig2:

 

 fig2terres-HN-oc-HS.jpg




la différence de comportement entre ces deux milieux physiques est saisissante.

 


 

la fig3 permet de pousser un peu plus loin l'analyse en mesurant l'évolution de la différence entre les deux anomalies.



fig3-delta-ter-oc-HN.jpg


 

On constate que cette différence augmente.
 

Au-delà des derniers soubresauts de l' ENSO et de la Nina en particulier, cette différence de comportement appelle une explication plus fondamentale.

   
 
 
2- l'inertie thermique
 


 

Sous cette expression on désigne la faculté de réaction d'un milieu à l'application d'une puissance ou d'un forçage thermique.

 

L'océan est constitué par un fluide de forte capacité calorifique et capable, de par sa qualité de fluide, de propager la chaleur de sa surface vers les profondeurs.

 
 

Au contraire, les terres, constituées d'une matière solide, ne peuvent, par définition, propager la chaleur par convection.
 

Le seul mécanisme capable de propager la chaleur de la surface vers le sous-sol, est la conduction thermique.
 

Cette dernière est extrèmement faible.
 

 

Les mécanismes de propagation de la chaleur dans l'océan sont toutefois complexes.
 

On peut retenir que la couche supérieure, de l'ordre de 100 m d'épaisseur, est bien mélangée, suite à l'action des vents à la surface, qui provoquent un mélange turbulent.
 

En dessous, la turbulence décroît et les échanges se réalisent à la suite de mouvements plus lents, comme la circulation thermohaline par exemple.
 

Toutefois on conçoit que ce qui est en jeu pour l'océan, c'est une couche de plusieurs milliers de m de profondeur, dont les sous-couches réagissent à des vitesses différentes, et qui occupe 71% de la surface terrestre.
 

Pour les terres par contre, c'est une petite pellicule de 1 à 2 m qui est à prendre en considération, pour les échelles de temps qui nous intéressent, sur une surface de 29% de la planète.

 

Par conséquent, une puissance donnée, appliquée à l'un et à l'autre milieu, entraîne une augmentation de température bien plus rapide pour les terres que pour les océans.

 

On peut imager ce phénomène en se rappelant de la différence de température entre le sable d'une plage (ouïe!)  et la mer, lorsque le soleil est à son zénith, en plein été.

 

On se souviendra également de la différence de comportement entre les terres et les mers, lors des cycles saisonniers.

  
  
 
3- "modélisation"
  
 

le terme de modélisation recouvre la notion de traduction d'un phénomène physique plus ou moins complexe, en un modèle mathématique plus ou moins complexe également.

 

Concernant le problème de l'inertie thermique, je présente ici un modèle, personnel, très simple.

 
caractéristiques du modèle employé
 

-         les milieux sont considérés comme des couches d'eau parfaitement mélangées et donc homogènes     thermiquement
 

-         le flux  qui quitte la surface de ces milieux est uniquement radiatif (pas de convection donc)
 

-         l'émissivité de la surface est constante et égale à 1
 

-         les variations de température sont considérées comme faibles ce qui autorise l'approximation :
 

 
ΔФ = 4σ Ө3 . ΔӨ   équation 1
 
 
avec
 
Ф = flux (W/m2)

σ = constante de Stefan-Boltzmann = 5.67 10-8 W/m2.deg

Ө = température en °K
 

on considère en première approximation que:

 

ΔФ = K.ΔӨ      avec K = constante   équation 2

 


      

       
-  la sensibilité à l' équilibre, S, qui est définie comme le rapport du delta température à l' équilibre sur le   forçage (flux supplémentaire par rapport à un équilibre initial) est introduite en supposant qu'elle varie de façon linéaire avec la température.




 

le bilan thermique qui s'exerce sur la couche d'eau est schématisé sur la fig4 ci dessous:
 

fig4-sch-ma-de-base.jpg

  
l'équation bilan s'écrit de la façon suivante:
 

-K ΔӨ + F = m.c.dӨ/dt    équation 3

 

où m est la masse, c la capacité calorifique du corps et F le forçage s'exerçant sur la surface.

 

on  assimilera, désormais, Ө et ΔӨ, puisque d(ΔӨ/dt) = dӨ/dt

 

Ө est donc dès maintenant une variation de température, ce qui est directement en rapport avec l'anomalie.

 
l'équation bilan devient donc:
 

F = mcdӨ/dt + KӨ    équation 4

 

qui est une équation différentielle linéaire du premier ordre très simple à résoudre.

 

L'introduction de la sensibilité à l'équilibre, S, donne l'équation finale suivante:

 

mc dӨ/dt = -Ө/S + F   équation 5

 
qui a pour solution:
 
 
Ө = FS ( 1- exp( -t/mcS))      équation 6      
 
  
application à un forçage variable
 

la fonction F = f(t) est découpée en intervalles de temps pour lesquels on résout l'équation 5 avec des conditions initiales différentes qui s'incrémentent au fil du temps.

 
  
 
4- applications
 
 

avec ce modèle simple, on peut étudier l'influence de forçages, soit constants, soit variables.
 

 

Si par exemple, on cherche à savoir la réponse à une augmentation brutale de forçage, due par exemple à un doublement de la teneur en CO2, soit F = 3.7 W/m2, voici ce que cela donne, sur la fig5, pour différentes hauteurs d'eau considérées (donc pour plusieurs inerties thermiques).

 

  fig5-h.jpg

  

on voit que l'équilibre thermique est très vite atteint lorsque la hauteur d'eau est faible, alors que pour une hauteur d'eau qui correspond à la profondeur moyenne de l'océan, soit 3800m, la variation de température n'est que de 0.6°C au bout de 100 ans.

  

autre exemple, on cherche à étudier la réponse à un signal oscillant, type activité solaire.

  

on prend comme valeur, une variation de l'irradiance totale de 1.2W/m2, ce qui donne, une fois tenu compte de l'albédo et du rapport section / surface une variation de 0.2W/m2 entre mini et maxi solaire.
 

la fig6 donne l'évolution de la température pour différentes inerties.

 

fig6-sol.jpg


 

On voit que le signal peine à dépasser 0.12°C pour une inertie faible, alors que pour une inertie plus forte, il devient non détectable (<0.005°C.)

   
on constate également un décalage des courbes avec l'augmentation de l'inertie.

 
 

application aux forçages réels (calculés)



 

Considérons la variation estimée du forçage au cours de ces 120 dernières années.

 

Cette variation est notamment disponible sur le site de la NASA.

  

Afin de calibrer le modèle, on utilise la variation d'énergie contenue dans les océans, issue de Levitus.

 
 

Cette variation est, pour 0-3000m, et pour 1956-1996 de 14.473 10^22 Joules.
 

extrapolée à 1955-2003, voir les courbes sur le document Levitus, et à l'océan entier (3800m), cela nous donne 19.5 10^22 Joules.
 

La tendance des SST de l'océan global est, dans le même temps, et selon NOAA, de 0.089°C/déc.

  

Compte-tenu des forçages NASA, des données de Levitus, et des données NOAA, on aboutit à une hauteur d'eau équivalente de 300m environ et une sensibilité à l'équilibre de 0.77°C.m2/W.

 

Bien entendu ces valeurs sont soumises à plusieurs incertitudes et notamment celles sur les forçages et sur les données Levitus.
 

Il est bien entendu aussi que la hauteur d'eau trouvée correspond à un état de l'océan global au cours de cette période.

 
 

La valeur de sensibilité de 0.77 °C.m2/W, appliquée cette fois à la période 1976-2007, nous donne comme hauteurs d'eau équivalentes:

    
 
terres HN: 46m
 
 
océans HN : 290m

 
terres HS: 212m

 
océans HS: 860m
  

 

Si la valeur de 290m pour les océans de l'HN est proche des 300m trouvés pour l'océan global pendant la période 1955-2003, concernant les océans de l'HS, la hauteur d'eau équivalente a augmenté considérablement.



C'est très probablement le signe que des modifications très importantes de la circulation océanique se produisent dans l'océan austral et pendant la période récente..


voir à ce sujet cet abstract:

 
 

The Southern Hemisphere Westerlies in a Warming World: Propping Open the Door
to the Deep Ocean
JOELLEN L. RUSSELL

Department of Geosciences, The University of Arizona, Tucson, Arizona

KEITH W. DIXON, ANAND GNANADESIKAN, RONALD J. STOUFFER, AND J. R. TOGGWEILER

National Oceanographic and Atmospheric Administration/Geophysical Fluid Dynamics Laboratory, Princeton, New Jersey

(Manuscript received 13 December 2005, in final form 11 May 2006)

ABSTRACT

A coupled climate model with poleward-intensified westerly winds simulates significantly higher storage of heat and anthropogenic carbon dioxide by the Southern Ocean in the future when compared with the storage in a model with initially weaker, equatorward-biased westerlies. This difference results from the larger outcrop area of the dense waters around Antarctica and more vigorous divergence, which remains robust even as rising atmospheric greenhouse gas levels induce warming that reduces the density of surface waters in the Southern Ocean. These results imply that the impact of warming on the stratification of the global ocean may be reduced by the poleward intensification of the westerlies, allowing the ocean to remove additional heat and anthropogenic carbon dioxide from the atmosphere.




sur ce dernier point, il semble qu'au contraire, on constate une réduction du puits de carbone.
 

Il est à noter cependant que la baisse actuelle des températures suite à la Nina modifie assez sensiblement la tendance et "fausse" le résultat moyen terme.
 
 

La fig7 ci-dessous reproduit les courbes d'évolution simulées pour l'HN.
 
 


fig7-HN-recons.jpg



On retrouve les mêmes tendances que dans la figure 2 puisque les mesures ont servi à calibrer le modèle pour déterminer les hauteurs d'eau équivalentes.

   
 
 

 
5- conclusions
 
  

les valeurs de hauteur d'eau équivalente (HEE) trouvées plus haut mettent en lumière plusieurs points:

 
le couplage terres/océans


  

si l'on introduit un coefficient de couplage (CC) basé sur le rapport entre les HEE des continents et des océans pour chacun des hémisphères, le CC de l'HN est de 0.159 pour 0.259 pour l'HS.
 

La configuration des 2 hémisphères nous aide à concevoir les raisons de la différence entre les CC.
 

voir fig8

fig8monde.jpg
 
 
 

Cette différence entre les deux hémisphères est bien connue.

 

On peut citer par exemple, Kevin Trenberth dans, "The role of ocean in climate":

 

"An example of the role of the oceans in moderating temperature variations is the contrast in the mean annual cycle of surface temperature between the northern hemisphere (NH) (60.7% water) and southern hemisphere (SH) (80.9% water). The amplitude of the 12-month cycle between 40° and 60° latitude ranges from <3°C in the SH to about 12°C in the NH. Similarly, in mid-latitudes, from 22.5°– 67.5° latitude, the average lag in temperature response relative to peak solar radiation is 32.9 days in the NH versus 43.5 days in the SH (Trenberth 1983), reflecting the differences in thermal inertia."


 
la forte résistance des océans de l'hémisphère sud
 
 

La HEE très importante des océans de l'hémisphère sud, est probablement le résultat d'un mélange accru entre les couches superficielles et plus profondes de l'océan austral.
 

Un tel accroissement a été mis en évidence récemment par la diminution du puits de carbone océanique dans cette région.

  

EDIT du 05/02/08: cet accroissement n'a pas été mis en évidence de façon directe mais plutôt indirecte suite à l'évolution du puits de carbone suspectée en cette région ainsi qu'à la mise en évidence, cette fois par l'observation, de l'augmentation de la force des vents.

voir cette étude de Corinne Le Quéré:
 
 

Saturation of the Southern Ocean CO2 Sink Due to Recent Climate Change


Corinne Le Quéré,1,2,3*
Christian Rödenbeck,1 Erik T. Buitenhuis,1,2 Thomas J. Conway,4 Ray Langenfelds,5 Antony Gomez,6 Casper Labuschagne,7 Michel Ramonet,8 Takakiyo Nakazawa,9 Nicolas Metzl,10 Nathan Gillett,11 Martin Heimann1


Based on observed atmospheric carbon dioxide (CO2) concentrationand an inverse method, we estimate that the Southern Ocean sinkof CO2 has weakened between 1981 and 2004 by 0.08 petagramsof carbon per year per decade relative to the trend expected from the large increase in atmospheric CO2. We attribute this weakening to the observed increase in Southern Ocean winds resulting from human activities, which is projected to continue in thefuture. Consequences include a reduction of the efficiency ofthe Southern Ocean sink of CO2 in the short term (about 25 years)and possibly a higher level of stabilization of atmosphericCO2 on a multicentury time scale.
 

fin EDIT


 

la modélisation de la circulation océanique
  

les variations de HEE, trouvées avec ce modèle simple, montrent l'importance d'une meilleure modélisation de ce qui se passe dans l'océan, afin de déterminer avec plus de précision l'évolution future de la température globale.
 

Les modèles, bien plus sophistiqués que celui-ci, prévoient une stratification accrue de l'océan au fur et à mesure de l'augmentation de la température.
 

Force est de constater que, pour la période récente, c'est très loin d'être le cas, au moins pour l'hémisphère sud.

Partager cet article
Repost0