Overblog
Suivre ce blog Administration + Créer mon blog
26 janvier 2012 4 26 /01 /janvier /2012 13:10

 

 

2011 global hansen

 

Voici le bilan de l'année 2011 selon Hansen et ses collaborateurs.

 

Il n'y a pas grand-chose à retenir du bilan lui-même sinon, comme nous l'avons déjà dit ici, que l'année 2011 est la 9ème plus chaude jamais enregistrée depuis le début des observations.

 

Plus intéressant, quoique sans trop de surprises non plus, les réflexions d'Hansen concernant le ralentissement du réchauffement global.

 

Comme nous l'avons déjà vu depuis plusieurs années maintenant, le cycle de l'ENSO et celui de l'activité solaire sont à l'origine de ce ralentissement sans que puisse être remis en cause l'action de fond du forçage anthropique.

 

Pour le futur proche, Hansen estimait déjà dans son bilan 2010, qu'un minimum de température globale serait atteint, en ce qui concernait la moyenne glissante sur 12 mois, en 2011-2012 et que le prochain maximum aurait probablement lieu en 2012-2014.

 

 

cycle ENSO

 

La chaleur de la couche 0-300m du Pacifique équatorial ayant recommencé à augmenter indiquerait que nous irions assez prochainement vers un nouveau El Niño au cours du second semestre 2012.

Comme il y a un retard de 6 mois entre cette chaleur océanique et la température globale, le prochain maximum serait plutôt atteint sur 2013 ou 2014, plutôt qu'en 2012.

 

2011 fig 7 hansen

 

 

cycle solaire

 

2011 fig 9 hansen

 

Le caractère exceptionnel du dernier minimum solaire, de deux ans plus long que les précédents minima observés, entraîne un facteur de refroidissement global au cours de ces dernières années.

Le forçage solaire (0.25W/m2)  est faible si on le compare au forçage par GES mais non négligeable par rapport au déséquilibre TOA de 0.58W/m2.

(Je rappelle que j'estime qu'il existe un facteur d'amplification de 3 de ce forçage.)

Etant donné l'inertie thermique il se produit, selon Hansen, un décalage de 18 mois entre activité et température globale.

En 2011 nous avons encore subi le refroidissement du au dernier minimum (ce que j'ai estimé également) et c'est dans les 3 à 5 prochaines années que l'effet réchauffant du cycle solaire se fera sentir.

 

 

 

autres forçages

 

 

Hansen insiste une fois de plus sur la forte incertitude concernant les aérosols, dont la production a augmenté en Chine et dans les pays en développement.

 

en conclusion Hansen souligne le caractère illusoire du ralentissement du réchauffement au cours de ces dernières années et le fait que nous allons connaître, probablement à partir de 2013, une nouvelle poussée de température globale.

 

 

J'ajouterai que 2012 devrait être une année de transition, de température voisine de celle de 2011, et, qu'effectivement, des températures très élevées devraient être constatées en 2013 ou 2014 suivant les alternances de l'ENSO.

On peut faire le prognostic que l'anomalie globale de température devrait atteindre 0.90°C+-0.05°C (par rapport à 1951-1980), si on connaissait un Niño de type 1997-1998 vers 2014, hors éruption volcanique forte.

 

Pour la suite plus lointaine (après 2015), comme nous l'avons déjà vu, cela dépendra de l'avènement, ou non, d'une période de très faible activité solaire, genre Maunder, ou Spörer, ou autres.

Partager cet article

Repost0
21 octobre 2011 5 21 /10 /octobre /2011 12:13

 

 

 

Le Berkeley Earth Surface Temperature (BEST) est un projet destiné à fournir une base de données de température de surface (terrestre) indépendante des bases de données NASA-GISS, NOAA, Hadley.

C'est un projet sponsorisé par le département de l'énergie américain et par l'industrie pétrolière américaine.

Il est présidé par un sceptique notoire: Richard Muller et comprend en son sein Judith Curry scientifique récemment convertie au scepticisme.

 

Ce projet était évidemment loué et encensé dans des sites sceptiques, comme le WUWT, puisqu'il allait nous délivrer de ces affreux tricheurs ou, au moins, incompétents, climatologistes, qui osaient prétendre que l'évolution des températures terrestres était telle qu'ils la mesuraient.

 

 

Un des grands trucs des sceptiques, parmi toutes les réfutations diverses qu'il est inutile de rappeler ici, est le fait que l'urbanisation croissante des terres influence les mesures de température de stations de plus en plus noyées par cette même urbanisation.

Evidemment les climatologistes professionnels n'ont pas attendu après les sceptiques pour connaître l' UHI (Urban Heat Island) et en tenir compte dans leurs mesures.

Ce n'était certes pas suffisant pour des gens dont la raison d'être est de réfuter l'influence des GES anthropiques.

 

Mais il semble que dans le BEST il y ait finalement quelques incorruptibles car, au grand dépit des sceptiques, les résultats sont tout à fait conformes aux données NASA-GISS/NOAA/Hadley.

 

Le BEST fournit 4 documents:

 

Dans Berkeley_Earth_Averaging_Process, l'équipe présente une nouvelle méthode de calcul qui intègre les données GHCN disparates en durée et en qualité pour fournir une nouvelle évolution de la température terrestre.

 

Voici ci-dessous BEST comparée aux autres bases:

 berkeley 1

 

 

On note que, pour la période récente, BEST est très proche de NOAA.

L'élévation de température de la décennie 2000-2009 par rapport à la décennie 1950-1959 est de 0.911 +-0.042°C.

Elévation conséquente donc, avec, qui plus est, une marge d'erreur faible.

On note également que la température de 1850 à 1900 est plus basse que celle mesurée par Hadley mais l'erreur est plus grande bien sûr.

Ceci met cependant en relief la singularité de la période actuelle, au niveau absolu des anomalies, pour les dernières 160 années, mais cela la relativise bien sûr si on considère les variations relatives.

Déclinée localement la température ressemble à ce qu'on connaît déjà.

 

berkeley 2

 

Dans Berkeley_Earth_UHI, on analyse l'influence de l'effet urbain en introduisant la notion de stations très rurales (very rural stations) dont la définition est donnée dans le texte.

 

Le résultat surprenant obtenu par BEST est que la l'évolution de la température mesurée par les stations très rurales est supérieure à celle de toutes les stations.

 

berkeley 3

 

De 1950 à 2010 l'évolution des stations très rurales est supérieure de 0.19 +-0.19°C/siècle à celle de toutes les stations.


Certes l'incertitude est grande mais le commentaire est sans équivoque:

 

"Time series of the Earth’s average land temperature are estimated using the

Berkeley Earth methodology applied to the full dataset and the rural subset; the difference of

these shows a slight negative slope over the period 1950 to 2010, with a slope of -0.19°C ±

0.19 / 100yr (95% confidence), opposite in sign to that expected if the urban heat island

effect was adding anomalous warming to the record. The small size, and its negative sign,

supports the key conclusion of prior groups that urban warming does not unduly bias

estimates of recent global temperature change."

 

Les deux autres documents portent l'un sur la qualité des stations , l'autre sur les variations décennales de température .

Dans ce dernier document on verra la corrélation importante trouvée entre les variations décennales de l'AMO et les températures terrestres sans que, bien entendu, on puisse diagnostiquer la cause de ces variations corrélées.

 

 

conclusion

 

Je n'avais personnellement aucun doute quant aux estimations "classiques" de température terrestre au cours des 150 dernières années.

Néanmoins, le fait que ces estimations soient confirmées par un organisme d'origine climato-sceptique pourra peut-être éviter permettre, à l'avenir, que cet argument usé jusqu'à la corde, disparaisse progressivement du monstrueux bestiaire sceptique.

 

Enfin, on peut rêver…

Partager cet article

Repost0
1 décembre 2010 3 01 /12 /décembre /2010 21:27

 

corrélations entre les températures de peau des lacs (mesurées par AVHRR) et les températures des terres

 

Cet article fait suite à l'article précédent qui faisait lui-même référence à:

 

SCHNEIDER AND HOOK: WARMING OF INLAND WATER BODIES

 

Les données d'évolution globale de la température des lacs ont été reprises manuellement à partir de la figure 1b de l'étude

Les données "terres" sont les données habituelles disponibles sur le site de la NOAA

Les mois Juillet-Août-Septembre (JAS) constituent la saison été (alors que c'est traditionnellement, en climatologie et météo, Juin-Juillet-Août (JJA))

 

 

 

1- lacs en été et terres de l'hémisphère nord en été

 

 

lac2

 

 

Les allures générales des courbes sont les mêmes, les variations sont de même sens.

Le coefficient de corrélation, R2, est égal à 0.84

La tendance linéaire des lacs est cependant plus élevée que celles des terres de 22%.

Les lacs comme les terres sont sensibles au Pinatubo en 1992-1993 et à l'El Niño de 1998.

Par contre la température des lacs baisse très nettement après 2005 et de façon plus prononcée que celle des terres.

On ne voit pas l'augmentation en 2009 sur les lacs, mais une baisse continue.

 

 

 

2- lacs d'été et anomalie globale "terres" annuelle

 

 

 

lac3

 

La corrélation est moins bonne avec un R2 de 0.77, mais significative.

Il y a quelques inversions de tendance de 1988 à 1990.

La tendance linéaire des lacs est toujours supérieure à celle des terres.

 

 

3-conclusion provisoire

 

 

 

Les lacs se réchauffent et c'est normal.

Peut-on pour autant utiliser tel quel cet indice "lacs" en lieu et place de l'anomalie terrestre traditionnelle?

 

Pour le moment non.

 

Il constitue toutefois un indice indépendant des stations terrestres, qui suit, comme le montrent les courbes ci-dessus, la température des terres, mais avec des variations plus fortes.

 

Il présente l'avantage d'être quasiment exempt d'effet anthropique local, comme l'effet urbain, mais peut-être pas d'un effet du aux modifications du "land-use" (usage des sols).


Du fait de l'inertie thermique plus grande il garde en mémoire le réchauffement qui précède la mesure d'été rendue elle-même possible par la stratification importante en cette saison.

 

Par certains côtés, il fait intervenir un mécanisme qui s'approche d'une rétroaction positive locale (fonte des glaces qui diminue fortement l'albédo et augmente l'absorption) et pourrait ainsi être un témoin plus rapide de l'effet amplificateur arctique.

 

Par contre il peut comporter des biais dus notamment à un changement d'opacité des eaux, rapprochant l'absorption de la surface mais augmentant l'albédo également ce qui va en sens inverse de l'absorption.

 

Je ne sais pas si ce genre de biais est significatif.

 

Il est fortement influencé par les lacs de l'hémisphère nord qui constituent l'écrasante majorité des lacs mesurés.

 

Partager cet article

Repost0
26 novembre 2010 5 26 /11 /novembre /2010 11:14

 

 

 

Tahoe lake

 

 

Tahoe, Nevada: l'un des lacs qui s'est le plus réchauffé depuis 25 ans

 

Les lacs, pourvu qu'ils soient suffisamment grands et qu'on mesure leur température suffisamment loin des côtes, constituent, à l'évidence, de bons indicateurs du réchauffement des continents.

 

 

Selon cette étude de la NASA, le réchauffement moyen des lacs étudiés a été de 0.45°C/décennie, sur les 25 dernières années.

 

Certains lacs du nord de l'Europe, se sont même réchauffés à l'allure, énorme, de 1°C/décennie.

 

Les mesures ont été réalisées par satellites, en été (hors glace, stratification lacustre estivale) et de nuit (effet de peau), par infrarouge.

Elles ont été confirmées par des mesures in situ (bouées) dans les Grands Lacs du nord des USA.

 

Les réchauffements les plus importants ont été trouvés en Europe du Nord, alors que les réchauffements étaient plus faibles au niveau des tropiques et des moyennes latitudes de l'hémisphère sud.

 

lacs

 

Ces résultats sont conformes à ce que prévoient les modèles.

 

Dans certaines régions, comme celle des Grands Lacs (nord des US), le réchauffement a été plus rapide que celui des températures des régions avoisinantes.

 

 

 

ce qu'on peut en penser

 

 

Ce nouvel indicateur, "lacs", présente pas mal d'avantages:

 

Il  est exempt de tout effet urbain de proximité, genre surface bétonnée ou autre, et, pourvu que les lacs soient suffisamment grands, il est exempt également de tout effet urbain plus large, significatif.

 

Les lacs sont un milieu pourvu d'une inertie thermique bien inférieure à celle des océans, ce qui permet une réaction plus rapide et plus "radiative" que ces derniers.

Mais elle est supérieure à celle des sols ce qui permet un certain lissage saisonnier (relatif tout de même) qui peut permettre de comparer cet indicateur "lacs" à la température terrestre annuelle mesurée par voie plus traditionnelle.

 

Ces mesures concernant essentiellement les lacs de l'hémisphère nord peuvent donc être rapprochées des mesures de la NOAA, par exemple, sur les terres de l'hémisphère nord  depuis 25 ans (voir graphique ci-dessous).

 

terres HN NOAA pou lacs

 

 

Les tendances sont relativement proches, 0.45°C/décennie pour les lacs et 0.40°C/décennie pour NOAA, malgré sans doute des différences et erreurs mineures dues  aux mesures elles-mêmes, aux périodes et emplacements différents.

 

Bien évidemment, ces nouvelles mesures ne constituent pas une preuve de la nature anthropique du réchauffement actuel, mais elles confortent les mesures précédentes qui concernent son amplitude.

 

On sera attentif à la situation des lacs du nord de l'Europe qui enregistrent des réchauffements impressionnants, de l'ordre de 2.5°C sur 25 ans.

 

Ceci est à rapprocher des résultats des modèles, voir ici, en ce qui concerne la déclinaison spatiale du réchauffement.

 

 

Vänern

 

 

Vänern, Suède: l'un des lacs à fort réchauffement

 

 

 

Partager cet article

Repost0
30 octobre 2010 6 30 /10 /octobre /2010 18:18

 

 

 

Le récent rapport de l'Académie des Sciences mentionnait:

 

 

"Plusieurs indicateurs indépendants montrent une augmentation du réchauffement climatique de 1975 à 2003"

 

 

Evidemment, nos sceptiques se sont engouffrés dans cette petite brèche (ou cet os à ronger), à savoir cette limite de  2003, qui semblerait indiquer que le réchauffement s'est arrêté cette année là.

Ils en profitent d'ailleurs, avec un aplomb invraisemblable, pour dire que ce rapport est remarquablement équilibré.

C'est évidemment grotesque si on lit les 10 points de la conclusion du rapport en question.

(euh je ne mets pas tous les sceptiques dans le même sac bien sûr, mais bon 99% d'entre eux pour être gentil)

 

Mais bref, revenons à 2003.

 

Certes, les températures ont tendance à moins monter depuis 2003 (ou 2002 d'ailleurs), bien que l'évolution depuis 1979 ne montre pas vraiment que le réchauffement subisse une inflexion par rapport à la tendance linéaire.

 

Mais puisque certains se raccrochent à ce mince espoir, nous allons, hélas, leur montrer que l'explication est probablement une explication…naturelle.

 

Et oui, c'est un peu le paradoxe, les sceptiques n'arrêtent pas d'impliquer la variabilité naturelle pour expliquer le réchauffement, mais ils l'oublient pour expliquer le refroidissement.

 

 

Allez comprendre...

 

 

Bon, nous n'allons pas refaire un long exposé indigeste, car il semble que les lecteurs de ce blog, pour la plupart, préfèrent les exposés courts et directs, sans trop d'équations, mais nous avons déjà parlé en long et en large de l'influence solaire et des oscillations climatiques internes.

 

Nous allons donc regarder rapidement ce que donne la variation de température de 2003 à 2010 brute et corrigée uniquement de l'activité solaire.

 

 

hypothèses

 

 

Nous négligeons les oscillations de longue période type AMO et PDO, l'intervalle étant trop court.

L'ENSO est légèrement négative sur la période mais son influence est très négligeable sur 8 ans.

Reste donc l'activité solaire qui, en 2003, était proche d'un maximum, et qui a atteint des valeurs très basses depuis 3 ans, ne l'oublions pas.

Nous restons dans l'optique d'une variation de 0.1°C entre un maxi et un mini solaire et utilisons notre modèle maison pour déterminer la correction.

 

 

 

résultat

 

nasa solaire5

 

 

Evidemment c'est spectaculaire.

 

On passe de 0.08°C/décennie pour les données brutes à 0.25°C/décennie pour les données corrigées, bien que quantifier avec précision une tendance sur une période de 8 ans soit illusoire.

On peut sûrement invoquer le bruit rouge pour expliquer une partie d'une stagnation en rapport avec le caractère chaotique du climat, mais on n'a pas à se priver de tenir compte de forçages à peu près bien connus, même si on n'en connait pas les mécanismes exacts.

 

 

La conclusion est donc simple: si on retranche l'influence sur la température globale de l'activité solaire, variation naturelle s'il en est, la température monte très fortement depuis 2003.

En corrolaire, pour la xième fois, l'évolution climatique est la superposition de plusieurs influences: des influences anthropiques et des influences naturelles.


Le signal observé tient compte de tout cela, et son analyse doit en faire autant.

 

 

PS: ci dessous la même correction que précédemment mais étendue à la période 1976-2010 (2010 étant supposée terminée bien sûr)  données ici.

 

nasa solaire4

 

Les deux courbes sont très proches et la variation de tendance linéaire est virtuelle puisqu'elle ne tient pas compte des autres variations "naturelles"

 

PS2: j'aurais bien fait la correction de l'ENSO également, mais il y a des difficultés pour 2010 qui n'est pas encore terminée et pour laquelle l'indice ENSO est quasi-nul alors que l'influence sur la température est indéniable quoique retardée.

En ce sens, bien que plus faible, le Niño 2010 ressemble à celui de 1998.

Il faudra donc attendre quelques mois pour faire une correction ENSO plus réaliste.

 

 

 

PS3: je me suis essayé à une correction "rapide" de l'ENSO et il faudra que je revérifie.

 

voici ce que donne l'anomalie NASA corrigée de L'ENSO et de l'activité solaire:

 

nasa solaire enso2

 

Comme on pouvait s'y attendre, l'anomalie de 2010 est nettement moins élevée et le lissage est meilleur, sutout à partir de 2005.

 

Ces résultats préliminaires indiquent, de 2003 à 2010, une tendance plus forte encore que précédemment, mais sur 2005-2010 la tendance tombe à 0.124°C/décennie.

 

Evidemment faire des tendances décennales sur d'aussi courtes périodes n'a pas grande signification, mais il se confirme que le "plateau" légèrement ascendant de 2003 à 2010 n'est pas en contradiction avec l'hypothèse du réchauffement climatique à long terme.

Partager cet article

Repost0
23 octobre 2010 6 23 /10 /octobre /2010 13:32

 

 

Un petit point, en passant, sur l'évolution de la température globale depuis 1979, selon NCEP.

1979, début des mesures satellitaires, est choisie comme année initiale.

L'année 2010 s'arrête le 20 octobre 2010 et à cette date l'anomalie est de 0.604°C soit la plus élevée jamais mesurée/calculée avec les données NCEP.

 

 

Résultats:

 

 

L'anomalie globale (terres+océans) augmente de façon indiscutable tout au long de la période sans que l'on constate de ralentissement sensible au cours de la dernière décennie.

La tendance linéaire est de 0.164°C/décennie.

L'année 2008 n'a donc pas tenu ses promesses d'année de transition vers une période plus froide ou de stagnation/répit, comme on veut.

Toutefois il ne semble pas non plus y avoir d'accélération du réchauffement.

 

Celui-ci continue sa progression tranquille, je dirais pépère, si ce n'était pas potentiellement si grave.

 

ncep glob 79-10

 

 

 

 

 

à lire aussi ce rapport 2010 pour la situation de l'Arctique

 

ce n'est pas très brillant non plus, et nous n'en sommes qu'en 2010....

 

 

arctic 2010

Partager cet article

Repost0
12 juin 2010 6 12 /06 /juin /2010 19:05

 

 

 

Et bien cela devrait être extrêmement juste, du moins si on se base sur quelques indicateurs ou paramètres.

 

Actuellement, la moyenne, selon la NASA, est de 0.72°C sur les 5 premiers mois de l'année.

 

Cela constitue déjà un record mais, pour le confirmer sur l'ensemble de l'année, il faut que 2010 dépasse 2005, année la plus chaude avec 0.62°C.

 

Les modèles australiens prévoient un indice Niño34 à -1°C environ, alors qu'on peut considérer que l'indice "responsable" de la chaleur du début de l'année était de l'ordre de +1.5°C.

Cela fait donc une différence de 2.5 qui se traduira donc par une baisse de la température globale de 0.2°C des 7 derniers mois par rapport aux 5 premiers.

L'effet anthropique est évidemment très faible, de l'ordre de +0.01°C, tandis que l'augmentation d'activité solaire devrait se traduire par +0.01°C également.

 

Donc si on récapitule:

 

anomalie 2010 = (0.722*5 + (0.722-0.2+0.01+0.01)*7)/12 = 0.617°C

 

Ce serait donc une anomalie très proche de celle de 2005.

 

Cette situation est tout à fait logique si on considère l'influence des indicateurs ou paramètres ci-dessus.

 

En termes d'anomalie de 2005 par rapport à 2010, on a, environ, +0.09°C pour l'activité solaire, +0.03°C pour l'ENSO et -0.08/-0.09°C pour l'anthropique, soit +0.03°C au total.

 

Bien entendu, il existe une variabilité interannuelle due aux autres fluctuations plus ou moins chaotiques du climat, ainsi qu'une erreur sur l'anomalie, due aux mesures elles-mêmes.

Au total cette variabilité est de l'ordre de +-0.1°C.

 

Mais selon ce qui est à peu près prévisible, il n'y a pas de raison valable que 2010 dépasse, significativement, 2005.

 

Disons qu'en gros, en considérant la variabilité hors paramètres mentionnés, il y a une chance sur deux pour que ce soit le cas.

 

Si on considère les 30 dernières années, 2010 est conforme à la régression linéaire de 0.17°C/décennie sur cette même période.

 

proj 2010

 

Inutile de rappeler que cette valeur est elle-même conforme à ce que prévoient les modèles.

 

Donc, en dépit de certaines allégations fantaisistes, ça chauffe toujours!

Partager cet article

Repost0
28 janvier 2010 4 28 /01 /janvier /2010 10:50

 

Le réchauffement actuel n'est que le début d'un réchauffement de bien plus grande ampleur, sous réserve de la réalisation des prévisions des modèles et des scénarios d'émissions de Gaz à Effet de Serre (GES).

Il n'y a pas, encore, de mesure de la température globale, telle que l'on pourrait la réaliser par exemple avec un engin suffisamment loin de la planète pour la considérer comme une surface unique et qui serait capable, en outre, de mesurer la surface en dehors de l'atmosphère (quoique ce soit plus ou moins fait par l'AVHRR)

Les mesures de surface sont là, entr'autres, pour vérifier la progression du réchauffement que nous vivons.

Les organismes chargés de calculer les anomalies tant régionales que globale, tel NASA-GISS, fournissent de belles cartes interactives que tout un chacun peut manipuler.

 

Evidemment la densité des mesures n'est pas homogène à la surface de la Terre.(1)

On conçoit qu'il y ait moins de points de mesures au nord du Canada, de la Sibérie, en Antarctique, ou dans la forêt amazonienne, qu'en Europe ou aux USA.

 

Alors est-ce que cela a une importance dans le calcul des anomalies?

 

Et bien pas tant que l'on pourrait le croire.

 

Les régions, à l'échelle synoptique (le millier de km environ), sont soumis à des régimes de circulation atmosphérique relativement homogènes.

Ces régimes permettent les échanges de chaleur entre les différentes parties d'une même région synoptique par l'advection thermique

Il s'agit là d'advection horizontale: zonale (est-ouest) ou méridienne (nord-sud).

On retrouve le même échange d'énergie, ou de température, dans le sens vertical, par le phénomène de convection qui fait que l'on retrouve, grossièrement, l'anomalie de surface dans l'anomalie de la basse troposphère.

On peut donc estimer, de façon voisine à ce que dit un Gavin Schmidt (2), par exemple, qu'une seule station par maille de 1000 km est suffisante pour donner une bonne approche de l'anomalie globale et surtout de son évolution sur le moyen terme.

En conséquence 150 à 200 stations continentales devraient être suffisantes.(pour les terres évidemment)

En conséquence aussi, si ces stations sont bien réparties, la connaissance de l'anomalie régionale (nord du Canada par exemple) est probablement correcte.

 

Statistiquement d'ailleurs, sur 150 à 200 stations, si une d'entr'elles est dans une micro-zone légèrement plus froide que le reste de la maille, une autre station d'une autre maille sera légèrement plus chaude et donc l'erreur ne sera pas, au final, perceptible.

Statistiquement aussi on conçoit que les zones synoptiques homogènes ne sont elles-mêmes pas figées, spatio-temporellement parlant, mais que cela ne change guère le résultat.

Une démonstration statistico-climatique serait certes indispensable mais complexe et fastidieuse.

 

On utilisera ici un autre moyen de vérification de la validité des répartitions régionales des anomalies mesurées par NASA-GISS, malgré cette rareté des stations dans certaines zones, en rapport avec ce que nous disions plus haut sur la convection verticale.

 

 

Voici donc deux représentations de tendances décennales de 1979 à 2008.

 

La première issue de NASA-GISS, basée sur les mesures d'anomalie de surface, dans laquelle apparaissent les trends, même dans des régions dépourvues de toute station.

 

trend nasa 1979-2008

 

Il est à noter que NASA-GISS se sert en effet de modèles de circulation atmosphérique (CGM), pour remplir les zones vides, à part une ou deux près de l'Antarctique.

 

 

La deuxième est issue de RSS et concerne la tendance décennale, sur la même période, de l'anomalie de basse troposphère (TLT), mesurée par satellite.

trend RSS TLT 1979-2008

 

Une comparaison attentive n'indique que très peu de différences régionales entre les deux représentations pourtant basées sur des principes de mesure tout à fait différents.

Attention le trend NASA est sur l'ensemble de la période tandis que le trend RSS est un trend décennal ce qui explique les différences de valeurs et RSS ne sait pas mesurer les zones de trop hautes altitude et latitude.

 

Les tendances globales de la TLT et de la surface sont quasi-identiques sur la période, les tendances régionales sont très semblables, il n'y a donc que très peu de raison valable de remettre en cause les mesures et calculs de surface, tels ceux de NASA-GISS.

 

Pourquoi il y a t'il des différences régionales?

 

Comme nous l'avons déjà vu plusieurs fois ici, l'anomalie de température globale est le résultat de l'addition (pas forcément arithmétique) de signaux climatiques de périodes différentes et de signaux plus ou moins long terme qui peuvent être naturels, comme la variabilité moyen terme de l'irradiance solaire (TSI), très long terme comme ceux engendrés par les variations orbitales, etc.

Ils peuvent être également anthropiques, par l'action de substances optiquement actives dans l'atmosphère (GES, aérosols).

Cette action globale, entre parenthèses, ne se contente pas de modifier, monotoniquement, la température, mais elle modifie la circulation atmosphérique, les précipitations, ..  et peut donc modifier la répartition des anomalies régionales.

C'est un domaine fort complexe que celui qui consiste à étudier et détecter les influences du réchauffement climatique sur les grands régimes de circulation (Hadley par exemple) ou les grandes oscillations (ENSO, PDO, AMO,...).

 

Sur des tendances sur 30 ans, comme celle étudiée plus haut, l'influence des oscillations de périodes voisines ou du même ordre de grandeur (cela peut aller jusqu'à 60 ans par exemple) peut être significative, régionalement parlant.

 

Lorsque l'on regarde les cartes plus haut, il apparaît un réchauffement plus important des latitudes nord (au delà, en gros mais pas exclusivement, de 50°N) pendant la période 1979-2008.

 

Ce réchauffement plus important est prévu par les modèles.

 

Les causes en sont certainement multiples et rejoignent ce que l'on a déjà dit ici sur l'amplification arctique du RC.

Mais il n'est pas exclu d'y voir aussi l'action d'une oscillation type AMO, naturelle cette fois, mais non exempte de réactivité au RC global.

 

Il convient cependant de relativiser son importance sur le plan global.

D'une part parce que, à priori il n'existe pas de forçage associé à cette oscillation (enfin on n'en n'a pas détecté car c'est plutôt difficile) et d'autre part parce que les oscillations océaniques se manifestent plutot par des phénomènes d'advection et donc par des transferts de chaleur d'une région à une autre.

L'influence de l'AMO (de période 60 à 80 ans) sur le plan global a été estimée à 0.2°C de crête à creux, comme nous en avons déjà parlé ici.

 

Cette oscillation influence surtout l'Atlantique nord et un simple calcul de pondération montre que, rapportée à la surface globale, la portée globale de cette oscillation reste faible, quoiqu'il n'est pas exclu que son influence ne se limite pas à cette zone.

 

Toutefois, il est clair aussi que nous étions en AMO positive en 1979-2008 et ceci peut expliquer une partie du gradient nord-sud de l'anomalie.

 

 

conclusion

 

 Pour répondre à la question titre de cet article, on peut dire, qu'à l'examen des cartes ci-dessus, le réchauffement  est, à 90%, global depuis 30 ans.
 Seules échappent à ce réchauffement, une partie du Pacifique oriental, de l'océan austral, et quelques zones de l'Antarctique.
 D'autres zones se réchauffent de façon particulièrement intense comme les hautes latitudes septentrionales.
 Mais l'allure générale, au premier coup d'oeil, est bien celle d'un réchauffement global, dont il est peu probable (mais pas strictement impossible) qu'il soit uniquement le résultat d'oscillations climatiques régionales.

 

 

L'Optimum Médiéval, autre période chaude supposée s'être produite vers 1000-1200 environ, reste très mal connue.

On ne possède pas pour le moment, de suffisamment d'enregistrements paléoclimatiques fiables pour détecter une anomalie qui présente le même degré d'homogénéité que l'actuelle.

Il est donc prématuré de comparer les deux périodes mais la connaissance exacte du climat du passé reste un objectif important.

 

 

(1) issue de Peterson et Vose 1997  la répartition des stations terrestres qui peuvent être régulièrement updatées:

 

repart-des-stations.jpg

(2) réponse de Gavin Schmidt à un commentaire sur realclimate:

 

  1. But the main question from skeptics has not been answered.

    Why the decline in the number of temperature points? 1000 data points seems awfully small to get a mean temperature of the earth. There`s over 30000 McDonalds restaurants in the world – but we use only 1000 thermometers?

    I’m from Canada, and there’s no way 39 thermometers can give an accurate reading of the average temperature in Canada.

    [Response: Actually you are over-estimating enormously. First, the fact is that temperature anomalies have very high spatial correlation at the monthly and annual scale - that is to say that if Montreal is having a cold winter, than so is Toronto and Quebec City. For the monthly scale, the number of spatial degrees of freedom is around 60-100 in each hemisphere. Thus if they were well placed you could get away with ~200 stations for the globe in order to get a good estimate of the mean anomaly (within 0.05 deg C say). But there are many more than that so that they can provide good checks on each other. You can check this by simply dropping half the stations and seeing whether you get basically the same number. - gavin]

    Comment by Syl — 19 janvier 2010 @ 7:46 AM

Partager cet article

Repost0
15 décembre 2009 2 15 /12 /décembre /2009 17:19

Selon la NOAA les températures de novembre 2009 auront été plutôt élevées et ce, malgré l'activité solaire toujours très basse.

 

Une mention spéciale pour les SST (températures de surface de l'océan) de 2009 dont la valeur moyenne provisoire, 0.49°C, les inscrit au premier rang des SST jamais relevées.

 

SST globale 

 

ceci confirme bien le diagnostic de Copenhague en ce qui concerne les océans.

 

"L'année 2008 a été plus froide, en raison d'un épisode La Niña très intense mais temporaire, alors que la température des océans, jusqu'au moment de la publication se dirigeait vers un record en 2009."

Partager cet article

Repost0
16 juillet 2009 4 16 /07 /juillet /2009 10:36
EDIT du 20/07/2009

résultats Hadley

ci dessous le graphe de l'anomalie SST telle que mesurée par Hadley.



La température atteinte ne dépasse pas le record de 1998.
Toutefois, ceci conforte le fait que les SST ont été très chaudes en ce mois de juin 2009, alors que côté Niño, la situation actuelle n'a rien à voir avec celle de 1998.

fin EDIT


Selon la NOAA, en effet, les océans, avec une anomalie de température de 0.59°C, n'auraient jamais été aussi chauds depuis que les relevés existent, pour un mois de juin et tous mois confondus.

Ce mois de juin se classe ,en outre, au deuxième rang, sur un plan global (terres+océans), avec 0.62°C, des mois de juin les plus chauds.

voir l'article : indicateurs climatiques de juin 2009

ces résultats sont évidemment très importants mais de ce fait demandent confirmation.

évidemment, on pourra évoquer des erreurs, toujours possibles, mais on ne pourra pas évoquer cette fois, l'effet urbain.




EDIT du 18/07/2009

Dans un commentaire, il est fait mention de la base de données OI v2, concernant notamment les anomalies de SST.

Je n'ai pas vérifié moi-même la tendance, mais étant intéressé par la véritable évolution du climat, un peu de recherche s'imposait.

 

Je suis tombé sur ce paragraphe dans le "climate monitoring de juin 2009" :

 

 

 « Please Note: Beginning with the July 2009 State of the Climate Report, NCDC will switch to a new version (version 3b) of the extended reconstructed sea surface temperature (ERSST) dataset. ERSST.v3b is an improved extended SST reconstruction over version 2. Most of the improvements are justified by testing with simulated data. The primary difference in version 3b, compared to version 2, is improved low-frequency tuning that increases the sensitivity to data prior to 1930. In ERSST v3b, satellite data was removed from the ERSST product. The addition of satellite data from 1985 to present caused problems for many users. Although the satellite data were corrected with respect to the in situ data, a small residual cold bias remained at high southern latitudes where in situ data were sparse. For more information about the differences between ERSST.v3b and ERSST.v2 please read Summary of Recent Changes in the Land-Ocean Temperature Analyses and Improvements to NOAA's Historical Merged Land-Ocean Surface Temperature Analysis (1880-2006) paper."

 

en quelques mots, la version ERSST sera désormais la ERSST v3 bis.

Pour ce qui concerne l'évolution récente, les données satellite, présentant un biais, seront donc exclues de l'ancienne version.

OI v2, par contre, comprend ces données satellite, en particulier AVHRR, dont la précision n'est en effet pas évidente, du fait, assez bien connu maintenant, du rayonnement pas toujours lié à la SST, de la couche mince océanique.

On ne remettra donc en cause les résultats des grands organismes qu'à bon escient...

fin EDIT

Partager cet article

Repost0