Overblog
Suivre ce blog Administration + Créer mon blog
27 mars 2010 6 27 /03 /mars /2010 23:40
Un certain nombre de questions m'ont été posées au sujet des articles "dépasse-t-on 2°C...?"

Une de celles-ci me demandait si finalement, on pouvait laisser faire puisque une augmentation globale de 2°C n'était pas si importante que cela.

Je tiens donc à faire la mise au point suivante:

1-ces 2°C (plutôt 2.2°C d'ailleurs dans le 2ème article) ont été établis sur la base de l'exploitation des réserves prouvées de carbone fossile soit 1100 Gt environ.
Rien ne permet cependant de savoir si une partie importante des ressources estimées (ce que l'on suppose être encore dans le sous-sol en plus des réserves prouvées) ne risque pas de se transformer en réserves exploitables (avec la technologie) et d'être consommée, in fine.
Ils ont été établis également en utilisant une sensibilité climatique moyenne de 3.2°C mais rien n'exclut pour le moment que la sensibilité ne soit pas plus importante.
Ils ont été établis, en outre, en ne tenant pas compte des rétroactions du cycle du carbone.
Or pas mal d'études indiquent que ces rétroactions pourraient être positives et entraîner plus de réchauffement..

2-il s'agit de la température moyenne globale qui se décline différemment en fonction des océans et des terres et suivant la latitude.
Par exemple sous nos latitudes (45N) cela correspond à 3°C et, au delà du cercle polair,e à 4 à 5°C (suivant les modèles)


3-si 3°C de plus par rapport au préindustriel, donc 2°C de plus par rapport à maintenant, en France par exemple, semblent supportables, il faut se souvenir que la température finale globale d'équilibre pourrait être de l'ordre de 1.8°C.
Ce point est important car il obère de façon importante le long et le très long terme et donc l'avenir des calottes glaciaires du Groenland et de l'Antarctique.
La fonte complète de ces dernières pouvant augmenter la sensibilité long terme et surtout le niveau de la mer de 70m, mais plutôt à très long terme.

4-concernant la "bombe méthane", je m'appuie sur les travaux de scientifiques connus, et non sceptiques bien entendu, pour relativiser son importance, tout en reconnaissant toutefois que des mauvaises surprises sont peut-être possibles.


5-concernant le fait de savoir s'il faut laisser faire ou pas, je pense que l'évolution climatique est bien trop lente à l'échelle d'une vie humaine et pis, à l'échelle de la durée de vie des gouvernements, pour nous faire, vraiment, adopter des comportements différents.
Le réchauffement de 2°C est donc dans les tuyaux, et les générations futures ne pourront combattre ses effets que par l'utilisation éventuelle du geoengineering climatique.

Enfin c'est ma conviction du moment.

Partager cet article

Repost0
3 mars 2010 3 03 /03 /mars /2010 20:13

En complément à l'article "dépasse-t-on 2°C...?" , citons et commentons cette étude :  

 

Warming caused by cumulative carbon emissions towards the trillionth tonne

 

Myles R. Allen1, David J. Frame1,2, Chris Huntingford3, Chris D. Jones4, Jason A. Lowe5, Malte Meinshausen6& Nicolai Meinshausen7

 

qui, comme son nom l'indique, se propose d'étudier le réchauffement consécutif à l'émission de 1000 Gt de CO2 (exprimées en Gt de carbone).

 

Rappelons que dans l'article CE (climat-evolution), on s'était basé sur une émission de 1500 Gt semblant être en adéquation avec les réserves connues de carbone fossile.

 

 

On peut extraire de l'étude d'Allen et al, la figure 1 qui nous montre le résultat d'un scénario idéalisé d'émission de 1000 Gt de carbone.

allen 

 

Le résultat médian est la courbe rouge de la figure ci-dessus alors que les différents runs sont représentés par les courbes gris noir.

 

La sensibilité est la même que celle retenue dans l'article CE, soit 2.8°C (2XCO2).

 

Seul l'effet du CO2 est pris en compte à l'exclusion de toutes les autres espèces actives mais en tenant compte des rétroactions.

 

Le scénario 1000 Gt a été également passé à la moulinette du "modèle" climat-evolution et alors que la teneur en CO2 est quasiment identique (470ppm max) à celle d'Allen et al, la température atteinte est plus basse de 0.5°C environ, ce qui n'est pas négligeable évidemment.

2°C 1000gt 2.8°C

 

C'est donc le modèle climatique, drivé dans l'un et l' autre cas par la diffusion de la chaleur de la surface dans l'océan profond, qui diffère.

 

L'examen du supplément fourni avec l'étude, donne des indications sur le modèle utilisé par Allen et al.

 

C'est un modèle là aussi assez simple dont l'équation fondamentale est :

 

2° équation allen

 

Le dernier terme, avec le coefficient a2, est le terme qui modélise la diffusion océanique.

 

Les différents coefficients sont calibrés avec les augmentations de température de surface et de l'océan profond.

 

La diffusion de chaleur dans l'océan semble donc être plus faible chez Allen que ce qui est calculé sur CE.

 

Rappelons cependant que le modèle multicouches de CE donne de bons résultats si on introduit les forçages réels (du moins ce qu'on en connaît, avec certaines estimations du forçage solaire et l'introduction d'un "forçage" ENSO) pour reproduire la courbe d'évolution de la température depuis 1880.

 

La température finalement trouvée par Allen est très proche de la température d'équilibre correspondant à une sensibilité de 2.8°C, soit 2.08°C pour 470ppm.

C'est un peu surprenant surtout compte tenu du fait que cette température d'équilibre est pratiquement atteinte lorsque la teneur en CO2 maximum est atteinte.

C'est un peu en contradiction avec les chiffres de TCR (Transient climate Response) donnés par le GIEC, de l'ordre de 1.8°C pour une sensibilité à l'équilibre moyenne de 3.2°C (voir tableau 8.2 de l'AR4).

Donc, si on résume, en cas de doublement de CO2, le GIEC indique que la température atteinte lorsque ce doublement est acquis, est de 1.8°C, alors que pour Allen et al 09, la température d'équilibre est atteinte presque en temps réel.

Les scénarios ne sont pas les mêmes dans la détermination de la TCR par les modèles d'une part, et le scénario d'Allen d'autre part..

Ce dernier prévoit une augmentation de 1.4ppm/an (entre 1980 et 2080) environ, soit une augmentation  plus faible que les 2.8ppm/an de la TCR.

Il doit y avoir quelque chose que je n'ai pas compris mais le résultat d'Allen me semble un peu bizarre.

 

Pour revenir aux résultats de CE, la réponse aux 1500 Gt a été établie en tenant compte d'une sensibilité de 2.8°C (2.78°C exactement).

 

l'AR4 donne une fourchette de sensibilité de 2.1°C à 4.4°C avec une valeur médiane de 3.2°C.

 

Il me semble plus convenable de donner le résultat, dans le graphe ci-dessous, des simulations pour ces 3 valeurs de sensibilité.

fourchette 1500

 

On dépasse assez nettement 2°C pour la sensibilité médiane alors que pour la partie haute de la fourchette la température d'équilibre est nettement supérieure à 2°C.

 

Dans les commentaires du premier article, il était fait mention des autres GES et de l'effet des aérosols.

Tous ces effets sont très difficiles à corréler à la courbe des émissions du CO2.

Néanmoins il est clair qu'en cas de baisse de ces émissions, les aérosols baissent immédiatement (il n'y a pas d'effet de cumul).

Cet effet est estimé à -1.1W/m2 toutes espèces confondues (voir Murphy 2009) et, en cas de disparition des aérosols, il faudrait théoriquement augmenter le forçage total de 1.1W/m2.

 

Côté autres GES, le N2O ayant une durée de vie de l'ordre de 120 ans séjourne dans l'atmosphère bien au-delà de la diminution ou de l'arrêt des émissions.

De plus, ses émissions sont d'avantage liées à la fabrication et l'utilisation d'engrais (azote minéral) dont on ne pourra de toute façon que très difficilement se passer.

En conséquence on peut estimer que l'action du N2O peut perdurer quelques centaines d'années.

 

C'est bien pire encore pour les halocarbones qui, en principe, épargnent désormais notre couche d'ozone stratosphérique, mais n'en constituent pas moins des gaz de très longue durée de vie, à l'effet de serre plusieurs centaines de fois celui du CO2.

 

Pour les GES à faible durée de vie (O3, CO, COV,..), on peut penser que leurs teneurs vont baisser avec les émissions de CO2.

Toutefois ils peuvent être émis par d'autres activités ou sources d'énergie (biomasse, électricité, entre autres).

 

Pour le CH4, sa teneur dépend des sources et des puits naturels ou artificiels.

Il semble assez évident que les sources (permafrost, chlatrates océaniques) réagissent à l'augmentation de température en émettant d'avantage de CH4.

Le puits principal du CH4 est son oxydation par des radicaux libres oxydants, comme le radical OH.

La présence de ces radicaux est liée, entre autres, à celle de l'ozone troposphérique et toute modification de cette dernière agit donc sur ce puits.

Mais il semble très probable que la teneur en CH4 augmente, sans qu'on puisse en déterminer facilement la valeur.

 

Enfin, les réactions du cycle du CO2 lui-même n'ont pas été prises en compte.

Or nous avons vu ici que, côté puits continental, l'augmentation de respiration des sols avec la température surpassait l'augmentation de la photosynthèse avec cette même température et que l'effet global constituait plutôt une rétroaction positive.

Nous avons vu également  ici que l'augmentation de température des océans limitait l'absorption du CO2.

L'effet de la température entraîne donc une rétroaction positive quasi certaine, alors que l'effet de fertilisation du CO2 est limité.

 

 

conclusion

 

La sensibilité utilisée dans le premier article était plutôt dans la partie basse de la fourchette des sensibilités données par les différents modèles.

La diffusion thermique océanique du "modèle" CE est plus importante que celle du modèle Allen, ce qui réduit assez significativement la réponse de surface. Mais sur point, CE ne pouvant prétendre détenir la vérité, il semble raisonnable de considérer un biais froid de surface engendré par le modèle CE.

Les effets des autres substances actives ont été négligés, leurs effets étant supposés se compenser, mais il semble que la diminution des émissions de CO2 n'entraîne pas, automatiquement, le maintien de cette "neutralité".

Le cycle carbone engendre probablement des rétroactions positives sur le CO2 lui-même et sur le CH4.

En conséquence de tous ces points les températures du scénario 1500 Gt, ou scénario des réserves connues, sont probablement à majorer.

La question est de savoir la valeur de la majoration.

Sans doute rien de catastrophique suite aux aérosols, autres GES et cycle du carbone, hors méthane.

Pour ce dernier, les réserves accumulées dans le système terrestre sont considérables, mais il n'existe pas à ma connaissance de scénario de libération de quantités énormes de ce gaz en des temps suffisamment courts pour en éviter l'oxydation, au moins d'une partie importante.

Nous essaierons de faire une petite revue des différentes études sur ce dernier point.

 

 

 

Partager cet article

Repost0
20 février 2010 6 20 /02 /février /2010 17:30

Cette limite de 2°C d'augmentation de température par rapport à l'ère préindustrielle, est communément citée comme la limite à ne pas franchir pour éviter certains phénomènes irréversibles.

L'objet de cet article n'est pas de discuter la validité de ces 2°C, mais d'examiner, avec des méthodes propres à ce site, la possibilité ou non, suivant certaines hypothèses, d'atteindre cette limite en utilisant toutes les réserves connues de carbone fossile.

 

 

1- hypothèses de base

 

Nous considérons uniquement l'effet du CO2.

 

Cette hypothèse s'appuie sur le fait que l'effet négatif des aérosols compense partiellement l'effet positif des autres GES (CH4, N2O, O3,..)

Dans les modèles du GIEC le forçage total est supérieur de 15-20% environ à celui du CO2 pur.

Cependant, étant donné l'état des incertitudes, tant en ce qui concerne les aérosols que les émissions des autres GES, la seule chose relativement robuste reste l'effet du CO2.

C'est de plus l'effet qui subsiste sur le long terme, si l'on excepte certaines molécules exotiques (fluorocarbures par exemple).

 

2- méthodologie

 

 

Le modèle de cycle de carbone utilisé est un modèle simplifié issu de Bern 2.5CC.

 

l'équation de base est la suivante:

 

m/m0 = a0+a1exp(-t/T1)+a2 exp(-t/T2) +a3exp(-t/T3)

 

 

a0 = 0.217, a1 = 0.259, a2 = 0.338, a3 = 0.186, T1 = 172.9 years, T2 = 18.51 years, and T3 = 1.186 years.

 

Il s'agit de l'évolution temporelle de la masse atmosphérique de CO2, en fonction d'une impulsion m0.

 

 

état des réserves

 

les réserves concernent les quantités connues et prouvées de carburant fossile qui sont encore dans le sous-sol.

Ceci exclut ce que l'on appelle les ressources qui concernent les quantités que l'on pense pouvoir trouver dans le futur, étant donné certaines informations plus ou moins objectives.

L'état des réserves est bien entendu soumis à controverse car les mesures pour les quantifier ne sont pas très simples et les informations émanent d'Etats ou de gouvernements dont les intérêts ne sont pas toujours en faveur de la plus grande vérité.

Nous considérons ici l'état des réserves tel qu'il figure dans le rapport BP2009.

 

Exprimé en Gt de carbone, il se décline de la façon suivante:

 

gaz naturel:                                                                   127

 

pétrole (et sables bitumineux du Canada) :                          164

 

charbon :                                                                       826

 

 

soit un total de :                                                           1117 GtC

 

Dans le cas qui sera étudié ici, en tant qu'hypothèse réaliste, nous considérerons donc, une quantité totale de 1500 Gt, en sachant que 463 Gt ont déjà été consommés (émis) depuis 1850 environ.

Ces 463 Gt concernent le carbone émis par combustion des fossiles et celui émis du fait de l'usage des sols.

 

Par rapport aux 1500Gt du scénario, il reste donc 1037Gt à émettre.

Ces 1037 Gt comprennent le CO2 qui sera émis du fait de l'usage des sols, soit une quantité assez variable, mais cela permet de laisser intact un talon de carburant fossile de l'ordre de 200Gt.

 

 

évolution des émissions

 

On choisit  des profils d'émissions en forme de cloche (courbes de Gauss exactement).

Ces profils correspondent à ce qui est modélisé et observé sur différents gisements de par le monde.

 

 

modèle climatique

 

Le modèle utilisé est le modèle océanique multicouches établi ici.

Les données en entrée sont l'évolution du forçage radiatif et la sensibilité climatique.

Le modèle calcule la réponse de la température de la couche de surface.


 

validité du modèle utilisé par rapport aux modèles du GIEC (TAR)

 

les données du scénario AB1 du GIEC sont entrées dans le modèle CE.

 

rappelons que la sensibilité climatique, lors du TAR, était de 3.5°C, mais que par la suite (après la validation) nous utiliserons 2.78°C.(soit 0.75°C.m2/W)

 

Ci-dessous la comparaison entre les sorties température indiquées par le GIEC et celles de CE en partant de la même température initiale en 1990.

 

2Cfig1

 

 

Les valeurs sont très proches et l'on peut donc accorder une bonne confiance au modèle utilisé du moins par rapport aux modèles du GIEC.

 

 

 

Influence de l'intensité des émissions pour une intégrale donnée

 

Avant d'étudier notre cas réaliste, il est intéressant de regarder l'influence de la valeur maximale d'émissions annuelles pour une même quantité totale (intégrale) émise dans l'atmosphère.

 

Nous étudions donc ici 4 courbes de Gauss correspondant à la même quantité totale émise, 2000 Gt, avec respectivement des émissions maximales de 40, 20, 10, 5 Gt/an.

 

Ceci correspond à des scénarios qui vont d'une consommation frénétique à une consommation très tranquille de père de famille soucieux du lendemain.

 

Ci-dessous les 4 scénarios d'émission, suivis des 4 évolutions de teneur en CO2 dans l'atmosphère et des 4 évolutions de température.

 

2Cfig2

 

 

2Cfig3

 

2Cfig4

 

 

D'emblée, il apparaît que nous n'échappons pas, dans ce cas de figure, à la même température finale de 2°C environ.

Les températures maximales atteintes sont finalement très proches mais ce qui change c'est la rapidité d'obtention de ces températures.

 

On peut donc en conclure qu'une gestion très économe par rapport à une autre (8 fois plus économe en quelque sorte) ne change pas la température finale, à masse totale injectée identique.

Le bénéfice en terme de température maximale est faible si on le compare à l'effort énorme qu'il faut entreprendre pour réduire d'un facteur 8 la consommation de fossile et, dans tous les cas, le seuil de 2°C est dépassé.

Par contre, une gestion économe (dans le sens d'une consommation annuelle réduite) permet une pente d'augmentation beaucoup plus faible qui permet elle-même, du fait du recul du pic de température, l'adaptation et la mitigation , c'est-à-dire la mise en oeuvre de mesures alternatives, pour diminuer les émissions.

On ne peut donc pas dire que l'intérêt d'une gestion économe soit nul en termes climatiques, mais il est clair aussi que si l'on n'agit pas sur l'intégrale, on est moins efficace.

 

 

3- cas réaliste

 

c'est le cas qui, comme nous l'avons vu, correspond à 1500 GtC émis depuis l'époque préindustrielle (voir plus haut)

 

Nous représentons ci-dessous 2 graphiques.

 

le premier concerne la courbe des émissions et celle de la teneur en CO2 atmosphérique, le second l'évolution de la température et les émissions cumulées.

 

2Cfig5

 

2Cfig6

 

(attention aux échelles de temps différentes)

 

Bien entendu, le calage annuel est arbitraire, mais pour une quantité émise de 463Gt qui correspond à la quantité déjà injectée, on retrouve un écart de température de 0.8°C environ, soit très proche de ce que nous constatons actuellement.

Ceci constitue une validation supplémentaire (en plus de celle du scénario A1B du GIEC) du process employé ici.

EDIT1:Il est intéressant de voir ce que donne la tendance linéaire sur 30 ans dans ce scénario réaliste fort proche, du moins jusqu'en 2010, du scénario du monde réel.

 

 

2Cfig7

 

La tendance de 1976 à 2005 est de l'ordre de 0.13°C/décennie, pour une tendance mesurée de 0.16°C/décennie.

Nous ne nous sommes pas lancés dans des calculs d'erreur assez fastidieux, mais les ordres de grandeur semblent correspondre, surtout compte-tenu des hypothèses de base.

La tendance décennale du scénario 1500 Gt culmine, vers 2040, à 0.16°C/décennie, pour diminuer ensuite inexorablement.

 

 

Mais l'information très importante est que:

 

Si nous consommons, à partir de maintenant, 80 à 90 % de toutes les réserves connues de carburant fossile, soit 900 à 1000 GtC, nous ne dépassons pas la limite des 2°C préconisée comme limite supérieure à ne pas dépasser.

 

 

4- conclusion

 

Cette importante information, donnée avec les réserves d'usage et demandant confirmation, nous semble assez robuste, bien que nous n'ayons considéré que le CO2.

Le CO2 est un élément fondamental du forçage radiatif et ce qui peut justifier la non prise en compte des autres GES et des aérosols est que leurs influences se compensent partiellement.

De plus, dans pas mal de cas, les émissions des autres GES (N2O, O3,..) et des aérosols, sont liées à la combustion du carbone.

La grande inconnue reste le méthane, dont l'évolution dépend, en partie, de l'action de la température sur les sols, de l'humidité, etc.

En fonction des hypothèses retenues, la courbe des émissions montre que nous pouvons encore augmenter les émissions jusqu'en 2040 environ, pour atteindre un maximum de 12Gt/an, puis que nous devons réduire progressivement ces mêmes émissions pour atteindre, tout de même, 5.5Gt/an, soit la moitié des émissions actuelles en 2100.

En 2160 environ, la société humaine doit fonctionner sans, quasiment, aucune émission de carbone.

La quantité totale qui nous reste à émettre, dans ces conditions et suivant ces hypothèses, est donc de l'ordre de 1000 GtC et, si nous suivons le programme d'émissions indiqué, nous ne risquons probablement pas de dépasser 2°C.

 

EDIT2:

Pour modérer un peu l'optimisme relatif de la conclusion, on peut noter que l'augmentation de température à très long terme, dans le scénario 1500 Gt, est de 1.5°C.

Cette augmentation est prévue durer des dizaines de milliers d'années, en fonction du cycle géologique.

Si on suit des auteurs comme Hansen (voir ici) elle serait suffisante pour entraîner des modifications profondes de la cryosphère, engendrant à terme la disparition quasi-totale des inlandsis.(Groenland et Antarctique)

Elle permettrait donc de dépasser la sensibilité rapide (dite de Charney), soit 3°C, pour atteindre une sensibilité long terme de 6°C, et surtout d'atteindre, in fine, au bout de plusieurs centaines voire milliers d'années, des élévations du niveau de la mer de plusieurs dizaines de mètres (environ 70m au maximum)

Evidemment ce n'est qu'une hypothèse qu'on pourrait penser soulevée ou inventée par Hansen pour les besoins de la cause, mais ce serait faire injure, à mon sens, aux autres scientifiques qui ont participé à son élaboration.

C'est donc à garder dans un petit coin de sa tête...

 

 

 

 

 

 

Partager cet article

Repost0