bandeau

hiboux

 

bonnet d'ane
Le Prix d'Honneur
Rechercher sur le site avec Google:

 

 

Enfin un fil RSS pour les accros du site ! Il faut un RSS reader. fil RSS

Les NEWS

 

Comme de nombreux lecteurs me l'ont fait remarquer à juste titre et au cours du temps ce site est devenu très (trop) touffu et les dossiers désormais excessivement copieux, ralentissent le chargement pour les déshérités qui ne bénéficient pas de la connexion internet par fibre optique.
Dès le début (en fin 2006), j'avais pris le parti de rassembler les billets dans des dossiers thématiques (par exemple, glaciers et océans, paroles, bonnets d'âne, thèses, calamités etc.) et les billets successifs y étaient introduits, rapprochés selon leurs thématiques, parfois indépendamment de leur ancienneté, ce qui, évidemment, n'a pas contribué à faciliter la lecture.
D'autre part, la quantité et la qualité des observations relatives au climat se sont sérieusement étoffées et améliorées, notamment, au cours de ces deux ou trois dernières années. On constate ainsi que le rythme de publication des articles scientifiques qui permettent de porter un regard critique sur les théories en vigueur, s'est singulièrement accéléré. Face à ce déferlement d'articles scientifiques sur lesquels il serait bon de rapporter, on peut imaginer deux types d'exposés différents : Soit une série de compte-rendus succincts de plusieurs découvertes récentes en se contentant d'une traduction des titres et des résumés, le tout accompagné de quelques explications minimales. Soit une synthèses un peu plus approfondie d'un ou de plusieurs articles récents, comme j'ai parfois tenté de le faire au cours des dernières années.
Les articles de la page "NEWS" seront systématiquement empilés selon la méthode LIFO, comme disent les informaticiens (Last In, First Out), c'est-à -dire que les articles les plus récents se retrouveront sur le sommet de la pile. C'est la disposition qui est très généralement utilisée par les blogs classiques tels que Wordpress ou autres.
Comme d'habitude, c'est la couleur du fond des pages qui change lorsque l'on passe d'un billet à l'autre.
D'autre part, j'ai mis à votre disposition une table des matières avec tous les liens nécessaires pour vous y retrouver plus facilement dans les billets publiés sur PU.
Bonne lecture !

11Mai 2016 : Observations : Encore trois bonnes nouvelles !

Comme je vous l'ai souvent fait remarquer, la science progresse lentement mais imperturbablement, bien loin de l'agitation des microcosmes politique/médiatique/militants. De fait, il ne se passe pas une semaine sans qu'une revue cotée ne publie une nouvelle étude qui remet sérieusement en question ce que l'on croyait savoir et que l'on tenait pour sûr et certain jusque là. Le problème vient du fait que nos médias n'en parlent pratiquement pas et qu'ils donnent l'impression au public et aux politiques que la science reste figée dans de nombreux domaines et qu'elle n'évolue pas.
C'est une image très éloignée de la réalité comme ce site s'efforce de le vous le montrer, avec des moyens très limités mais persévérants.

En bref, ce mois-ci, comme beaucoup d'autres, nous apporte notre lot de bonnes nouvelles qui viennent sérieusement remettre en question les discours apocalyptiques dont les médias aiment à abreuver leurs lecteurs.

Tout d'abord nous allons voir que les observations démontrent sans ambiguïté, qu'au moins depuis le début des observations satellitaires qui datent d'une trentaine d'années, notre Terre a nettement verdi. C'est à dire, en termes plus scientifiques, que la surface foliaire totale, bien visible depuis l'espace, s'est considérablement agrandie. Pour leur part, les modélisation attribuent la majeure partie de ce verdissement à l'augmentation du taux de CO2 atmosphérique à côté d'autres causes moins importantes. C'est évidemment une très bonne nouvelle que d'observer (si on ne le savait pas déjà) que le CO2 a des effets bénéfiques sur la végétation, même si une partie de la presse s'efforce de la minimiser.

Une deuxième bonne nouvelle émerge de l'examen des épisodes pluvieux et de sécheresses inscrits dans les données géologiques depuis 12 siècles. Cette étude exhaustive montre (comme d'autres travaux) que les sécheresses et les pluies que nous connaissons de nos jours n'ont rien à envier à celles des siècles passés, ce qui va, bien entendu, totalement à l'encontre des discours assénés quotidiennement au grand public selon lesquels nous vivrions une époque climatiquement catastrophique et sans précédents.

Enfin, beaucoup s'inquiétaient du devenir des planctons qui vivent dans la partie supérieure des océans et qui risqueraient de souffrir d'un réchauffement climatique putatif. Des chercheurs britanniques ont récemment démontré que ces planctons sont entraînés par les courants marins et effectuent des périples considérables, de plusieurs milliers de km, dans les océans, ce qui leur fait naturellement subir des variations de température de quelques 10°C, sans dommage pour eux et ce qui les place hors de portée des avanies d'un futur réchauffement climatique supposé. En fait, ces organismes microscopiques sont très bien entraînées à subir de grandes variations de température au cours de leur vie.

De fait, comme on va le voir, la Nature a plus d'un tour dans son sac quand il s'agit de déjouer les pronostics les plus pessimistes ...

Dans ce billet, les caractères engraissés dans le corps des textes le sont par PU.

1) La terre verdit ... en grande partie grâce au CO2 ajouté !

greening4

La bonne nouvelle avait déjà été annoncée lors d'une conférence internationale qui s'est tenue à Avignon en 2014 comme je l'avais rapporté dans mon billet du 06 Novembre 2015 qui passait en revue les données disponibles (et franchement rassurantes) sur les "calamités et les événements climatiques extrêmes."

Dès 2013, le journaliste scientifique anglais, (Lord) Matt Ridley avait donné une conférence sur ce sujet dans laquelle il présentait les observations les plus récentes connues à l'époque dans lequel il attribuait (avec les scientifiques) le verdissement de la planète à l'augmentation du taux de CO2 résultant de l'usage des fluides fossiles. Il rappelait que Charles Keeling (le pionnier des mesures du taux de CO2 dans l'atmosphère, devenu une icône des tenants du réchauffement climatique) avait prévu cet effet, dès le début de ses travaux. Comme on pouvait s'y attendre, Matt Ridley avait, à l'époque, subi les foudres des nombreux détracteurs issus du microcosme politique, médiatique ou scientifiques . De fait, la suite a montré que c'est Ridley qui avait raison, comme vous allez le voir.

L'image ci-contre (Credits: Boston University/R. Myneni, un des auteurs de l'article présenté ci-dessous) montre, à l'aide de l'échelle des couleurs intitulée "Changement de la surface foliaire (1982-2015)", qu'à l'exception des zones sévèrement désertiques et des zones englacées, la quasi totalité de la planète à "verdi" (y compris le Sahel), c'est à dire que la surface de la couverture foliaire (forêts et végétation) a beaucoup augmenté durant les 33 dernières années. Comme il est affirmé dans l'article mentionné ci-dessous, il s'agit d'une augmentation caractérisée sur 25 à 50% de la surface du globe. Ce n'est pas un détail.

Depuis l'intervention de Matt Ridley qui, en réalité, explicitait les connaissances de l'époque, la science a progressé. Les bases de données se sont enrichies et les observations de différents satellites se sont affinées et ont été recoupées, au point qu'elles sont devenues incontestables. C'est ainsi qu'in fine, un article qui fait le point sur cette question vient de paraître dans la revue Nature (Climate Change) du 25 Avril 2016. Il est cosigné par une cohorte de 32 chercheurs relevant de 24 institutions académiques chinoise, américaine (USA), espagnole, australienne, française, allemande, anglaise et japonaise. Autrement dit, cet article est signé par le gratin des experts internationaux qui s'occupent de ces questions. On peut penser qu'il fera autorité dans ce domaine, au moins, pendant un certain temps.

Voici, ci-dessous, à gauche, un fac-simile de l'entête et du résumé de cet article, accompagné d'une traduction en français (à droite).

greening1

 

Nature Climate change - Lettre.

"Le verdissement de la Terre et ses causes"

Résumé : Le changement de l'environnement du globe est en train de modifier la dynamique de la végétation terrestre avec des conséquences pour le fonctionnement du système terrestre et pour l'approvisionnement des écosystèmes. Cependant, la manière dont la végétation du globe répond aux changements environnementaux n'est pas solidement établie.
Dans cet article, nous utilisons trois séries de données résultant des mesures satellitaires de longue durée qui mesurent l'indice de surface des feuilles (LAI: Leaf Area Index) ainsi que dix modèles globaux des écosystèmes de manière à étudier quatre facteurs clefs qui pilotent les tendances du LAI de 1982 à 2009.Nous montrons une augmentation persistante et largement répandue de l'indice LAI pendant la saison de croissance (verdissement) sur 25% à 50% des surfaces du globe portant une végétation tandis que moins de 4% du globe montre une décroissance du LAI (brunissement). Des simulations factorielles avec de multiples modèles écosystémiques du globe suggèrent que les effets de fertilisation par le CO2 expliquent 70% des tendances au verdissement observées, suivis par le dépôt d'azote (9%), puis par le changement climatique (8%) et par les modifications de la couverture des terres (LCC : Land Cover Change) (4%).Les effets de la fertilisation par le CO2 explique la plupart de la tendance au verdissement sous les tropiques tandis que le changement climatique a provoqué le verdissement des hautes latitudes et du plateau Tibétain. Le LCC a surtout contribué au verdissement régional observé en Chine du Sud et dans l'Est des Etats-Unis. Les effets régionaux de facteurs inexpliqués suggèrent que la prochaine génération des modèles écosystèmiques devra explorer les impacts de la démographie forestière, les différences entre les intensités de la gestion régionale des terres cultivées et des pâtures ainsi que d'autres contraintes émergentes liées à la productivité telles que la disponibilité en phosphore.

 

A noter que l'effet fertilisant du CO2 sur la croissance des végétaux est connu depuis bien longtemps. Voici, par exemple un article publié en 1920 sur ce sujet . De nos jours, les maraîchers et les horticulteurs qui cherchent à améliorer leurs rendements, imposent couramment une concentration d'environ 1000 ppm (qui semble être un optimum, soit 2,5 fois la concentration naturelle actuelle) de gaz carbonique dans leurs serres, évidemment sans dommages pour eux.
greening5

Tiré de l'article et à titre d'illustration, voici une comparaison, en terme de densité de probabilité, entre les différents modèles utilisés et la moyenne des trois observations satellitaires (AVG OBS).

Sa légende : d, Graphe de densité de probabilité des tendances des LAI pour GIMMS LAI3g, GLASS LAI, GLOBMAP LAI avec la moyenne des trois séries de mesures satellitaires (AVG OBS).

On constate, en effet, que le graphe de densité de probabilité est fortement déporté vers les valeurs des tendances positives, ce qui est une manière probabiliste d'illustrer le verdissement de la planète. Comme on le voit, ceci est valable aussi bien pour les modèles que pour les observations effectives.

 

On aurait pu espérer que tout le monde se serait réjoui de cette bonne nouvelle.
La terre a (re)verdi ! Quelle aubaine pour les forêts, l'agriculture, les savanes et leurs riches biotopes ! joshgreening3


Eh bien, non. Pas du tout ! Du moins, pas partout, comme nous allons le voir.

 

Ci-contre, un "cartoon" de Josh que j'ai francisé et qui porte précisément sur ce sujet.


A la différence d'une partie de la presse et des médias anglophones qui ont souvent annoncé cette "bonne nouvelle", la quasi-totalité des médias francophones se sont carrément abstenus d'en informer leurs lecteurs et les rares qui l'ont fait se sont empressés d'en tirer des conclusions pessimistes, peut-être dans la crainte de "démobiliser" les lecteurs dans la lutte épique engagée contre le gaz carbonique (qui est le vecteur N°1 du cycle du carbone et de la vie sur la planète) et pour demeurer fermement dans la ligne gouvernementale de la COP21.

Tel le journal Ouest-France qui, sous la plume d'Alexiane Lerouge, relatant cette découverte, titre sans ambages : "La planète reverdit et ce n'est pas une bonne nouvelle".
Ce titre, plutôt étonnant, n'a pas manqué d'interpeler nombre de lecteurs de PU qui me l'ont fait savoir. De fait, on ne peut que s'interroger :

La planète verdit (depuis une trentaine d'années, au moins) et ce n'est une bonne nouvelle ?

La journaliste d'Ouest-France aurait-elle jugé préférable qu'elle ne verdisse pas mais qu'elle "brunisse" alors que l'on sait que les biotopes, le rendements de l'agriculture, les forêts bénéficient énormément du verdissement constaté ?

La raison de ce titre est plus ou moins justifiée par un sous-titre, quelques lignes plus loin. Selon Ouest-France et en substance : "Oui, bon, ça a reverdit mais ça ne va pas durer. ça sera pire après". Ce qui est traduit en novlangue journalistique par "Le calme avant la tempête"... Bigre !

Le pessimisme qui transpire de cette dépêche repose sur les affirmations de l'un des auteurs (un français, cité plus loin par Judith Curry) de l'article en question qui affirme que la capacité de la végétation de la planète à absorber le CO2 additionnel pourrait parvenir à saturation et qu'ainsi la végétation pourrait ne plus croître comme elle le fait depuis, au moins, une trentaine d'années, et pourrait même dépérir. Ceci, nous dit-on, résulte d'études (évidemment non précisées) qui l'affirment.

Nous avons voulu en savoir un peu plus sur cette question
et nous sommes donc retournés aux sources les plus officielles (et consensuelles, dit-on) qui soient, c'est à dire vers le dernier rapport scientifique officiel du GIEC, dit l'AR5 (Assessment Report N°5) publié en 2013.
Dans ce rapport très volumineux dont la lecture est riche d'enseignements même s'il est, hélas, très peu fréquenté par les médias et les politiques, on trouve un chapitre 6 du WGI (Working Group I, les bases scientifiques) dédié au cycle du carbone.
Voici un extrait de ce chapitre qui dément frontalement les affirmations du journal Ouest-France.

AR5 (2013) WGI -Chap. 6 intitulé : Carbone et autres cycles biogéochimiques (Carbon and Other Biogeochemical Cycles)greening6

Box 6.3 (page 502) : "L'effet fertilisant du dioxyde de carbone"

“Depuis l'AR4 [NdT : le rapport précédent qui date de 2007], de nouveaux éléments de preuves sont devenus disponibles à partir des expériences de longues durées nommées "Enrichissement par le CO2 en air libre" (Free-air CO2 Enrichment, FACE) sur des écosystèmes tempérés qui montrent la capacité des écosystèmes exposés à des forts taux de CO2 à soutenir des taux plus élevés d'accumulation de carbone pendant de nombreuses années."

Autrement dit, le programme FACE montre que les écosystèmes (tels les forêts, les plantes, les récoltes vivrières, etc.) sont capables de faire face à une augmentation du taux de CO2 pendant de nombreuses années. Il n'est pas question de saturation dans le texte du GIEC.

C'est aussi ce que soutenait, entre autres, un article, datant de 2011, qui analysait deux publications sur les processus au moyen desquels les végétaux s'adaptent aux taux élevés de CO2 et aux sécheresses, notamment, en réduisant leurs pertes hydriques via la réduction automatique de l'efficacité du système stomatal. Les déclarations des auteurs sur la pérennité de ces processus qui favorisent la croissance, même en zones appauvries en humidité, sont sans ambiguïté :

"Notre premier article montre les connexions entre la température, la transpiration et la densité des stomates" dit Dilcher. "Le second article concerne l'application de ce que nous savons pour le futur."
Ce modèle suggère qu'un doublement de la concentration de dioxyde de carbone - de 390 ppm à 800 ppm - [NdT : nous en sommes à 400 ppm] divisera par deux la quantité d'eau perdue dans l'atmosphère, ce qui permet de conclure dans le second article que "l'adaptation des plantes à l'augmentation de CO2 est actuellement en train d'altérer le cycle hydrologique et le climat et continuera à le faire tout au long de ce siècle"".

Autrement dit, la Nature a plus d'un tour dans son sac comme nous le découvrons peu à peu et comme nous en reverrons un exemple au §3. Les plantes continueront à s'adapter tout au long du siècle y compris pour un doublement du taux de CO2 dans l'atmosphère. Nous avons le temps de voir venir et si la planète continue à reverdir au rythme où elle l'a fait durant les trois décennies passées, ce ne peut-être qu'une bonne chose. Sauf à craindre d'être contraints de vivre à un époque du type jurassique ou le taux de CO2 était quelques 2,5 fois plus élevé que maintenant et où la végétation était luxuriante au point de permettre l'alimentation et la croissance d'animaux gigantesques, les dinosaures.

Voici le point de vue de Judith Curry sur ce sujet :

"Cet article est sans doute l'étude qui fait le plus autorité sur le verdissement de la Terre que j'ai vu, bien que je sois certaine qu'il ne sera pas le dernier mot sur ce sujet. Pour ce qui est de son évaluation en terme de politique c'est à dire en essayant de faire le bilan entre les effets bénéfiques de l'accroissement de la végétation pour une population en augmentation rapide et la hausse hypothétique du niveau des mers et des événements météorologiques plus extrêmes, la réponse n'est pas du tout évidente. Il est inapproprié de rejeter les arguments des soi-disant "opposants", parce que leur désaccord avec le consensus reflète un conflit de valeurs et une préférence pour l'empirique (c'est à dire pour ce qui a été observé) par opposition à l'hypothétique (c'est à dire ce qui résulte des projections des modèles climatiques). Ces désaccords sont au coeur du débat public sur le changement climatique et ces problèmes devraient être débattus et non pas écartés.

J'ai commencé à creuser ce sujet à peu près à l'époque du procès du Minnesota au sujet du coût social du carbone en octobre dernier. A cette époque, une image non publiée dans la littérature par le co-auteur Myneni était le sujet de violentes disputes. Apparemment, ce diagramme était une version préparatoire de ceux qui sont publiés dans l'étude dont il est question ici (l'auteur principal était en postdoc chez Myneni). La version publiée montre beaucoup plus de verdissement et une beaucoup plus grande part est attribuée aux émissions anthropiques. [...]  

J'ai été très irritée par cette affirmation contenue dans leur communiqué de presse :

L'aspect bénéficiaire de la fertilisation par le CO2 qui promeut la croissance des plantes, a été utilisé par les opposants, plus spécialement par Lord Ridley et Mr Ruppert Murdoch, pour argumenter contre les coupes des émissions de carbone destinées à lutter contre le changement climatique telles que celles sur lesquelles est fondé l'accord de la 21e Conférence des Parties (COP) qui s'est tenu à Paris, l'année dernière, sous la houlette de l'Organisation des Nations Unies sur le Changement Climatique (UNFCC).

Pourquoi donc, l'auteur coordinateur principal du GIEC, Philippe Ciais, éprouve-t-il le besoin de lancer cette pique à l'encontre de Ridley et Murdoch ? En particulier, il y a des années que Ridley a fait des déclarations publiques au sujet du verdissement de la planète, lesquelles ont été sévèrement critiquées à l'époque mais qui sont confortées par ce nouvel article. Il semble que Ciais soit le seul, parmi les auteurs, a faire une telle déclaration désobligeante (du moins, pour le moment). Qu'est ce qu'un auteur/militant du GIEC peut faire quand la science ne va pas dans le sens de son agenda politique ? Malheureusement, il semble que le ré-examen de leurs prémisses ne fasse pas partie de leur programme.  

Cet article met en lumière les très substantielles incertitudes qui règnent sur notre compréhension quantitative du budget global en matière de carbone [NdT :cad le "cycle du carbone"]. Ce nouvel article signifie que :

  • Comme Nic Lewis le fait remarquer, cet article modifie les scénarios RCP [NdT : les modèles informatiques usuels] pour ce qui concerne le contenu résultant en CO2 de l'atmosphère. Les scénarios RCP sont significativement trop élevés.
  • Cet article change la dynamique du calcul du coût social du carbone et va dans le sens de l'abaissement."

Dans ces conditions, on peut penser que c'est prendre une très grosse responsabilité, comme il a été fait récemment lors de la COP21, que de promouvoir la limitation drastique du taux de CO2 atmosphérique en se basant sur des résultats hypothétiques de modèles, alors que des observations directes, démontrent que le CO2 a (aussi) des effets bénéfiques manifestes sur la végétation, l'agriculture, les forêts et les biotopes. De fait, le "coût social du carbone" (comme l'on dit) a été notablement surestimé.
En effet, celui-ci n'a pris en compte que les aspects négatifs hypothétiques résultant des modèles sans prendre suffisamment en compte le très bénéfique et très considérable verdissement observé de la planète. Ce "verdissement", maintenant évident, est d'une importance cruciale, tout particulièrement en cette époque de croissance, pour quelque temps encore, de la population mondiale.
_____________________________________________

2) Une autre bonne nouvelle, et pas des moindres, également publiée dans la Revue Nature : La pluviosité et les sécheresses récentes ne sont guère différentes de celles des siècles précédents. Il y a eu pire dans le passé.
L'article montre surtout que, dans ce domaine, les prédictions des modèles étaient erronées, ce qui jette de sérieux doutes sur leur capacité à prédire l'avenir.

Voici l'entête et le résumé de l'article sur ce sujet, paru le 6 Avril 2016 dans Nature, accompagné d'une traduction en français du titre et du résumé.

ljungqvist2

source : Nature

 

 

Variabilité hydroclimatique de l'Hémisphère Nord durant les 12 siècles écoulés.

Résumé : Une modélisation précise et des prédictions à l'échelle locale et à celle des continents de la réponse hydroclimatique au réchauffement climatique sont essentielles étant donné le fort impact de l'hydroclimat sur le fonctionnement des écosystèmes, sur le rendement des récoltes, sur les ressources hydriques et sur la sécurité de l'économie. Cependant, les incertitudes en matière des prédictions hydroclimatiques demeurent importantes, en partie du fait que la période pour laquelle nous disposons de données instrumentales pour tester les modèles climatiques est courte. Dans cet article nous présentons une reconstruction spatiale sur l'hémisphère Nord de la variabilité hydroclimatique durant les douze siècles écoulés, déduite d'un réseau de 196 enregistrements d'indicateurs proxy qui couvrent au moins un millénaire. Nous utilisons cette reconstruction pour replacer les récents changements hydrologiques ainsi que les scénarios pour le futur, dans le contexte à long terme des tendances hydroclimatiques résolues dans l'espace et persistantes dans le temps. Nous trouvons un pourcentage plus élevé de surface de terres avec des conditions relativement plus humides du IXe au XIe siècle et au XXe siècle tandis que les conditions sèches sont plus répandues entre le XIIe et le XIXe siècle.
Notre reconstruction révèle que des cycles marqués en dents de scie, d'humidité alternée observés dans les données instrumentales, dans la zone méditerranéenne, dans l'Ouest des USA et en Chine, ont été en action de manière persistante durant les douze siècles écoulés. A partir d'une compilation actualisée des températures de 128 indicateurs proxy, nous précisons la relation entre l'hydroclimat de l'hémisphère Nord reconstruit à l'échelle centennale avec la variabilité de la température. Même si des conditions humides et sèches se sont produites sur de vastes étendues dans des conditions climatiques, tout aussi bien, froides que chaudes, une covariabilité statistiquement significative entre l'hydroclimat et la température est évidente pour des régions spécifiques. Nous comparons les anomalies hydroclimatiques reconstruites avec les simulations des modèles généraux de circulation impliquant le couplage océan-atmosphère et nous trouvons un accord raisonnable pour l'époque pré industrielle.
Cependant, l'intensification des anomalies hydroclimatiques, par comparaison avec les siècles précédents, simulée pour le XXe siècle n'est pas confirmée par notre nouvelle reconstruction multi-indicateurs. Ces résultats suggèrent qu'il reste beaucoup de travail à effectuer avant que nous ne soyons capables de modéliser la variabilité hydroclimatique avec certitude et ils mettent en lumière l'importance des données paléoclimatiques pour pouvoir situer les changements hydroclimatiques récents et prédits dans un contexte millénaire. .

Le résumé est un peu touffu mais la fin de la conclusion de l'article est claire. En voici une traduction :

"Il y a plusieurs explications possibles pour expliquer la capacité médiocre des modèles climatiques à simuler la variabilité hydroclimatique correctement : Des gaps dans la connaissance des processus physiques qui décrivent les phénomènes qui définissent les paramétrisations des modèles des éléments de la grille qui servent pour le calcul, des biais systématiques dans les valeurs absolues des températures dans les modèles qui affectent l'évaporation et les processus de précipitation ainsi qu'une sous-estimation de la variabilité hydroclimatique interne. Nous ne trouvons qu'un accord médiocre à l'échelle régionale entre les reconstructions et les modèles comme on s'y attendrait si la variabilité hydroclimatique de l'hémisphère Nord était davantage pilotée par sa dynamique interne plutôt que par un forçage externe [NdT : ici externe = anthropique]
Notre comparaison des caractéristiques des distribution et de l'évolution temporelle des hydroclimats aux grandes échelles de temps, reconstruites et simulées aux échelles centennales, montrent de fortes similarités jusqu'au 19e siècle.

Cependant, les informations apportées par les indicateurs proxy ne vont pas dans le sens des tendances trouvées par les simulations selon lesquelles les régions humides seront plus humides et selon lesquelles les régions plus sèches le seront davantage, dans un climat plus chaud.
De plus, nos reconstructions des hydroclimats ne confirment pas la tendance vers une intensification générale et sans précédent du cycle hydrologique durant le vingtième siècle associé avec des conditions plus extrêmes pour les anomalies sèches comme humides, durant le présent réchauffement climatique comme cela est simulé par un ensemble de modèles.

Nos résultats sont conformes aux analyses récentes qui résultent des observations instrumentales et qui montrent des évidences médiocres pour ce qui est de l'intensification des anomalies sèches et humides durant le présent réchauffement climatique.

L'absence d'évidence pour la réponse hydroclimatique prévue par les modèles en présence de températures plus élevées suggère que, soit le réchauffement du XXe siècle n'a pas été assez intense pour que cette signature émerge,
soit que les éléments déclencheurs pour ces mécanismes doivent être ré-examinés.
Nous concluons qu'une perspective à l'échelle du millénaire telle que celle qui est procurée par les analyses multi-indicateurs, est cruciale pour servir de banc d'essai et pour évaluer les performances des simulations hydroclimatiques avec précision."

Parmi d'autres, cet article, relativement exhaustif, et basé sur les observations effectives, dément donc frontalement, et une fois de plus, les affirmations fantasmatiques selon lesquelles : "Le sec sera plus sec et l'humide plus humide" que nous avons entendues répétées à satiété par nos ministres, nos édiles et nos journalistes qui se sont notamment apitoyés sur le futur climat africain, en particulier lors de la COP21.

Pour cette fois, et hormis quelques envolées stylistiques inappropriées et des erreurs factuelles traditionnelles chez cette agence de presse, une dépêche (en anglais) de l'AFP résume (presque) correctement la situation. De fait, son intérêt réside essentiellement dans le fait qu'elle rapporte les propos du ou des scientifiques impliqués dans cette étude. On retrouve, quoique dans une moindre mesure, les mêmes biais dans la dépêche de Reuters ("Les données climatiques depuis les Vikings jettent un doute sur les extrêmes plus humides, plus secs").

A ce propos, il est instructif (amusant) de comparer les versions dans les deux langues (anglais et français) de la même dépêche AFP qui traite de cet article. On constate immédiatement que la version française est - disons - soigneusement "édulcorée" dans les sens de l'actuel politiquement correct (chez l'organisateur de la COP21 ?).

Par exemple, la version américaine de cette dépêche AFP annonce sans ambages que :

"Predictions of unprecedented rainfall extremes in the 20th century driven by global warming turned out wrong"

"Les prédictions de pluies extrêmes et sans précédent, résultant du réchauffement climatique durant le 20e siècle, se sont révélées fausses"

Ce qui est clair et net mais qui devient, dans la version euphémisée destinée aux médias francophones :

"Les modèles de prévision annonçant des précipitations sans précédent au XXe siècle du fait du réchauffement climatique étaient partiellement défectueux"

Voici donc une traduction du texte anglais, non expurgé à destination du public francophone, de l'AFP :

"Les prédictions de pluies extrêmes et sans précédent, résultant du réchauffement climatique, durant le 20e siècle, se sont révélés fausses, selon une étude parue mercredi. Ceci jette un doute sur les méthodes utilisées pour la projection des tendances pour le futur. Une collecte massive des données pluviométriques pour les 1200 années passées, montre qu'il y a eu des épisodes plus dramatiques d'événements secs/pluvieux durant les siècles plus froids avant que les hommes installent le réchauffement climatique piloté par les fluides fossiles.  

Ceci pose un problème, nous dit une étude parue dans la revue Nature, parce que ce sont les mêmes modèles qui sont utilisés pour prédire des extrêmes records de pluviométrie des années 19xx qui sont à la base des projections pour les années à venir. "Cela pourrait être plus difficile de prédire le futur que nous le supposions" a déclaré l'auteur principal de l'étude, Fredrik Ljungvist de l'Université de Stockholm, à l'AFP au sujet de ces résultats.

“La vérité peut être plus - beaucoup plus - compliquée".

Le Comité sur la Science du Climat de l'ONU qui fait autorité en matière de consensus [NdT : cad le GIEC], soutient que les régions sèches le seront encore plus et que les zones humides le seront davantage du fait de la hausse des températures en réponse aux émissions de gaz à effet de serre [NdT : Faux ! Le dernier rapport scientifique complet du GIEC, l'AR5 (2013), ne dit pas cela. Il dit qu'il ne se prononce pas sur ces questions et que la confiance dans les prédictions est faible ou très faible. En l'occurence, l'AR5 avait raison. Par contre, le rapport précédent (l'AR4 de 2007) soutenait cette idée qui a été très sérieusement recadrée dans le plus récent rapport, l'AR5. Il serait sans doute souhaitable que le personnel de l'AFP s'informe un minimum, avant de rédiger ses dépêches.]

Mais ce nouveau travail nous dit que les températures très élevées [Ndt : "Sky-high" (!) dans le texte en anglais] durant le XXe siècle n'ont pas directement résulté dans des extrêmes climatiques en matière de temps humide et sec comme beaucoup l'avaient attendu. Ceci signifie qu' "une grande partie du changement n'est pas seulement piloté par la température mais par une variabilité interne, plus aléatoire", a expliqué Ljungqvist.

“De ce fait, il est très, très difficile de prédire aussi (les extrêmes en terme de précipitations) avec des modèles"

Durant la période de temps couverte par cette étude, les sécheresses étaient plus sévères durant le XIIe siècle qui était un siècle chaud et durant le XVe qui était froid, a déclaré le scientifique. Pour cette étude, une équipe d'experts en histoire, en climat, en géologie et en mathématiques a compilé les données au sujet des sécheresses et des pluies pour l'Europe, le Nord de l'Asie et de l'Amérique, pour reconstruire 12 siècles d'"histoire de l'eau".Ils ont pris en compte les évidences des flux des rivières, du niveaux des lacs, des sédiments marins et lacustres conservés par la géologie ainsi que les cernes des arbres et les relevés historiques.  

La reconstruction par l'équipe pour le XXe siècle diffère considérablement [NdT : "The team’s reconstruction for the 20th century differed vastly from climate models" en anglais, ce qui est assez différent de la version française édulcorée qui trouve que les modèles ne sont que "partiellement défectueux".] des modèles climatiques qui avaient suggéré que les zones humides auraient dû l'être encore plus et que les sèches auraient dû l'être davantage que jamais auparavant. "Dans le passé, sur une échelle de temps plus longue, il y a eu des variabilités encore plus importantes", dit Ljungqvist. [...]"

A noter également qu'une autre étude extensive parue récemment (Nov 2015) dans le Journal of Hydrology qui porte sur la pluviosité sur le globe du XVIIIe siècle à 2013 (antarctique exclus) ne montre aucune variation significative dans les tendances des pluies durant cette période. (article en accès libre).

greening8

 

 

 

 

 

 

3) Et enfin, une troisième bonne nouvelle : Les planctons sont entraînés à survivre à des variations de température considérables durant leurs périples à travers les océans du globe. Ils ne souffriront pas du réchauffement climatique, contrairement à ce que l'on craignait auparavant.

Cette conclusion résulte des travaux de recherche publiés, le 26 Avril 2016, dans la revue (réputée) PNAS, les Proceedings of the National Academy of Science (US).

En bref, jusqu'à présent, et c'est le point de vue qui était reflété dans le dernier rapport du GIEC (l'AR5 de 2013), on pensait qu'il suffisait d'étudier l'influence de la température sur les planctons océaniques situés dans des endroits déterminés, fixes et bien choisis. Les conclusions étaient pessimistes sur l'avenir des planctons dans le cadre d'un réchauffement supposé à venir.
On sait les variations de température significatives se produisent essentiellement en surface où demeurent les planctons dont la survie pouvaient être remise en cause par la réchauffement climatique. Ceci pourrait avoir, à l'évidence, des conséquences dramatiques pour les biotas marins dont ils constituent une part essentielle de l'alimentation.
C'était oublier que de puissants courants marins animent constamment la surface des océans et entraînent, dans leurs périples, les planctons qui subissent ainsi des amplitudes thermiques considérable au cours de leur vie et de leur reproduction. Les chercheurs, auteurs de l'article suivant, ont montré que les planctons pouvaient affronter ainsi, sans dommage et au cours de leurs périples, des variations de températures de 10°C ce qui les place hors de portée des avanies d'un hypothétique réchauffement climatique à venir.
On constate donc que les planctons de surface qui sont les plus menacés, sont hyper-résistants. Beaucoup plus qu'on ne le croyait auparavant.
En bref, on voit que la Nature a plus d'un tour dans son sac pour déjouer les analyses les plus pessimistes des chercheurs rédacteurs du rapport du GIEC.

Voici l'entête de l'article et une traduction en français :

greeening9

 

Les courants océaniques dérivants impactent l'exposition intergénérationnelle des organismes microbiens à la température.

Signification : Nos compréhension actuelle de la façon dont les biota marins sont adaptés à l'amplitude, au tendances et aux variations temporelles de la température de surface des océans, a résulté de l'examen de données à long terme en des endroits choisis des océans. Cependant, les planctons flottants ont une perception différente de leur habitat parce qu'ils dérivent au sein des courants océaniques. Dans cet article, tous les microbes océaniques qui résident dans la partie supérieure des océans peuvent être convoyés sur 3500 km en 500 jours et leurs températures opérationnelles dépassent les domaines de températures eulériennes in situ de valeurs atteignant 10°C, même dans des endroits qui ont une grande saisonnalité. Ce résultat remet en question le point de vue actuel sur l'exposition thermique dans la partie supérieure des océans et procure un nouveau cadre pour l'étude des impacts du changement climatique sur les organismes planctoniques.

Le résumé n'est guère transparent mais le communiqué de presse l'est. Le voici :

Communiqué de presse.

"Les planctons ont évolué de manière à survivre à une grande gamme de conditions et ceci grâce à leurs vastes et inattendus périples à travers les océans. C'est ce que suggère une nouvelle étude.

Ces organismes microscopique sont essentiels dans le réseau de l'alimentation marine. Ils procurent l'alimentation aux baleines, aux poissons et aux crustacés. Des scientifiques de l'UTS et de l'Imperial College of London au Royaume Uni ont modélisé la manière dont le plancton dérive dans les océans de manière à savoir dans quelle mesure ils sont menacés par le réchauffement des océans.

Les résultats de cette étude, publiés dans le journal Proceedings of the National Academy of Science (PNAS), montrent, pour la première fois, l'étendue du domaine de température que les planctons subissent durant leur parcours. Dans la plupart des endroits, ils endurent des extrêmes de température qui vont bien au delà de ce qui est prédit par les modèles du réchauffement climatique.

Les scientifiques ont utilisé un modèle de circulation océanique global qui simule les trajets de trois millions de planctons virtuels ainsi que les conditions thermiques qu'ils rencontrent.

Ils ont trouvé que les courants de surface peuvent transporter des particules dérivantes jusqu'à des distances de 3500 km en 500 jours ce qui est à peu près l'équivalent d'une personne qui irait, en ramant, de la Californie à Hawaï. Durant ce périple, elles sont soumis à des variations de température qui atteignent 10°C de plus que s'ils étaient restés, immobiles, au même endroit.

"Les expositions passées à des fluctuations de température peuvent influer sur la manière dont les populations de planctons réagissent quand elles seront exposées aux futurs changements climatiques" a déclaré l'auteur principal, le professeur associé Martina Doblin qui dirige le Productive Coasts research program au sein du groupement sur le climat de l'UTS (C3). "Nos résultats suggèrent que les effets du changement climatique sur les planctons océaniques devront être ré-évalués pour prendre en compte ces observations."

 

4) Que peut-on en conclure ?

Que la science progresse. Lentement mais sûrement. Imperturbablement, elle remet constamment en cause ce qui était tenu pour acquis ("setlled", disent-ils). il en va ainsi de la science en général et pas seulement de la science climatique. Il faudra bien que les médias/politiques/militants se fassent à cette idée.

On observe par exemple que les vieilles antiennes selon lesquelles "le sec sera plus sec et l'humide le sera davantage" répétées à l'envi par nos politiques et nos médias ont encore mordu la poussière, accablées par les évidences scientifiques qui se multiplient. Si on est optimiste, on peut rêver qu'un jour, dans le futur, nos édiles et nos médias s'informeront correctement, ne serait-ce qu'en lisant les plus récents rapports scientifiques du GIEC...à défaut de suivre les publications scientifiques.

A noter que les trois article présentés ici insistent, dans leur conclusions, sur la nécessité d'impliquer les résultats de leurs études dans les prochaines évaluations telles celles du GIEC. Et il ne s'agit pas de détails. très loin de là. Il s'agit même, dans certains cas, d'une remise en cause profonde des modèles en vigueur.
Ceci montre, à l'évidence, que la science du climat "is not settled", n'est pas (encore) établie, contrairement à ce que beaucoup (politiques, médias, certains chercheurs) croient ou cherchent à vous (nous) faire croire.

En aparté, vous observerez qu'aucun des auteurs des articles scientifiques - et c'est également vrai pour les autres articles scientifiques que j'ai eu l'occasion de vous présenter ou d'examiner - ne déclare "croire" ou "ne pas croire dans le réchauffement climatique anthropique", ce qui n'a d'ailleurs aucun sens. C'est la question de l'amplitude des diverses causes possibles et des conséquences envisageables qui reste posée et qui mérite (et reçoit) des réponses non binaires et argumentées. Les auteurs des articles qui paraissent dans la littérature, se limitent, pour une grande majorité d'entre eux, à chercher à comparer les prédictions des modélisation effectuées par les ordinateurs avec la réalité observée et d'en tirer des conclusions sur la nécessité de revoir les modèles ou de tenir compte de facteurs autrefois ignorés, comme c'est, par exemple, le cas pour l'article ci-dessus.
C'est pour cette raison qu'il est absurde (voire peu honnête) que d'essayer d'évaluer, à partir de ces mêmes articles, la proportion de ceux "qui croient" et de ceux "qui ne croient pas", au réchauffement climatique anthropique" comme l'a fait récemment une célèbre "étude" (abondamment citée par les médias/politiques/militants), - ici examinée en détail par Richard Tol, un spécialiste de la question - proclamant que 97% des articles scientifiques portant sur ces sujets "croient au réchauffement climatique anthropique".

Il faut s'y résoudre : L'objectif de ces scientifiques n'est pas de "croire" ou de ne "pas croire"en une théorie en vigueur. Il est de discerner ce qui colle ou ne colle pas avec les modèles issus d'une théorie et de détecter et de signaler les paramètres fondamentaux dont on a pu sous-estimer l'importance et, éventuellement, de suggérer des remises en cause et des révisions. C'est ce qu'ils font, jour après jour.

 

Stay Tuned !

10/04/2016 : Science et politique : Trois témoignages d'experts sur les recettes pour un désastre.

Ce mois-ci, je me propose d'aborder un sujet qui me tient particulièrement à coeur ainsi, sans aucun doute, qu'à celui de nombreux autres scientifiques. De fait, les dangers d'un pilotage de la recherche par la politique sont aussi réels que redoutables, exactement comme nous en avait prévenu Le Président Eisenhower lors de son discours d'adieu cité par Richard Lindzen dans le billet du mois dernier. Eisenhower nous avertissait, dès 1961, que :

"La possibilité d'une domination des scientifiques de la nation via l'emploi fédéral, les attributions de crédits et la puissance de l'argent est toujours présente - et doit être envisagée avec gravité".

Parmi beaucoup d'autres, deux experts européens reconnus en matière de relations entre la science et la politique se sont récemment exprimés sur ce sujet. Pour sa part, la climatologue Judith Curry n'a pas manqué d'aborder cette question cruciale lors d'un tout récent témoignage auprès du Sénat US. C'est ce que nous allons voir dans les lignes qui suivent.

1) Deux experts en relations entre la science et la politique s'expriment au sujet de la COP21 et des relations science-politique lors d'un mini-symposium européen.

Leurs déclarations sont publiées dans l'EJRR (Le journal Européen de Gestion des Risques). Les deux auteurs ne critiquent pas la science climatique en tant que telle mais relèvent, tous deux que, dans le cas de la question climatique, l'association science-politique conduit à une démarche catastrophique. Judith Curry a sélectionné les extraits les plus significatifs de leurs articles que je vous traduis (*) ci-dessous. Dans cette section, les caractères engraissés le sont par Curry.

A) Lucas Bergkamp
settled

Lucas Bergkamp (Bio) est un docteur en médecine et juriste (docteur d'Etat, PhD) des Pays-Bas. Il est l'auteur de nombreux livres et articles au sujet des relation science/société/politique. Il siège dans une quantité de comités (notamment européens) en tant qu'expert dans ces matières.

Dans un des articles de Bergkamp, référencés sur son blog, on trouve le dessin explicite ci-contre (que j'ai francisé) qui fait allusion au débat entre les inquisiteurs et Galilée.

Voici l'entête de son article au EJRR.

ejrrbergkamp

"Mini-symposium au sujet de l'Accord de Paris sur le changement climatique : Une perspective dans la gestion des risques."

[...]"L'Accord de Paris sur le Changement Climatique qui a été conclus lors de la COP21 en Décembre 2015 a été qualifié de "Plus grand succès diplomatique" et de "réussite historique" mais aussi d'"échec dramatique" et même de "fraude" et de "discours sans intérêt". Déçu par l'Accord de Paris, un groupe de onze scientifiques ont signé une déclaration qui affirme que cet Accord souffrent de "défauts mortels" et qu'il donne de "faux espoirs". Ils déclarent que le temps pour les "voeux pieux et l'optimisme aveugle" est terminé et que le "spectre le plus large des possibilités de la géo-ingénierie" [NdT : c'est à dire de l'intervention délibérée sur le climat de la planète par divers procédés] devrait être envisagé.

Le désaccord largement répandu au sujet des résultats de la COP21 à Paris (en particulier pour ce qui concerne l'aspect contraignant) illustre non seulement les attentes divergentes des groupes d'intérêt, mais aussi les antagonismes qui se dressent dans tous les aspects de la mise en oeuvre des politiques entre les dogmatiques et les pragmatique, entre les idéalistes et les réalistes et entre les internationalistes et les nationalistes.

Vu de manière objective, l'accord de Paris n'apparaîtrait guère plus que comme un cadre de procédure pour la mise en place par les parties d'une future politique climatique flexible qui va de la base au sommet, habillé dans un langage non contraignant qui insiste sur les ambitions et les progressions. De manière à satisfaire le désir du gouvernement US d'éviter l'approbation par le Sénat, l'Accord n'impose aucune obligation contraignante substantielle mais il met en avant l'objectif ambitieux de limiter la température moyenne de la planète à bien moins que 2°C ou même à 1,5°C. En d'autres termes, le texte qui est ressorti de l'Accord de Paris, constitue un exemple de plus d'un accord délibérément basé sur une cible et avec des réalisations dont les résultats sont difficiles à prédire.

La thèse principale de cet essai va au delà du rejet de l'affirmation que "la science est comprise " qui est, de toute manière, une affirmation dont les termes sont contradictoires. Cela postule qu'il existe une tendance "scientiste" en matière de climatologie selon laquelle on croit que le climat, dans son ensemble, peut être expliqué et contrôlé en se référant à un seul paramètre. Une telle tendance scientiste se manifeste dans les modèles climatiques qui assujettissent toutes les politiques aux projections numériques plutôt qu'aux connaissances acquises par l'observation empirique. Bien que les auteurs reconnaissent que les modèles constituent une méthode utile et acceptée dans de nombreux domaines de la science, le problème clef pour les modèles du climat est de savoir s'ils satisfont à la rigueur des "tests" pour ce qui relève de la conformité de leurs prédictions (ou projections) avec les observations ou encore, avec les exigences plus softs de tests tels que ceux dits "adaptés pour le but poursuivi".

Même si les modèles du climat sont utiles dans des buts de recherche, ceci ne signifie pas qu'il devraient être utilisés pour déterminer une politique. En dépit des limitations inhérentes aux modèles, ceux-ci sont supposés décrire, dans sa totalité, le futur du climat terrestre. L'Accord de Paris légitimise implicitement la pensée scientiste qui sous-tend l'utilisation des modèles dans l'élaboration de la politique climatique. De manière plus décisive, il contribue à la codification ultérieure des relations supposées entre les émissions anthropiques et l'augmentation de la température du globe, entre l'augmentation de la température et le changement climatique et entre le changement climatique et les impacts négatifs. Peu importe ce que la science climatique révélera dans le futur, la voie de la politique a été déterminée pour ce siècle. Dans notre monde post-moderne, la climatologie n'est pas une science toute puissante parce qu'elle dit la vérité, elle dit la vérité parce qu'elle est toute puissante.

L'Accord de Paris et, plus généralement, la politique en matière de changement climatique, illustrent les contradictions de la gestion du risque par le monde industrialisé post-moderne, lequel se caractérise par des menaces perçues confirmées par une science politisée et réglementées par une sous-politique échappant au contrôle démocratique. Le Changement Climatique constitue le cas ultime de l'application du principe de précaution associé à une justice distributive. Il existe une tendance qui vise à assujettir toutes les questions politiques au courant du changement climatique de manière à ce que la justice climatique puisse être poursuivie comme une politique holistique, globale et en relation avec la justice sociale, comme, par exemple, comment voyager ou que faut-il manger. Après Paris, le Changement Climatique restera un sujet "chaud". C'est celui où est l'argent et où il sera. Et dans la ligne des décisions de la COP-21, les nations développées devraient collectivement contribuer à une dotation d'au moins 100 Milliard de dollars par an, à partir de 2020, pour aider les nations pauvres à gérer le changement climatique." [...]

B) Jaap C. Hanekamp :

Dans une autre communication (cosignée avec Bergkamp) présentée lors du même symposium, le Prof. Jaap C. Hanekamp qui enseigne la chimie d'une part et, d'autre part, l'histoire et la philosophie des sciences à l'University College Roosevelt d'Utrecht (CV et Bio) s'exprime sur le même sujet. Comme Bergkamp, Hanekamp est titulaire de 2 doctorats dont le plus récent traite du principe de précaution. Il est l'auteur d'un grand nombre de publications sur les relations entre la politique et les questions sociétales notamment relatives à la chimie (fréquemment en relation avec l'alimentation).

Voici l'entête de son article au EJRR :
hankamp

errj2

"Mini-symposium sur l'Accord de Paris sur le Changement Climatique. La "meilleure science disponible" et l'Accord de Paris sur le Changement Climatique".

"La "meilleure science disponible" et l'Accord de Paris sur le Changement Climatique. (extraits)

En reconnaissant l'importance de la science pour les politiques climatiques, l'Accord de Paris sur le changement climatique stipule qu'une "réponse efficace et progressive à la menace urgente du changement climatique" devrait se baser sur "la meilleure connaissance scientifique disponible". Les termes "meilleure connaissance scientifique disponible" ou "la meilleure science disponible" est utilisé en de nombreux endroits tout au long de l'Accord. Les parties devraient entreprendre des réductions des émission et parvenir à une neutralité en carbone (c'est à dire à des émissions nettes égales à zéro) dans la seconde moitié de ce siècle, en conformité avec "la meilleure science disponible", ce qui semble prendre en compte le progrès de la science. En dépit de ces références à la science, la relation entre "la meilleure science disponible" et l'Accord est, au mieux, ambiguë et, au pire, calamiteuse.

Dans le domaine de la politique en matière de climat, il y a quatre questions interdépendantes qui mettent en péril les bases scientifiques sur lesquelles repose la politique. Tout d'abord, les définitions de "changement climatique" qui circulent au sein de l'Accord de Paris et de la sphère scientifique sont inconsistantes et apocryphes, ce qui obère l'entreprise scientifique de la recherche sur le climat. Ensuite, la capacité prédictive de la science climatique est pilotée par des modélisations informatiques faisant ainsi reposer toutes les politiques sur des projections d'ordinateur plutôt que sur un savoir empirique. Troisièmement, il résulte de ces déficiences que la science climatique est pilotée par la politique au lieu que la politique climatique soit pilotée par la science, ainsi que l'Accord de Paris semble s'en réclamer. In fine, dans ces conditions, le concept de "meilleure science disponible" autorise la poursuite de politiques politiquement correctes qui interagissent avec les projections des ordinateurs."


Extraits des conclusions :

"Bien que l'Accord de Paris fasse usage du concept de la mise en place d'une politique basée sur la science, son aptitude à nous assurer que les politiques sont correctement informées par la science se trouve gravement entravée. Le concept mal défini de la "meilleure science disponible" attribue aux décideurs le pouvoir discrétionnaire de mettre en oeuvre des politiques qui leur conviennent, basées sur des projections de modèles informatiques.

Dans un premier temps, une communauté politique militante qui agissait sous un faible contrôle démocratique de la part du système politique international et en dehors des structures décisionnelles et judiciaires nationales, a défini les objectifs que la science climatique "devait soutenir". Leur mode de pensée reposait sur le principe de précaution et l'inversion de la charge de la preuve. Selon un consensus implicite, l'hypothèse par défaut était que les émissions anthropiques de gaz à effet de serre induisaient un changement climatique dangereux et que c'est l'innocuité de ces émissions qui devait être prouvée. C'est par l'usage de ces hypothèses par défaut et au moyen de l'utilisation de modèles prédictifs que la science climatique est capable de fournir des informations "utiles" aux décideurs. Il en résulte que plutôt qu'une démarche politique reposant sur la science, c'est la science qui s'est retrouvée basée sur la politique.

Tout comme l'affaire de hiatus de la température du globe l'illustre, la capacité de la science climatique à s'auto-corriger et à informer correctement pour la mise en oeuvre de la politique, se trouve affectée par son incapacité à réexaminer les hypothèses fondamentales qui sous-tendent sa démarche scientifique et ses conséquences en matière de politique. Etant donné les objectifs politiques en matière de climat, les agences chargées du financement, les scientifiques et les responsables scientifiques, sont, à leur tour, encouragés à fournir une science "politiquement correcte " qui supporte les politiques engagées par les politiciens.

Au lieu de tenter de renverser cette tendance, l'Accord de Paris aggrave les problèmes existants en renforçant la pensée scientifique qui sous tend la politique climatique : Il codifie les relations causales prétendues entre les émissions anthropiques et l'augmentation de la température du globe, entre l'augmentation de température et le changement climatique et entre le changement climatique et les conséquences néfastes. Ils vont même jusqu'à intensifier et étendre ce mode de pensée jusqu'à rendre plus ambitieux les objectifs de limitation de la température et jusqu'à exiger un taux net d'émissions nul pour la seconde moitié de ce siècle.

Avec l'Accord de Paris, la relation entre la mise en oeuvre de la politique climatique et la science est devenue encore plus contraignante et plus profondément ancrée. Comme Kuhn l'a observé, un scientifique est un "résolveur de problèmes et les problèmes sur lesquels il concentre son attention ne sont rien d'autres que ceux dont il pense qu'ils peuvent être posés et résolus dans le cadre de la tradition scientifique existante". Malheureusement, à ce stade, la révolution qui est nécessaire pour changer l'état des choses exige non seulement une analyse scientifique mais aussi un changement de paradigme politique. Tandis que le premier est déjà plutôt difficile à obtenir, l'Accord de Paris a rendu le second encore plus ardu en augmentant les enjeux au moyen de flux financiers très substantiels en faveur de l'hypothèse dominante du changement climatique d'origine anthropique.

Rien de tout ceci n'aura aucune d'importance si les découvertes scientifiques parviennent à mettre en oeuvre des nouvelles technologies de conversion de l'énergie. Ainsi, malgré la débacle à Paris, l'espoir demeure."

2) Extraits d'une déclaration prononcée par la climatologue Judith Curry devant le Sénat US, le 8 Décembre 2015, au sujet de la relation science-société (texte complet et références) currymarsh

DECLARATION PRONONCEE DEVANT LE SOUS-COMITE POUR L'ESPACE, LA SCIENCE ET LA COMPETITIVITE, DU SENAT DES ETATS-UNIS.
Sur le thème :
“Données ou dogme ? Pour la promotion d'une analyse ouverte pour le débat au sujet de l'amplitude de l'impact humain sur le changement climatique"
8 Décembre 2015
Judith A. Curry
Georgia Institute of Technology

Dans la première partie de son exposé détaillé, Judith Curry met en lumière les incohérences qui existent entre les modélisations numériques, les affirmations du GIEC avec les observations effectives ainsi que l'importance (négligée) de la variabilité naturelle du climat. Elle aborde la question primordiale de la "sensibilité climatique" largement surestimée selon elle. Dans la dernière partie, elle traite du caractère vicié des relations existantes entre la science et la politique (ou la société). C'est cette partie qui est traduite ci-dessous. Les caractères qui sont engraissés dans la suite, le sont par PU.

[...] "Le contrat social entre la science du climat et la société est détruit

Via le Congrès, le public s'est montré généreux dans ses financements pour le climat et les sciences connexes. Cependant, des tensions récentes ont effiloché le tissu du contrat social entre les climatologues et la société. Malheureusement, de nombreux climatologues ont réagi dans des termes militants, tout à la fois pour obtenir une augmentation du niveau de leurs financements et pour promouvoir des politiques spécifiques en relation avec l'énergie et le climat. Pire encore, trop de climatologues ont abandonné toute prétention à la neutralité et à l'objectivité.

Les scientifiques militants pour la réductions des émissions de CO2 sont devenus l'option par défaut qui est attendue de la part des climatologues. Voici un exemple tiré de l'éditorial du Huffington Post intitulé "Curry fait de la promotion contre les actions sur le changement climatique" et qui a été signé par cinq climatologues. Cet op-ed constituait une réponse à mes arguments en faveur d'une sensibilité climatique se trouvant dans la partie la plus basse des estimations du GIEC. Je ne fais, en aucune façon, la promotion, pour ou contre, d'une action en termes de réduction des émissions de CO2. Mes articles au sujet de la réponse politique au changement climatique s'inscrivent dans le cadre de la prise de décisions en présence de profondes incertitudes, y compris sur la question des prises de décisions robustes et au sujet des concepts de résilience et de lutte contre la vulnérabilité.

Dans ses efforts pour promouvoir sa "cause", l'establishment scientifique qui se trouve derrière la question du réchauffement climatique s'est laissé entraîner dans le piège qui consiste à gravement minimiser les incertitudes associées au problème climatique. Ce comportement risque de détruire la réputation d'honnêteté et d'objectivité de la science - En l'absence d'objectivité et d'honnêteté, les scientifiques en viennent à être considérés comme un simple groupe de pression supplémentaire. [NdT : Lindzen était encore plus incisif : " la science sera, à juste titre, considérée comme un nouveau racket"]

Les biais individuels ne sont pas un inconvénient pour le progrès de la science si les institutions académiques s'efforcent de corriger les erreurs et les défauts de la recherche scientifique. Un processus honnête de revue par les pairs et un débat énergique via les post-publications par les pairs auront tôt fait d'identifier les erreurs les plus manifestes et les biais. Les chercheurs ayant des perspectives différentes (y compris en termes de valeurs et d'identité politique) effectueront leurs propres recherches et obtiendront des résultants opposés. Ainsi le domaine d'activité pourra-t-il parvenir graduellement à la vérité.

Ce système fonctionne dans la mesure où les institutions qui supportent la science - les sociétés professionnelles qui publient les journaux scientifiques, organisent les conférences et attribuent les distinction honorifiques - ne sont pas, elles-même, biaisées.

Pratiquement toutes les société professionnelles en rapport avec ces questions, ont publié des déclarations politiques sur le changement climatique, y compris des affirmations telles que "Le changement climatique anthropique exige une action urgente" et "appellent à soutenir les actions qui réduiront les émissions". Encore plus flagrant est le militantisme manifeste d'éditeurs de journaux scientifiques, tels, notablement, Marcia McNutt (éditeur de Science) qui a récemment publié cette déclaration dans une rubrique "opinion" dans Science : "Le temps pour le débat est terminé. L'action est nécessaire de manière urgente".
De telles déclarations officielles de la part des sociétés professionnelles, donnent aux éditeurs des journaux toute licence pour rejeter les articles qui remettent en question le consensus.

Plus insidieux encore est le problème qui surgit quand il n'y a pas une masse critique de scientifiques qui pensent différemment ou qui se restreignent de parler parce qu'ils s'attendent à faire l'objet d'ostracisme en réaction à leurs propos. Les perspectives minoritaires en climatologie sont effectivement rejetées des universités et les personnalités qui s'opposent choisissent de rejoindre le secteur privé, de s'associer à des groupes de réflexion [NdT : tels Bengtsson] ou de changer de sujet de recherche. Les climatologues qui ne sont pas d'accord avec le consensus sont progressivement relégués dans le rang des professeurs en retraite et de celui des personnalités d'autres disciplines qui s'auto-financent tout en posant des questions importantes qui sont "inopportunes" pour les priorités gouvernementales en matière de financement de la recherche.

Alors que les inquiétudes au sujet des comportements et des motivations des scientifiques et des institutions qui supportent la science reposent sur des bases solides, l'autre versant du contrat social est, au moins, aussi problématique. L'administration du Président Obama utilise la science du climat pour soutenir son projet politique et s'active à décourager les désaccords en renforçant le consensus. Par exemple, son " Dénoncez les négationnistes du climat" [NdT : Sic !]. Ainsi, sous la présente administration, le contrat social avec la climatologie semble être : "supportez le consensus et faites la promotion de l'alarmisme et vous recevrez beaucoup de crédits de recherche".

La capacité qu'a le financement fédéral de biaiser la science a été discutée dans un rapport récent [NdT : qui fait écho au discours d'adieu d'Eisenhower en 1961]. De mon point de vue, voici comment le financement fédéral de la recherche pilote ce qu'il se passe actuellement. Le "succès" des chercheurs, particulièrement dans les grandes université, est déterminé par la quantité de dollars récoltés - de grands espaces pour les laboratoire, de hauts salaires, un prestige international et une progression dans la carrière . Au niveau d'un Gestionnaire de Programme au sein d'une agence de financement, le "succès" est attesté par l'augmentation de la taille de son programme (c'est à dire, un financement croissant) et par l'obtention de résultats qui permettent un rayonnement accru (c'est à dire qui bénéficie de mentions dans la presse). A un niveau plus élevé, les Administrateurs Divisionnaires se trouvent en compétition avec les autres divisions ; Associer leur recherche à une priorité nationale en matière de politique aide à gagner des points dans cette compétition. Au niveau de l'agence, le "succès" est attesté par la croissance ou, au moins, par la préservation du budget de l'agence. L'alignement de vous-même, de votre programme et de votre agence avec les impératifs actuels de la politique, représentent une clef décisive pour le "succès".

Il est très difficile d'obtenir un financement fédéral pour la recherche scientifique qui n'est pas dans la ligne. Les difficultés rencontrées dans le processus du peer-review (revue par les pairs) n'est qu'un partie de la question. Un problème de ce genre est reflété dans un email que j'ai reçu récemment en provenance d'un scientifique employé par la NASA :

“J'ai assisté à une petite conférence de scientifiques affiliés à la NASA et mon responsable m'a dit que son patron de la NASA lui a dit que que nous ne devrions pas essayer de publier des articles contraires aux affirmation actuelles sur le réchauffement climatique parce qu'il (le patron de la NASA) aurait alors des maux de têtes en luttant contre la publicité "indésirable".

J'hésite quelque peu à dénoncer ici la direction de la NASA parce que je pense que des problèmes plus graves se posent avec la direction de la NOAA. Cependant, le plus gros problème provient du fait que les appels d'offres de la part des agences de financement (en particulier, la NASA et la NOAA) font l'hypothèse implicite de la dominance de la cause anthropique sur le réchauffement climatique dans les sujets sur lesquels ils demandent des propositions de contrats de recherche. Il y a quelque chose de clairement vicié dans le contrat entre les climatologues et la société qui résulte dans une distorsion de la science et qui favorise la prolifération des scientifiques militants, partisans et alarmistes. Et le contribuable paye la note.

Comment pouvons-nous faire un reset de tout ceci ?

Tout d'abord, nous devons reconnaître que la pression exercée par les politiques pour mettre en avant un consensus prématuré sur le caractère anthropique du changement climatique, biaise la recherche sur le climat et, en particulier, résulte dans la négligence relative de la recherche sur la variabilité naturelle du climat. Tant que nous n'aurons pas une meilleure compréhension et une capacité de prédiction de la variabilité naturelle du climat, nous n'aurons pas une base solide pour prédire le climat dans les décennies ou le siècle à venir.

Ensuite, nous devons briser le "monopole de la connaissance" en matière de science climatique - Le GIEC. Le résultat de ce monopole de la connaissance, c'est qu'il existe une diversité intellectuelle et politique insuffisante dans les déclarations au sujet du changement climatique. Pour briser ce monopole, nous devons identifier et créer des structures nouvelles destinées à encourager, publier et rendre publiques, les idées indépendantes et leurs conclusions.

Et, finalement, nous devons trouver le moyen de financer un spectre plus large des recherches qui remettent en question les conclusions privilégiées par les politiciens."

Voici une vidéo d'une présentation antérieure (2014) de Judith Curry dans laquelle elle s'exprimait sur ces mêmes sujets.

3) Résumé et conclusions :

Bien qu'exprimées différemment, les analyses de ces trois spécialistes, tous de formation scientifique mais de domaines d'activités différents, aboutissent sensiblement aux même conclusions :

- La science climatique est hautement politisée ce qui, entre autres, a pour conséquence de biaiser gravement le processus de la démarche scientifique qui devrait prévaloir dans ce domaine comme elle le fait dans beaucoup d'autres.

- La politique a pris le dessus par rapport à la science, au point de décréter et d'imposer ce qui est vrai ou faux en matière scientifique. L'organisation centralisée par le GIEC (une émanation fondamentalement politique) de l'ONU a crée un "monopole de la connaissance" qui a éliminé la nécessaire diversité des analyses et des points de vue qui sont indispensables au développement normal du progrès scientifique.

-La COP21, vantée comme une grande réussite diplomatique, a gravement accentué les défauts du système en ancrant et codifiant l'idée que la "science est dite" alors que les "certitudes" ne reposent que sur des modélisation informatiques qui doivent encore faire la preuve de leur pertinence et alors que de graves incertitudes demeurent encore et qu'un flot permanent de publications revues par les pairs, remet en question, jour après jour, ce que l'on considérait comme acquis. La science évolue en permanence. Décréter et inscrire dans le marbre qu'elle est figée pour un siècle est une aberration.

En réalité, la science des systèmes complexes progresse, et a toujours progressé, par une suite ininterrompue d'erreurs et de corrections. Malheureusement, les politiques, totalement sous-informés en matière scientifique, ignorent cette évidence et, en particulier, leur intervention aussi massive que décisive dans les processus de distribution des financements a eu pour résultat, de vicier le processus fondamental du progrès de la connaissance scientifique.

A ce propos, autrefois - il n'y a pas si longtemps - les chercheurs des organismes publics français de recherche (tels, entre autres, le CNRS et les Universités) s'insurgeaient contre ce qu'ils appelaient le "pilotage par l'aval", c'est-à-dire contre la menace de la mainmise de l'industrie sur la recherche fondamentale. On pourra s'étonner de constater que nombre de ceux-là mêmes qui, il y a quelques années, s'opposaient énergiquement au "pilotage par l'aval" de l'industrie avec le leitmotiv "On n'a pas découvert le laser en cherchant à améliorer la lampe à incandescence" (ce qui est exact), ne semblent guère voir, à présent, d'inconvénient au pilotage de la recherche par la politique.

Pour progresser, la science doit rester, autant que possible, libre et indépendante des groupes de pression, quels qu'ils soient et d'où qu'ils viennent.

Stay tuned !

*également en partie traduit sur Skyfall.fr.

11 Mars 2016 : Rififi chez les climatologues mainstream au sujet de la "Pause" ou du "Hiatus"

Joshpause2-fr

Introduction : Comme je vous l'ai souvent fait remarquer, dans de nombreux billets antérieurs, la "pause", le "hiatus" ou le "plateau" (le vocabulaire dépend des paris que l'on fait sur l'avenir) de la hausse de la température moyenne du globe durant les 15 à 18 dernières années, constitue une énorme épine dans le pied des supporters du GIEC et de la COP21, qu'ils soient scientifiques ou politiques.

En effet, durant cette période (en gros, de 1998 à 2015) la concentration en CO2 dans l'atmosphère a augmenté de manière continue d'environ 30% par rapport aux taux préindustriels, ce qui apparaît comme une contradiction apportée par les observations aux modèles climatiques en cours.
Les deux dernières décennies ont mis en évidence une surestimation considérable de la hausse des températures (de surface et de l'atmosphère) vue par ces mêmes modèles par rapport aux observations, comme le savent aussi les fidèles lecteurs/trices de PU.

C'est un problème crucial qu'il est urgent de résoudre parce qu'il conditionne la confiance que l'on peut apporter aux modèles informatiques des tenants du GIEC et, ainsi, aux mesures prises par les politiques telles que les promesses faites lors de la COP21.

Malheureusement pour les supporters des politiques actuelles, les chercheurs mainstream ne sont pas du tout d'accord sur ce sujet comme vous allez le voir.
Et c'est le moins que l'on puisse dire.

C'est même l'occasion d'un vif débat entre différentes équipes proches du GIEC par l'intermédiaire des revues scientifiques les plus cotées. C'est cette histoire en plusieurs épisodes, passée sous silence par les médias francophones, que je vais vous raconter, avec quelques détails documentés et sourcés. Comme d'habitude, les citations sont inscrites dans des cadres de couleur (ici verte) différente du fond.

En bref : Deux publications parues coup sur coup, dans les deux top-revues Science et Nature s'opposent frontalement sur l'existence et l'interprétation de la relative stagnation ("la pause" ou le "hiatus") de la température de la surface du globe durant près des deux dernières décennies, laquelle n'est d'ailleurs pas sans précédent.

Une étude publiée en Juin 2015 dans Science par des chercheurs d'une agence fédérale (la NOAA américaine) a éliminé cette fameuse "pause",(opportunément - c'était un peu avant la COP21) notamment en "corrigeant" les mesures de la température de surface des océans. La "pause" avait pourtant été validée par un grand nombre d'études qui avaient proposé des explications ainsi que par le dernier rapport du GIEC.

Avertie par plusieurs plaintes émanant notamment de "lanceurs d'alertes" internes à cette même agence fédérale (La NOAA) ainsi que par les protestations de nombreux climatologues et autres scientifiques, le Comité Scientifique compétent de la Chambre des Représentants US a lancé une assignation à comparaître (ou à fournir tous les documents afférents à cette publication) pour les auteurs impliqués et les autorités de la NOAA. Ces derniers ainsi que l'agence fédérale ont fait la sourde oreille ce qui a poussé le Comité Scientifique de la Chambre US à hausser le ton.

D'autant plus qu'une étude plus récente parue, cette fois-ci, dans Nature (Climate Science) et signée par plusieurs ténors US du climat, contredit vertement la publication de la NOAA et maintient que "la pause" est bien réelle et qu'elle nous renseigne utilement sur la variabilité naturelle du climat. Ils font aussi remarquer (comme l'a souvent fait PU) que les modèles climatiques ont largement exagéré le réchauffement climatique observé et qu'il est crucial de comprendre les raisons de ces divergences.

In fine, bien que les scientifiques sachent que les conflits entre chercheurs soient aussi banals que souhaitables, tout ceci jette une lumière crue sur le fameux "consensus" et, en particulier, sur les difficultés des mesures de la "température moyenne de la surface du globe" ainsi que sur l'amateurisme étonnant de certains "ajustements".

De manière plus générale, Richard Lindzen a donné, tout récemment, son point de vue d'expert sur l'état actuel de la science climatique. Son jugement, dont je traduirai ici quelques extraits, notamment sur ce qu'il appelle "la science sur commande", n'est ni indulgent, ni optimiste et c'est le moins que l'on puisse dire.

 

A) Episode 1 : Une équipe de la National Oceanic and Atmospheric Administration (la NOAA), Karl et al, corrigent notamment les températures de surface des océans, ce qui élimine purement et simplement le "hiatus", la "pause" qui représentait un des gros problèmes pour les climatologues proches du GIEC. Cette équipe a fait paraître un article dans la revue Science, le 26 Juin 2015.
Voici son en-tête et son résumé, accompagnés d'une traduction en Français.

karl3

 

 

 

Le titre : Possibles artefacts des biais des données dans le récent hiatus du réchauffement de la surface du globe.

Thomas Karl et al. (NOAA)

 

Résumé : De nombreuses études ont été consacrées aux causes possibles d'une décroissance apparente de la tendance à la hausse de la température globale de surface depuis 1998 ce qui est connu sous le nom de "hiatus du réchauffement climatique". Dans cet article nous présentons une analyse réactualisée de la température de la surface du globe qui révèle que les tendances globales sont plus élevées que celles qui ont été rapportées dans le rapport du GIEC, tout particulièrement dans les dernières décennies et qui montre que l'estimation centrale pour le taux de réchauffement durant les 15 premières années du 21e siècle était au moins aussi grand que durant la seconde moitié du 20e siècle. Ces résultats ne vont pas dans le sens de la notion d'un "ralentissement" de l'augmentation de la température de la surface du globe.


En bref, les auteurs de l'article ci-dessus révisent les données des mesures de température de la surface du globe en se focalisant plus particulièrement sur les mesures de la température de surface des océans de la planète, ce qui, comme on peut le penser, a des répercussions considérables, vu que les océans couvrent près de 70% de la surface de la planète.

Bref rappel : Les mesures de la température de la surface des océans :
Dans les premiers temps, cette mesure se faisait, de manière pour le moins primitive, à bord des vaisseaux dont les marins prélevaient l'eau de la surface des mers où ils naviguaient avec un seau plongé dans la mer (souvent à des profondeurs et à des heures non précisées) puis remonté à bord (c'est la méthode dite du "bucket", le seau). La mesure de la température était faite à l'aide d'un simple thermomètre plongé dans le seau d'eau remonté à la surface. Il a été démontré que cette méthode fournissait des résultats erratiques, la température de l'eau du seau d'eau étant assez rapidement modifiée d'une part par l'évaporation de l'eau contenue dans le seau et, d'autre part, parce qu'elle se trouvait contaminée par la température qui régnait à bord du vaisseau. Ceci pose évidemment de sérieux problèmes lorsqu'on prétend annoncer des incertitudes inférieures au dixième de °C. Par la suite, on utilisa des seaux équipés d'une isolation thermique, sans, toutefois, que les résultats soient considérés plus crédibles.
Un peu plus tard, vers les années 1945, le processus de relèvement de la température de la surface des océans fut plus ou moins automatisé, directement à bord des navires, par la mesure de la température de l'eau de mer qui était aspirée par la tuyauterie de la machinerie. Cette méthode, appelée ERI (Engine Room Intake), fut aussi critiquée car il était d'avis général que l'eau de mer entrante était réchauffée par le système de prélèvement ce qui conduisait à une surestimation systématique de la température.

argo1

Enfin, progressivement depuis 2003, un nombre considérable de flotteurs équipés de thermomètres soigneusement étalonnés, ont été répartis à la surface des océans de la planète. Les mesures, quasi-continues, et effectuées à différentes profondeurs, sont retransmises par télémétrie aux postes d'observations. Ce sont les balises ARGO dont j'ai déjà parlé et dont voici la répartition géographique (en Mars 2009). A noter également qu'il existe des mesures satellitaires de la température des océans qui permettent d'interpoler dans les zones plus ou moins bien couvertes mais celles-ci ne résolvent pas la question, notamment parce qu'elles sont largement perturbées par les nuages et parce qu'elles doivent nécessairement être étalonnées à partir des mesures in situ.

 

De fait, et entre autres, les corrections apportées par Karl et al. aux relevés des températures océaniques sont assez surprenantes - c'est le moins que l'on puisse en dire - et elles ont immédiatement fait l'objet de sévères critiques de la part de leurs collègues scientifiques.
Voici une explication claire d'un procédé utilisé par Karl et al. que l'on trouve dans une bonne analyse rédigée par le Prof Ross McKitrick dans un article intitulé "Une première analyse de l'article "Possibles artefacts des biais des données dans le récent hiatus du réchauffement de la surface du globe par Karl et al., Science 4 Juin 2015"".
McKitrick est un prof de statistique de l'Université de Guelph (Canada) qui s'intéresse de très près au traitement des données climatiques. Il a publié plusieurs articles et anime un groupe de réflexion sur ce sujet. Je rappelle qu'il est, avec Steve McIntyre, l'auteur d'une analyse sévère des failles méthodologiques qui ont conduit à la fameuse "Crosse de hockey" qui éliminait carrément l'Optimum Médiéval, publiée en 1998 par Michael Mann et ses collègues et qui a fait les beaux jours de plusieurs rapports du GIEC.

"Si on considère les premiers ajustement, on observe que K15 [NdT : C'est le nom de l'article de Karl et al. Classiquement, une initiale et la date] prend en compte les données des bouées [NdT : Les balises ARGO] et ajoute 0,12°C à chaque observation. Ils ont calculé cette valeur en regardant aux endroits où les bouées et les données des bateaux ont été collectées au même endroit. Ils ont trouvé qu'en moyenne, les données des bateaux étaient plus chaudes de 0,12°C. C'est ainsi qu'ils ont ajouté cette valeur aux données des bouées. Ceci est équivalent à la valeur [NdT : les +0,12°C] trouvées par d'autres équipes, sauf que le surplus de température est généralement attribué aux bateaux plutôt qu'aux bouées.

Les observations récentes de la température de surface des mers sont essentiellement effectuées à partir de bouées dérivantes qui sont déployées sur les océans du globe. (Figs. 1, 2). Les bouées mesurent directement la température de surface des océans sans qu'il soit besoin de remonter l'eau sur le pont ou à l'intérieur du bateau. C'est pourquoi les observations données par les bouées sont estimées être plus exactes que les mesures avec les seaux ou les mesures ERI."

En bref, l'équipe Karl et al a observé - ce que l'on savait déjà - que les techniques anciennes (seaux et ERI) indiquaient une température moyenne supérieure à celles des bouées modernes. Ils ont estimé que les mesures par les seaux et par les prélèvements sur les tuyauteries des navires étaient les mesures exactes et qu'il fallait corriger les mesures données par le système beaucoup plus élaboré des balises ARGO.
Autrement dit, Karl et al. ont aligné les mesures modernes sur les mesures anciennes (et quelque peu primitives, comme on l'a vu) alors que l'on fait, évidemment, toujours l'inverse. Les mesures modernes sont, à l'évidence, beaucoup plus fiables que les mesures anciennes. Il est plutôt "étonnant" que les rapporteurs de la revue Science aient laissé (très rapidement) passer ce genre de considérations. On peut penser que l'urgence de la COP21 qui approchait, exigeait un examen plus expéditif que de coutume.

C'est un procédé pour le moins étonnant qui n'a pas manqué de faire réagir le petit monde de la climatologie. Entre autres, trois climatologues connus (Richard Lindzen, Pat Michaels, Paul Knappenberger) on publié une sévère critique des méthodologies utilisées par les chercheurs impliqués dans l'article de la NOAA. Cet article est intitulé "Au sujet du nouvel article "désespéré" de la NOAA : Après tout, il n'y aurait pas de hiatus du réchauffement climatique ?"

Leur bref communiqué

  • explique pourquoi les "corrections" de Karl et al de la NOAA sont aussi inappropriées qu'invalides.
  • montre que, de toute manière, ces nouvelles évaluations du réchauffement climatique tombent toujours bien en dessous des estimations des modèles numériques comme on le voit sur le graphe des distributions reporté à gauche, ci-dessous. A noter que Karl et al. ont pourtant plus que doublé la tendance qui avait été (discrètement) rapportée dans le dernier rapport du GIEC (AR5-2013) à l'aide de l'histogramme reproduit ci-dessous à droite. Le GIEC estimait que le réchauffement observé au début du XXIe siècle était d'environ e 0,05°C/décennie. Karl et al. affirment qu'il était de 0,106°C/décennie. La moyenne des modèles climatiques le situent autour de 0.23°C/décennie.

Karl2plateau1

De fait, il apparaît que même si on "élimine la pause", comme l'ont fait les chercheurs de la NOAA (Karl et al.) avec des procédés surprenants, la divergence modèles/observations persiste.

B) Episode 2 : Un article paraît en début Mars 2016 dans Nature (Climate Change) sous la plume de ténors de la climatologie, tels Ben Santer, Gerald Meehl , Michael Mann (l'inventeur de la "crosse de hockey") et al. qui contredit ouvertement les ajustements et les conclusions de Karl et al.

En bref : Les ajustements de Karl sont erronées. Le hiatus ou la pause est bien réelle et les modèles surestiment le réchauffement observé.

Voici, ci-dessous l'en-tête de l'article en question accompagné de son résumé et d'un extrait significatif de la conclusion traduits en français.

Son titre : "Pour donner un sens au ralentissement du réchauffement du début des années 2000."

fyfe

Le résumé : "Il a été affirmé que le ralentissement du réchauffement climatique du début des années 2000, ou hiatus, caractérisé par une réduction du taux de réchauffement de la surface du globe, a été exagéré, que ce dernier manque de base scientifique ou qu'il n'est pas supporté par les observations.
Dans le présent article, nous présentons des éléments de preuves qui contredisent ces affirmations."

Dans la conclusion de cet article, de manière plus explicite, on lit :

"En résumé, (en moyenne) les modèles climatiques ne reproduisent pas les tendances de température observées au début du vingt et unième siècle, en dépit d'une augmentation continue du forçage anthropique. Ce désaccord a concentré l'attention sur un problème incontournable qui mérite un examen scientifique. A partir de notre analyse qui repose sur une prise en compte de la physique des processus déterminants et des forçages impliqués, nous trouvons que le taux de réchauffement durant le début du XXIe siècle est plus faible que durant les quelques décennies précédentes. Ce ralentissement est évident au vu des GMST [NdT: "Global Mean Surface Temperature, la température moyenne de la surface du globe] ainsi que dans la température moyenne de la basse troposphère.[...]"

Les auteurs de cet article font également judicieusement observer que ce n'est pas la première fois, durant ce siècle et le précédent, qu'il existe un hiatus (une pause, voire un refroidissement) en contradiction avec les modèles climatiques.
Comme je l'ai souvent mentionné dans ce site, il y a eu aussi la période 1950-1972 pendant laquelle le réchauffement a marqué le pas, voire s'est carrément inversé, alors que le taux de CO2 atmosphérique était en forte croissance (depuis 1950). Dans leur article , les auteurs, Fyfe et al, publient le schéma suivant (la Fig.3) :

Fyfe2

 

Légende Figure 3 : "Anomalies du rapport des tendances de la moyenne annuelle globale de la température de surface sur les tendances calculées d'après le forçage radiatif anthropique. Le rapport des tendances pour chaque période montrée sur cette figure (C'est à dire de 1950-1972, 1972-2001 et 2001-2014) est exprimée comme une anomalie par rapport à la tendance calculée [NdT : par les modèles] sur la période complète 1950-2014. La légende de la figure explique les raisons du choix des dates respectives de départ et d'arrivée du grand hiatus et du ralentissement du réchauffement."

 

Comme expliqué dans la légende, l'ordonnée de ce schéma représente la divergence des tendances calculées par les modèles comparées aux observations, au cours du temps, depuis 1950. fyfe3

 

La figure 3 représente les deux périodes qui, depuis 1950, sont en désaccord marqué avec les modèles climatiques. Le premier de ces deux épisodes, baptisé ici "Le Grand hiatus" (Big hiatus), fait allusion à la période 1950-1972 qui avait fait craindre, à l'époque, un refroidissement prolongé. Le second épisode est appelé ici "ralentissement du réchauffement" (warming slowdown, à droite).

On peut visualiser ces deux périodes "anormales" (par rapport aux modèles) directement sur le graphique des températures officielles du HadCRUT4 comme je l'ai fait sur l'image ci-contre.

Les deux encadrés roses représentent les deux épisodes mentionnés par Fyfe et al. 1950-1972, (mais plutôt 1945-1977), et 2001-2014 (mais plutôt 1998-2014).

Ainsi, si on s'en tient aux dates indiquées par l'article de Nature Climate Change, sur une période de 65 ans (1950 à 2014), il y aurait deux épisodes d'une durée totale de 38 ans (1950-1972 et 2001-2014, bornes comprises), soit plus de la moitié du temps, qui auraient été des "hiatus" ou des pauses ou des "ralentissements", contraires aux modèles.
Fyfe et ses collaborateurs, qui maintiennent que le "ralentissement" de la hausse des températures des 15 dernières années est significatif, rappellent, à juste titre que cette divergence modèles/observations n'est pas la première et que ceci "mérite un examen scientifique" selon leurs propres termes. De fait, en l'absence d'explication avérée, "la pause" ou le " Grand hiatus" et la divergence des modèles/observations remettent en cause la confiance que l'on peut attribuer aux modèles climatiques...

 

C) Episode 3 : Dans un éditorial, assez exceptionnel pour la revue Nature, Jeff Tollefson informe ses lecteurs qu'un conflit vient d'éclater entre les tenants de la pause et les opposants.

Voici l'en-tête et la traduction.

naturehiatus

 

 

 

Titre : "Le débat sur le hiatus du réchauffement climatique explose de nouveau.

A présent, des chercheurs soutiennent que le ralentissement du réchauffement était bien réel".

 

 

Ce n'est pas tout. Alerté au sujet des anomalies relatives à la publication de l'article de Karl et al, le Comité pour la Science, l'Espace et la Technologie de la Chambre des représentants US (celui-là même qui détermine l'enveloppe des crédits attribués à la NOAA), averti par des "whistleblowers" (des lanceurs d'alertes) internes à la NOOA, s'est alarmé de la situation et n'est pas resté inactif.

C'est ainsi que son président (CEO) Lamar Smith qui a également reçu une lettre de protestation de la part de 300+ scientifiques exigeant que la NOAA se conforme aux dispositions légales du "Data quality act" qui exige la transparence des données, des traitements des données etc. a assigné les auteurs, Karl et al, ainsi que leur patronne à fournir tous les éléments nécessaires pour l'examen par le Comité. Voici le texte de la lettre officielle de mise en demeure dans laquelle le CEO du Comité explique qu'il a été alerté par des "lanceurs d'alerte" de la NOAA que les auteurs Karl et al avaient probablement violé la réglementation légale en matière de publication.

A noter que, comme indiqué dans la lettre, les "lanceurs d'alertes" internes à la NOAA auraient protesté parce que les auteurs de l'article, Karl et al, n'auraient pas tenu compte de leurs réticences sur la méthodologie et auraient fait preuve de "précipitation" et n'auraient pas suivi les règles internes à la NOAA en matière de publication., afin que l'article soit publié aussi rapidement que possible.

Il est clair que la prise de position du Comité pour la Science, l'Espace et la Technologie a été fortement renforcée par la publication de l'article de Fyfe et al publié dans Nature. Pourtant, à ce jour, la mise en demeure du Comité n'a pas obtenu les réponses escomptées, ce qui a suscité des soupçons de la part de scientifiques alléguant que la NOAA et Karl et al devaient bénéficier d'une protection située au sommet de la maison blanche.
Pourtant, selon les lois américaines, les exigences des Comités de la Chambre US sont impératives et incontournables.

La situation est donc problématique et la revue Nature a jugé bon de publier une mise au point à ce sujet ce qui est tout à fait exceptionnel.
Voici l'en-tête de l'éditorial du 26 Février en question, toujours sous la plume de Jeff Tollefson.

lawmaker

 

 

 

Les législateurs US élargissent leur enquête au sujet d'une étude sur le climat.

Un comité de la chambre des Représentants élargit une enquête sur une analyse de l'Administration Nationale pour les Océans et l'Atmosphère qui réfutait le "hiatus" du réchauffement climatique.

 

 

Pour l'instant, les choses sont en l'état mais il serait étonnant qu'elles en restent là.
Comme vous le voyez, cette histoire de "pause" ou de "hiatus" est un vrai feuilleton...
Pourquoi est-ce si important ?
Comme je vous l'ai dit, c'est parce que tout cela conditionne la confiance que l'on peut apporter aux modèles climatiques et donc aux promesses des limitations à +2°C ou 1,5°C faites lors de la COP21. Si les prévisions des modèles climatiques sont avérées erronées, comme cela en prend le chemin, par exemple faute de tenir suffisamment compte de la variabilité naturelle, tout cela n'aurait plus aucun sens. On imagine aisément que la Maison Blanche ne souhaite pas voir éclater un scandale à ce sujet et que les tractations avec les élus US doivent aller bon train en ce moment même...

Pour sa part, la climatologue Judith Curry a rédigé un billet sur l'article de Fyfe et al dans Nature qu'elle qualifie de "très important" en reprenant le titre de de "Nature: Making sense of the early 2000’s warming slowdown". Je suis de son avis parce parce que l'on y retrouve, enfin et noir sur blanc, sous la plume de climatologues mainstream, les principales interrogations mises en avant, depuis des années, par les climatologues dits "sceptiques".

Pour les lecteurs intéressés voici les liens des billets que J. Curry a récemment publié au sujet du "hiatus":
Causes et implications de la pause.
Controverses sur le hiatus : Montrez nous les données.
La NOAA a-t-elle "bousillé" la pause du réchauffement climatique ?
Le révisionnisme du hiatus.
L
e récent hiatus causé par le changement décennal du réchauffement Indo-pacifique.
La cause du hiatus trouvée dans les profondeurs de l'océan atlantique.
2 nouveaux articles sur la pause.
Comment le GIEC a-t-il oublié de mentionner la pause ?

 

2) Richard Lindzen fait le point sur la situation de la science climatique.

Ce qui suit sont des extraits du texte d'une conférence délivrée par Richard S. Lindzen, Alfred P. Sloan Professeur (émérite) de Sciences de l'Atmosphère (Emérite) du MIT (Massachusetts Institute of Technology), le 20 Août 2015 lors de la 48e Session des Séminaires Internationaux d'Erice.
Richard Lindzen a, très tôt, été considéré comme l'un des plus brillants chercheurs de sa génération. Il a notamment été l'un des plus jeunes élus (à 37 ans) à l'académie des Sciences US (NAS) de la période moderne (le record est de 29 ans au XIXe) et nommé titulaire de la prestigieuse chaire Alfred P. Sloan au MIT à 43 ans.
Le texte complet de sa conférence avec les références des citations.
A noter que le texte de cette conférence prolonge et réactualise un article publié en 2009 par Lindzen dont j'avais donné la traduction (avec son accord).

Richard Lindzen est un fin connaisseur du petit monde de la science climatique. Ecoutons son point de vue :

Le réchauffement climatique et la non-pertinence de la Science.

"Dans de nombreux domaines, les gouvernements ont le monopole du support de la recherche scientifique. Idéalement, ils supportent la science parce qu'ils pensent que la recherche objective est précieuse.
Malheureusement, ainsi que cela avait été prédit par Eisenhower lors de son discours d'adieu, le 17 Janvier 1961 (qui avertissait aussi au sujet des dangers du complexe militaro-industriel) , "En partie, du fait des énormes dépenses impliquées, un contrat avec le gouvernement devient virtuellement un substitut à la curiosité intellectuelle". Dans ces circonstances, lorsqu'un gouvernement désire un résultat particulier en matière de sciences, l'arrangement souhaitable devient vulnérable. Cependant, ainsi que j'espère vous le démontrer, cela ne résulte pas seulement dans la création d'un un biais". [...]

Dans la suite, Lindzen rapporte quelques déclarations largement insubstanciées que l'on retrouve fréquemment dans les discours des politiques et qui sont répercutées dans nos médias, puis il donne quelques détails sur les raisons qui sous-tendent le développement de l'alarmisme ambiant et qui, de fait, profite à beaucoup.
Il rappelle que des scientifiques sont impliqués dans une sorte de processus auto-entretenu (ici un triangle "de fer"). Il dresse également la liste des différentes corporations qui ont tout intérêt à ce que le processus engagé soit poursuivi. En cela, il précise une analyse que j'avais proposée dès le début de la création de ce site (en 2006-2007) qui écartait d'emblée l'éventualité d'un complot (le label infamant de "complotiste" est souvent abusivement attribué à ceux qui ne suivent pas les avis "mainstream") au profit de la convergence d'une série d'intérêts bien compris.

Pour commencer, Lindzen se demande pourquoi et comment des scientifiques participent activement ou passivement (en se taisant) à l'exagération institutionnalisée qu'il a évoquée plus haut dans le texte.

[...]Alors pourquoi les scientifiques participent-ils à cette affaire ?
J'ai décrit la situation auparavant comme relevant d'un "triangle de fer".
Sur un sommet du triangle on trouve les scientifiques qui émettent des affirmations ambigües ou dépourvues de sens. Le rapport scientifique du Groupe de Travail N°1 du GIEC est rempli de ce genre d'affirmations.
Ensuite vient le second sommet du triangle qui est celui des militants et des média qui "traduisent" les déclarations des scientifiques en affirmations alarmistes.Les militants incluent également les Groupes de Travail N°2 et N°3, du GIEC qui traitent des impacts et des remèdes en prenant en compte les pires scénarios provenant du Groupe de travail N°1. Les politiciens font souvent partie prenante des efforts des militants.
Le troisième sommet du triangle implique les politiciens qui répondent aux alarmes en attribuant des crédits supplémentaires aux scientifiques du premier sommet.
Pour ce qui est des scientifiques, pourquoi ne seraient-ils pas satisfaits? Les scientifiques devraient-ils éprouver un sentiment de culpabilité au sujet de cette affaire alors qu'ils sont apaisés par deux facteurs irrésistibles ? 1) Les militants définissent ce qu'il est de bon de penser pour le public et 2) Leurs administrateurs se réjouissent du montant des prélèvements sur les contrats de recherche.


Bien entendu, les scientifiques ne sont pas, et de loin, les principaux bénéficiaires. La question actuelle du réchauffement climatique est extrême en ce sens qu'elle concerne un grand nombre de groupes d'intérêts qui ont, de manière opportuniste, de fortes motivations pour croire dans les affirmations catastrophistes malgré l'absence de preuves. Sans ordre particulier, ils impliquent :

    • Les économistes gauchistes pour lesquels le réchauffement climatique représente l'exemple ultime de la faillite des marchés (ainsi qu'une merveilleuse opportunité pour suggérer des corrections),
    • Les apparatchiks de l'ONU pour lesquels le réchauffement climatique ouvre le chemin vers une gouvernance mondiale,
    • Les dictateurs du Tiers Monde qui voient le sentiment de culpabilité au sujet du réchauffement climatique comme une opportunité commode pour réclamer de l'aide (ie. le transfert de la richesse des pauvres des pays riches vers les riches des pays pauvres),
    • Les activistes de l'environnement qui sont très friands de tous les problèmes qui ont la capacité de faire peur aux crédules, ce qui les pousse à fournir de juteuses contributions à leurs nombreuses ONG,
    • Les capitalistes de connivence qui voient les gains immenses qui sont rendus disponibles pour l'énergie "soutenable".
    • Les régulateurs gouvernementaux pour lesquels le contrôle d'un produit naturel issu de la respiration, constitue un rêve devenu réalité,
    • Les nouveaux milliardaires qui trouvent que l'objectif "sauver la planète" est tout à fait à la mesure de leurs grandioses prétentions,
    • Les politiciens qui peuvent s'arrimer au catastrophisme du réchauffement climatique en laissant une signature où ils pourront jouer les démagogues sans craindre de contradiction de la part de la réalité ou de complaintes de la part des supposés bénéficiaires de leurs actions,
    • etc. etc.

Bien entendu et tout naturellement, tous les intérêts bien compris énumérés ci-dessus, rejoignent le choeur des militants. Aussi curieux que cela puisse paraître, l'industrie des fossiles elle-même est généralement désireuse de suivre le train. Après tout, ils savent mieux que personne qu'il n'existe actuellement pas de substitut pour les fluides fossiles. Les possibilités les plus proches, le nucléaire et l'hydroéletricité, sont détestés par les environnementalistes. Ainsi, aussi longtemps que les compagnies des fluides fossiles ont, devant elles, un terrain dégagé et libre d'obstacles et peuvent faire passer les dépenses à leurs consommateurs, elles sont satisfaites. [...]

Lindzen aborde ensuite la question du catastrophisme climatique ambiant qui a clairement largement outrepassé l'état de l'art de la Science. Il cite quelques déclarations de climatologues mainstream qui le démentent ouvertement. Parmi des dernières :

"De fait, nombre de supporters scientifiques les plus éminents de l'alarmisme concèdent l'absence de base pour le catastrophisme.[...]

La situation a été le mieux résumée par Mike Hulme, le Directeur du Tyndall Centre à l'Université d'East Anglia (un centre qui se préoccupe du réchauffement climatique) : "Affirmer que le changement climatique sera catastrophique dissimule une cascade d'hypothèses basées sur des opinions qui ne ressortent pas de la science empirique ou théorique."
Même Gavin Schmidt, le successeur de Jim Hansen à la direction du Goddard Institute of Space Studies de la NASA et dont le site, Realclimate.org, est un défenseur de premier plan du réchauffement climatique, n'est pas d'accord avec les affirmations au sujet des extrêmes climatiques :
"On ne trouve pratiquement nulle part, dans la littérature scientifique, des affirmations au sujet des extrêmes climatiques mais ces dernières semblent abonder dans les médias à grand tirage ... C'est une perception populaire que de croire que le réchauffement climatique signifie que tous les extrêmes doivent augmenter tout le temps, même si en y réfléchissant 10 secondes on voit immédiatement que c'est un non sens."

Il est intéressant de faire remarquer que la théorie de base de la météorologie nous dit que les extrêmes dépendent largement de la différence de température entre les tropiques et les pôles - choses dont on s'attend à ce qu'elle diminue dans un monde plus chaud." [...]

... Ce qui n'empêche pas nos médias et nos politiques d'affirmer, haut et fort, que les typhons, ouragans, cyclones, tornades, tempêtes etc. vont augmenter.

Dans la suite, Lindzen illustre les dommages, causés, selon lui, par le monopole gouvernemental en matière d'attribution des budgets de recherche. Il donne quelques exemples de ce qu'il appelle "La science sur commande" ou "La science sur demande" :
Dans l'encadré suivant, les caractères engraissés le sont dans le texte original.

"D'autre part, il existe une grande quantité de "science sur commande" conforme à ce qu'Eisenhower avait prédit.

La Période Chaude Médiévale, bien établie, constitue un problème pour la doxa.
La crosse de hockey de Michael Mann élimine la période chaude médiévale.

La physique de la convection humide exige que le réchauffement soit maximal dans la zone tropicale de la haute troposphère et les modèles le confirment mais les observations ne le montrent pas.
Ben Santer revoit les données pour montrer un maximum.

Le réchauffement significatif s'est terminé il y a environ 18 ans, montrant ainsi que le CO2 n'est pas un facteur déterminant pour le climat.
Tommy Karl ajuste et réarrange les données pour éliminer la pause.

Un grand nombre d'études indépendantes indique que les radiations émises par la Terre pointent vers une faible sensibilité climatique
[NdT au CO2)].
Andy Dessler ignore les contraintes physiques et mathématiques pour affirmer le contraire (avec, pour résultat, un niveau de signifiance tout à fait négligeable).

La glace de mer antarctique est en augmentation.
Jim Hansen affirme de manière absurde que c'est ce que nous devrions attendre d'un réchauffement du globe (qui, de fait, ne s'est pas produit depuis 18 ans).

Les bases de la dynamique de l'atmosphère impliquent une réduction des événements extrêmes et de la tempétuosité dans un monde plus chaud.
John Holdren invente une théorie ridicule de courants troposphériques polaires pour affirmer que ces courants imaginaires seraient déstabilisés par le réchauffement ce qui conduirait à une tempétuosité de plus en plus extrême.

Il faut remarquer que les 4 premiers items de la liste de "science sur commande" ci-dessus, constituent des manipulations douteuses des données mais n'impliquent que peu d'alarmisme. Par exemple, "l'élimination" de la pause par Karl laisse encore ses données de température bien en dessous de quasiment toutes les projections des modèles. Ceci signifie que les modèles "réchauffent" encore trop. Par contre, les deux derniers items relèvent de la pure imagination d'alarmistes. "[...]

A noter que lorsque Richard Lindzen a rédigé le texte de cette conférence, l'article de Fyfe et al qui dément celui de Karl et al (cité plus haut et par Lindzen) n'était pas encore paru dans Nature Climate Change. Par la suite, Lindzen évoque un article de Pat Michaels qui analyse le biais croissant des publications sur le climat. Lindzen cite et critique vertement plusieurs déclarations absurdes proférées par des politiques (John Kerry, Gina Mc Carthy (chef de l'EPA US), Mrs Figueres (de 'ONU) etc.), par des prélats religieux et des membres du WWF.
Lindzen conclut ainsi :

Alors, où en sommes-nous avec cette affaire de réchauffement climatique ? De manière rétrospective, nous sommes confrontés à trois discours différents.

Je qualifierai le premier discours de celui du Groupe de Travail N°1 (WG1) du GIEC. Son discours, bien que supportant grandement la proposition que l'augmentation des gaz à effet de serre constitue un sérieux objet de préoccupation, néanmoins, est relativement ouvert pour ce qui concerne les incertitudes et même au sujet des contradictions associées à cette position. Ses déclarations en public tendent à être vagues et laissent une large place à la contestation tout en évitant soigneusement les hyperboles catastrophistes mais en s'abstenant d'un rejet franc de telles exagérations. Ce premier discours est, en grande partie, le discours de nombre des principaux supporters de l'agenda du réchauffement climatique.

Le second discours est celui de ceux qui sont qualifiés de "sceptiques". Dans une mesure qui n'est pas généralement reconnue, il y a un recouvrement considérable avec le premier discours. Ainsi, bien que les sceptiques puissent admettre que les glaciers alpins se sont réduits depuis de début du XIXe siècle, il sont aussi avertis du fait que les glaciers alpins étaient généralement absents durant la période chaude de l'Optimum Médiéval et que leur retrait plus récent a précédé de plus d'un siècle la période où les gaz à effet de serre anthropiques sont devenus modérément significatifs. En outre, de manière générale, les sceptiques remarquent que le fait que les modèles tournent "trop chaud", c'est à dire que leurs projections pour la période qui va de 1979 au présent, pour la plus grande part, excèdent largement le réchauffement observé, ce qui va dans le sens d'une faible sensibilité climatique [NdT : au CO2]. En général, ils pensent qu'il faut tester la physique qui sous-tend les rétroactions positives des modèles sensibles plutôt que de faire la moyenne des modèles.

Les sceptiques sont aussi beaucoup plus ouverts aux nombreuses causes connues qui provoquent un changement climatique (en incluant les circulations océaniques de longue période, la variabilité solaire et les différents impacts des glaces) et ils ne considèrent pas que le CO2 soit le rhéostat "déterminant" du climat. Cependant, la principale différence entre ces deux premiers groupes est que le second groupe s'oppose ouvertement au catastrophisme ce que le premier ne fait pas.

Le troisième discours est celui des promoteurs politiques de l'alarme climatique. Il inclut les ONG environnementales et la plupart des mass média. Les promoteurs de ce discours incluent également de nombreux contributeurs au Groupe de Travail N°2 (les impacts) et N°3 (les remèdes). De manière générale, le premier [NdT : Le groupe N°2] de ces deux derniers insiste sur les conséquences alléguées par les pires scénarios présentés par le Groupe N°1. C'est ce discours par lequel la science est grandement pervertie. Peu de scientifiques accepteront l'idée que la planète court un risque bien que ce soit la tendance en vogue pour les catastrophistes. C'est aussi ce discours qui ne cesse d'affirmer qu'il est virtuellement unanimement admis. De telles affirmations reposent, en général, sur des études bidons qui, de manière malhonnête, font l'amalgame des points sur lesquels le Groupe de Travail N°1 et les sceptiques sont d'accord avec le troisième discours catastrophiste.

Quiconque jette un coup d'oeil sur n'importe quelle déclaration au sujet du réchauffement climatique identifiera immédiatement de quel discours il s'agit. Malheureusement, pour la plupart des gens, la troisième discours est le seul qu'ils verront.

L'accent massif placé sur le troisième discours a de sérieuses implications pour ce qui est des politiques qui sont proposées pour traiter la question du réchauffement climatique telles que les restrictions d'accès à l'électricité pour 1,3 milliards d'êtres humains qui en sont actuellement dépourvus ainsi qu'une pauvreté accrue pour des millions d'autres avec des implications évidentes pour la santé et la longévité etc. sans oublier l'abandon des bénéfices bien établis pour l'agriculture d'un taux de CO2 en augmentation. Le CO2 est un composé chimique essentiel à la vie comme nous le savons plutôt qu'un polluant (la marine américaine considère que des taux de CO2 de 5000 ppmv sont sans danger à bord de ses sous-marins ; le niveau ambiant est actuellement de 400 ppmv).

Il est clair que la question du climat constitue une urgence. Cependant, ainsi que c'est souvent le cas, l'urgence ne provient pas de la science et de la technologie mais plutôt de la politique. Il vaut la peine de regarder si la science peut jouer un rôle dans l'atténuation de cette urgence. Il est douteux que les réponses viendront des contrats de recherche. Cependant, la science joue gros. Sa raison d'être [NdT : en Français dans le texte], chèrement gagnée, qui constitue notre outil le plus efficace pour des analyses objectives est en train d'être dilapidée et, avec elle, le support et la confiance du public.

Si nous ne faisons rien pour arrêter cette folie, la science sera, à juste titre, considérée comme un nouveau racket. Ceci pourrait alors être un dommage collatéral que nous ne pouvons nous permettre.

En résumé sur ce dernier chapitre, le point de vue de Richard Lindzen (que je partage) est parfaitement clair :

Les scientifiques s'opposent sur un certain nombre d'interprétations et de lecture des données observationnelles dont certaines remettent en cause les théories en vigueur, ou du moins, leur utilisation avec des paramètres jugés excessifs.
Les premiers et second discours (celui des mainstream et celui des sceptiques) s'inscrivent parfaitement dans la ligne de l'histoire des sciences. Aucune théorie, jamais dans l'histoire récente, n'a été acceptée sans de (parfois très) longues discussions et, dans de nombreux cas, ce sont les minoritaires qui ont obtenu gain de cause (e.g. Pasteur, Einstein, Wegener, Warren et Marshall, Darwin etc.). Ainsi va la Science et tout cela est normal et souhaitable.

Par contre, le troisième discours pose de sérieux problèmes. Il est le fait des politiques, des activistes et des médias dont on peut se demander en quoi ils sont qualifiés pour prendre parti dans un domaine aussi complexe que le climat où s'opposent encore un grand nombre de scientifiques renommés. Malheureusement, comme le fait observer Lindzen, c'est ce troisième discours qui s'est imposé dans la croyance populaire.

3) Conclusions

Ce billet est une illustration frappante du fonctionnement réel de la science climatique qui est soigneusement dissimulée au public par les médias, les activistes et les politiques.

En réalité, les chercheurs du domaine s'opposent encore sur des questions aussi fondamentales que le rôle exact de la variabilité naturelle, de la sensibilité climatique à l'augmentation du CO2, de l'importance des oscillations océaniques ou des fluctuations de l'astre solaire.

En fait, derrière l'écran de fumée médiatico-politique, la recherche progresse comme elle l'a toujours fait, par une suite d'erreurs, de conflits et de corrections. La vérité est qu'il y a encore beaucoup de progrès à faire avant de comprendre comment fonctionne réellement le climat et de savoir s'il est pertinent de réagir ou non. Ainsi, si la sensibilité climatique est faible voire proche ou même inférieure à 1°C comme le pensent Richard Lindzen et beaucoup d'autres, il est inutile, voire nuisible, de faire quoi que ce soit.

Mais bien sûr, cette vérité, cette évidence (pour les scientifiques), ne fait pas l'affaire des activistes, des politiques et des médias qui se sont malheureusement emparés de cette histoire en se réclamant d'un consensus qui n'existe manifestement pas. Ces comportements, plus ou moins conscients, pourraient entraîner des conséquences désastreuses dans l'avenir.

Stay tuned !

 

10 Février 2016 : Mythes et légendes II : La science progresse mais les idées reçues demeurent et les polémiques font rage.

En bref : Les deux première parties de ce billet sont dans le prolongement du billet précédent.

La première partie
donne un aperçu significatif des résultats les plus récents de la recherche scientifique sur la question des tendances de l'intensité et de la fréquence des ouragans, typhons ou cyclones à l'échelle de divers bassins et du globe, dont certains nous répètent qu'elles sont en augmentation. Comme vous le verrez, il n'en est rien, contrairement à ce que certains ont pu affirmer dans le passé.

Dans la seconde partie, toujours en partant de sources scientifiques avérées, nous verrons que les affirmations contenues dans le rapport des experts de la Maison Blanche aux USA sont sévèrement démenties par les observations, notamment pour ce qui concerne les pluies et les sécheresses qui ont affecté récemment certaines régions des Etats-Unis d'Amérique.

Enfin, dans une troisième partie, comme il est d'usage en début d'année, nous examinerons, avec quelques détails, l'épineuse question des mesures de la température moyenne du globe pour l'année 2015, selon différentes institutions. Comme vous le verrez, les effets du très puissant El Niño 2015 sont très perceptibles et les différentes méthodes de mesure ne sont pas d'accord entre elles. Ce qui est beaucoup plus grave encore, c'est que l'écart entre les modélisations du climat et les observations, y compris au sein de l'atmosphère, diverge de plus en plus au cours des années qui passent.
La question est d'importance et les chercheurs impliqués le savent. Nous verrons qu'une vive polémique s'est instaurée sur ce sujet qu'il est tout à fait fondamental de trancher, dans un sens ou dans l'autre. De fait, le "consensus" en matière de climat tant vanté par le microcosme médiatico-politique est une idée tout à fait étrangère à la réalité.

Comme toujours et sauf spécification du contraire, les caractères engraissés figurant dans les encadrés des citations ( ici, en jaune, de couleur différente du fond) le sont par PU.

1) Les ouragans/cyclones/typhons : Non, ils ne sont pas en augmentation !

source : Journal of Climate (publié en Octobre 2015)

Titre : " Les ouragans extrêmement intenses : Révision de l'article de Webster et al (2005) dix ans plus tard."

hurricanes1

Note : Outre Klotzbach, Christopher Landsea de la NOAA est un (sinon Le) spécialiste des plus renommés sur la question des ouragans/cyclones . Il est connu des lecteurs de ce site notamment pour avoir refusé de signer un rapport du GIEC (l'AR4 publié en 2007) auquel avait participé, comme auteur principal, son collègue Kevin Trenberth , lequel avait aussi présenté, en public, des conclusions que Landsea tenait pour erronées et contraires aux observations. Landsea avait, à cette occasion rédigé une lettre de démission (du GIEC) dans laquelle il déclarait (en 2005) :

landsea

" Pour ce qui me concerne, je ne peux pas, en toute honnêteté, continuer à contribuer à un processus que je considère comme motivé par des objectifs pré-conçus et qui sont scientifiquement infondés. Comme les responsables du GIEC n'ont rien trouvé de mal dans les actions du Dr. Trenberth et l'ont maintenu à son poste d'Auteur Principal pour l'AR4, j'ai décidé de ne plus participer à la préparation de l'AR4 du GIEC."


Pour sa part, Kevin Trenberth est également connu des lecteurs de ce site pour avoir écrit, entre autres, à ses collègues, dans les échanges de courriels révélés lors de l'affaire dite du "Climategate" (2009) : " Le fait est que nous ne savons pas expliquer l’absence de réchauffement actuel et c’est grotesque."
De nos jours, Trenberth soutient l'idée que la "chaleur manquante" s'est réfugiée au fond des océans...

Voici une traduction du résumé de cet article du "Journal of Climate" qui n'est malheureusement pas en libre accès pour le public :

Résumé :
Il y a dix ans, Webster et al. ont documenté une augmentation importante et significative aussi bien dans le nombre que dans le pourcentage d'ouragans de catégories 4 et 5 pour tous les bassins de 1970 à 2004. Le présent manuscrit porte sur la question de savoir si ces tendances se sont poursuivies si l'on inclut 10 années de données supplémentaires. En opposition avec leur étude [NdT: de Webster et al] et ainsi que nous le démontrons dans cet article, la fréquence globale des ouragans de catégories 4 et 5 a subi une légère baisse, non significative
[NdT : du point de vue statistique], tandis que le pourcentage d'ouragans de catégories 4 et 5 a subi une légère hausse, non significative [NdT : du point de vue statistique], entre 1990 et 2014. L'énergie cyclonique accumulée à l'échelle du globe a subi une baisse importante et significative [NdT : du point de vue statistique] durant la même période. On conclut que la raison fondamentale de l'augmentation des ouragans de catégorie 4 et 5 notée dans les données observationnelles de 1970 à 2004 par Webster et al. est due aux progrès réalisés par les centres d'alertes aux différents types de cyclones tropicaux, essentiellement lors des deux premières décennies analysées par cette étude.

Dit plus simplement, les observations modernes ne montrent aucune tendance significative, ni dans la fréquence des ouragans/cyclones tropicaux les plus intenses à l'échelle de la planète, ni dans leur pourcentage relatif. De fait, l'énergie cyclonique accumulée pour le globe, elle, est en baisse significative durant les 25 dernières années. Les tendances positives rapportées antérieurement ont sans doute été biaisées par l'augmentation graduelle des moyens d'observation (notamment par la mise en orbite progressive de satellites géostationnaires au dessus des différents bassins, laquelle est à présent terminée).

Voici deux figures typiques extraites de l'article de Klotzbach et Landsea :

hurricanes2hurricanes3

La figure de gauche est la FIG. 2. (a) "Nombre total sur cinq années consécutives des ouragans qui ont atteint une intensité maximale pour chaque catégorie déterminée par l'échelle de Saffir-Simpson"
La figure de droite est la FIG. 5. (a) Valeurs de l'Energie Cyclonique Accumulée (ACE ) par bassin de 1970 à 2014."

Les auteurs font remarquer que la mise en place des satellites géostationnaires pour tous les bassins n'a été achevée que dans les années 1990 et concluent que les observations effectuées avant cette date sont douteuses. De fait, depuis cette époque, ont observe que les tendances du nombre des ouragans les plus violents et de l'ACE sont plutôt en baisse.

Cette étude, publiée au mois d'Octobre dernier révise, prolonge et prend le contre-pied d'une étude précédente. En réalité, et sauf découverte révolutionnaire, la science procède ainsi, par une suite d'erreurs et de corrections successives. Dans ces conditions, affirmer ou croire qu'à un moment donné "the science is settled", que "la science est définitivement établie" relève, au mieux, de l'ignorance sur le fonctionnement réel de la recherche scientifique et a fortiori quand il s'agit d'un objet aussi complexe et "épineux" que le système climatique, comme le qualifie Judith Curry.

Une fois encore, les observations et les conclusions de cet article sont en totale contradiction avec les discours de nos responsables politiques ou religieux, entendus et lus dans la presse durant les mois écoulés, notamment à l'occasion de la préparation de la COP21, tels que ceux-ci

  • "Soyons prudents, mais il me semble assez manifeste que le changement climatique et les phénomènes climatiques extrêmes qui se multiplient jouent au minimum un facteur aggravant et parfois déclencheur de conflits"

  • "Mais ça n'est pas ça que ça fait, le changement climatique. Ça multiplie ce qu'on appelle “les événements climatiques extrêmes”, c'est-à-dire que là où il y a du désert ça va être toujours plus sec, et là où il y a des problèmes d'ouragan, il va y en avoir toujours plus... On ne peut pas lier un événement climatique extrême au changement climatique, mais on sait que la multiplication lui est liée."

  • "Mais le fait que l'on ait des pluies, des typhons, des événements de plus en plus lourds et de plus en plus nombreux, ça, c'est en lien avec le dérèglement climatique."

  • "Sous l'effet des gaz à effet de serre issus pour l'essentiel de la combustion d'énergies fossiles, la planète se réchauffe à une vitesse inédite, générant des événements météorologiques extrêmes, la fonte accélérée des glaciers ou encore la montée du niveau des océans."

  • .."il est en outre difficile de ne pas le [NdT : le changement climatique] mettre en relation avec l’augmentation d’événements météorologiques extrêmes, indépendamment du fait qu’on ne peut pas attribuer une cause scientifiquement déterminable à chaque phénomène particulier."

Les lectrices et lecteurs pourront s'amuser à essayer de deviner qui sont les auteurs de ces citations pour le moins péremptoires au vu de l'état de nos connaissances scientifiques. Pour aider les lecteurs, je précise qu'il s'agit d'affirmations proférées par un ministres, un ancien ministre, un ministres putatif, une autorité religieuse et une agence de presse officielle de la république française. Celles et ceux qui n'auraient pas deviné, pourront se reporter à un billet antérieur où elles/ils trouveront les références complètes et les noms de leurs auteurs.

2) Pluies et sécheresse aux USA : Des articles scientifiques réfutent les affirmations des experts de la Blanche et des médias US.

Il n'y a pas qu'en France que les politiques (et les médias) "ignorent" les résultats des études scientifiques. En voici une, rédigée par des scientifiques reconnus du domaine, qui dément carrément les affirmations des experts de la Maison Blanche dont le rapport officiel, le "National Climate Assessment (NCA)", soutenait que l'abondance des pluies et les inondations qui ont frappé les USA ces dernières années étaient la signature du réchauffement climatique anthropique. A noter, ce qui ne manque pas de sel, que les auteurs de l'article scientifique présenté ci-dessous (source) qui réfute les affirmations des experts de l'Administration Obama, sont tous affiliés à la NOAA (Laboratoire ESRL) qui est une éminente agence fédérale aux USA.

L'article ci-dessous, actuellement sous presse et qui doit être publié dans le principal journal de l'American Meteorological Society sur le climat, montre que les pluies abondantes aux USA sont étroitement corrélées ("intimement" dit l'article) avec la variabilité décennale océanique (d'origine parfaitement naturelle). Autrement dit, il s'agit encore, comme je l'ai souvent évoqué dans ce site, d'une nouvelle mise en évidence de l'un des facteurs naturels qui dominent les variations climatiques.

hoerling

Résumé :

Les données quotidiennes relatives aux précipitations les plus intenses (95e percentile) aux Etats-Unis ont été analysées afin de déterminer les facteurs responsables de la saisonnalité et de leur caractère régional dans les tendances de 1979 à 2013. Pour ce qui est des conditions annuelles, les tendances observées dans les Etats Contigus (NdT : c'est à dire sans Hawaï et l'Alaska) des USA, ont été caractérisées par un accroissement des précipitations associé à des événements intenses journaliers dans le Nord et par une décroissance dans le Sud. Les diagnostics des simulations climatiques (CCSM4 et CAM4) montrent que l'évolution des températures de surface des océans (SST) observées était un facteur plus important pour influer sur ces tendances que les variations des conditions aux limites liées au seul forçage radiatif externe.
Depuis 1979, ce dernier (NdT : Le forçage radiatif externe, sous-entendu anthropique) induit une augmentation de grande extension mais de faible intensité, dans les précipitations associés avec les événements intenses journaliers. Le premier (NdT : cad l'effet des température de surface des océans) résulte dans un accroissement au Nord des USA et un affaiblissement dans le Sud comme cela est observé et dont l'amplitude est parfaitement dans la ligne des variations observées, tout particulièrement dans le Sud et dans l'extrême Ouest (NdT : Le Far West) . L'analyse de la dispersion des ensembles des modèles révèle qu'une tendance appréciable de 3 à 5 ans dans les précipitations journalières intenses peut se produire en l'absence de forçage ce qui limite la détection d'une faible influence anthropique à des échelles régionales.

L'analyse de la saisonnalité des tendances des fortes précipitations journalières va dans le sens des arguments physiques indiquant que leurs variations durant la période 1979-2013 ont été intimement liées à la variabilité interne décennale des océans et moins avec le changement climatique anthropique. La plus grande partie de la décroissance observée dans le Sud des USA s'est produite durant la saison froide qui a été pilotée de manière dynamique par la circulation atmosphérique qui est réminiscente des teléconnexions reliées à la température froide de surface (SST) de la zone du Pacifique tropical Est. La plus grande partie de l'accroissement de la zone Nord-Est des USA s'st produit durant les saisons chaudes. Leur cause immédiate est encore inconnue.

Un autre article tout aussi récent, publié 1er Février 2016 dans la même revue, analyse les conséquences potentielles du "changement climatique" pour l'agriculture lors de la récente sécheresse éprouvée par la Californie dans le cadre du réchauffement climatique dit anthropique.

Cheng

Le résumé de cet article se termine sur la conclusion suivante :

"C'est ainsi que nos résultats montrent que l'effet net du changement climatique a été de rendre les sécheresses pour l'agriculture moins probables et que les impacts sévères subis de nos jours n'ont pas été causés, de manière substantielle, par les changements climatiques à long terme."

...alors que la Maison Blanche et la quasi-totalité des médias US affirmaient très précisément le contraire.

Dans le même ordre d'idées, un étude récente qui vient de paraître dans le Journal of Earth Science, publié par des chercheurs de l'Université Washington de St Louis, explique que les récentes inondations records observées dans le Missouri, résultent d'une gestion déplorable des cours d'eau et non pas du "réchauffement climatique" comme cela avait été affirmé par la presse US. Voir le communiqué de presse de l'Université à ce sujet. Ce n'est certainement pas un cas isolé.

3) 2015, l'année "la plus chaude" ?

Un ou deux mois après la fin de l'année, lorsque toutes les données ont été publiées par les différents instituts, il est d'usage de situer la température moyenne du globe de l'année passée dans le cadre des années précédentes. Alors quid de l'année 2015 ?

Compte tenu des incertitudes (que beaucoup oublient de mentionner) il est probable que l'année 2015 a été, au plan global, une année parmi les plus"chaudes", ce qui n'est guère étonnant au vu du très puissant El Niño qui a poussé les températures à la hausse depuis plusieurs mois. Par contre, le fait qu'il s'agisse d'une "année record" reste discutable car les différents instituts de mesure ne sont pas d'accord entre eux et que leurs évaluations divergent de plus en plus..
C'est ce que nous allons voir avec quelques détails.

A) En réalité, 2015 est surtout l'année d'un El Niño record, d'une intensité au moins égale, voire supérieure, à celui qui est survenu, il y a 18 ans, en 1998 :

Brefs rappels : Il apparaît fréquemment un réchauffement/refroidissement marqué de la zone équatoriale de l'océan pacifique située entre la zone Ouest des Philippines et l'Equateur (le pays). Il s'agit, en réalité d'une oscillation. D'où le nom d'ENSO (El Niño-Southern Oscillation) donné à ce phénomène aussi naturel que récurrent. Ces variations de températures, positives ou négatives, qui se reproduisent plus ou moins périodiquement, environ tous les deux à trois ans, sont naturelles et on est encore incapable de les modéliser correctement et, a fortiori, d'en prévoir le signe et l'intensité ne serait-ce qu'avec quelques années d'avance.
Voici deux images typiques de la situation du El Niño 2015. Celle de gauche provient de Unisys. Celle de droite de la NOAA. Je les ai simplement complétées en indiquant la situation du El Niño actuel.

nino2015-2nino2015

On sait que, sauf quelques rares exceptions mal comprises, il existe une corrélation nette entre l'indice ENSO (El Niño/La Niña) et le réchauffement/refroidissement transitoire global de la planète. Le mécanisme sous-jacent qui fait l'objet d'un grand nombre d'études fait appel aux "téléconnexions" entre les divers bassins océaniques. Voir, par exemple, ce billet sur la "Ola", l'onde de stade. Autrement dit, les oscillations ENSO (El Niño et la Niña) font intervenir aussi bien le réchauffement local de la zone équatoriale du Pacifique que le régime des vents qui règnent dans la basse stratosphère. Tout cela se fait sentir sur une très grande partie du globe.

Rss-nino2

Le graphique ci-contre superpose l'évolution de l'anomalie de température de la basse atmosphère (TLT) donnée par le RSS-MSU, pour les années 1996-2015 avec celles de l'indice ENSO (Nino3-4) "normalisé", c'est à dire décalé verticalement ( de +0,3°C) et remis à l'échelle (divisé par 5). Ce dernier est notamment fourni par le KNMI qui collationne une grande quantité de données observationnelles (et/ou résultant des modèles).
Comme on peut le constater et comme je l'avais déjà fait remarquer en 2010, la température de l'air à la surface de la planète suit assez fidèlement les variations de l'indice ENSO avec un retard d'environ 3 à 5 mois.

Sur la droite de ce graphique, on devine que le El Niño 2015 était proche de la saturation en Nov-Déc comme l'indiquent plus précisément les données détaillées à ce sujet. Depuis Janvier, cet El Niño semble avoir a entamé sa descente qui devrait ramener l'indice ENSO vers le neutre (c'est à dire avec une valeur comprise entre -0,5 et +0;5) vers la fin du printemps- début de l'été 2016, si on en croit les prévisions à ce sujet.

Nul ne sait avec certitude ce qui se passera par la suite (El Niño ou La Niña ?). Mais, ce que l'on sait c'est que, dans le passé, 11 des El Niño les plus intenses (sur 15) ont été suivis d'épisodes d'intenses La Niña, c'est à dire de périodes de refroidissement, comme pendant les années 1999-2001 qui ont succédé au très intense El Niño de 1998. Il est donc probable que la période de réchauffement relatif observé en fin d'année 2015 et, qui se poursuivra vraisemblablement au début de 2016, sera suivi d'un refroidissement à peu près équivalent mais de signe opposé.

B) Les températures moyennes globales selon les différents instituts. Les résultats divergent de plus en plus entre les mesures thermométriques et les mesures satellitaires.

Les sources des données qui ont servi à tracer les diagrammes suivants sont aisément accessibles.
Voici les liens utiles :
NOAA ; GISS (NASA) ; UAH V6 ; RSS-MSU.

noaa2015gistemp2015

Je rappelle que la NOAA, le GISS de la NASA ou le HadCRUT, utilisent les mêmes bases de données thermométriques (notamment le USHSN pour les USA). A noter que le nombre des stations de mesure, réparties sur la surface du globe, par ces différentes institutions a considérablement diminué au cours des années.
Plutôt que de prendre en compte des stations défectueuses ou peu entretenues, ces organismes préfèrent utiliser des algorithmes d'homogénéisation (dont je parlerai ci-dessous) à partir des résultats de stations "bien choisies". Comme vous le verrez également ci-dessous, tout dépend, bien sûr, de ce que l'on entend par "des stations bien choisies" car différents choix sont possibles qui donnent des résultats sensiblement différents.

Je rappelle que les valeurs absolues des anomalies indiquées sur ces diagrammes en colonnes dépendant des périodes choisies pour "périodes de référence". En pratique, seul l'UAH (mesures satellitaires) se conforme aux stipulations de l'OMM qui prescrit que la base de référence choisie doit être celle de la moyenne des 3 décennies précédentes.
Voici les périodes de référence choisies par les différents instituts pour lesquels j'ai tracé les graphiques.

Source Période de référence
GISS Jan 1951 - Dec 1980 (30 ans)
NOAA Jan 1901 - Dec 2000 (100 ans)
RSS Jan 1979 - Dec 1998 (20 ans)
UAH Jan 1981 - Dec 2010 (30 ans)


Compte tenu des incertitudes revendiquées par les différents organismes et qui sont indiquées sur ces diagrammes par des barres verticales noires, il est incorrect d'affirmer que selon ces instituts "2015 est l'année la plus chaude". On peut simplement dire que, selon ces instituts, 2015 figure dans la liste des années les plus chaudes comme c'était d'ailleurs déjà le cas en 2014, toujours selon ces mêmes instituts.

Les mesures satellitaires, elles, donnent une toute autre vision des choses
.
A noter que, du fait de la différence des périodes de référence choisies, les mesures RSS-MSU se trouvent décalées d'environ +0;1°C par rapport aux mesures UAH.

rss2015uah2015

 

De fait, comme vous le verrez ci-dessous, la cohérence entre les mesures satellitaires UAH (V6) et les mesures satellitaires (totalement indépendantes et même concurrentes) RSS-MSU est excellente. Les écarts entre ces deux dernières sont bien inférieures aux incertitudes revendiquées (0,09°C).

Donc, d'après les mesures satellitaires, la basse troposphère n'a absolument pas battu des records de chaleur en 2015. Cette année a été nettement surpassée par 1998 (année d'un autre El Niño très intense) et, aux erreurs près, l'année 2015 n'est guère plus chaude que plusieurs des années précédentes comme on le voit sur les graphiques.

Il apparaît que les tendances indiquées par les données thermométriques divergent de plus en plus de celles des données satellitaires. Il n'en allait pas ainsi dans les années précédentes et cette divergence problématique a suscité des polémiques acerbes entre les tenants des mesures thermométriques et les tenants des mesures satellitaires.

La divergence croissante entre la tendance des mesures satellitaires et la tendance des mesures thermométriques apparaît nettement sur le graphique suivant qui regroupe les variations des anomalies de température selon la NOAA et le RSS-MSU :

divnoaarss

Compte tenu du fait que la NOAA et le RSS-MSU utilisent des périodes de référence différentes, et de manière à pouvoir comparer les tendances, il a été nécessaire de translater verticalement les données RSS-MSU de +0,32°C de manière à minimiser les différences observées pour les années 1999 et 2000.
A l'évidence, la translation ne change pas les tendances.

Comme on peut le voir, alors que les mesures satellitaires persistent à indiquer que nous restons sur un "plateau de température
" pour lequel un grand nombre d'explications ont été proposées, il n'en est plus de même pour les mesures thermométriques de la NOAA qui ont, tout récemment, subi une assez profonde altération résultant de la remise en question des mesures thermométriques de la température des océans. Cette remise en question par la NOAA a été effectuée par l'équipe de Karl et al, 2015, d'où le nom de "Karlisation" utilisé pour désigner cette altération rétrospective très controversée des mesures des températures océaniques.
A noter que les organismes qui fournissent les données HadCRUT et GISTEMP ont immédiatement adopté le procédé de "Karlisation" lors de leurs dernières actualisations, tout en génèrant des divergences mesures satellitaires-mesures thermométriques de moindre amplitude que celle de la NOAA.

Dans l'état actuel des choses, les données de la NOAA, toutes corrections de la période de référence étant effectuées, indiquent une anomalie de la température moyenne globale d'environ 0,2 à 0,3°C supérieure à celle des mesures satellitaires (et des mesures par ballons sondes).

Ces divergences sont considérables à l'échelle du "réchauffement climatique" (estimé entre 0.7°C et 1°C) du globe depuis le début de l'ère industrielle n'ont pas laissé les scientifiques impliqués indifférents. Elles font l'objet d'un débat particulièrement virulent entre les tenants des mesures thermométriques et les tenants des mesures satellitaires.
C'est ainsi que les supporters des mesures thermométriques ont publié une vidéo produite par un think-tank supporter du "réchauffement climatique", le "Yale Climate Connection", visant à discréditer les mesures satellitaires. Les principaux intervenants dans cette vidéo sont bien connus des lecteurs de PU. il s'agit de Kevin Trenberth (cité plus haut), de Michael Mann (l'auteur du très célèbre article dit "crosse de hockey"), et de Ben Santer, tous protagonistes de l'affaire des courriels révélés au public, lors du Climategate en 2009.
La politique s'en est mêlé et le Sénat US, soutenu par une pétition de 300 scientifiques internationaux, a déposé une demande officielle exigeant, entre autres, la communication des données et la transparence dans le traitement des données de température par la NOAA.

De fait, comme vous allez le voir, les mesures thermométriques ne sont pas seulement sous le feu des critiques des défenseurs des mesures satellitaires.

C) Indépendamment des délicates mesures océaniques, la fiabilité des données thermométriques continentales pose des problèmes. Elle est sérieusement remise en question, notamment pour les USA, par deux climatologues et un météorologue lors d'une communication (texte complet et communiqué de presse) présentée à la dernière session de l'AGU. Les trois auteurs principaux de cette communication sont Anthony Watts, John Nielsen-Gammon et John Christy.

Voici une traduction du résumé de cette communication qui fait l'objet d'un article soumis à publication. A noter que la climatologue d'état, Nielsen-Gammon qui est très loin d'être un "sceptique", a tenu à vérifier la totalité des observations et des calculs avec un de ses étudiants avant de cosigner cet article, ce qui l'engage vis à vis de ses collègues "mainstream".

Les observations climatiques sont affectées par des variations de l'utilisation des sols et de la couverture arborée et ceci à toutes les échelles, y compris aux très petites échelles.
Un sous-ensemble de 4210 stations de mesure du Réseau Historique de la Climatologie US (version 2.5) a été identifié parce que n'ayant pas subi de modifications au cours du temps, ou de déplacement de stations durant la période 1979-2008.
Ces stations ont été classées en se basant sur leur proximité avec des surfaces artificielles, des bâtiments ou d'autres objets du même type qui présentent des masses thermiques non naturelles, en utilisant les principes élaborés par Leroy (2010).
Les stations, en nombre relativement limité, classées dans les catégories qui subissent un impact artificiel minimal, présentent des tendances brutes de température qui sont, en moyenne, d'environ les 2/3 de celles des stations dans les classes qui subissent un plus grand impact artificiel.
Les différences des tendances sont plus importantes pour les températures minimales et sont statistiquement significatives même à l'échelle régionale et pour différents types d'instrumentation et différents degrés d'urbanisation. Les techniques d'homogénéisation utilisées par le Centre National pour l'Information Environnementale (autrefois le NCDC) réduisent ces différences de manière importante mais produisent des tendances qui sont plus en accord avec celles des stations qui subissent un impact artificiel plus important. On ne trouve pas de différences de tendance entre le Cooperative Observer Network et le Climate Reference Network durant la sous-période 2005-2014 où la température est restée relativement stable, ce qui suggère que les différences observés résultent d'un mécanisme physique qui est directement ou indirectement impacté par les changements de température.

En bref, une grande majorité des stations de mesure des températures aux USA (il y en a 1298 dans les états contigus US. C'est le pays le mieux équipé) présente de nombreux défauts pour ce qui concerne l'analyse des tendances historiques tels que le changement de l'environnement ou de l'équipement (asphalte déposé, bâtiments construits, arbres à proximité coupés, stations déplacées et/ou substituées par de nouveaux équipements etc.) révélés par le "projet d'étude des stations de surface" mené par Watts assisté de très nombreux participants.

Les auteurs ont sélectionné 410 stations "sans défaut", selon les critères couramment admis, c'est à dire, plutôt rurales, et qui n'avaient pas subi de modification durant la période historique considérée. Ces 410 stations sont régulièrement distribuées sur la carte des USA.
Le résultat est parlant. Les mesures enregistrées par ces stations montrent un réchauffement nettement inférieur à celui qui est donné par les 1298 stations prises en compte par la NOAA et les autres instituts faisant usage des thermomètres et des algorithmes d'homogénéisation standards.

Voici le graphique comparant les tendances des 410 stations conformes, de classe 1 et 2 (en bleu) sélectionnées avec, d'une part la tendance donnée par les stations non conformes (de classe 3, 4 et 5) en couleur orange et, d'autre part, avec les stations officielles utilisées et ajustées par la NOAA.watts

Le résultat est clair :

Comme on le voit, les stations conformes (classe 1 et 2) donnent une tendance de 0.204°C par décennie, les stations dégradées (classe 3, 4 et 5) donnent 0.319°C par décennie. Les stations ajustées par la NOAA donnent 0.324°C par décennie..


En bref, les résultats officiels de la NOAA indiquent un réchauffement de 0.324/0.204 = 1.6 fois supérieur aux résultats donnés par les stations conformes de classe 1 et 2.

Les auteurs précisent que cette observation doit également probablement s'appliquer au reste de la planète où les stations sont, très fréquemment, en dessous des normes requises.


En résumé, la NOAA, comme les autres institutions, ne sélectionne pas les stations suivant leurs qualités
à l'exception de celles qui sont éliminées parce qu'elles donnent des mesures trop déviantes. Elles se servent de la totalité des données thermométriques et mettent en oeuvre des algorithmes dits "d'homogénéisation" de l'ensemble de ces stations ce qui peut avoir pour effet d'aligner les stations de bonne qualité sur celles qui le sont moins mais qui sont majoritaires.

Ceci explique une phrase du communiqué de presse des auteurs de la communication citée ci-dessus : "Nous pensons que le processus d'homégénéisation de la NOAA/NCDC fait que des stations bien situées sont ajustées à la hausse pour se retrouver dans la masse des stations mal situées."

Ces critiques sur le traitement et l'utilisation des données thermométriques paraissent assez difficiles à réfuter. Néanmoins, il convient d'attendre les réponses des responsables des traitements des données de la NOAA et la parution de l'article soumis par les auteurs. Comme on le voit, si ces critiques sont justifiées, il est extrêmement probable que les marges d'incertitudes de la NOAA, du GISS et du HadCRUT sont, pour le moins, très largement sous estimées, avec une forte tendance à la hausse introduite artificiellement dans les données. Comme je l'ai indiqué ci-dessus et, a contrario, les mesures satellitaires font l'objet de sévères critiques de la part des tenants des mesures thermométriques.

D) Les mesures satellitaires :

Comme le savent les lectrices/teurs de PU, les mesures satellitaires de la température de la basse couche de l'atmosphère en contact avec la planète, émanent de deux institutions qui sont indépendantes et qui sont, de fait, en concurrence (parfois sévère) depuis des années. Il s'agit, d'un part, des mesures dites UAH parce qu'elles proviennent du centre dédié de l'Université de l'Alabama Huntsville (John Christy et Roy Spencer, tous deux inventeurs et initiateurs des méthodes de mesures, tous deux médaillées par la NASA pour "réussite exceptionnelle") et, d'autre part, des mesures dites RSS-MSU, une autre émanation de la NASA.
Ces deux organismes utilisent des satellites différents, des détecteurs différents, des corrections différentes et des algorithmes de traitement des données différents. On pourrait donc s'attendre à ce que leurs résultats diffèrent quelque peu.

rssuah

Il n'en est rien et les mesures de l'UAH (Version 6) et du RSS-MSU sont remarquablement cohérentes entre elles ainsi que le montre ce graphique sur lequel j'ai tracé, en trait bleu épais, les données mensuelles de l'UAH-V6 et en trait jaune mince, celles du RSS-MSU.

En réalité, les mesures sont si proches l'une de l'autre que je n'ai pas trouvé d'autre moyen pour qu'on puisse les distinguer sur le même graphique. Bien entendu, j'ai translaté verticalement le graphe du RSS-MSU de -0,1°C pour tenir compte de la différence des périodes de référence prises en compte par les deux organismes.

On voit que les rares différences entre les deux mesures sont bien inférieures à la somme des incertitudes revendiquées par les deux institutions (soit 0,18°C).
On perçoit nettement, à l'extrémité droite du graphe, la montée en puissance de l'El Niño 2015-2016 mais, de fait, l'année 2015 se classe en troisième position derrière 2010 et 1998.

 

John Christy, l'un des inventeurs/promoteurs des mesures satellitaires de températures de l'atmosphère à différentes altitudes, a profité d'une invitation à témoigner, le 2 Février 2016, devant les U.S. House Committee on Science, Space & Technology (Le comité de la Chambre US pour la Science, l'Espace et la Technologie) pour mettre les choses au point en ce qui concerne la fiabilité des mesures satellitaires. Voici quelques points clefs de sa présentation, mais les lecteurs intéressés pourront tirer profit de la lecture du texte écrit de sa présentation et de la vidéo prise à cette occasion. Le contenu de cette présentation réfute un par un les arguments présentés dans la vidéo des tenants de la thermométrie que j'ai citée plus haut.

En particulier, John Christy montre que les mesures satellitaires UAH V6 (et donc celles du RSS-MSU) sont très proches de celles relevées par les ballons sondes qui sont équipés de thermomètres traditionnels dont les données sont retransmises en permanence au sol par radio. Voici, ci-dessous, le graphe qu'il a présenté à ce sujet. Le mesures des ballons sont représentées en trait continu bleu et les mesures satellitaires en pointillés. (A noter, en passant, que la superposition est si parfaite que Christy aurait mieux fait d'utiliser mon mode de représentation avec des traits bleus épais et des traits minces jaunes). A noter que Christy utilise les moyennes des séries disponibles des mesures par ballons sondes (dites RATPAC, HadAT2, RICH, ROABCORE) christy-ballons

 

Christy ajoute que :

"Je trouve que c'est une stratégie d'une grande hardiesse que de promouvoir activement les résultats théoriques des modèles climatiques tout en attaquant les multiples évidences qui résultent des observations.

Notez qu'aucune des données observationnelles n'est parfaite et qu'un suivi permanent est salutaire mais quand des groupes multiples et indépendants génèrent des données et quand les résultats de deux systèmes totalement indépendants (ballons et satellites) sont très proches l'un de l'autre et sont en désaccord avec les sorties des modèles, on ne peut que se gratter la tête lorsque quelqu'un se décide à lancer une offensive contre les données de l'observation. Pour moi, ceci n'a aucun sens du point de vue scientifique."

 

 

Au cours de son exposé, John Christy attire l'attention de ses auditeurs sur les différences significatives qui existent entre les sorties des modèles climatiques et les observations effectives.

Afin d'échapper à une critique (qu'il explique infondée) de la part des auteurs (Mann, Trenberth, Ben Santer) de la vidéo citée ci-dessus, Christy choisit d'illustrer la divergence évidente qui existe entre les modèles et les observations en situant ces dernières dans la moyenne troposphère, c'est à dire bien au dessus de la surface de la planète. Voici le graphique qu'il a présenté :

midtropo

 

 

 

Christy fait remarquer que le seul modèle qui semble être à peu près en accord avec les observations (le trait fin qui court à travers les valeurs expérimentales) est un modèle publié par les scientifiques Russes sous le nom de INM-CM4.

 

 

 

 

 

En guise d'illustration, Christy a tracé les droites de tendances de la hausse de température (de 1979 à 2015 pour les observations, plus loin pour les modèles) calculées par les modèles d'une part et, d'autre part, vue par les ballons-sondes (moyenne de 4 séries de données) et les satellites (moyenne de 3 séries de données), pour la totalité de la troposphère, c'est à dire la portion de l'atmosphère qui s'étend de la surface jusqu'à environ 15.000 mètres. Voici son graphique

christy-trend

:

"En utilisant la période de 36 années pour la période 1979-2015, Christy trouve une tendance de

+0.079ºC/décennie pour les ballons sondes +0.091 ºC/décennie pour les données satellitaires.

La moyenne des 102 modèles climatiques ICCC CMIP-5, sur la même période donne une tendance de +0.214 ºC/décennie

De manière globale, les modèles surestiment le réchauffement de la masse de l'atmosphère (de la surface à 50000 pieds) d'un facteur 2,5. "

... ce qui devrait quand même poser un sérieux problème aux modélisateurs car comme disait Richard Feynman à ses étudiants à Cornell en 1964 : "Si ça ne colle pas avec les expériences, c'est faux. Et c'est ce simple constat qui est la clef de la science. Cela ne fait aucune différence que la supposition soit géniale ou que l'auteur soit très intelligent ou comment il s'appelle. Si ça ne colle pas avec les expériences, c'est faux. Il n'y a rien à ajouter."

 

seauah

Un peu plus loin au cours de sa déposition, Christy fait remarquer que les "corrections" (dites "Karlisation") plutôt controversées, apportés par Karl et al de la NOAA aux données sur les températures de surface des océans qui ont pour résultat d'effacer "la pause", sont démenties par les observations satellitaires.

Voici le graphique que Christy présente à ce sujet.

Il s'agit d'une représentation, sur différents segments de 10 à 20 ans, des tendances décennales de la température moyenne des océans. En rouge, les tendances vues par la NOAA, résultant de la "Karlisation". En orange, les mêmes tendances vues par le HadCRUT4. En jaune, les tendances vues par les mesures satellitaires qui mesurent la température de l'air à la surface des océans et en bleu les tendances relevées pour la basse atmosphère.
Autant dire que les tendances diffèrent d'un bon facteur 3 à 10 et qu'elles ne sont, parfois, même pas du même signe.

Entre autres, Christy fait remarquer que la tendance quasi nulle du HadCRUT4 de 2001 à 2014 est en assez bon accord avec les mesures UAH et va dans le sens de la "pause" des températures, et se trouve en fort désaccord avec les données "Karlérisées" de la NOAA.

4) Conclusions :

Que les lectrices ou lecteurs me pardonnent de leur avoir infligé un billet que beaucoup trouveront sans doute un peu trop long et, parfois, un peu compliqué. Mais, au point où nous en sommes arrivés et au vu des lourdes conséquences économiques et sociétales envisagées par nos politiques, il est important de fournir quelques détails et de ne pas se contenter de superficiel comme nous l'avons vu lors de la COP21.

A la lecture attentive des articles qui paraissent dans la presse scientifique sous la plume d'auteurs renommés, on constate que la science climatique progresse. Les observations qui sont à la base de la démarche scientifique, s'enrichissent progressivement et, bien heureusement, beaucoup de chercheurs en tiennent compte, quitte à remettre en cause les (supposés) acquis du passé, même récent.
Malheureusement, on observe, en parallèle, que le microcosme médiatico-politique ne suit pas les progrès de la science et ne corrige pas ses discours en conséquence. Il en résulte un gap grandissant entre la réalité du contenu des publications scientifiques et les affirmations de plus en plus "décalées" de nos édiles et de nos médias qui influencent l'opinion.

Les deux premières parties de ce billet montrent que plusieurs idées reçues et répercutées ad infinitum dans les médias et dans les discours politiques, sont erronées ou, du moins sérieusement remises en cause, aussi bien pour ce qui concerne les ouragans/typhons/cyclones que pour les sécheresses et les pluies.

La troisième partie explique que les données résultant des mesures de la température moyenne du globe ne sont pas d'accord entre elles et qu'une année El Nino surtout s'il est particulièrement intense comme celui de cette année 2015, est certainement le plus mauvais choix possible pour ceux qui cherchent à détecter et à se convaincre du caractère anthropique du changement climatique.
Bien plus grave encore, et quels que soient les effets passagers d'un El Niño ou d'une La Niña, on observe que la divergence entre les mesures et les modèles s'accroît à mesure que le temps passe. Comme vous l'avez vu, il existe une sérieuse polémique à ce sujet. De fait, il s'agit d'une question fondamentale à laquelle il faudra bien, un jour, apporter une réponse.
Soit les modèles sont gravement déficients et leurs prévisions sont sans valeur ce qui aurait de lourdes conséquences, soit les mesures des températures satellitaires (y compris du corps même de l'atmosphère) sont erronées ce qui semble peu probable du fait qu'elles sont d'accord entre elles et qu'elles sont confirmées par les multiples ballon-sondes lancés par plusieurs institutions indépendantes.

En écrivant ceci, je ne fais que reprendre les observations de Syukuro Manabe, l'un des pères fondateurs de la théorie de l'effet de serre, qui avait déjà remarqué, en 2011, la divergence entre les mesures satellitaires et les modèles, (pour la haute troposphère tropicale), laquelle s'est aggravée. Il s'en inquiétait déjà en écrivant dans un article publié en 2011 :

"Au vu de l'importance de l'évaluation de l'augmentation du réchauffement de la haute troposphère tropicale vis à vis de la sensibilité climatique et de l'évolution des circulations atmosphériques, il est d'une importance cruciale de comprendre les causes possibles du désaccord entre les modèles et les observations."

En bref, la science progresse comme elle l'a toujours fait - sauf dans le cas d'une rupture fondamentale - par une suite d'erreurs et de corrections. Rien n'est définitivement gravé dans le marbre et l'idée même de "consensus" est étrangère à la démarche scientifique. Par exemple, des expériences en cours cherchent encore de nos jours, à confirmer ou à infirmer la théorie de la relativité générale d'Einstein.

Le Nobel de Physique, Richard Feynman, ne disait-il pas ?

"Nous avons observé qu'il est d'une importance cruciale que, de manière à progresser, nous devons reconnaître notre ignorance et laisser la place au doute. La connaissance scientifique est constituée d'une série de déclarations qui possèdent différents degrés de certitude - certaines ne sont pas sûres, certaines sont presque sûres mais aucune n'est absolument certaine."

Enfin, ceux qui s'alarment de l'hiver doux qui règne actuellement en France devraient prendre connaissance de cette rétrospective historique sur les hivers doux qu'a connus notre pays depuis le 6e siècle (recensés par le CNUM, le Conservatoire Numériques des Arts et Métiers). (h/t Skyfall.fr).
Rien de nouveau sous le soleil, comme vous le verrez.
A noter que, dans le passé, plusieurs "hivers doux" se sont plutôt mal terminés.

Stay tuned !

08 Janvier 2016 : Mythes, légendes et pipeauxcloc13


En bref :

La COP21 achevée, on aurait pu raisonnablement espérer que le déchaînement médiatico-politique qui a littéralement saturé le PAF pendant les mois écoulés, marquerait une pause, ne serait-ce que pour reprendre son souffle.

Il n'en est rien. Les médias persistent à propager des nouvelles aussi alarmantes qu'infondées voire en opposition flagrante avec les connaissances les plus récentes acquises par la recherche scientifique.

Parmi ces dernières, et à titre d'exemple, j'ai choisi, ce mois-ci, d'évoquer 4 mythes ou légendes que certaines agences de presse et certains politiques continuent de colporter, urbi et orbi, et que les médias reprennent sans discernement ni analyse.

1) On nous a affirmé, en cette fin d'année 2015, que le "Pôle Nord n'est plus ce qu'il était".
Il n'en est rien. Le Pôle Nord n'a rien fait d'autre, à la Saint Sylvestre, que ce qu'il a fait fréquemment au cours des décennies écoulées. Encore faut-il connaître les spécificités du climat hivernal en arctique pour le savoir.

2) De même, on entend dire et on lit partout que la pluviométrie a beaucoup changé sur le globe et que les déserts sont plus secs et progressent sur la planète du fait de la diminution des pluies.
Les observations démontrent qu'il n'en est rien et, de surcroît, nous apprennent que les sécheresses étaient bien pires au cours des siècles passés.

3) Tout aussi fréquemment, on nous affirme que l'Antarctique fond, ce qui contribuerait à la hausse du niveau des océans.
Une étude exhaustive récente montre que ce n'est pas le cas et qu'au contraire, le continent antarctique, pris dans sa totalité, renforce sa réserve de glace et contribue plutôt à la baisse du niveau des mers et ceci, depuis fort longtemps.

4) Enfin, les mesures et les observations montrent, qu'entre autre, les îles coralliennes du Pacifique qui sont censées s'engloutir dans les océans (ce qui a servi de prétexte à l'alourdissement des exigences de certains lors de la COP21) ne le font pas et ne feront probablement pas.
Les lecteurs(trices) de PU savent déjà (comme Charles Darwin) comment et pourquoi, mais visiblement, les participants à la COP21 de Paris l'ignoraient.
_____________________________________________________________

Pour commencer, voici une analyse des événements qui se sont déroulés au pôle Nord durant la transition 2015-2016 et qui ont provoqué une floraison d'articles alarmistes de la part d'organes d'information bien mal informés.

1) Le 31 Décembre 2015, c'est la panique : Le pôle Nord est au dessus de 0°C...nous affirment les médias !

Partant d'un communiqué de presse (inepte) de l'AFP, nos médias s'en sont donné à coeur joie :

-My TF1 News (avec AFP) ((31/12) : "La douceur est partout : il fait plus de 0°C au Pôle Nord" (dans le texte : "Le mercure est passé de -37°C à -8°C en deux jours sur une balise située à 300 km du Pôle Nord").
-L'express (31/12) : "Plus de 0 degré: il fait anormalement chaud au Pôle Nord".
-Maxisciences (gentside) (31/12) : "Des températures jamais constatées à cette période de l'année au Pôle Nord".
-Le Figaro (31/12) : "Au Pôle Nord, le thermomètre affiche 20 degrés de plus que les normales de saison".
-20 Minutes(31/12) : "Pôle nord trop chaud"ces températures vont devenir de plus en fréquentes"", sauf que ce n'est pas ce que nous dit le scientifique interrogé. Ce dernier a dit (selon le texte) : "Si ces températures en hiver devenaient plus fréquentes, alors oui on pourrait pointer du doigt le changement climatique".
-Les Echos.fr (31/12) (J-M Gradt d'après l'AFP) : "
Climat : Le pôle Nord n'est plus ce qu'il était".
-
Le Monde (31/12/) (avec l'AFP): "Douceur anormale sur l'Arctique : Plus de 0°C au pôle Nord".
-Etc.

La réalité : Que s'est-il passé à la Saint Sylvestre 2015 ? Le film des événements :

Le Mercredi 30 Décembre, une très forte dépression située au environ de l'Islande a propulsé une masse d'air "chaud" (c'est à dire avec des températures peu négatives ou proches du zéro celsius) vers le pôle Nord.

On a pu suivre, en direct, le déroulement des événements, notamment à l'aide de l'excellent site interactif earth.null qui donne, pour l'ensemble de la planète, des indications assez précises pour les vents, les températures etc. en temps réel. Les températures sont indiquées avec un code de couleur mais il est possible de sélectionner un point précis sur la carte pour connaître les données locales (le petit rond jaune).
Voici une séquence des images qui concernent le pôle Nord et l'Arctique, extraites des cartes de ce site.

Sur les images ci-dessous, la couleur bleue indique des températures négatives mais proche du zéro (typiquement de -10°C à 0°C).
La couleur violette indique des températures plus basses, proches de -27°C.
cloc12a

Comme on le voit sur ces images, reconstruites en temps réel à partir des (rares) données thermométriques et de diverses données disponibles, le 30/12 à minuit, une sorte de coin d'air plus chaud (de couleur bleue), remontant du Sud-Est est venu réchauffer une fraction du pôle Nord. La plus grande partie de l'Arctique (de couleur violette, à près de -27°C en cette saison) n'a pas été affectée par cette rentrée d'air plus chaud. Il s'agit d'un réchauffement localisé.

11 heures plus tard, au matin du 31/12, le triangle bleu (température entre -10°C et 0°) s'était déjà bien résorbé et à minuit du même jour, la quasi totalité de la glace du pôle Nord avait retrouvé une température proche de la normale. Comme on le voit sur la photo de droite, la température normale de -27° était rétablie sur le pôle le 02 Janvier.
Cet événement aussi bref que localisé n'a, en fait duré qu'une seule journée. Il n'est, en effet, pas impossible qu'un thermomètre isolé ait pu enregistrer, très brièvement, une température positive mais cela n'a évidemment aucune conséquence du point de vue climatologique et c'est bien trop bref pour induire une fonte de l'épaisse banquise (épaisseur moyenne 1,3 m) qui prévaut à cette période de l'année. En bref, il ne s'agit que d'un phénomène superficiel, local et de très courte durée. C'est de la météorologie et c'est très courant au pôle Nord en cette période de l'année, comme nous allons le voir.

- Un événements sans précédent, affirment les médias ?
Que nous disent les archives pour les périodes de fin d'année lors des 58 années précédentes ?

On trouve toutes les archives concernant les températures moyennes relevées (et reconstruites selon la norme ERA40) en Arctique, depuis 1958, jour après jour, jusqu'à aujourd'hui, au Nord du 80e parallèle, sur le site danois du DMI. Elles concernent donc la plus grande partie de l'Arctique située autour du pôle Nord.

Sur ces graphiques les températures (en ordonnée) sont indiquées en Kelvin (K). Le 0°C correspondant à 273K et 1K=1°C, il est aisé de calculer la température en degré Celsius par une simple soustraction.
C'est ainsi que l'on voit que la température moyenne en Arctique (au Nord du 80e parallèle) à la fin de l'année est "normalement" (le trait continu vert) d'environ 245-273= -28°C.

Les dates sont indiquées (en abscisse) par le numéro du jour de l'année. cloc11

Ces graphiques sur lesquels le trait horizontal bleu indique la position du 0°C (273K) montrent deux choses importantes concernant les spécificités de la météorologie hivernale en zone arctique :

- Comme on le voit, durant l'été boréal, (entre le 150e jour et le 230e jour de l'année, soit entre début Juin et la mi-Août) ) la température de l'air au dessus de l'Arctique est remarquablement stable et évolue entre 0°C et +2°C. A cette époque, une partie de l'océan arctique reste libre de glace. La température de l'air est stabilisée par la transition de phase eau/glace, ce qui peut s'expliquer aisément de la manière suivante : Si la température de l'air a tendance à augmenter, la chaleur supplémentaire est absorbée parce qu'un peu de glace fond et la température reste constante. Dans le cas inverse, c'est à dire si l'air devient plus froid, une partie de l'eau disponible gèle et la température reste encore constante.

-Par contre, en période hivernale, la quasi totalité de la banquise est gelée et l'effet stabilisant de l'équilibre eau/glace ne joue pratiquement plus aucun rôle. L'épaisse couche de glace constitue plutôt un véritable isolant. Dès lors, la température de l'air située au dessus de la banquise est principalement déterminée par les vents dominants. Il est bien connu que l'Arctique est sujet à de violentes tempêtes ou à des rentrées d'air plus chaud au cours de l'hiver boréal. Dès lors, la température de l'air arctique fluctue énormément au gré de la météorologie, des dépressions environnantes et des rentrées d'air plus "chaud".
C'est ce que montrent ces graphiques dans lesquels on voit clairement que la température moyenne de l'air arctique peut varier fréquemment et temporairement de plusieurs dizaines de degrés en période hivernale.
Le graphique de gauche représente les données de température pour l'année 2015. Il apparaît que "l'événement exceptionnel" qui a fait les gros titres des médias n'a guère fait varier la température moyenne de l'arctique que de 12°C pendant une seule journée (elle a atteint environ -16°C) avec un retour complet à l'équilibre normal (-27°C environ) après moins de deux jours comme on le voit sur les images précédentes et sur les graphiques du DMI.

Contrairement à ce qu'affirment les médias, cet événement n'a rien d'exceptionnel. Il est même très fréquent et il a été surpassé plusieurs fois dans le passé. Par exemple, en 1964, autour de la Noël, la température moyenne de l'air autour du pôle a brusquement augmenté de 21° et a atteint environ -10°C. Des événements du même type, toujours en fin d'année se sont également produits en 1990 et en 2002 comme on le voit sur ces graphiques.
Toujours d'après la même source danoise, on constate qu'il en a été de même en 1959, (variation de 24°C en quelques jours en fin d'année). De même, les années 1984, 1985, 2000 et 2002 ont toutes connu des pics de température plus élevée que 2015 durant les mois de décembre, sans aucun doute, du fait de tempêtes ou de rentrées d'air "chaud" localisées dans l'espace comme dans le temps.

Ainsi, contrairement aux affirmations des médias
qui visiblement n'ont pas pris la peine de se renseigner plus avant sur les spécificités du climat, ou plutôt de la météorologie, en Arctique et ont pris pour argent comptant le contenu d'une dépêche inepte de l'AFP, l'événement de la St Sylvestre 2015, n'a strictement rien d'exceptionnel ni d'alarmant. Il est même très fréquent dans les régions arctiques, en automne et en hiver.

Ceci nous rappelle la panique, tout aussi injustifiée, qui s'était emparée des médias pendant l'été 2012 à propos d'un réchauffement très bref (de deux ou trois jours) de l'air au dessus du Groenland provoquant une fonte de la couche superficielle de la neige/glace comme cela se produit fréquemment en hiver en montagne ce qui verglace les pistes et les paysages enneigés et les rend plus brillants vus sous un soleil rasant.
Cette fonte aussi superficielle que brève résultait, elle aussi d'un phénomène météorologique limité qui a provoqué la remontée brutale d'une pulsation d'air plus chaud dans la zone groenlandaise. Comme le montrent les carottages glaciaires et comme le rappelle (vox clamans in deserto) la scientifique spécialiste interrogée à ce sujet,
ces événements se reproduisent à intervalles plus ou moins réguliers séparés par quelques décennies depuis, au moins... le Ve siècle.

Toujours à propos de la fonte du Groenland (h/t WUWT), et dans le même ordre d'idée, un article vient de paraître dans Nature qui estime la perte cumulée en glace du Groenland depuis 115 ans (depuis 1900).
Cet article a été aussitôt repris par des médias avec un titre accrocheur susceptible d'alarmer les lecteurs, du style : "Le Groenland a perdu 9000 milliards de tonnes de glace en un siècle" ce qui paraît énorme mais ne l'est pas du tout. Comme c'est très souvent le cas,
les médias ne prennent pas la peine de rappeler les ordres de grandeur qui permettent de mettre les chiffres indiqués en perspective.

Le problème est que le Groenland stocke une masse de glace absolument gigantesque d'environ 2.600.000 km3 selon l'USGS (US Géological Survey, page A113). Or 9000 milliards de tonnes (métriques) de glace représentent un volume d'environ 9000 km3 (en assimilant la densité de l'eau avec celle de la glace ce qui donne une précision suffisante dans le cas présent).
Ainsi voit-on que la perte totale en glace du Groenland en 115 ans ne représente qu'environ 0,3% de la masse totale de glace.

C'est évidemment infime
, sans doute situé à l'intérieur des marges d'erreur des mesures et un titre du genre "
Le Groenland a conservé 99,7% de sa masse de glace depuis 115 ans" serait évidemment beaucoup moins accrocheur que le titre choisi par les médias sans doute dans la perspective de la COP21. Ajoutons que même si on prend en compte les plus récentes estimations des pertes annuelles (186Gt/an) et en supposant que ces pertes vont perdurer dans l'avenir, il faudrait quand même environ 16000 ans pour que la glace du Groenland disparaisse complètement, ce qui est d'ailleurs impossible parce que la glace groenlandaise repose, en réalité, sur une sorte de cuvette solide ce qui interdirait, à terme, les fuites des glaciers dans l'océan. D'autre part, comme je l'ai montré dans un billet précédent, les apports en neige/glace de l'inlandsis groenlandais sont plutôt en période de croissance qu'en déclin.

Mais là encore, les médias n'ont pas pris la peine d'aller chercher un peu plus loin que le bout des dépêches de presse avant de (dés)informer leurs lecteurs...

Dans la même veine des mythes récurrents, propagés par les médias et souvent régurgités sans hésitation par les décideurs comme nous l'avons constaté à maintes reprises, voici deux mises au point concernant la question lancinante des déficits de pluies et autres inondations qui s'aggraveraient, nous dit-on. Comme vous allez le voir, il n'en est absolument rien comme nous l'apprennent les recherches les plus récentes qui montrent également que c'était bien pire au cours des siècles passés.

________________________________________________

2) Il pleut plus, il pleut moins, les déserts avancent, les déserts reculent (etc.), et c'est tout de la faute au CO2, nous dit-on.

C'est ce que nous avons pu lire, voir ou entendre, au cours des années passées, dans une multitude de médias.
Une étude éloquente et remarquablement exhaustive par rapport aux études précédentes (à l'échelle locale comme à l'échelle globale), fait le point sur ce sujet. Elle vient de paraître, en Décembre dernier, dans une revue spécialisée de bon aloi sur l'hydrologie. Elle dément carrément les affirmations de l'intitulé. En voici l'en-tête originale et une traduction en français (à droite) :cloc6


Journal d'hydrologie
(531,3, Déc. 2015, pages 1020-1027) (source)
Variations des précipitations annuelles sur les continents terrestres à l'exception de l'Antarctique du XVIIIe siècle à 2013.

Point clefs :

-Nous avons analysé plus d'un million et demi de données de précipitation observés dans 1000 stations et dans 114 pays.

-
Les données couvrent une période beaucoup plus longue que des études contradictoires récentes qui n'ont analysé que quelques décennies de données.

-
Nous ne trouvons aucune différence substantielle pour des stations situées au Nord, sous les tropiques et dans les latitudes australes.

-
Nous ne trouvons aucune différence substantielle pour des stations qui ses trouvent dans des climats secs, modérés et humides.

-Il n'y a pas de changement significatif dans les précipitations sur le globe de 1850 jusqu'à présent..

Les motivations des auteurs qui ont décidé d'entreprendre cette étude remarquablement exhaustive sont clairement explicitées dans l'introduction :

Il est couramment admis que le température du globe a augmenté de près de 1°C durant le siècle dernier (IPPC 2001, 2007, 2013; van Wijngaarden, 2014). La formule de Clausius–Clapeyron montre que la pression de vapeur d'eau à saturation augmente exponentiellement avec la température. Il en découle qu'on peut raisonnablement s'attendre à ce que la pression de la vapeur d'eau atmosphérique augmente en faisant l'hypothèse que l'humidité relative reste inchangée.

Visiblement, les auteurs s'attendaient à trouver que la pluviosité avait augmenté au cours du siècle dernier comme beaucoup le pensaient.
Il n'en est rien et les résultats de leur étude montrent que le raisonnement (très courant mais exagérément simpliste) énoncé ci-dessus, est démenti par les observations En dépit de "la relation de Clausius-Clapeyron", leurs études montrent au contraire qu' "
Il n'y a pas de changement significatif dans les précipitations sur le globe de 1850 à maintenant" et qu'il y a pas de "différence substantielle pour des stations qui se trouvent dans des climats secs, modérés et humides".

Voici une traduction du résumé de cet article :

Résumé : Nous avons étudié les mesures des précipitations effectuées dans près de 1000 stations réparties dans 114 pays. Chaque station dispose d'au moins 100 ans d'observations ce qui fournit une base de données de plus de un million et demi de quantité de précipitations mensuelles. Les données de certaines stations remontent aux années 1700 mais la plupart des données existent depuis les années postérieures à 1850.
Le total des précipitations annuelles n'a été pris en compte que si toutes les données mensuelles, durant une année donnée, sont disponibles. Le pourcentage de la variation de la précipitation annuelle a été tracé par rapport à la période 1961-1990, pour 6 continents, aussi bien pour les stations à différentes latitudes et pour celles qui son sujettes à des totaux annuels de précipitations faibles, modérés ou forts. Nous en avons déduit les tendances des variations des précipitations avec un intervalle de confiance de 95% pour différentes séquences temporelles. La plupart des tendances ne montraient aucun changement clairement établi. Les variations globales dans les précipitations sur les terres continentales, en excluant l'Antarctique, par rapport à la période 1961-1990 ont été estimées
à 1.2 ± 1.7, 2.6 ± 2.5 and 5.4 ± 8.1% par siècle, respectivement pour les périodes 1850–2000, 1900–2000 et 1950–2000.
Une variation de 1% par siècle correspond à une variation de précipitation de 0.09 mm/an.

Conformément aux "Points clefs" mentionnés par les auteurs, on observe que les variations sont bien inférieures à un mm d'eau/an, ce qui est infime et à la limite des marges d'erreurs. En effet - et c'est le moins que l'on puisse dire - les précipitations sur le globe (et par régions) sont d'une remarquable stabilité et ceci depuis 1850.

En conclusion, les auteurs lancent cet avertissement :

Les stations qui enregistrent des précipitations annuelles faibles, modérées et fortes n'ont pas montré de tendances très différentes des précipitations. Ceci montre que ni les déserts ni les jungles ne sont en voie d'expansion ou de rétrécissement du fait de la variation des quantités de précipitation. Il est, dès lors, raisonnable de conclure qu'il faut rester circonspect quand aux affirmations selon lesquelles de grands changements dans les précipitations globales se sont produites au cours de derniers 150 ans.

Ce qui est parfaitement cohérent avec l'absence de tendances des sécheresses enregistrées sur le globe depuis 1982 révélée dans le graphique déjà montré à plusieurs reprises et notamment dans un billet récent sur les événements extrêmes.

Mais que s'est-il passé auparavant ? Que savons nous des sécheresses d'antan ?

Un article, fruit de la collaboration d'un grand nombre d'auteurs bien connus, qui vient d'être publié, le 6 Novembre dernier, par l'AAAS (American Association for the Advancement of Science qui publie également la revue Science) dans la revue "Science Advances" dont voici l'en-tête et le résumé, répond à cette question :

cloc9

Voici une traduction en Français du résumé de cet article dont le titre est :

"Les méga-sécheresses et les pluviosités du Monde Ancien durant notre époque chrétienne " (NdT : "Common era"~ Anno Domini. Ici, en réalité, depuis l'an 1000)

Résumé :
Les projections des modèles climatiques suggèrent un dessèchement largement répandu dans le bassin méditerranéen et une humidification dans la zone fenno-scandinave durant les décennies à venir, ceci étant dû en grande partie au forçage du climat par les gaz à effet de serre. [
NdT : c'est ce que prévoient les modèles mais l'article précédent montre que, pour l'instant, au moins, ce n'est pas le cas]
De manière à situer ces projections ainsi que d'autres sur le Monde Ancien dans une perspective historique basée sur des estimations plus complètes de la variabilité hydroclimatique naturelle, nous avons mis en place l'"Atlas des sécheresses du Monde Ancien" (OWDA)[ NdT = Old World Drougth Atlas] qui est un jeu de cartes, année après année, reconstruites d'après les données des cernes des arbres concernant l'humidité et la sécheresse estivale pour l'Europe et le bassin méditerranéen durant notre ère.
L'OWDA est en accord avec les données historiques au sujet des sécheresses sévères et des périodes humides avec une cohérence spatiale qui n'étaient pas disponibles jusqu'à présent.

De plus, les méga-sécheresses reconstruites pour l'Europe du Nord et du Centre au cours du XIe siècle et de la moitié du XVe siècle vient renforcer d'autres éléments de preuve provenant d'Amérique du Nord et d'Asie que les sécheresses étaient plus sévères, de plus vastes extension et plus prolongées sur les terres de l'hémisphère Nord
avant le XXe siècle, ceci avec une compréhension inadéquate sur les causes. L'OWDA procure de nouvelles données pour la détermination des causes des sécheresses et de l'humidité et attribue la variabilité des climats du passé à la variabilité naturelle interne ou forcée.

cloc10

Voici la figure maîtresse de cet article qui regroupe les différents atlas des sécheresses précédemment disponibles (le NADA (Amérique du Nord) et le MADA (Asie) ) avec l'OWDA (Europe) du présent article, le tout rassemblé sous le sigle de NHDA.

La figure B (en bas) regroupe les évolutions des indices Z (caractérisant les intensités et les extensions) des méga-sécheresses dans les trois zones considérées de l'hémisphère Nord et ceci de l'an mil à l'an 2000.

Comme on peut le constater, les indices Z présentent des évolutions marquées et sensiblement concomitantes pour les trois zones considérées, ce qui signifie que les épisodes de méga-sécheresses du millénaire passé ne sont pas indépendants ou localisés mais qu'ils ont affecté pratiquement en même temps tout l'hémisphère Nord, durant les mêmes périodes. Ce sont donc de vastes événements climatiques dont on ignore les causes, même si les auteurs les attribuent (assez benoîtement) à la"variabilité naturelle" qui se révèle ainsi particulièrement efficace.

 

 

A noter que cette étude rapporte que la période autour des années 1600 fut notamment le siège de fortes sécheresses en Europe (carte OWDA, tiretés rouges) que l'on retrouve, mais dans une moindre mesure, dans les deux autres sous-continents des cartes NADA et MADA. Ceci corrobore les travaux de l'historien Emmanuel Garnier qui écrit dans la présentation de son livre "Plus tard, au beau milieu du fameux Petit âge glaciaire, l'Europe fut même confrontée à de véritables ... vagues de chaleurs doublées de sécheresses mettant en péril la survie des populations."

_______________________________________________________________

Les médias unanimes et aussi, quelques scientifiques, nous ont assuré que l'Antarctique perdait de la glace et que cela contribuait à la hausse du niveau des océans. Cela fait maintenant partie de la croyance populaire et se retrouve dans une multitude de forums de discussion.
Mais est-ce bien vrai ?
C'est ce que nous allons voir maintenant.

3) Contrairement aux affirmations des médias et à la croyance populaire, non seulement l'Antarctique ne fond pas mais sa masse totale de glace augmente... ce qui fait baisser le niveau des océans.

Tout les lecteurs de PU se souviennent que la glace de mer antarctique (la banquise) loin de diminuer est, au contraire, en pleine croissance. Et ceci, au moins, depuis le début de l'êre des observations satellites. Ceci n'est guère contesté. Pourtant, certains (dont le GIEC) ont affirmé que les masses de glace continentale, elles, diminuaient, ce qui contribuait à la hausse du niveau des océans, disait-on.

C'est ainsi que l'on pouvait lire à la page 4 du récent "Résumé Pour les Politiques" (SPM AR5) du GIEC (2013) la phrase suivante :

"Durant la période 1991 à 2011, le Groenland et la calotte de glace antarctique ont perdu de leur masse (indice de confiance élevé), probablement avec un taux accru de 2002 à 2011."

qui est répétée à plusieurs reprises dans la synthèse du rapport complet publié en 2013.

Les mesures plus approfondies publiées tout récemment contredisent ces affirmations du rapport SPM du GIEC. Elles démontrent qu'il n'en est rien pour ce qui concerne l'Antarctique et que c'est même exactement le contraire qui se produit, comme vient de le montrer un article publié au mois de Décembre dernier par des glaciologues réputés de la NASA dans le "Journal of Glaciology" dont voici le fac-simile de l'en-tête intitulée :

"Les gains en masse de la calotte glacière antarctique excèdent les pertes".

cloc8

La NASA a publié un communiqué de presse le 30 Oct. 2015 à ce sujet qui a été repris au mois de Novembre.
la carte de l'Antarctique ci-contre accompagnée de son code des couleurs, met en évidence la complexité du comportement de ce continent pour ce qui concerne le comportement des masses de glaces vis à vis de la fonte ou de l'accroissement.
Il était indispensable d'étudier en détail cette cartographie pour réaliser un bilan complet des pertes et des gains localisés et c'est tout le mérite des glaciologues de la NASA que de l'avoir réalisé.


cloc7

Légende :

"Carte montrant les taux de variation de la masse (NdT : de glace) donné par ICESat 2003-2008 pour l'Antarctique. Les sommes sont valables pour tout l'Antarctique : Antarctique Est (EA, 2-17); intérieur de l'Antarctique Ouest (WA2, 1, 18, 19, et 23); zone côtière de l'Antarctique Ouest (WA1, 20-21); et péninsule antarctique (24-27). Une gigatonne (GT) correspond à un milliard de tonnes métriques ou à 1,1 milliard de tons US.. Crédit: Jay Zwally/Journal of Glaciology."

 

On pourrait penser que le bilan positif de la glace résulte du fait que les chutes de neige sont devenues de plus en plus abondantes. Il n'en est rien. Les chutes de neige n'ont pas augmenté. Elles ont plutôt diminué. En réalité, la neige stockée sur l'énorme continent antarctique s'accumule plus rapidement que les pertes observées dans les glaciers de l'Ouest et de la péninsule, dont le sous-sol est réputé volcanique.

Voici ce que dit le rapport de la NASA à ce sujet :

"Zwally a déclaré qu'alors que les autres scientifiques avaient postulé que les gains en élévation de la zone Est Antarctique étaient dus au récent accroissement de l'accumulation de neige, son équipe avait pris en compte les données météorologiques remontant jusqu'en 1979, pour montrer que les chutes de neige dans la zone Est Antarctique ont, en réalité, diminué de quelques 11 milliards de tonnes par an durant la période ERS comme durant la période ICESat. Ils ont aussi pris en compte les informations sur l'accumulation de neige durant des dizaines de milliers d'années calculées par d'autres scientifiques à partir de carottages glaciaires. Ceci les amené à conclure que la zone Est Antarctique s'épaissit depuis très longtemps."[...]

L'Antarctique gagne en glace et ce n'est pas d'aujourd'hui. Ainsi, toujours tiré du communiqué de presse de la NASA :

"Le supplément de chute de neige qui a commencé il y a 10000 ans, s'est lentement accumulé sur la calotte glaciaire et s'est compacté en glace durant des millénaires, ce qui a épaissi la glace de la zone Est Antarctique et de l'intérieur de la zone Ouest Antarctique d'une moyenne d'environ 0.7 pouces (1.7 centimètres) par an. Ce faible épaississement, soutenu pendant des milliers d'années et répandu sur les vastes espaces de ces zones de l'Antarctique, correspondent à un gain de glace très important - suffisant pour surpasser les pertes dues au glaciers à écoulement rapide dans d'autres parties du continent et ainsi réduire la hausse du niveau marin du globe.

L'équipe de Zwally a calculé que le gain en masse résultant de l'épaississement de la zone Est Antarctique est resté constant de 1992 à 2008 avec +200 milliards de tonnes par an tandis que les pertes en glace dues aux régions côtières de la zone de l'Ouest Antarctique et de la péninsule Antarctique ont augmenté de 65 milliards de tonnes par an.

La bonne nouvelle c'est que l'Antarctique ne contribue pas actuellement à la hausse du niveau des océans. Au contraire, il prélève 0,23mm par an", a dit Zwally."

Ce qui n'empêche pas la plupart des médias francophones de continuer à propager le mythe de la fonte inquiétante de l'Antarctique telle la journaliste qui tient la rubrique environnementale "ma planète" du journal Sud-Ouest, qui nous affirmait doctement, en Juin 2015, que " la fonte de l'Antarctique s'accélère" (et, sans doute pour faire bonne mesure) "elle devient irréversible" ajoutait-t-elle.

De fait, ce qui semble irréversible c'est plutôt l'augmentation de la masse glaciaire de l'Antarctique, laquelle se poursuit depuis près de 10000 ans.

Les lecteurs(trices) avisé(e)s auront probablement remarqué que la baisse du niveau de -23mm/siècle résultant de l'épaississement de l'Antarctique annule presque exactement la hausse des océans due aux pertes du Groenland mentionnées précédemment (environ +25mm/siècle) . En bref, selon les deux article cités ci-dessus, les deux se compensent et le bilan pour la hausse des océans est nul.

____________________________________________

4) Les îles du Pacifique englouties ?

Durant la COP21, on a beaucoup entendu les interventions insistantes, parfois tonitruantes, du ministre des affaires étrangères des Îles Marshall, Tony de Brum. cloc14
(photo ci-contre) qui a joué un rôle primordial lors des dernières négociations de Paris. Ce dernier qui a fédéré les exigences d'une quantité de responsables de pays situés sur des îles, a été qualifié, entre autres, d'"improbable héros de la COP21" par le journal "l'Opinion".

Les îles Marshall
sont situées dans le Pacifique, au Nord Est de l'Australie et au Nord Est de la zone représentée sur la carte ci-dessous. Il s'agit d'un ensemble d'environ un millier d'îles réparties sur une trentaine d'atolls coralliens hébergeant près de 70000 habitants. Ces îles sont, en moyenne, situées à 2m au dessus du niveau de l'océan.
Tony de Brum
a constamment exigé que le seuil de hausse de température (espéré) soit abaissé jusqu'à 1,5°C pour sauver son territoire d'un engloutissement dont il perçoit, dit-il, les prémisses dès à présent et qu'il juge imminent. Ceci lui fut concédé, sans trop de difficultés, dans la rédaction de l'accord final.

cloc1

 

Il existe un organisme officiel basé en Australie qui surveille le niveau des mers notamment autour des principales îles environnantes.Cet organisme, dépendant du BOM (Bureau of Meteorology australien) qui est appelé "Pacific Sea Level Monitoring Project" donne les "Monthly Sea Level and Meteorological Statistics" c'est à dire les relevés mensuels du niveau des mers et des statistiques météorologiques", en particulier autour des îles Marshall et de ses voisines dans l'océan Pacifique.

 

 


Voici les graphiques officielles au sujet de la "hausse" du niveau des mers aux Îles Marshall :

cloc2

Ils montrent les variations du niveau des mers autour des zones indiqués.
Ci-contre, le graphique concernant la zone de Majuro où se trouve la capitale des îles Marshall : Delap-Uliga-Darrit qui héberge quelques 28000 habitants.

La courbe en rouge montre l'évolution du niveau de l'océan pendant les maximas de 1992 à nos jours. La courbe en bleu donne cette évolution pendant les minimas et la courbe verte représente les variations de la moyenne.

Comme on le voit, depuis 1992, c'est à dire depuis 24 ans, le niveau des mers est pratiquement constant à quelques centimètres près. La variation totale est nettement inférieure aux fluctuations observées. Ce graphique montre même une baisse de niveau vers la fin de la période qui est peut-être due à un effet collatéral du puissant El Niño actuel. En effet, celui de 1997-1998 semble avoir provoqué une baisse visible dans ces graphiques.

Bref, on ne voit rien d'alarmant dans tout cela.

 

 

cloc3

 

La situation est sensiblement la même (à l'exception de la baisse de ces deux dernières années) à Funafuti (Tuvalu) souvent revendiquée comme l'archétype des archipels menacés par la montée des eaux.


Tuvalu se trouve au centre de la carte présentée ci-dessus.

 

 

 

 

 

 

 

Tony de Brum a argumenté et obtenu satisfaction pour ses exigences auprès des participants à la COP21 en arguant des projections informatiques des rapports du GIEC sur de la hausse des océans.
Il ne doit sans doute pas consacrer beaucoup de temps à la lecture des graphiques et des articles scientifiques qui concernent spécifiquement les pays situés sur des atolls coralliens dont il est un des ministres. S'il l'avait fait (lui ou ses conseillers), il aurait appris que, du fait de leur nature particulière, les atolls coralliens ne sont pas menacés de submersion comme le montrent de nombreux travaux tels ceux des spécialistes de la question, Paul Kench et ses collègues, que j'ai cités dans des billets précédents.

Leurs travaux, très documentés, ont été repris récemment par la revue Science sous le titre " Le réchauffement pourrait ne pas submerger les îles".
Science rappelle que : "Kench note que les récifs coralliens peuvent croître de 10 à 15mm par an - c'est à dire plus rapidement que la hausse des océans qui est attendue à la fin de ce siècle. [...] Aussi longtemps que les coraux sont en bonne santé et gênèrent un approvisionnement abondant en sable, il n'y a pas de raison qu'une île corallienne ne puisse pas croître et continuer à le faire".

National Geographic semble avoir compris le message. On trouvera ici une explication analogue tirée de Charles Darwin sur ce sujet, publiée en...1869.

En bref, il est démontré (et, en partie, connu depuis Charles Darwin) que la croissance des coraux et l'accrétion des débris coralliens apportés par les vagues sur les atolls contribuent, en permanence, au rehaussement de leur surface et que cet effet est plus rapide que la hausse (prévue) du niveau marin.

Mais comme à la COP21, à l'évidence, il s'agissait,plus de politique que de science, peut-être doit-on plutôt se souvenir de la maxime plaisante de Mark Twain qui disait : "Never let the truth get in the way of a good story." Soit "Ne laissez jamais la vérité se mettre en travers du chemin d'une bonne histoire"...

5) Conclusion :

Tous les articles que je vous ai présentés ci-dessus sont très récents et comme on peut le constater, la science progresse sans désemparer. Le socle des connaissances issues des observations rendues disponibles aux chercheurs s'enrichit en permanence et, comme on le voit, il est fréquent que les analyse plus complètes viennent réfuter les "certitudes" précédentes (comme c'est le cas pour les sécheresses qui devaient "rendre les déserts plus secs" et l'emblématique "fonte" de l'Antarctique... qui, en réalité, ne fond pas mais se renforce).

Malheureusement, il apparaît que les agences de presse officielles (notamment l'AFP), les médias normalement chargés d'informer le public, les cabinets ministériels chargés d'informer les politiques, ne disposent ni des bases ni de l'expérience nécessaires pour prendre en compte le caractère fondamental de la démarche scientifique. Celle-ci procède, en réalité, par une suite d'erreurs et de corrections. Richard Feynman, le prix Nobel de Physique dont la pertinence est unanimement reconnue, ne disait il pas que "Faire de la science, c'est ne pas faire confiance aux experts" ?
Concernant les certitudes en matière de science,
Feynman disait aussi

"Nous avons observé qu'il est d'une importance cruciale que, de manière à progresser, nous devons accepter de reconnaître notre ignorance et laisser la place au doute. Le corpus de la connaissance scientifique est constitué d'un ensemble de propositions présentant différents niveaux de certitudes - il y en a qui sont plutôt incertaines, d'autres qui sont plutôt certaines mais aucune n'est absolument certaine."


Ainsi, le jour où le microcosme médiatico-politique aura enfin compris que les scientifiques, aussi nombreux et unanimes soient-ils - ils se sont souvent trompés collectivement dans le passé - ne sont pas des gourous infaillibles, que rien n'est inscrit dans le marbre et que tout peut être remis en question du jour au lendemain, aurons-nous fait un grand pas en avant. Peut-être alors assisterons-nous à des COPXX qui ne seront pas des désastres scientifiques comme l'a été la COP21 et ne verrons-nous plus nos agences de presse et nos médias faire de la science une véritable caricature.

En complément de mes meilleurs voeux pour 2106 adressés à vous toutes et tous, mes cher(e)s lecteurs(trices), c'est le souhait que je formule pour les années à venir.

Stay tuned !

05 Décembre 2015 : Paris COP21 : Tout ça pour ça ?

En bref : Un article de Björn Lomborg, revu par les pairs et publié dans une revue qui traite de politique à l'échelle du globe ainsi qu'un rapport récent du MIT (Massachusets Institute of Technology) montrent que la totalité des engagements (les INDC) de réduction des émissions de CO2 déposés auprès de l'ONU par tous les pays, en vue de la COP21, ne conduiront qu'à une baisse très faible de la température en 2100 et ceci, même dans les hypothèses les plus optimistes.

Au vu des enseignements apportés par l'échec de la Conférence des Parties n°15 (La COP15) qui s'est tenue à Copenhague en 2009, il a été décidé qu'en préparation de la COP21 à Paris, chaque pays déposerait, au cours des mois précédents cette réunion, une estimation chiffrée de sa propre contribution, à l'échelle nationale, en termes de limitation ou de réduction des émissions de gaz à effet de serre. Ces engagements ou promesses, s'appellent les INDC en langage onusien (INDC : Intended Nationally Determined Contribution). C'est ainsi, qu'après quelques retards et/ou hésitations de la part d'un certain nombre de pays, le Ministre en charge de la COP21, Laurent Fabius annonçait, mercredi dernier, que 185 pays sur 195, couvrant quelque 95% des émissions de gaz à effet de serre, avaient déclaré qu'ils s'engageaient à prendre des mesures pour limiter, voire réduire, les émissions dites polluantes à l'horizon 2025 ou 2030.

J'avais déjà évoqué les INDC mentionnés par Judith Curry lors de son témoignage auprès de la Chambre des Représentants US qui a eu lieu le 15 Avril dernier.
Judith Curry disait que "... je suis préoccupée parce que l'engagement des USA auprès de la Convention Cadre des Nations Unies sur le Changement Climatique (UNFCC) ne fera pratiquement rien pour changer le climat" en avançant l'estimation d'une baisse de la température de seulement 0,03°C à la fin de ce siècle, résultant de la contribution américaine si celle-ci était maintenue sans faille jusqu'en 2100.

Dès lors, nombreux étaient ceux (qui comme moi-même) se demandaient ce qu'il en était pour les contributions des autres pays et, évidemment, pour ce qui concernait l'ensemble du globe. A l'époque de la déposition de Judith Curry, en Avril 2015, le tableau des INDC remis à l'ONU était encore très fragmentaire et il était impossible de faire le calcul complet. Il a fallu attendre le début du mois de Novembre de cette année pour avoir une vue pratiquement globale de la situation.

1) Les résultats du Dr. Björn Lomborg

C'est le statisticien danois Björn Lomborg qui s'est chargé d'effectuer et de publier le travail qui consistait à calculer les conséquences prévisibles sur la température moyenne de la planète en 2100, selon les modèles en cours, des contributions (INDC) de la quasi-totalité des pays du monde, en supposant, bien entendu que celles-ci seraient bien lomborg7 implémentées et, même (dans l'hypothèse optimiste), qu'elles seraient poursuivies, sans faille, jusqu'à la fin du siècle.lomborg8


Qui est Björn Lomborg (image ci-contre) ?

Bjørn Lomborg est un statisticien danois, professeur à la Copenhagen Business School et ancien directeur de l'Environmental Assessment Institute de Copenhague. Ancien membre de Greenpeace, il a acquis une renommée internationale pour son livre "L'Écologiste sceptique" (publié en danois en 1998 puis en anglais sous le titre Skeptical Environmentalist en août 2001, et en français en 2004).(source).

A noter que Lomborg ne remet en cause ni le réchauffement récent de la planète ni les modèles des gaz à effet de serre (qu'il utilise d'ailleurs ci-dessous) tout en estimant leur sensibilité au CO2 exagérée. Il pense qu'il s'agit simplement d'un problème mineur et qu'il y a beaucoup de problèmes plus urgents à traiter tels que, par exemple et entre autres, fournir de l'électricité et de l'eau potable à l'Afrique. Inutile de préciser qu'il n'a plus beaucoup d'amis chez Greenpeace et dans certains cercles universitaires.

Voici le fac-simile de l'article de Björn Lomborg avec son résumé.
Cet article est intitulé :
"Impact des propositions existantes pour le climat".
L'article complet (en pdf) est disponible en accès libre.

lomborg1

Voici une traduction du résumé :

"Résumé : Cet article analyse, en utilisant le modèle climatique standard MAGICC, l'impact en termes de réduction de la température résultant des principales propositions des politiques en matière de climat qui doivent être mises en place en 2030. Même si on suppose, en étant optimiste, que les réductions des émissions sont maintenues durant tout le siècle, les impacts sont, de manière générale, faibles.

L'impact du Clean Power Plan des USA (USCPP) résulterait en une réduction de l'augmentation de la température de 0,013°C vers 2100. La proposition complète des USA pour la COP21 à Paris dite "La contribution envisagée par les états", (INDC) fera baisser la température de 0.031°C. La politique adoptée par l'Union Européenne aura un impact de 0.026°C, l'impact de l'INDC de l'Europe de 0.053°C et l'impact de l''INDC de la Chine sera de 0.048°C.

Toutes les politiques additionnées des Etats-Unis, de la Chine, de l'Union Européenne et du reste du monde réduiront probablement la température de 0.17°C en 2100. Les estimations de ces impacts sont robustes vis à vis des différentes estimations de la sensibilité climatique, du recyclage du carbone et des différents scénarios climatiques.

Les promesses actuelles de la politique climatique n'apporteront qu'une faible contribution à la stabilisation du climat et leurs impacts resteront indétectables pendant de nombreuses décennies."

Qu'est ce que le programme MAGICC utilisé par Björn Lomborg ?

Mis au point par des climatologues contributeurs au GIEC, le logiciel MAGICC est un programme simplifié de modélisation du climat, au sujet duquel Lomborg nous dit que :

"Cet article tire parti du modèle climatique MAGICC qui a été utilisé au cours de la totalité des cinq rapports du GIEC. Il a été co-financé par l'EPA (l'agence de l'environnement américaine). Il fonctionne avec les paramètres standards. Une analyse sur la sensibilité, montre que les différentes hypothèses sur la sensibilité et au sujet du modèle du cycle du carbone ou du scénario ne changent pas de manière appréciable les résultats. Ce papier utilise la même méthodologie de base que Tom Wigley qui a analysé le protocole de Kyoto dans un article de 1998 très fréquemment cité."

On peut, par exemple, vérifier que la dernière version (à l'époque) de MAGICC était mentionnée et utilisée dans le rapport du GIEC AR4 (en 2007). Ce programme est "simplifié" (mais conforme) dans le sens qu'il ne permet le calcul que d'un nombre limité d'observables comme, entre autres, la hausse de température globale en fonction du taux de CO2 atmosphérique.

Le communiqué de presse associé à cet article est intitulé : "Les promesses en matière de climat pour Paris feront baisser les températures mais seulement de 0,05°C en 2100."

A noter que le chiffre indiqué dans ce titre ne prend en compte que les promesses, stricto sensu, (INDC) déposées pour la COP21 à Paris, sans faire l'hypothèse optimiste que les restrictions pourraient être prolongées jusqu'à la fin du siècle (bien que cela ne figure pas nécessairement dans les INDC déposées) comme l'envisage aussi Lomborg.
Voici une traduction des extraits significatifs de ce communiqué de presse (caractères en gras de Lomborg) :

"Le travail de recherche du Dr. Lomborg montre que :

  • L'impact sur le climat de toutes les promesses (INDC) présentées à Paris, est minuscule : Si nous prenons en compte l'impact des promesses (supposées tenues) de chaque nation, pour 2030, la réduction totale de la température sera de 0,048°C (0,086°F) vers 2100.

  • Même si nous supposons que ces promesses seront prolongées pendant encore 70 années, l'impact est encore très faible : Si chaque nation remplit ses promesses en 2030 et continue à le faire fidèlement jusqu'à la fin du siècle et s'il n'y a pas de "fuite" de CO2 de la part des pays non souscripteurs, la totalité des engagements pris à Paris réduira la température du globe de seulement 0,17°C (0,306°F) en 2100. 

  • Les politiques des USA en matière de climat, dans les circonstances les plus optimistes, si elles sont intégralement respectées et poursuivies tout au long du siècle, réduiront la température du globe d'environ 0,031°C (0,057°F) en 2100.

  • Les politiques de l'Europe en matière de climat, dans les circonstances les plus optimistes, si elles sont strictement suivies et poursuivies tout au long du siècle, réduiront la température du globe d'environ 0,053°C (0,096°F) en 2100.

  • Les politiques de la Chine en matière de climat, dans les circonstances les plus optimistes, si elles sont strictement suivies et poursuivies tout au long du siècle, réduiront la température du globe d'environ 0,048°C (0,086°F) en 2100.

  • Les politiques climatiques du reste du monde, dans les circonstances les plus optimistes, si elles sont intégralement respectées et poursuivies tout au long du siècle, réduiront la température du globe d'environ 0,036°C (0,064°F) en 2100.[...]

    lomborg5

"Tableau des changements attendus en 2100 en °C (à gauche) et en degrés Fahrenheit (à droite)" selon les hypothèses "Promesses à Paris" et "Promesses à Paris tenues durant 70 ans".

 

 

 

 

"La variation de la température globale depuis l'ère préindustrielle pour les scénarios suivants :

-Ne rien faire (RCP8.5) (en rouge) (NdT : On continue comme maintenant avec le scénario le plus pessimiste des modèles)

-Seulement avec les promesses INDC apportées à Paris pour la COP21 (en bleu)

-En supposant que les promesses apportées à Paris seront prolongées, sans faille, pendant encore 70 ans (en vert).
(NdT: c'est à dire jusqu'à la fin du siècle, les réductions devant être implémentées à parti de 2030).


Selon les données du logiciel MAGICC."

NdT : En réponse à plusieurs lecteurs, je précise bien que les courbes ci-contre représentent les résultats de modèles informatiques (ici MAGICC). Ce sont des "projections" informatiques et non pas des observations effectives. Comme on le voit, ces modèles sont incapables de reproduire "le plateau" des températures observé depuis une quinzaine d'années. De plus, comme nous l'avons montré à plusieurs reprises, ces modèles surestiment largement la hausse des température observée durant la période récente.

Comme on le voit, ces calculs montrent des impacts ridiculement petits résultant des engagements pris à Paris pour la COP21.
Dès lors, comment se fait-il que les politiques, les médias, les ONG et la responsable de l'ONU (Christiana Figueres) en matière de climat, nous affirment que les promesses faites à Paris nous engagent vers des températures globales à +2.7°C ( ou 3°C) à défaut des +2°C souhaités
(par rapport à l'ère pré-industrielle) pour 2100 ?

Björn Lomborg
répond à cette question dans son communiqué de presse :

"Christiana Figueres a déclaré : "Les engagements des Etats (les INDC) ont la capacité de limiter la hausse de température projetée d'environ 2,7°C en 2100. Ce n'est en aucune manière suffisant mais c'est beaucoup plus faible que les valeurs estimées pour le réchauffement de 4°C, 5°C ou plus envisagées par beaucoup avant la mise en place des INDC."

Le Dr. Lomborg a dit : "Ceci est un représentation totalement fallacieuse des options offertes à la planète. Les 2,7°C proviennent de l'Agence Internationale de l'Energie (IEA) et elle suppose que si les gouvernements font peu à Paris et que, dès 2030, ils s'embarquent dans des réductions incroyablement ambitieuses, nous atteindrions les 2,7°C.

Cette façon de présenter le problème est semblable à celle qui consisterait à dire aux Grecs, lourdement endettés, que le simple remboursement de leurs dettes les plus pressantes les mettra sur une voie facile pour parvenir à résorber leur dette. Ceci est complètement illusoire.

L'organisation de Figueres estime que les promesse faites à Paris réduiront les émissions d'environ 33Gt de CO2 au total. Pour limiter l'augmentation à +2,7°C nous devrions réduire nos émissions d'environ 3000Gt - c'est à dire d'environ 100 fois plus que les engagements proposés à Paris.[...]. Ceci ne relève pas de l'optimisme, c'est un voeu pieux."lomborg6

 

 

NdT: Lomborg illustre ceci par le diagramme ci-contre qui indique les réductions des émissions de CO2 en gigatonnes selon les options de réduction.


La colonne de gauche est sous-titrée "
Promesses faites à Paris" (réduction de 33GT) et celle de droite "réduction requise (3066 GT) pour parvenir à 2,7°C".

2) Le MIT a obtenu et publié sensiblement les mêmes conclusions que Lomborg :

Au vu des chiffres précédents, on pourrait penser (espérer, diront certains) que Lomborg s'est fourvoyé dans ses calculs et que les examinateurs du Journal of Global Policy n'ont pas fait correctement leur travail de vérification, ce qui n'est pas exclu mais qui reste hautement improbable, compte tenu de l'importance et du caractère polémique de ces résultats. Il est, au contraire, pratiquement certain que ce travail a été examiné avec soin et dans ses moindres détails avant que l'autorisation de publier ne soit accordée.
Et de fait, il apparaît que les résultats présentés par Lomborg sont confirmés, à très peu près, par les chercheurs du MIT qui travaillent sur le "Joint Program on the Science and Policy of Global Change". Ces chercheurs ont publié, de manière indépendante, des résultats qui corroborent ceux de Lomborg, comme nous allons le voir. Voici l'en-tête du programme du MIT : lomborg4

 

 

 

 

 

 

 

Dans le rapport du MIT on peut lire ceci (repris à plusieurs reprises et sous d'autres formes dans le texte, comme nous le verrons)

"Une question qui vient à l'esprit est celle-ci : De combien les promesses (INDC) déposées à Paris avant la réunion de la COP21 vont-elles réduire le futur réchauffement, en supposant que notre estimation rend compte d'un accord et de sa mise en oeuvre ? ...La différence entre les lignes rouges et vertes représente la contribution additionnelle des politiques de la COP21 et celle-ci représente environ un amoindrissement du réchauffement de 0,2°C vers la fin du siècle."

Voici des fac-simile d'autres extraits du rapport intitulé "MIT’s Joint Program on Global Change in Energy and Climate Outlook 2015" .

Traduction : lomborg3
(à gauche) : "En supposant que les réductions d'émissions proposées
(NdT : Les INDC) seraient prolongées jusqu'en 2100 mais non amplifiées, on trouve que cela conduit à une réduction du réchauffement d'environ 0,2°C à la fin du siècle, à comparer avec nos estimations, avec les mêmes hypothèses pour Copenhague et Cancun.

(à droite) : "Comme il est mis en lumière dans le résumé des principaux résultats ainsi que dans l'encart N°2, les mesures additionnelles de réduction par les principaux pays émetteurs (basés sur les INDC proposés en avance de la COP21) ont abaissé nos précédentes estimations du réchauffement à venir d'environ 0.2°C."

On peut faire remarquer, comme Judith Curry qui a écrit un billet à ce sujet, qu'une telle variation de 0,2°C restera noyée dans le bruit des fluctuations et des variations naturelles du climat. Judith Curry conclut :

L'article de Lomborg est le premier publié au sujet de la réduction du réchauffement résultant des engagements INDC. J'imagine que nous verrons beaucoup d'autres analyses de ce genre de la part des économistes mais je ne vois pas comment les conclusions de base pourraient changer - Les engagements INDC pris à Paris n'entraîneront qu'une faible limitation du réchauffement vers la fin du XXIe siècle."

Personnellement, je ne serai pas aussi optimiste de Judith Curry. Je vois mal un certain nombre d'économistes particulièrement engagés dans ces affaires, publier ce genre d'observations.. Si les résultats de Lomborg et du MIT sont corrects - et il n'y a aucune de raison de supposer qu'ils ne le soient pas - il est probable qu'ils s'abstiendront et que l'on n'en entendra pas parler comme c'est déjà le cas dans la presse nationale et internationale où la plus grande discrétion est observée à ce sujet... surtout pendant le déroulement de la COP21.

3) Conclusion :
Elle sera brève.

Au vu des engagements volontaires déposés auprès de l'ONU, en vue de la COP21, par la quasi-totalité des pays du monde et pour ce qui concerne "l'atténuation" c'est-à-dire pour la limitation du réchauffement envisagé pour la planète à la fin de ce siècle, la COP21, les efforts remarquables déployés par les organisateurs, par les chefs d'état, par les ministres, par les délégués, par les ONG et, last but not least, par les médias, ainsi que les substantielles dépenses engagées à Paris, ne serviront pratiquement à rien.
Et ceci, même si un accord est obtenu pour que les pays respectent leurs engagements (leurs INDC) et qu'ils continuent de les respecter, sans faillir, jusqu'à la fin du siècle, ce qui est assez improbable au vu des lendemains chaotiques qu'ont subi les accords de Kyoto.

Assez ironiquement, ce sont précisément ces mêmes modèles numériques du climat qui sont à l'origine de l'angoisse irrépressible que semblent éprouver les participants/organisateurs de la COP21 au sujet d'une future hausse des températures, qui le leur disent...

Stay Tuned !

06 Novembre 2015 : Calamités et événements climatiques extrêmes.

Par les temps qui courent, il ne se passe pas une journée sans que nous, lecteurs(trices) et auditeurs(trices), ne soyons abreuvé(e)s de déclarations définitives selon lesquelles les événements catastrophiques liés au climat (les événements climatiques dits extrêmes) se multiplient, en ce moment même. Selon les déclarations de ces "experts", il suffit de jeter un coup d'oeil par la fenêtre (ou sur la télé) pour s'en convaincre et ceux qui n'en sont pas convaincus sont soit aveugles soit de mauvaise foi. En un mot nous vivons les débuts de l'apocalypse. "La maison brûle" comme disait le Président Chirac, "et nous regardons dehors" (attribué à N. Hulot).

C'est ainsi, nous répète-t-on, qu'à l'heure actuelle :

- les typhons/cyclones/ouragans sont plus nombreux et plus puissants que jamais "dans l'histoire". Ils dévastent la planète comme jamais auparavant.
- Les sécheresses dévastatrices se multiplient sur le globe et sont de plus en sévères.
-Les régions sèches le seront plus encore.
-Les inondations, "à répétition" que nous connaissons sont inédites.
-Les tornades sont plus dévastatrices et mortifères que jamais.

-Etc.

Tout cela, bien entendu, entraînera de graves conséquences géopolitiques, des conflits etc., comme nous le promet Nicolas Hulot (source AFP), l'Envoyé Spécial Pour la Protection de la Planète du Président de la République, ce qui a exigé une réflexion prospective poussée au sein de la Défense Nationale. (Note : dans la suite, les caractères engraissés l'ont été par l'auteur de PU).

"Soyons prudents, mais il me semble assez manifeste que le changement climatique et les phénomènes climatiques extrêmes qui se multiplient jouent au minimum un facteur aggravant et parfois déclencheur de conflits", a souligné Nicolas Hulot, envoyé spécial du président français François Hollande pour la protection de la planète.

Tout récemment, le 5/10/2015, après avoir affublé, en bloc, tous les "climato-sceptiques", y compris quelques Académiciens des Sciences, d'un nom d'oiseau que je ne répéterai pas, Nathalie Kosciusko-Morizet nous a doctement assuré que :

"Mais ça n'est pas ça que ça fait, le changement climatique. Ça multiplie ce qu'on appelle “les événements climatiques extrêmes”, c'est-à-dire que là où il y a du désert ça va être toujours plus sec, et là où il y a des problèmes d'ouragan, il va y en avoir toujours plus... On ne peut pas lier un événement climatique extrême au changement climatique, mais on sait que la multiplication lui est liée."

Pour sa part, le Président de la COP21, Laurent Fabius, a déclaré récemment, lors d'une émission sur Eur1 (le 5/10)

...Mais le fait que l'on ait des pluies, des typhons, des événements de plus en plus lourds et de plus en plus nombreux, ça, c'est en lien avec le dérèglement climatique"

L'Agence France-Presse qui n'est pas une débutante dans le domaine, affirme pour sa part, que :

Sous l'effet des gaz à effet de serre issus pour l'essentiel de la combustion d'énergies fossiles, la planète se réchauffe à une vitesse inédite, générant des événements météorologiques extrêmes, la fonte accélérée des glaciers ou encore la montée du niveau des océans.

Jusqu'au Saint Père, le Pape François qui avance, un peu plus prudemment, dans son Encyclique "Laudato si" que :

.."il est en outre difficile de ne pas le [NdT : le réchauffement] mettre en relation avec l’augmentation d’événements météorologiques extrêmes, indépendamment du fait qu’on ne peut pas attribuer une cause scientifiquement déterminable à chaque phénomène particulier."

Etc. Etc.

Les citations du même genre abondent dans tous les médias. Vous en verrez d'autres, du même style, un peu plus bas.

Cependant, et comme vous le savez, à Pensee-Unique.fr, nous sommes plutôt circonspects, surtout quand nombre d'éminents décideurs de la planète nous affirment, haut et fort, que les événements climatiques extrêmes de toute nature se sont multipliés et que si nous ne voyons rien, c'est certainement parce que nous sommes aveugles ou (pire, si nous sommes "climatosceptiques" comme ils disent) que nous ne voulons pas voir.

Alors, nous allons voir.

Nous verrons tout cela, avec quelques détails, à partir des statistiques et des graphiques officiels qui concernent l'évolution temporelle durant ces dernières années ou décennies, de ces fameux événements climatiques extrêmes qui "sont, nous dit-on, de plus en plus forts et de plus en plus nombreux et qui résultent du "dérèglement climatique"".
Dans la suite, nous analyserons l'évolution de la fréquence et de la puissance des typhons/cyclones/ouragans et des tempêtes, celle des sécheresses, celle "des régions désertiques qui devraient devenir plus sèches" et même - pourquoi pas, puisque cela a également été évoqué comme lié au changement climatique - des tremblements de terre et des tsunamis.

A tous ceux qui vous assureront que "vous n'êtes pas climatologues", vous pourrez répondre, comme l'a fait le Prix Nobel de Physique Ivar Giaever lors de récente présentation intitulée "Le réchauffement climatique revisité" à la conférence des prix Nobel à Lindau en Juin 2015, qu'il n'est nul besoin d'être climatologue ni même scientifique, pour lire et comprendre le sens d'un certain nombre de graphiques, tels que ceux qui sont reportés ci-dessous.

In fine, nous rappellerons, une fois encore, les conclusions du dernier rapport du GIEC (le rapport complet, l'AR5 de 2013) de l'ONU, au sujet des "événements extrêmes", en faisant observer que les constats de ce pesant document sont cohérents avec les graphiques que je vais vous présenter.

Enfin, in cauda venenum, nous rappellerons les conclusions d'un travail historique (scientifique) portant sur "les dérangements du temps" durant les cinq derniers siècles et qui montre que l'alarmisme météorologique ou climatique ne date pas d'aujourd'hui. On y voit, surtout, que le climat que l'on prétend désormais "déréglé", n'a, en réalité, jamais été "réglé" et qu'il n'est guère plus "déréglé" de nos jours qu'il ne l'était autrefois.

Nous commençons par nous intéresser au bilan global des catastrophes dites naturelles, toutes causes confondues, au niveau planétaire.
S'agissant de catastrophes de toute nature, à l'échelle du globe, il est bon de se référer aux grandes compagnies d'assurance internationales qui tiennent un compte vigilant des calamités qui affectent notre planète, ceci à des fins de statistique et de prospective. Parmi ces dernières, l'une des plus réputées est la compagnie AON Benfied qui publie, chaque année, un bilan relativement complet des événements catastrophiques et de leurs conséquences qui ont affecté notre planète en s'appuyant sur les données collectées dans les bases de données officielles des meilleures institutions internationales.

1) Bilan global des événements catastrophiques survenues à l'échelle de la planète :

Plusieurs graphiques qui figurent ci-dessous sont tirés du plus récent "AON - 2014 Annual Global Climate and Catastrophe Report" publié en Janvier 2015.

A) Evolution du nombre de catastrophes naturelles, toutes catégories confondues, pour la planète.

extreme4

 

 

 

 

 

 


Ce graphique montre, en quatre couleurs (une pour chaque trimestre), le nombre annuel d'événements catastrophiques qui ont affecté la planète depuis 2004. Comme on le perçoit, il n'y aucune tendance à l'augmentation du nombre des calamités à l'échelle du globe. En réalité, la situation est à peu près stable, aux fluctuations d'une année sur l'autre, près. Il est donc, sans doute, un peu prématuré de nous assurer que l'apocalypse est à nos portes et a déjà frappé.
Dans le document cité, ce graphique est accompagné d'un commentaire qui situe l'année 2014 par rapport à la moyenne des années précédentes en ces termes
:

De nouveau une baisse : Les pertes résultant des catastrophes en 2014 sont en dessous de la moyenne.

Les désastres, au plan global, se sont combinés en 2014 pour causer des pertes économiques de 132 milliards de dollars US, ce qui est de 37% inférieur à la moyenne décennale qui est de 211 milliards de dollars US. Les pertes ont été attribuées à 258 événements distincts à comparer avec la moyenne décennale de 260. Ces désastres ont résulté en une perte, en matière d'assurances, de 39 milliards de dollars US, ce qui est de 38% inférieur à la moyenne décennale de 63 milliards de dollars US. Elle a a été la plus faible perte des assurances depuis 2009.

2014 a été la seconde année consécutive avec des pertes, dues aux catastrophes, inférieures à la normale.

On peut également s'intéresser à l'évolution du
nombre des pertes en vies humaines causées par ces calamités naturelles, selon leur nature, toujours à l'échelle de la planète. Voici ce que nous dit le rapport AON Bienfeld :

B) Bilan global des perte humaines selon les types de calamités :

Le rapport AON nous donne le graphique ci-contre, accompagné de son commentaire traduit dans l'encadré ci-dessous.extreme5

 

"L'année 2014 a vu un déclin des pertes humaines résultant de calamités naturelles par rapport à celles qui ont été enregistrées en 2013. Cette année 2014 a été substantiellement, 89%, moins meurtrière que la moyenne des années 2004-2013 qui est d'environ 76000. Durant les dix dernières années, des événements singuliers majeurs (tels le tremblement de terre à Haïti 2010); en Chine (2008) et en Indonésie (2004) ainsi que le cyclone Nangis au Myanmar (2008) ont biaisé la moyenne annuelle."

Comme on peut le voir, ci-contre, le bilan des pertes humaines n'est pas en hausse mais en baisse.

A titre d'illustration, une étude de la NOAA, publiée récemment, montre que les pertes humaines dues au événements climatiques extrêmes aux USA ont, en 2014, battu un record vieux de 23 ans, en termes de plus faible mortalité enregistrée.

Dans ces conditions, il semble légèrement prématuré de prétendre que nous vivons un "chaos climatique" et que nous en sommes au début de l'apocalypse.
Il est vrai, comme le rappelle le commentaire de AON que ce genre de diagramme, évidemment très sensible aux événements majeurs très mortifères, comme les tremblements de terre, ne permet que difficilement d'établir une valeur moyenne. A noter, en passant, que les événements les plus mortifères sont les tremblements de terre dont le lien avec le réchauffement climatique est, pour le moins hypothétique. Ceci étant dit dans le langage mesuré des scientifiques.

Nous allons voir, ci-dessous, ce qu'il en est de l'évolution du nombre de tremblements de terre (ou des tsunamis qui résultent de tremblements de terre sous-marins) à l'échelle de la planète qui, comme certains nous l'affirment, seraient liés au "changement climatique", sans que l'on comprenne d'ailleurs ni pourquoi et ni comment.

C) Tremblements de terre et tsunamis :

Lors du discours de Manille prononcé le 26 Fév. 2015 qu'on retrouve sur le site du château, le Président de la République française déclarait :

Le GIEC est allé plus loin, en indiquant que si nous ne faisions rien, dans les prochaines années, ce n’est pas un réchauffement de la planète de 2 degrés que nous allons connaître d’ici la fin du siècle, mais de 3, 4, voire 5 degrés. Et avec des conséquences que l’on n’a pas besoin de forcer pour les décrire, nous les connaissons déjà ; tsunamis, tremblements de terre, élévation du niveau de l’eau, atteinte inexorable à la biodiversité …

Le président a repris, tout récemment, le 28 Septembre 2015, les mêmes affirmations devant la 70e Assemblée Générale de l'ONU (compteur 2:05).
Pour sa part, la Ministre de l'Ecologie de l'époque, Nathalie Kosciusko-Morizet (déjà mentionnée dans ce billet avec quelques autres responsables politiques) nous assurait dans le journal "les Echos" du 18 Décembre 2009 (repris sur le site du Ministère) que :

« Les effets ravageurs des excès de CO2 dans l’atmosphère sont déjà là : pas moins de 250 millions de femmes, d’hommes et d’enfants sont frappés chaque année par des tsunamis, des cyclones ou d’autres formes moins soudaines de catastrophes climatiques, notamment la montée des eaux ou la désertification de certaines régions. »

Pour sa part, Michel Barnier, entre autres, ancien Ministre de l'Agriculture, nous affirmait, lors d'un de ses voyages en Chine, que :

On voit bien les conséquences extrêmement graves du réchauffement climatique, ...les tremblements de terre (compteur 1:23).

De même, l'ex-ministre de l'Ecologie, Corinne Lepage, subodorait une relation de cause à effet entre le changement climatique et le tremblement de terre/tsunami qui a frappé le Japon dans la région de Fukushima en 2011...

...19000 morts dus à un tsunami et à un tremblement de terre dont on peut penser que l'importance n'est pas sans lien avec le changement climatique...

Ainsi, puisqu'il semble qu'il faille se résoudre à envisager la possibilité d'un lien (une notion pour le moins novatrice) entre l'activité sismique et le "dérèglement climatique", voyons ce que nous disent les observations soigneusement répertoriées par AON dans son rapport (Figure 26, page 19, au sujet de l'évolution du nombre des tremblements de terre planétaires de faible magnitude M 6 et de forte magnitude M≥7.0. La figure est accompagnée de son commentaire original.
exxtrem1

"Comme on le voit dans la Figure 26 pour les dix dernières années, l'activité totale des tremblements de terre ne montre pas de grandes fluctuations d'une année sur l'autre. Le USGS [NdT: Le Geological Survey US] précise qu'une augmentation substantielle des stations seismographiques et des améliorations continues dans les technologies et dans les communications, ont grandement renforcé la qualité de la collecte des données sur les tremblements de terre. On doit aussi observer que malgré les fluctuations du nombre total des tremblements de terre depuis le début des années 1900, les nombre des tremblements de terre majeurs (M7.0) est resté sensiblement constant d'une année à l'autre."

Comme on le voit, la fréquence et la puissance des tremblements de terre est remarquablement stable et AON nous assure qu'il en est ainsi depuis, au moins, les années 1900. Contrairement à ce qu'affirmait Michel Barnier, le Président et ses collègues, et comme on s'y attend, on ne discerne aucun effet du "changement climatique" sur l'activité tellurique de la planète, sans compter qu'on se demande vraiment comment et pourquoi les mouvements tectoniques ou les convulsions géologiques pourraient être sensibles à une variation de la température aussi minime que celle que nous avons connue.

Les ouragans/cyclones/typhons/tornades/tempêtes sont fréquemment évoqués comme particulièrement révélateurs du "dérèglement climatique" en cours. Voyons cela.

2) Les ouragans/cyclones/typhons à l'échelle de la planète et les tornades aux USA :

Parmi d'autres :

"Le fait que l'on ait des pluies, des typhons, des événements de plus en plus lourds et de plus en plus nombreux, ça, c'est en lien avec le dérèglement climatique" (L. Fabius, Président de la COP21)

A) Les cyclones/typhons/ouragans pour le Globe :

Je rappelle ici que typhon, ouragan et cyclone désignent le même phénomène. Seule la dénomination peut changer selon les régions concernées du globe, mais pas toujours.

Tout d'abord, que nous dit le rapport AON à ce sujet ? Voici quelques graphiques extraits de ce rapport :

extreme6

 

La Figure 17 du rapport qui couvre la dernière décennie pour le nombre (ou la fréquence) des cyclones tropicaux pour le globe - nous verrons plus loin pour une plus longue période - ne montre aucune tendance discernable pour ce qui est des différentes catégories de cyclones identifiées par les carrés colorés situés en haut à droite du graphique.
Les lignes en pointillé indiquent les moyennes correspondantes à la période 1980-2013.

 

 

 

extreme7

S'agissant des pertes humaines et en matériels, celles-ci dépendent évidemment directement du nombre et de la puissance de cyclones qui ont atterri sur les continents ou sur les îles.


Cette figure 18 du rapport récapitule la variation annuelle du nombre des cyclones, selon leur catégorie (1+ et 3+ les plus intenses) qui ont touché terre durant la dernière décennie.

 

Ici encore, on ne discerne aucune tendance à la hausse - en réalité, plutôt à la baisse - du nombre de ces cyclones destructeurs, quelle que soit leur intensité.

Pour ce qui concerne les ouragans observés dans le bassin Atlantique :

extreme8

Cette Figure 19 du rapport AON reprend les mêmes modes d'affichage que les figures précédentes.
Là encore, point de tendance haussière du nombre des ouragans quelle que soit leur puissance (indiquée par les couleurs dans le graphique ci-contre).

 

 

 

 

Le rapport AON donne le même type de représentation pour les cyclones/ouragans/typhons selon les différents bassins océaniques. Pour ne pas surcharger ce billet, je laisse au lecteurs(trices) le soin de prendre connaissance de ces graphiques dans le rapport original. De manière générale, on constate que la fréquence des cyclones, des typhons et des ouragans n'a pas varié depuis 40 ans, pour les petits comme pour les les grands et que la puissance des cyclones/ouragans/typhons (faibles ou forts) n'a pas, non plus, varié au cours des dernières décennies.

Pour remonter un peu plus haut dans le temps et avoir une vision de l'évolution de l'activité des ouragans/cyclones/typhons depuis les années 1970, on peut se reporter au site weatherbell.com qui répertorie scrupuleusement, sous la responsabilité de Ryan Maue, un expert du domaine, la totalité de ces tempêtes qui affectent le globe. Voici deux graphiques qui illustrent les données disponibles, régulièrement mises à jour. extreme18

 

Figure: "Fréquence, pour les quatre dernière décennies, des tempêtes tropicales et des ouragans (sommées sur une année). Les séries du haut représentent le nombre des tempêtes tropicales qui ont atteint le minimum pour être identifiées (vents soutenus maximaux au dessus de 34 noeuds). Le graphe du bas est relatif au nombre d'ouragans (vitesse au dessus de 64 noeuds)." (mis à jour le 31 juillet 2015)."

Comme on le voit, ici encore, il n'y a pas de tendance haussière ou baissière de la fréquence des tempêtes tropicales et des ouragans pour le globe depuis 1971. Tout cela est remarquablement stable depuis des décennies.

 

Le graphe précédent illustrait le taux de répétition de ces calamités à l'échelle du globe.
Mais qu'en est il de l'évolution de la puissance ou de l'intensité de l'activité cyclonique au cours des dernières décennies ?

Comme le savent les lecteurs(trices) de ce site, pour répondre à cette question, on utilise (entre autres) l'indice ACE qui représente l'énergie des cyclones accumulée pendant leur durée de vie. Voici le graphique relatif à l'évolution de l'ACE depuis 1970 pour le globe (en rouge) , pour l'hémisphère Nord (en bleu) et pour l'hémisphère Sud (en vert).

extreme19

 

 

Figure: "Energie cyclonique accumulée, pour les tempêtes tropicales et pour les ouragans, durant les 4 dernières décennies, par année. La saison cyclonique se produit dans l'hémisphère Sud de Janvier à Juillet pour chaque année calendaire. Le graphique est construit de telle façon que la valeur annuelle pour Juillet 2013-Juillet 2014 est positionnée en 2014."

Comme on le voit ici encore, on ne discerne aucune tendance haussière (ni baissière) de l'intensité intégrée de l'activité cyclonique depuis 1970, et ceci dans les deux hémisphères, comme au plan global.

En d'autres termes, les cyclones/ouragans/typhons ne deviennent ni plus intenses, ni plus fréquents sur le globe.

Que nous disent les spécialistes de la question au sujet du lien revendiqué par nos décideurs entre l'activité tempétueuse/cyclonique et le "dérèglement climatique" ?

Voici ce qu'a écrit le GFDL (Geophysical Fluids Dynamics Laboratory), le laboratoire spécialisé sur ces sujets de la NOAA qui n'est jamais parcimonieuse en matière d'alarmisme, dans un tout récent article, daté du 30 septembre 2015 :

Il est prématuré de conclure que les activités humaines - et, en particulier les émissions de gaz à effet de serre qui provoquent le réchauffement climatique - ont déjà eu un impact détectable sur les ouragans atlantiques ou sur l'activité globale en matière de cyclones tropicaux. Ceci étant dit, les activités humaines ont peut-être déjà causé des changements qui ne sont pas encore détectables du fait de la petitesse de ces changements ou des limitations en matière d'observation ou, encore, il s'agit de changements estimés par des modèles avec des incertitudes considérables (dues,par exemple, aux effets des aérosols).

Puis, le GFDL de la NOAA évoquant ses modèles (évidemment non validés) prévoit que l'on verra "probablement" une augmentation de l'activité cyclonique de 2 à 11% en 2100, ce qui est très petit par rapport aux grandes fluctuations naturelles. Même si ces modèles sont vérifiés, ce qui n'est pas assuré, il n'est pas évident que nos descendants percevront une quelconque différence.

On constate ainsi - non sans une certaine admiration - qu'alors que les laboratoires les mieux équipés du monde reconnaissent (conformément au récent rapport du GIEC) être incapables de percevoir la moindre influence humaine sur les calamités cycloniques, notre personnel politico-médiatique, lui, affirme fréquemment, devant micros et caméras, être en mesure de la discerner et va jusqu'à préciser "qu'on le voit bien". A titre personnel, je dois confesser humblement que, comme les chercheurs du GFDL de la NOAA, et bien d'autres, je ne vois strictement rien.

Voici, à présent, l'évolution d'un phénomène catastrophique peu connu en Europe de l'Ouest mais qui est fréquent et peut se révéler très destructeur aux USA qui tiennent un compte scrupuleux des tornades et/ou des événements tempétueux localisés.

B) Les tornades (aux USA) :

Toujours à partir des données techniques du rapport AON, on peut distinguer les tornades les plus intenses de celles qui le sont moins. L'intensité des tornades est classée au moyen d'un indicateur Fx ou EFx. Les encadrés rapportent les commentaires du rapport attachés aux figures.

extrem2

"Depuis 1950 la tendance générale des tornades classées F1/EF1 et au dessus [NdT: les moins intenses] est restée pratiquement plate avec une petite augmentation minimale de 1,3% par an. Des données plus fiables depuis l'avénement de l'ère Döppler en 1990 montre une tendance également plate à 0.2%. En sélectionnant les données pour la dernière décennie,on observe qu'il y a eu une légère décroissance de 1,6% par an."

Autrement dit, les tornades les moins violentes ne sont pas en augmentation. Et, durant cette dernière décennie, elles sont plutôt très légèrement moins fréquentes.

 

La figure suivante indique l'évolution du nombre des tornades de plus forte intensité aux USA. Elle est accompagnée du commentaire figurant dans l'encadré ci-dessous.

extrem3

"Depuis 1950 la tendance des tornades les plus intenses classées F3/EF3 et au dessus, est restée plate. Elle montre une faible décroissance annuelle de 0.8%. Une décroissance annuelle comparable de 1,2% est aussi observée quand on examine des données plus fiables disponibles depuis l'ère du radar Döppler en 1990. Si on sélectionne les données de la dernière décennie, on constate que la tendance est également plate avec une hausse très légère de 0,5%.

De même, on observe une grande stabilité du nombre des tornades les plus intenses depuis 1950. Il n'y a strictement rien d'alarmant de ce côté-là, non plus.

 

L'évolution du bilan annuel des tornades les plus violentes, depuis 1954, aux USA, cette fois-ci, vue par la NOAA :
extreme23

 

 

 

Comme on le voit immédiatement, le nombre des tornades les plus violentes n'a pas augmenté depuis 1954. En réalité et comme on peut l'observer, le nombre des tornades intenses a connu un maximum dans les années 1970 qui sont, comme on le sait, des années relativement fraîches.


Autrement dit, ici encore, rien ne montre que le "dérèglement climatique" aurait augmenté en quoi que ce soit, le nombre et la puissance des tempêtes localisées et des tornades au moins aux USA où elles sont soigneusement répertoriées

 

 

 

 

Voici maintenant plusieurs études intéressantes qui portent sur les sécheresses dont on nous assure qu'elles ont augmenté en sévérité et en extension.

3) Les sécheresses sur la planète :

A) au plan global

Un article publié récemment dans la revue Nature (2014) (en accès libre) fait le point sur cette question.

Son tire est le suivant : "Suivi de la sécheresse intégrée sur tout le globe et système de prédiction"

extreme9

Voici la figure maîtresse de cet article qui donne l'évolution de la fraction de terre émergée de la planète affectée par divers degrés de sécheresses en fonction du temps ( de 1982 à 2012).extreme10

 

 

La légende du graphique que l'on peut lire en dessous de l'échelle des abscisses indique que les ordonnées donnent la fraction des terres émergées qui se trouvent en état de sécheresse (selon les couleurs D0 = anormalement sèche.
D1= sécheresse modérée.
D2= sévère.
D3= extrême.
D4= exceptionnelle.

Le code des couleurs est indiqué en haut à droite sur le graphique.

 

 

Comme on le voit immédiatement, les sécheresses, leur sévérité et les surface affectées n'ont guère évolué sur la planète depuis une bonne trentaine d'années. Tout au plus, peut-on faire remarquer le El Niño de 1998 (particulièrement intense) semble avoir provoqué un accroissement ponctuel de la fraction terrestre affectée par les sécheresses. Compte tenu du fait que nous sommes actuellement en situation d'El Niño presqu'aussi intense, on peut prévoir une augmentation, toute aussi ponctuelle pour cette année 2015. Darwin avait déjà observé, en son temps, cette corrélation à l'échelle locale.
On ne voit rien dans les résultats de cette étude exhaustive qui puisse justifier les affirmations définitives d'une partie du microcosme politico-médiatique qui établit un lien entre les gaz à effet de serre anthropique et les sécheresses qui affectent le globe.

D'autres études scientifiques nous en apprennent un peu plus à ce sujet...

B) Variabilité des sécheresses et de l'humidité :

"Mais ça n'est pas ça que ça fait, le changement climatique. Ça multiplie ce qu'on appelle "les événements climatiques extrêmes". Là où il y a du désert ça va être toujours plus sec"(Nathalie Kosciusko-Morizet).

Là, on reste un peu perplexe parce que les observations scientifiques montrent très exactement le contraire de ce que nous dit notre ancienne Ministre de l'Ecologie comme en témoigne l'article suivant publié dans la très sélective revue GRL. Cet article a étudié la variabilité des sols de la planète vis à vis de la pluviométrie/sécheresse. Voici le fac-simile de l'en-tête de cet article (déjà signalé en 2012) dont le titre est : "Variations de la variabilité de la pluviosité sur les terres du globe."

extreme22

Les points clefs (indiqués par les auteurs en dessous du titre dans le but de permettre un examen rapide du contenu de l'article) sont parfaitement clairs. Les voici

  • Nous rendons compte d'une réduction de la variabilité P et expliquons comment cela s'est produit.
  • La raison pour laquelle il y a une réduction de la variabilité est que le sec devient plus humide et l'humide devient plus sec.
  • Une nouvelle méthode de détection est proposée pour confirmer ces conclusions.

C) La question du Sahel : Le "désert" sahélien devient-il plus sec ?

Non, c'est tout le contraire. De fait, le CO2 se révèle bénéfique pour le Sahel qui devait, nous dit-on, "devenir encore plus sec" mais qui en réalité a reverdi, précisément pendant la période du "dérèglement climatique".
Et, de fait, ce n'est pas seulement le Sahel qui a verdi, c'est la planète toute entière qui l'a fait.

Contrairement à la croyance populaire et les discours alarmistes, le Sahel a reverdi et la pluviosité y est en augmentation depuis les années 80 comme l'explique un article paru tout récemment (le 1er Juin 2015) dans la revue Nature Climate Change (une subdivision de Nature, malheureusement payante). Voici le fac-simile de l'en-tête de cet article intitulé "Rôle dominant du forçage par les gaz à effet de serre dans le retour des pluies au Sahel"

extreme11

 

 

 

 

 

A noter que si l'agence Reuters mentionne cet article, je n'en ai vu aucune mention dans la presse francophone. La figure maîtresse (accompagnée de sa légende) de cet article est révélatrice de la situation.

extreme12

 

"Graphique des données pluviométriques au Sahel pour la moyenne des mois de Juillet à Septembre (JAS) sur les terres situées en 10°–20° N, 20° W–35° E tirées des observations. Les lignes rouges et noires délimitent la période précédente 1964–1993 de la période récente 1996–2010/2011."

 

 

Comme on le voit sur le graphique, la pluviométrie/pluviosité a nettement régressé depuis 1950 jusque dans les années 1980, ce qui a inspiré les plus grandes inquiétudes.
Bien heureusement, la période récente qui va de 1985 à nos jours a vu une augmentation nette des quantités de pluies tombées sur le Sahel qui retrouve à présent une situation proche de celle qu'il a connu dans les années 1910-1920.

On pourrait se dire que le reverdissement du Sahel n'est qu'un phénomène localisé qui ne concerne pas la totalité de la planète. Il n'en est rien. La planète entière greener-earth"verdit" comme le savent tous les chercheurs du domaine qui travaillent à partir des observations satellitaires qui voient ce qui est illustré sur l'image ci-contre, intitulée "Une Terre plus verte" et qui montre l'augmentation évidente de la végétation du globe au cours de la période 1982-2011.


La plupart des auteurs attribuent ces bienfaits à l'augmentation du taux de CO2 dans l'atmosphère, lequel est ainsi loin d'être le "polluant" que les médias/politiques aiment à stigmatiser, sans aucun discernement, alors qu'en réalité, le CO2 est un gaz bénéfique. Il est le vecteur essentiel du cycle du carbone. Le CO2 est le gaz de la vie... et il le montre.

Cette image ci-contre a été présentée et explicitée par deux chercheurs du Department of Earth & Environment de l'université de Boston (USA) lors d'une conférence internationale qui s'est tenue à Avignon, l'année dernière, en 2014.

 

 

Les lecteurs(trices) intéressé(e)s pourront visionner une animation de la NASA issue des mesures toutes récentes (Sept 2014-Sept 2015) de l'évolution du taux de CO2 dans l'atmosphère de la planète, prises par le nouveau satellite OCO-2.
On admirera la remarquable efficacité de la végétation de l'hémisphère Nord qui absorbe le CO2 à la fin du printemps et durant l'été boréal...pour accroître la végétation.

En guise de clin d'oeil et bien que ce billet soit déjà bien long, toujours à propos des sécheresses, je ne résiste pas à la tentation de vous montrer qu'il n'y a pas qu'en Francophonie que les médias/politiques, plus ou moins désinformés, sont carrément démentis par les observations scientifiques.
Pour la petite histoire, la récupération de la dernière sécheresse en Californie (qui en a connu beaucoup) par le Gouverneur de cet état, prête (aussi) à sourire ceux et celles qui suivent la littérature scientifique. Voici :

D) La récente sécheresse en Californie est-elle due au réchauffement climatique ? Le risque de sécheresse y est-il augmenté ou minoré par le réchauffement climatique ?

Le gouverneur Jerry Brown de la Californie a certifié à ses électeurs que la récente et sévère sécheresse qui a frappé son état, résulte du changement climatique
Malheureusement pour sa crédibilité, pendant ce temps-là, les scientifiques ont travaillé et ont démontré très précisément le contraire, comme le montre, sans ambiguïté, une étude qui vient juste d'être publiée par l'American Méteorological Society dans le Journal of Climate (payant) qui est une revue parmi les plus renommées dans le domaine.

exteme17

 

 

Le titre de l'article pose la bonne question : "Est-ce que le changement climatique anthropique a affecté le risque de sécheresse en Californie ?"


La réponse est donnée dans la fin du résumé en des termes, parfaitement clairs. En bref, Le changement climatique n'augmente pas mais, au contraire, diminue les risques de sécheresses en Californie et rien ne permet de lier la sévérité de la sécheresse récente au "dérèglement climatique".

"Ainsi, nos résultats montrent que les effets résultant du changement climatique ont rendu les sécheresses affectant l'agriculture, moins probables et que les impacts sévères actuels ne peuvent pas être causés de manière significative par des changements climatiques à long terme."

Les auteurs arguent que, question sécheresse, la hausse des températures est compensée par l'augmentation de la pluviosité. Ils observent qu'on ne discerne aucune tendance à l'augmentation générale des sécheresses (plutôt l'inverse, en fait) pour l'agriculture.

Parmi les calamités dont on nous assure qu'elles s'accélèrent dangereusement et qu'"on le voit bien", la fonte des glaciers de la planète figure dans le top du classement.
Nous allons voir ce qu'il en est dans la réalité, toujours à partir des résultats d'études scientifiques duement peer-reviewées et publiées dans les grandes revues.

4) Le réchauffement climatique accélère la fonte des glaciers ?

"la planète se réchauffe à une vitesse inédite, générant des événements météorologiques extrêmes, la fonte accélérée des glaciers ou encore la montée du niveau des océans." déclare l'Agence France Presse.

Nous allons partir d'un article (en accès libre, ce qui est rare pour cette revue) qui aborde de manière assez précise cette question et qui est paru dans le journal de l'AMS (la Société Météorologique Américaine), il y a deux ans, en 2013. Cet article, signé par 18 auteurs provenant de différentes institutions, est intitulé "Hausse moyenne du niveau des océans durant le XXe siècle : Le total est-il supérieur à la somme des parties ?"
Les lecteurs attentifs reconnaîtront, parmi les noms des auteurs, ceux de J.A. Church et de N. J. White qui sont de spécialistes renommés du domaine et dont j'avais cité les travaux antérieurs dans la page "océans".

extreme14

 

 

 

 

 

 

Cet article cherche à clore le bilan des diverses contributions à la hausse du niveau des mers. Parmi les nombreux graphiques intéressants qui se trouvent dans cet article, on considère la Fig.2b, représentée ci-dessous, qui concerne plus spécifiquement la fonte des glaciers et sa contribution à la hausse du niveau des mers.

extreme13

FIG. 2. "Evolution temporelle de contribution de la masse des glaciers à la hausse du niveau des océans. (b) Equivalent en hausse du niveau marin de la masse globale des glaciers DMg par rapport à la référence zéro pour la moyenne des années 1986–2005. Les évolutions temporelles pour A, C et M sont les intégrales sur le temps de celles de la Figure (a). Les incertitudes pour A et C ne sont pas indiquées."

Les lettres C, L et M font référence à des travaux antérieurs éventuellement mis à jour.

Dans le résumé de cet article, on peut lire les deux phrases importantes suivantes :

"Le taux de perte en masse des glaciers était supérieur aux estimations précédentes et n'était pas plus petit durant les première moitié du siècle que durant la seconde moitié."

..."Les reconstructions prennent en compte l'observation que la (GMSLR) [NdT = hausse moyenne du niveau marin pour le globe] n'était pas plus grande durant les 50 dernières années que durant la totalité du XXe siècle en dépit de l'augmentation des émissions anthropiques."

En effet, comme on peut l'observer sur le graphique, la contribution de la fonte des glaciers de la planète suit une tendance approximativement linéaire en fonction du temps de 1860 à nos jours, sans indiquer aucune accélération à laquelle on s'attendrait notamment à partir des années 1950 où les émissions de CO2 ont cru de façon très significative. A juste titre, cela a surpris les auteurs de cet article qui l'ont noté par deux fois. extreme15

 

Pour être plus précis, voici, ci-contre, le graphe montrant la croissance des émissions de gaz carbonique anthropique (en million de tonnes de carbone par an) en fonction du temps et selon la nature des sources. Le total des émissions est représenté par la courbe en trait noir.La source de ces données ( 2015) que l'on retrouve partout, est indiquée en bas du graphique.

 

Comme on le voit ici, les émissions de CO2, relativement modérées jusqu'en 1950, n'ont vu une croissance significative qu'à partir de 1950, c'est à dire après la fin de la deuxième guerre mondiale.


Or, la contribution de la fonte des glaciers au niveau de la mer n'a connu aucune accélération depuis cette époque ce qui va à l'encontre des déclarations alarmistes au sujet de la fonte des glaciers de la planète qui résulteraient du "dérèglement climatique anthropique". Au contraire, la contribution à la hausse du niveau des mers due à la fonte des glaciers paraît bien "réglée" au point d'être représentée par une droite de 1860 à nos jours.
extreme16

 

Dans le même ordre d'idées, je rappelle que la hausse des températures (voir ci-contre, à droite, le graphe obtenu à partir des données officielles HadCRUT4) a été identique durant le début du XXe siècle (de 1910 à 1945) et la fin de ce siècle (de 1975 à 2000) ce qui, comme la contribution de la fonte des glaciers au niveau des mers, constitue une "anomalie" pour la théorie en vigueur, sans parler du hiatus ou de la pause des années 1945 à 1970, bien entendu.

 

 

 

 

5) Que nous disait le plus récent rapport du GIEC (AR5, 2013) au sujet des événements climatiques extrêmes ?

J'ai déjà cité à plusieurs reprises des extraits de ce rapport officiel AR5 (Le rapport complet, publié en 2013) du GIEC au sujet de "la multiplication" des événements extrêmes dans les billets précédents.
A défaut de consulter la littérature scientifique récente sur ces sujets, il ne serait, sans doute, pas inutile que notre personnel politico-médiatique en prenne connaissance avant de s'exprimer devant micros et caméras.

Au sujet des ouragans et cyclones tropicaux :

“Les bases de données existantes ne montrent aucune tendance significative dans la fréquence des cyclones tropicaux durant le siècle dernier....Aucune tendance robuste dans le nombre des cyclones tropicaux, des ouragans et des ouragans les plus forts, n'a été identifiée lors des 100 dernières années dans le bassin Nord Atlantique."

Au sujet des inondations :

"En résumé, le manque de preuve persiste en ce qui concerne le signe et la grandeur et/ou la fréquence des inondations à l'échelle globale, ce qui se traduit par un indice de confiance faible."

Au sujet des tempêtes, orages, grêle etc.

"En résumé, il y a une faible confiance dans les tendances observées pour les phénomènes météorologiques violents à petite échelle tels que les grêles, les orages, à cause de l'inhomogénéité des données et de l'inadaptation des systèmes de suivi."

Concernant les sécheresses et les affirmations du rapport précédent AR4 :

"Au vu des études mises à jour, les conclusions de l'AR4 (Le rapport 2007 du GIEC) concernant une augmentation des sécheresses depuis les années 1970, ont été probablement surestimées".
..."Faible confiance dans les projections des variations de la fréquence et la durée des méga-sécheresses.

Concernant les cyclones extra-tropicaux :

"En résumé, la confiance est faible dans des changements à grande échelle de l'intensité des cyclones extra-tropicaux extrêmes depuis 1900."

Autrement dit, selon le GIEC, soit on n'observe aucune tendance, soit on n'est pas en mesure de tirer de conclusions à partir des données existantes.

A noter également - et on ne s'en étonnera pas si on connaît un peu de géophysique - que le GIEC n'évoque pas la question des répercussions éventuelles du changement climatique sur les tremblements de terre et autres tsunamis.
Apparemment, seul(e)s les politiques le font.

6) Conclusion et observations

En conclusion, je conseille à tous les angoissés du climat, à tous les prédicateurs de l'apocalypse qui serait imminente ou déjà sur nous, la lecture de l'excellent livre de l'historien scientifique Emmanuel Garnier, "Les dérangements du temps : 500 ans de chaud et de froid en Europe". Ces dernières années, E. Garnier a travaillé au sein de laboratoires de climatologie. Il sait de quoi il parle. Voici un extrait significatif de la 4-de-couv de son livre.

La certitude qu'ont nos contemporains de vivre un " changement " climatique ne date pas d'aujourd'hui. Tiré d'archives inédites, le présent ouvrage souhaite offrir une autre réalité des fluctuations climatiques et des perceptions que celle que les Européens en ont eue au cours des 500 dernières années. La première constatation concerne le caractère neuf du réchauffement observé depuis 30 ans. La réponse de l'historien est sans appel. Bien avant le Global Warming, nos ancêtres connurent des épisodes parfois très chauds dont l'intensité fit reculer les glaciers alpins à des niveaux inférieurs à ceux d'aujourd'hui. Plus tard, au beau milieu du fameux Petit âge glaciaire, l'Europe fut même confrontée à de véritables... vagues de chaleurs doublées de sécheresses mettant en péril la survie des populations. L'histoire ne serait-elle alors qu'un éternel recommencement. Si la réponse apparaît difficile à formuler en matière de climat, il est en revanche certain que les événements extrêmes qui focalisent tant l'attention de l'opinion publique aujourd'hui faisaient déjà partie du quotidien des sociétés anciennes. La sévérité des catastrophes observées sur cinq siècles démontre qu'elles n'eurent rien à envier à nos désastres récents.

On ne saurait mieux dire que le fameux "dérèglement climatique" ne date pas d'aujourd'hui, ou, plus exactement, que le climat n'a jamais été "réglé". Pas plus aujourd'hui qu'hier ni que demain. Ce qui est peut-être plus inquiétant sur la nature humaine, c'est cette persistance, après bien des siècles d'apprentissage, de la peur que "le ciel nous tombe sur la tête".

Comme vous avez pu le voir dans le cours de ce long billet - sa longueur est en proportion de l'augmentation lancinante de la fréquence des ces multiples assertions infondées sur les "événements climatiques extrêmes" - les observations objectives démentent la quasi totalité des allégations alarmistes qui sont sans doute censées servir à la promotion de la COP21. J'ai bien peur, qu'en réalité, elle ne soient contre-productives. Le public est moins naïf qu'on ne le croit. Il se renseigne et en tire des conclusion, parfois peu flatteuses...

Tout cela pose, bien entendu, la question de la formation initiale et de l'information dont bénéficient nos décideurs. On se demande, entre autres, qui a bien pu persuader plusieurs de nos responsables politiques que les tremblements de terre ou les tsunamis étaient liés au réchauffement climatique ou que les typhons/ouragans/cyclones étaient en hausse sur la planète.
Si on ne peut guère reprocher aux politiques, dont la formation initiale et les occupations quotidiennes sont bien éloignées de la science, leur ignorance dans ces matières, on peut quand même s'interroger sur la capacité des conseillers des cabinets ministériels ou présidentiels à leur fournir des informations sérieuses et étayées.
Cette déficience de l'information fournie à nos décideurs peut aller très loin.
C'est ainsi que le Saint-Père, le Pape François, a publié, dans son Encyclique "Laudato Si", une définition de l'effet de serre que l'on peut, respectueusement, qualifier "d'originale". La voici, tirée d'une version française certifiée de "Laudato si".

"En se concentrant dans l’atmosphère ils [NdT : les gaz à effet de serre] empêchent la chaleur des rayons solaires réfléchis par la terre de se perdre dans l’espace."

Ce qui, sans aller jusqu'à la définition totalement surréaliste de l'effet de serre par Michel Rocard (et d'autres), est faux. En effet, selon les théories en vigueur, on peut dire (très) approximativement, que la chaleur de la terre, (réchauffée par les rayons solaires) est émise (et non pas réfléchie) vers l'espace, sous forme de rayonnement IR, lequel est altéré par les gaz à effet de serre. On ne peut que s'étonner que l'aréopage substantiel dont s'était entouré le Pape, à cette occasion, ait laissé passer cette explication erronée de l'effet de serre.

Je n'ai pas la réponse à ces questions. Les professeurs ont-ils été déficients ou les élèves peu attentifs ou, encore, trop "orientés" ? Nous ne le savons pas.
Comme toujours sur PU, c'est à vous de vous faire votre propre opinion...


Stay Tuned !

7 Octobre 2015 Le point sur le Groenland, sur l'Arctique et sur la température moyenne à la surface du globe.

Les lecteurs(trices) savent bien que par ces temps qui courent - sans doute, COP21 oblige - il est difficile, voire impossible, d'échapper à une avalanche d'informations tronquées, déformées ou carrément erronées sur l'évolution réelle des observables climatiques. Tout cela est répercuté au centuple sur les radios, les télés, les journaux et jusque dans les discours du personnel politique.
En réponse au battage médiatique ambiant et à titre d'exemples parmi bien d'autres, il m'est apparu indispensable de regarder d'un peu plus près les évolutions réelles de l'englacement du Groenland, de la banquise arctique et de l'hémisphère Nord ainsi que de la température moyenne du globe qui, nous dit-on, aurait atteint des sommets très inquiétants, notamment en ce dernier mois d'août

C'est l'objet de ce billet qui sera nécessairement illustré par de nombreux graphiques qui sont, pour leur quasi totalité, mis à la disposition du public (et donc des journalistes) par les organismes officiels. A noter qu'il m'a fallu patienter et attendre la fin des périodes de fonte estivale et la publication définitive des indicateurs pertinents pour rédiger ce billet.

En résumé, en ce début d'automne, les médias ont fait beaucoup d'efforts pour nous assurer que le Groenland avait beaucoup fondu, cette année. Vous allez voir que c'est faux. Il a accumulé plus de neige et de glace qu'auparavant.
De même, on nous affirme que l'Arctique aurait beaucoup fondu durant l'été 2015. Les indicateurs montrent que c'est faux. Bien au contraire, il apparaît que la banquise arctique s'épaissit et se reforme depuis quelques années.
Enfin, les médias vous ont assuré que le mois d'août était "le plus chaud jamais enregistré". C'est, selon les différents instituts, soit carrément faux, soit les écarts enregistrés sont inférieurs aux marges d'incertitudes et ne sont pas significatifs.

1) Le Groenland fond ! (affirment les médias). Non ! C'est tout le contraire.

Comme nous le savons, le Groenland constitue une gigantesque réserve de glace (dont la hauteur peut atteindre les 3km) hors d'eau, qui, si elle fondait, contribuerait massivement à la hausse du niveau des mers. Il fait donc l'objet de toutes les attentions.
Il est impossible de citer ici tous les articles, parus dans les médias, qui ont alerté l'opinion publique sur la "situation alarmante du Groenland" ainsi que sur les conséquences apocalyptiques qui résulteraient de sa fonte massive. Parmi ceux-ci, on peut citer, à titre d'exemple typique, celui du Guardian (UK) paru le 9 août 2015

Durant la période de fonte (rapide mais brève voir ci-dessous), le Guardian (UK), n'hésite pas :
sept2

 

Titre : "Oh, mon Dieu (OMG = Oh My God), les glaces du Groenland fondent rapidement"

En ajoutant que la NASA allait quand même installer 200 stations robot pour en savoir un peu plus et en "oubliant" de préciser que cette fonte "rapide" (mais brève) est survenue avec beaucoup de retard et qu'elle avait été attendue pendant près de deux semaines comme on le voit sur le graphique suivant.
sept8

Par la suite, Le Guardian n'a pas, non plus, jugé utile d'informer ses lecteurs que le regel avait été tout aussi précoce que la fonte avait été retardée et que ce regel était intervenu avec quelques 15 jours d'avance par rapport aux années précédentes comme le montre le graphique ci-contre extrait du site officiel de la Météorologie Danois DMI (DMI : Danish Meteorological Institute). En bref, la période de fonte du Groenland a été étonnamment courte, en cette année 2015 . Ce n'est peut-être pas anodin.

Source du graphique (DMI).

Légende : "Le pourcentage de la superficie totale de la glace où s'est produit la fonte depuis le 1er Janvier jusqu'à aujourd'hui (en bleu). A titre de comparaison, la moyenne pour la période 1990-2013 est indiquée par la courbe en gris foncé. Les variations d'une année sur l'autre pour chaque jour de la saison de fonte sont indiquées par la zone grisée."

 

Les journalistes du Guardian ont également omis de préciser que, cette année, l'accumulation neige/glace a été particulièrement favorable, comme nous allons le voir..

Le graphique suivant, provenant aussi du DMI qui suit de près l'évolution du Groenland, montre l'Acc. SMB (Le budget de la neige accumulée) du premier Septembre 2014 au 31 août 2015. Comme on le voit, durant cette année écoulée, 210 milliards de tonnes de neige (ou d'équivalent en eau) s'est accumulée sur le Groenland au cours de cette année ce qui l'a beaucoup rapproché de la moyenne des 23 années précédentes.
sept7

En ordonnée, le SMB (Surface Mass Balance), le budget de la masse de neige/glace accumulée en Gigatonnes (milliards de tonnes) sur le Groenland à la date indique par l'abscisse

Légende : " Le budget de la masse accumulée en surface du premier Septembre à maintenant (ligne bleue, en Gigatonnes) ainsi que durant la saison 2011-12 (en rouge) qui a connu une fonte très intense durant l'été au Groenland. A titre de comparaison est représentée la courbe moyenne pour la période 1990-2013 (en gris foncé). La même période calendaire valable pour chaque jour aura sa propre valeur pour chacune des 24 années de la période 1990-2014. Ces différences, année après année, sont illustrées par la zone en gris clair. Cependant, pour chaque journée de l'année calendaire.la valeur la plus basse et la valeur la plus haute ont été ignorées."

On voit aussi que depuis le 1er Septembre dernier, l'augmentation de masse accumulée de neige/glace (en bleu) semble, pour l'instant au moins, suivre la trajectoire favorable de l'année Sept 2014-Sept 2015. A noter que la "masse accumulée" (Acc. SMB) ne prend pas en compte les pertes de glace qui se produisent en bordure du continent (vêlage des glaciers, icebergs etc.)
Pour plus de détails et pour situer l'évolution actuelle dans un contexte historique, je renvoie le(la) lecteur(trice) aux différents billets rédigés (2011 et 2012) sur ce sujet, au cours des années précédentes. Entre autres, on y trouvera une étude intéressante qui comparaît des prises de vues aériennes faites en 1933 avec la situation en 2012. Comme on le verra, les différences sont peu perceptibles.

Les lecteurs(rices) qui veulent se faire une idée sur les conditions météorologiques qui règnent, en temps réel, au sommet du Groenland pourront voir cette Webcam (summitcamp) qui visualise, en direct, la base de recherche installée à cet endroit. On a aussi accès (colonne de gauche) à la température et à son évolution, aux vents etc.

2) L'arctique ? C'est la catastrophe, nous répètent les médias... Bien au contraire, ça va dans le bon sens !

Petite histoire des prophéties :
wadhams

Parmi bien d'autres spécialistes, le Professeur Wadhams (de l'Université de Cambridge UK, ci-contre) avait affirmé, en 2007, que leurs modèles prévoyaient que la disparition de la glace arctique en été surviendrait dès 2013, ce qui ne s'est évidemment pas produit.
Pour la petite histoire on peut rappeler qu'Al Gore a cité la prédiction du Professeur Wadhams lors de la remise de son prix Nobel (de la paix). Wadhams a, plus récemment, repoussé ses prévisions apocalyptiques à ... 2020.
A noter, également pour la petite histoire, que ce curieux professeur a déclaré craindre pour sa vie après les décès (accidentels) de trois de ses collègues qui travaillaient également sur l'Arctique. Les enquêtes de police ont pourtant montré que l'un est décédé d'une collision avec un camion alors qu'il se déplaçait en vélo, le second d'une chute dans un escalier et le troisième lors d'un impact de foudre en Ecosse. Plus récemment, le Professeur Wadhams a intenté un procès au propagateur de cette nouvelle (The Times (UK)), l'accusant d'avoir déformé ses propos. Aux dernières nouvelles, l'organisme régulateur de la presse anglaise a débouté les protestations du professeur.

sept19Indépendamment de Wadhams, le Professeur associé (~ maître de conf., ci-contre) ) Maslowski de la Naval Postgraduate School à Monterey (Calif. USA) aboutissait, également en 2007, aux mêmes prévisions que Wadhams, c'est à dire qu'il annonçait la disparition de la glace estivale arctique en 2013 ce qui lui valut une grande célébrité et de nombreuses citations dans les médias. Maslowski ajoutait, à l'époque, que ses prévisions étaient certainement encore "trop optimistes"...Lui aussi a été sévèrement démenti par les faits.

Nous sommes actuellement en automne 2015 et comme le savent tous les lecteurs(trices) de PU, rien de tout cela ne s'est produit et l'évolution de la glace arctique va plutôt dans le bon sens comme nous allons le voir.

Dès lors, on peut se demander sur quelles bases reposaient les prophéties aussi ultra-pessimistes qu'invérifiées de nos deux professeurs anglais et américain.
Pour tenter de comprendre la démarche qui les a conduit à avancer des prophéties aussi pessimistes, il faut de se souvenir qu'en 2007, la surface de la banquise arctique avait sérieusement fondu durant l'été et que celle-ci semblait avoir amorcé ce que certains (dont Marc Serreze, directeur actuel du NCDC) appelaient "The death spiral, la spirale de la mort". Une analyse plus approfondie avait pourtant montré que cette fonte estivale prononcée résultait d'une conjonction météorologique assez particulière (des tempêtes sur l'Arctique au moment où la glace est la plus fragile) assez semblable à celle qui s'est produite en 2012 comme je l'avais documenté dans un billet précédent.

Nos deux professeurs avaient donc, à l'époque, simplement extrapolé le graphique de l'anomalie de glace de mer arctique comme cela est symbolisé par le trait rouge que j'ai superposé au graphique de l'anomalie de la glace de mer de l'hémisphère Nord reporté ci-dessous.
Cependant, comme nous le savons, et tout particulièrement en matière de climatologie, la Nature nous réserve bien des surprises. Pour conserver sa réputation intacte, il vaut mieux rester prudent en matière de prédictions, du moins dans les prédictions à court et moyen terme. Pour les prédictions à plus long terme, 50 ou 100 ans, voire 300 ans pour certains, on peut raisonnablement espérer qu'elle seront oubliées...

a) La superficie ou l'extension des glaces de l'hémisphère Nord : sept17

Voici, ci-contre, le graphique des anomalies de la glace de mer de l'hémisphère Nord (par rapport à la moyenne des années 1979 à 2008) en millions de kilomètres carrés, selon cryosphere (Université de l'Illinois USA) , telle que vous pouvez la suivre dans la page "indicateurs", parmi de nombreux autres graphiques.

A noter, qu'il s'agit ici de l'anomalie (par rapport à la moyenne de la période 1979-2008) et non de la superficie totale de la glace de mer. C'est pour cette raison que l'extrapolation envisagée par les professeurs Wadhams et Maslowski (symbolisée en rouge) ne recoupe pas l'axe des abscisses à l'année 2013, mais bien avant.

La Nature a démenti les prédictions catastrophistes des experts et les années suivantes ont montré que la glace arctique avait plutôt tendance à se stabiliser sur une sorte de plateau qui n'est pas sans rappeler celui de l'anomalie de la température moyenne du globe, plus connu sous le nom de "la pause" et dont il est fréquemment fait mention dans les billets précédents.

Apparemment, ce plateau de l'anomalie de la glace de mer de l'hémisphère Nord aurait commencé vers l'année 2006-2007, c'est à dire, il y a environ 9 ans.

 

 

sept21

Voici, à présent, le graphique (interactif) du NCIDC représentant l'évolution de l'extension de la glace arctique qu cours des années successives. Ce graphique interactif rassemble les données (annotées par mes soins, en bleu) de l'évolution de la superficie de la glace arctique pour les années 2015, 2011 (qui lui ressemble beaucoup, du moins pour l'instant), et 2012 (en tiretés, c'était le minimum minimorum résultant d'une violente tempête survenue en Arctique en août 2012, comme je vous l'avais expliqué). On peut également y observer la marge d'incertitude (à deux sigmas, c'est à dire quand le signal mesuré est égal au double du bruit) représentée par la zone en grisé.

 

 

 

 

 

 

 


En bref, en 2015, contrairement aux prédictions précédentes et comme on le voit, la glace estivale arctique est bien présente et bien loin de disparaître durant la fonte estivale, d'autant plus que son épaisseur son volume ont singulièrement augmenté cette année, par rapport aux années précédentes comme nous le verrons ci-dessous. Ce qui est le signe de l'accumulation de glace pluri-annuelle, en général plus résistante aux futures fontes estivales.

Le Dr David Whitehouse qui est éditeur scientifique au GWPF, consacre une partie de ses travaux à l'analyse des observations climatique. Il a tracé le graphique suivant tiré des données officielles sur l'évolution des minima successifs de l'extension de la glace de l'hémisphère Nord, en indiquant les marges d'erreur revendiquées (ce qui est souhaitable à défaut d'être courant). J'ai illustré son graphique en le complétant d'un rectangle violet qui permet de visualiser les mesures situées dans la marge d'incertitude de la plus récente évaluation (Sept 2015)

sept5

 

 

 

 

 

Comme on peut le voir, et aux incertitudes près, les minima de la superficie de la glace de l'hémisphère Nord n'ont pratiquement pas varié, durant les 9 dernières années. Le raisonnement s'applique tout aussi bien à la glace de mer arctique pour laquelle le graphique est évidemment très peu différent.

Nous avons vu ce qui concerne les superficies de la mer glacée, mais qu'en est-il de l'évolution de l'épaisseur moyenne de la glace arctique ? C'est évidemment un observable important pour estimer l'état de l'englacement de la mer arctique, notamment en été.

b) L'épaisseur de la glace arctique : sept10

Voici un graphique qui retrace l'évolution de l'épaisseur moyenne (en mètre) de la glace arctique selon le Polar Ice Center (PIOMAS)

J'ai complété ce graphique en ajoutant la flèche bleue pour montrer la situation actuelle, sur la courbe en rouge. .

 

Comme le montre ce graphique (l'évolution de cette année est représentée en rouge) l'épaisseur moyenne de la glace arctique durant la période de fonte, a augmenté, en 2015, de près de 30% par rapport aux années 2010 et 2011 et de près de 20% par rapport aux années 2012 et 2013.
Visiblement, la glace arctique s'est épaissie.

 

 

 

 

 

c) Le volume de la glace arctique :

sept11

 

Connaissant la superficie englacée et l'épaisseur moyenne, il est possible d'avoir une idée de l'évolution récente du volume de la glace arctique. L'extrait ci-contre (à partir de 2006 jusqu'à nos jours) d'un graphique de l'évolution de l'anomalie du volume de la glace arctique (PIOMAS) montre clairement que le volume de la glace de mer arctique (en gris) est passé par un minimum en 2011-2012 et a récupéré depuis lors jusqu'à nos jours où on se retrouve, à peu près, dans la situation de 2007-2008.



 

 

 

 

 

 


d) Pour tenter de corroborer/expliquer les observations précédentes, on peut faire remarquer que l'année 2007 correspond au commencement d'un net refroidissement de l'Atlantique Nord,
faisant suite à un réchauffement progressif de 1979 à 2006-2007 comme on le voit sur le graphique ci-dessous qui est tracé à partir des données du NCDC (Le National Océanographic Data Center US).sept20

 

 

Voici, en bleu, la zone de l'Atlantique Nord délimitée par les coordonnées 60-0W et 30-65N qui correspond au graphique suivant.

 

 

 

 

 

Le graphique suivant rapporte l'évolution du contenu thermique des 700 premiers mètres de la zone Nord de l'océan atlantique représentée (en bleu) ci-dessus. Elle est relativement proche de la zone arctique et inclut le Sud du Groenland. sept12

 

 

Le refroidissement marqué de l'Atlantique Nord, depuis 2006-2007 pourrait annoncer une reprise progressive de la glace arctique et groenlandaise dans les années qui viennent.

On peut aussi avancer l'idée que ce refroidissement de l'Atlantique Nord peut aussi augurer de futurs hivers froids pour l'Europe de l'Ouest et pour le Nord du continent américain.

Pour sa part et dans le même ordre d'idée, la climatologue Judith Curry qui est une spécialiste de la dynamique de l'Arctique, fait remarquer que l'AMO ( l'oscillation multidécennale atlantique) pourrait être passée par son maximum et avoir entamé sa descente. Si cela se confirme, cela pourrait avoir les mêmes conséquences pour l'englacement à venir de l'Arctique et du Groenland ainsi que pour les futurs hivers européens (et du Nord de l'Amérique). C'est à dire que nous pourrions nous attendre à une succession d'hivers froids et à une mer arctique moins sensible à la fonte estivale.

Mais comme toujours, restons prudents. Wait and See !

Concernant l'Arctique et comme nous l'avons vu à propos des "prédictions" démenties des Professeurs Wadhams, Maslowski et Serreze (La spirale mortelle), il convient également d'être prudent et de se souvenir que nous ne disposons de mesures satellitaires détaillées que depuis 1979. Ce qui, jusqu'à nos jours, ne nous donne qu'une fenêtre temporelle bien trop étroite sur l'histoire de l'évolution de la glace arctique au cours des décennies passées. Cependant, pour les années précédant 1979, nous disposons de récits de navigateurs des pôles qui ne semblent, hélas, pas retenir l'attention des climatologues contemporains.
A ce propos, je ne résiste pas à la tentation de reproduire ce document que le climatologue Richard Lindzen (du MIT) avait (facétieusement) montré lors d'une présentation au FermiLab en 2010.

Voici le rapport d'une agence nationale américaine :

"L'Océan Arctique se réchauffe, les icebergs se font de plus en plus rares et dans certains endroits les phoques trouvent l'eau trop chaude. Tous les rapports pointent vers un changement radical des conditions climatiques et jusqu'à des températures inconnues jusqu'à présent dans la zone arctique. Des expéditions nous rapportent que pratiquement aucune glace n'a été vue au dessus d'une latitude de 81 degrés 29 minutes. D'énormes masse de glace ont été remplacées par des moraines de terre et des pierres tandis qu'en de nombreux endroits, des glaciers bien connus ont entièrement disparu."

On croirait lire/voir/entendre un média actuel mais c'était un rapport officiel du Weather Bureau US en ... 1922 !

sept1

Bien entendu, tout récemment, les médias n'ont pas hésité à nous resservir l'antienne du "mois d'août le plus chaud de l'histoire" à l'occasion de la publication des données d'un seul institut (La NOAA)... en oubliant tous les autres qui donnent des résultats peu conformes aux attentes.

4) Le mois d'août le plus chaud de tous les mois d'août ?

C'est ce qu'on pu lire, voir et entendre, à l'unisson,sur d'innombrables médias.

Mais que nous disent les bases de données officielles, à ce sujet ?

Comme vous le savez, il y a, d'un côté, les mesures thermométriques et d'un autre côté, les mesures satellitaires. Assez bizarrement, et sans aucune explication, on observe que le désaccord grandit entre ces deux techniques d'évaluation à mesure que le temps passe. Pour la période récente, on observe que les données thermométriques, plus propices aux "ajustements", ont tendance à accentuer sérieusement le réchauffement de la planète alors que les satellites n'en voit pratiquement aucun. Nous reproduirons les données du GISS de la NASA (données thermométriques) et les données des deux organismes antagonistes et concurrents entre eux qui utilisent les mesures données par différentes flottes de satellites (l'UAH et le RSS).

Voici, sous forme de tableau des représentations de l'évolution de la température moyenne du globe et de la basse atmosphère, pour tous les mois d'août depuis 1997, et, selon notre bonne habitude, accompagnées des marges d'incertitudes correspondantes, revendiquées par les différentes institutions.

Voici les graphiques de la température globale des mois d'août successifs ( de 1997 à 2015 inclus) selon les données officielles, de trois principaux instituts (avec les sources correspondantes) :

-Le
GISS (LOTI, thermométriques) de la NASA
-Les mesures satellitaires
RSS
-Les mesures satellitaires
UAH (dernière version V6)


Les données de la NOAA qui ont été sélectionnées par les médias indiquent que la température du mois d'août est de 0,08°C supérieure à celle du mois d'août 2014. Pour ce qui est des données HadCRUT4.4 (parues tout récemment), cette différence est de 0.07°C. Ces très faibles différences sont inférieures aux incertitudes (±0,1°C) revendiquées et donc non significatives.

sept15
sept14 sept13

Comme on le voit, et contrairement aux affirmations médiatiques, les données du GISS de la NASA montrent que le mois d'août 2015 n'a pas été plus chaud que celui de 2014. De manière plus rigoureuse et tenant compte des incertitudes, en réalité, le mois d'Août 2015 est indistinguable des mois d'Août 1998, 2003, 2006, 2010, 2011,2012,2013 et 2014.

Pour ce qui est des mesures satellitaires, comme on le voit, le mois d'août 2015 est loin de battre les records. Pour ces deux organismes, août 1998 a été le mois d'août le plus chaud et le mois d'août 2015 est indistinguable d'une kyrielle de mois d'août dont les marges d'erreur pénètrent dans les rectangles bleus.

En résumé, nous constatons, à partir des graphiques officiels que les journalistes feraient bien de consulter avant de rédiger leurs articles, que ni le Groenland, ni la sept22glace arctique, ni les températures du mois d'août n'inspirent, en cette année 2015, d'inquiétude. Au contraire, l'évolution des observables disponibles montre que l'on peut rester optimiste. S'il est certainement possible que la température globale augmente un peu dans les mois qui viennent du fait du très intense El Niño qui sévit en ce moment dans le Pacifique (ci-contre), il est tout aussi probable que le La Niña qui lui succédera, tôt ou tard, provoquera une baisse équivalente des températures comme il en a toujours été, au moins depuis que nous disposons d'observations fiables.

 

En attendant, chers lecteurs et chers lectrices, restons vigilants et circonspects quant au déferlement médiatico-politique qui accompagne la "mise en condition" du public en vue de la COP21 qui se tiendra à Paris à la fin de ce mois de Novembre et au début de Décembre. Tout cela n'a que très peu à voir avec l'évolution réelle du climat. de notre planète.

Stay Tuned !

PS : La liberté d'expression et l'affaire Philippe Verdier.

28 août 2015 : Analyse statistique de la divergence entre les modèles numériques et les observations.
D'autre part, on constate que la '"sensibilité climatique" au CO2, évaluée dans les publications successives, s'amenuise, année après année, ceci en contradiction flagrante avec l'alarmisme actuel.
...Ce qui ne semble guère préoccuper les médias qui poursuivent leur intense campagne d'"information", comme nous le verrons plus bas.

Comme le savent les lecteurs(trices) de ce site, la quasi-totalité des mesures envisagées par les politiques en matière de climat et notamment celles qui seront discutées lors de la prochaine conférence COP21 à Paris, reposent fondamentalement sur les prédictions des modèles numériques du climat. S'il est exact que la prévision reste l'un des objectifs fondamentaux de la science, encore faut-il s'assurer que ces prévisions sont robustes et fiables avant de prendre des décisions lourdes de conséquences. Ce billet, tout comme nombre de ceux qui le précèdent et qui figurent ci-dessous, montre qu'il est légitime d'avoir quelques sérieux doutes à ce sujet.

Dans le prolongement direct des déclarations (en forme d'avertissements) présentés indépendamment par John Christy et Judith Curry devant les élus des USA que j'ai rapportées dans les billets précédents et qui attiraient, une fois encore, l'attention des décideurs sur la divergence croissante qui existe entre les résultats des modèles numériques du climat et les observations, nous allons rapporter ici une analyse statistique de la robustesse de cette divergence. Cette analyse démontre, entre autres, que la divergence entre les modèles et les observations est une fonction croissante du temps qui passe, qu'elle est tout à fait significative du point de vue statistique et qu'elle en est arrivée au point de remettre sérieusement en question les fondements mêmes des modélisations climatiques sur lesquelles repose l'intense activité politique (et médiatique) que nous connaissons actuellement.

En guise d'introduction pour l'analyse qui suit, on peut se souvenir d'un des graphiques présenté par John Christy lors de son récent exposé devant les représentants US. hcnr8

 

Ce graphe montre une comparaison entre la moyenne des 102 modèles climatiques CMIP-5 (en rouge) pour la moyenne troposphère (globale) et la moyenne des observations correspondantes effectuées par les deux systèmes satellitaires indépendants (et concurrents) RSS-MSU et UAH (qui donnent des résultats très semblables) représentées par les carrés ainsi que la moyenne des 4 séries de résultats obtenus par les ballons-sondes (ronds bleus).

La divergence croissante qui existe entre les modèles et les observations est particulièrement évidente.

A noter que le graphique ci-contre traite de la divergence entre les modèles et les observations de la température de la moyenne troposphère. Pour sa part, l'article traduit ci-dessous concerne la comparaison des résultats des modèles et des observations pour les températures moyennes et globales mesurées à proximité de la surface de notre planète.

 


Je vous propose donc, ci-dessous, une traduction intégrale d'un article rédigé par des climatologues aussi chevronnés que renommés. Les auteurs sont, dans l'ordre, Hans von Storch, Armineh Barkhordarian, Klaus Hasselmann et Eduardo Zorita (affiliations dans la traduction ci-dessous). La longue expertise et la renommée de trois de ces auteurs est attestée par le grand nombre d'articles publiés dans les revues peer-reviewed et le nombre de citations de ces derniers (von Storch : 365 publications, 8497 citations ; Zorita : 222 publications, 4396 citations et Hasselmann : 179 publications, 10339 citations).
Ces auteurs ne peuvent en aucun cas être qualifiés de "climato-sceptiques". Il s'agit tout simplement de climatologues "mainstream" expérimentés qui s'inquiètent de l'inadéquation évidente qui apparaît entre les modèles et les observations. Ils se contentent de constater l'évidence et de proposer des explications plausibles dans le contexte de nos connaissances actuelles.
Je n'ai pas traduit les "Suppléments" qui accompagnent traditionnellement la soumission de ce genre de publication. Les lecteurs(trices) intéressé(e)s pourront en prendre connaissance en cliquant sur le lien que j'indique ci-dessous. J'ai néanmoins créé un lien cliquable sur les tables de ces suppléments quand elles sont référencées dans la traduction de l'article de Hans von Storch et al.
Hormis les inter-titres, les caractères engraissés le sont par PU.

1) L'analyse de la divergence modèles/observations :

Source de l'article (2013)

Les modèles du climat peuvent-ils expliquer la stagnation récente du réchauffement climatique ?
Hans von Storch(1), Armineh Barkhordarian(1), Klaus Hasselmann(2) et Eduardo Zorita(1)


(1) Institute for Coastal Research, Helmholtz-Zentrum Geesthacht, Geesthacht, Germany
(2) Max-Planck-Institute for Meteorology, Hamburg, Germany


Au cours de ces dernières années, il est apparu que l'augmentation de la température moyenne de la couche d'air proche de la surface du globe [NdT : c'est à dire celle dont la température est mesurée par les sondes thermométriques] était nettement plus petite que celle à laquelle beaucoup s'attendaient. Nous cherchons à savoir si ceci peut être expliqué dans le cadre des scénarios numériques actuels du changement climatique. A l'inverse des analyses antérieures qui mettaient en évidence une cohérence entre les modèles et les observations à un niveau de confiance de 5%, nous trouvons que la stagnation persistante durant les quinze années, de 1998 à 2012, n'est plus cohérente avec les projections des modèles même en allant jusqu'au niveau de confiance de 2%.
Parmi les causes possibles de cette divergence,
la sous-estimation de la variabilité naturelle du climat constitue un candidat potentiel mais l'influence de facteurs de forçage externes non pris en compte par les modèles ou une surestimation de la sensibilité climatique des modèles à une augmentation des concentrations de gaz à effet de serre, ne peuvent pas être éliminées. La première cause n'aurait qu'un faible impact sur les attentes à long terme du changement climatique anthropique mais la seconde et, en particulier, la troisième aurait un impact certain. Les estimations du réchauffement climatique observé durant la période récente de quinze années (1998-2012) varient entre 0.0037 °C/an (NCDC)(1) , 0.0041 °C/an (HadCRUT4) (2) et 0.008 °C/an (GISS) (3). Ces valeurs sont significativement plus faibles que le réchauffement moyen de 0.02 °C/an observé durant les trente années précédentes (1970-2000) (4).

Les modèles peuvent-ils expliquer la stagnation du réchauffement climatique ?

Nous comparons la tendance récente du réchauffement climatique observé avec un ensemble de tendances du réchauffement climatique calculé par 23 modèles différentes des Projets d'Inter-Comparaison des Modèles Climatiques (Climate Model Intercomparison Projects) CMIP3(5) et CMIP5(6) (Table S1 dans les Suppléments). Les simulations ont été effectuées pour les deux scénarios A1B (CMIP3) et RCP4.5 (CMIP5) qui sont proches de l'histoire récente des émissions avec une croissance linéaire des émissions au delà de 2012 jusqu'en 2060 (Figure 1).

hvs1

 

Figure 1: Emissions anthropiques de carbone selon les scénarios SRES A1B (en rouge) et RCP4.5 (en bleu) comparée aux émissions anthropiques estimées (Martin Heimann, comm. personnelle).[NdT : Ce qui est conforme aux estimations du GIEC]

 

 

 

 

 

Une comparaison des tendances de l'ensemble des modèles numériques pour différentes séquences temporelles avec une estimation moyenne du réchauffement global (0.0041 °C/an, HadCRUT4) est montrée dans la Figure 2 (Un résumé statistique plus détaillé impliquant les deux autres estimations de la tendance récente est présentée dans la Table S2 des Suppléments).hvs2

 

 

Figure 2. Cohérence entre la tendance récente de la température globale moyenne et les simulations numériques des modèles climatiques. La figure montre la proportion des tendances simulées qui sont inférieures ou égales aux tendances annuelles observées durant la période 1998-2012 selon les données HadCRUT4, Rhadcrut15.= 0.0041 °C/an. L'ensemble des simulations a été calculé pour des séquences qui ne se chevauchent pas pour la période 2001-2060. Les modèles du climat reposent sur les scénarios d'émission RCP4.5 (CMIP5) et A1B (CMIP3). L'inset montre un zoom sur la zone de 0% à 2% .

Note : Rappel sur l'utilisation des percentiles (on dit plutôt "centiles" en français).hvs5

En statistique, le quatre-vingt-quinzième centile est la valeur telle que 95 % des valeurs sont en dessous et 5 % sont au-dessus.
Le graphique ci-contre, à droite, montre que les segments de longueur 12 à 20 ans sont égaux ou en dessous du quantile à 2%. De 15 à 20 ans, le quantile est inférieur à 1% ce qui signifie que plus aucun modèle ne colle avec les observations. Il s'agit de la traduction statistique du fait que les modèles s'écartent des observations à mesure que le temps passe. Et ce ne sont pas les centièmes de degré des années 2013 ou 2014 qui y changeront quoi que ce soit.

 

Pour les segments de 10 ans, 6% (CMIP3) ou 8% (CMIP5) des tendances simulées sont plus petites ou égales aux tendances observées durant la période 1998-2012 - en accord avec les tests positifs antérieurs de cohérence pour la période 1998-2009(7). Cependant, pour les tendances des intervalles de 15 ans qui correspondent aux observations récentes pour la période 1998-2012, seulement 2% parmi les 62 tendances des modèles CMIP5 et moins de 1% des 189 tendances des modèles CMIP3 sont plus faibles ou égales aux tendances observées. Si nous appliquons le test standard de la valeur statistique critique de 5% (8), nous concluons que les projections des modèles sont incohérentes avec les observations récentes du réchauffement climatique durant toute la période 1998- 2012. (Notons cependant que la terminologie du test statistique standard, bien qu'elle soit très généralement utilisée, n'est pas, à strictement parler, appropriée dans ce cas : voir les Suppléments(9)). L'incohérence augmente rapidement avec l'augmentation de la durée de la tendance. La poursuite du taux de réchauffement actuel durant une période de 20 ans et plus tomberait en dehors de toutes les tendances simulées par l'ensemble de tous les modèles climatiques.


Qu'est-ce que ces incohérences impliquent pour ce qui est de l'utilité des projections climatiques pour le changement climatique anthropique ?

Nous sommes en mesure de suggérer trois explications possibles pour les divergences modèles/observations :

1) Les modèles sous-estiment la variabilité interne et naturelle du climat.
2) Les modèles climatiques sont en défaut parce qu'ils n'incluent pas de processus de forçage externe en complément du forçage anthropique, ou,
3) La sensibilité des modèles climatiques vis à vis du forçage externe anthropique est trop élevée.

La première explication est simple et plausible. La variabilité naturelle est la conséquence inévitable pour un système lent (le climat) en interaction avec un système rapide (le temps météorologique)(10). Le forçage d'un système lent par les composantes à basse fréquence (bruit blanc) du système rapide induit un "mouvement Brownien" représenté par un spectre de variance rouge - en accord qualitatif avec les observations.

Cependant, les détails de la réponse dépendent fortement de la dynamique interne du système lent dans les échelles de temps concernées - dans le cas présent, pour des échelles de temps de décennies. On sait depuis longtemps, d'après les rapports successifs du GIEC (4) que les modèles climatiques globaux contemporains n'ont qu'un succès limité dans la simulation de nombre de processus qui vont de la variabilité de la circulation océanique, aux événements ENSO [NdT : La Niña et El Niño], aux régimes des oscillations océans-atmosphère; aux variations de la glace de mer, à sa surface continentale, à la chimie de l'atmosphère et à la biosphère. L'incapacité de simuler la variabilité statistique interne du climat peut avoir été compensée, dans le passé, par l'ajustement des modèles par des forçages externes prescrits tels que les éruptions volcaniques et les aérosols troposphériques.

Ceci expliquerait pourquoi les simulations implémentées avec des forçages historiques des différentes GCM [NdT : modèles globaux du climat] tendent à être très proches et suivent de près les observations enregistrées. Ce "gonflage" artificiel (11) par une variabilité forcée au dépens de la variabilité naturelle imprévisible fonctionne, en réalité et seulement, pour la période d'ajustement et ne fonctionne plus du tout dans la phase post-ajustement, c'est à dire approximativement depuis l'an 2000. Le résultat net d'une telle procédure est une sous-estimation de la variabilité naturelle et une surestimation de la réponse à une variabilité forcée.

De fait, la seconde explication ne peut être exclue dans le contexte de l'ajustement traditionnel des modèles.La stagnation récente pourrait être attribuée à un forçage externe qui n'est pas inclus ou qui ne l'est pas de manière satisfaisante, dans les modèles actuels. Les éruptions volcaniques et l'ensoleillement sont des candidats fréquemment invoqués. Cependant, bien que les deux explications bénéficient de supporters, une augmentation récente de l'activité volcanique n'a pas été rapportée. Les variations de l'ensoleillement ou de l'activité solaire exigent des mécanismes d'amplification qui sont encore assez spéculatifs et qui pourraient contribuer à la diminution récente du réchauffement climatique (12,13).

Enfin, la surestimation par les modèles du réchauffement climatique pour la période 1998-2012 pourrait être en partie corrigée par la sensibilité climatique supposée au forçage radiatif. En principe, les sensibilités climatiques des modèles sont calibrées par un ajustement de la réponse climatique aux variations saisonnières et fonction de la latitude du forçage solaire tout autant que par le changement climatique observé dû à l'augmentation du forçage anthropique tout particulièrement durant le XXe siècle.
Il serait difficile de modifier la calibration des modèles de manière suffisamment significative pour reproduire le ralentissement du récent réchauffement climatique tout en satisfaisant à ces dernières exigences essentielles. Alors que l'ajustement de l'effet des aérosols peut aider à réconcilier la différence entre les observations et les tendances à long terme simulées (14) et, de fait, une étude récente (15) propose que la sensibilité réelle pourrait effectivement se trouver dans la partie la plus basse des modèles climatiques contemporains, une recalibration qui reproduirait la réduction du réchauffement durant les 15 dernières années apparaît difficilement réalisable. On ne sait pas si une recalibration récente des modèles CMIP5 a été entreprise mais les modèles CMIP3 ont été mis en oeuvre avant que la stagnation récente n'ait été détectée.

Nous ne souhaitons pas suggérer laquelle des ces trois possibilités est la plus probable. Nous laissons nos collègues en décider. Il est tout à fait possible que les trois facteurs contribuent dans une certaine mesure. Mais nous espérons que la nécessité de comprendre la stagnation récente du réchauffement climatique provoquera un accroissement des efforts pour parvenir à une simulation plus fiable de la variabilité climatique à l'échelle de décennies et à notre capacité à démêler les contributions relatives de la variabilité forcée (déterministe) de la variabilité interne (stochastique).

References:

1 Smith, T. M., et al. J. Climate, 21, 2283 (2008).
2 Morice, C.P, Kennedy, J.J.Rayner, N.A. & Jones, P.D. J. Geophys. Res. 117, D08101
doi:10.1029/2011JD017187 (2012).
3 Hansen, J., R. Ruedy, Mki. Sato, & Lo, K. Rev. Geophys., 48, RG4004, doi:10.1029/2010RG000345
(2010).
4. Solomon, S. et al. Climate Change, The Physical Science Basis, Camb. Univ. Press (2007).
5 Meehl, G. A., et al. Bull. Am. Meteorol. Soc. 88, 1383 (2007).
6 Taylor, K. E., et al.. Bull. Am. Meteorol. Soc. 93, 485 (2012).
7 Easterling, D.R. & Wehner, M.F. Geophys.Res. Lett. 36 L08706, doi:10.1029/2009GL037810 (2009).
8 Barnett et al., J. Climate 18, 1291 (2005).
9 von Storch, H. & Zwiers, F. Climatic Change 117, 1 (2013).
10 Hasselmann, K. Tellus 31, 473 (1976).
11 von Storch, H.. J. Climate 12 3505 (1999).
12 Meehl G.A., Arblaster, J.M., Matthes, K., Sassi., F. & van Loon, H. Science 325, 1114 (2009).
13 Shindell, D. T., G. Faluvegi, R. L. Miller, G. A. Schmidt, J. E. Hansen & Sun, S.
Geophys. Res. Lett., 33, L24706, doi:10.1029/2006GL027468.(2006).
14 Kiehl, J. T. Geophys. Res. Lett., 34, L22710, doi:10.1029/ 2007GL031383 (2007).
15 Otto, A., et al. Nature Geo. 6, 415 (2013).

2) Sensibilité climatique

On peut compléter les considérations développées par von Storch et al. pour ce qui concerne le point 3) qui concerne l'évolution récente de l'évaluation de la "sensibilité climatique" à un ajout de CO2 dans l'atmosphère. J'ai rapporté, dans cette page, de nombreuses déclarations faites par différents auteurs au sujet de l'amenuisement progressif de ce paramètre fondamental pour les théories en vigueur. Il suffit de rechercher le mot 'sensibilité' dans cette page pour retrouver les nombreuses citations qui en font mention.
Tout récemment, plusieurs investigateurs (dont celui-ci) ont eu l'idée d'illustrer l'évolution des différentes estimations de ce paramètre déterminant pour les théories de l'effet de serre. En bref, ils ont répondu à la question suivante :

"Quelle est la tendance de l'évolution de la sensibilité climatique" dans les publications (peer-reviewed) des climatologues lors de ces quinze dernières années".

hvs7

Le graphique ci-contre a été établi d'après les données collectées par Nic Lewis (billet en trois parties) qui est lui-même l'auteur de plusieurs articles peer-reviewed publiés sur la sensibilité climatique (par ex. celui-ci).

Selon les théories en vigueur, la "sensibilité climatique"correspondant à l'augmentation de la concentration du CO2 dans l'atmosphère est égale à l'élévation de température globale moyenne en °C pour un doublement de la concentration de CO2 dans l'atmosphère.
Ainsi une sensibilité égale à 2 provoquerait une augmentation de température de 2°C, par rapport à la température actuelle si la concentration du CO2 atteignait environ 800 ppm (nous en sommes à 400ppm).

On définit deux types de sensibilités climatiques :

-La sensibilité climatique à l'équilibre (ECS, equilibrium climate sensitivity, points rouges sur le graphique ci-contre) se rapporte au changement de la température du globe (à proximité de la surface) qui résulterait d'un doublement indéfiniment persistant du taux de CO2 dans l'atmosphère.

-La réponse climatique transitoire (TCR : Transient climate response. Les points bleus sur le graphique ci-contre) est définie comme la réponse moyenne de la température moyenne du globe sur une période de 20 années centrée sur le doublement du taux de CO2 dans une simulation numérique avec un taux de CO2 en augmentation de 1% par an.

De manière générale, la TCR est nettement plus faible que l'ECS du fait de l'inertie thermique de la planète et notamment de celle des océans.

La lecture de ce graphique est immédiate. Depuis l'années 2001, les différentes estimations des sensibilités climatiques (TCR et ECS) publiées dans la littérature on été pratiquement divisées par 2 au cours des années passées. C'est à dire que, si l'on s'en tient aux théories en vigueur, l'élévation moyenne de la température de la planète pour un doublement du taux de CO2 (par exemple si l'on passait de 400 à 800 ppm) serait de 1,3°C (pour la TCR) ou 1,7°C (pour l'ECS) par rapport à la situation actuelle, ce qui est très sensiblement moins alarmiste que les modèles du GIEC, (les plus pessimistes sont fréquemment cités dans les médias), qui donnent des sensibilités climatiques proches de 2 (TCR) et 3,5 (ECS). A noter que ce graphique omet l'estimation de Richard Lindzen qui voit une ECS inférieure ou égale à 1.
hvs9


Si l'on fait confiance aux scénarios du GIEC et si l'on estime que nous poursuivrons suivant la voie du scénario actuel proche de l'A1B (on peut difficilement anticiper de nouvelles croissances du type de celle de la Chine et l'utilisation des gaz de schistes a tendance à abaisser les émissions, comme, actuellement, celles des USA), les diagrammes du GIEC (ci-contre) nous indiquent que nous n'atteindrons pas les 700 ppm en l'an 2100 et donc que la hausse des températures sera très inférieure à 2°C.
Dès lors, on peut s'interroger sur le fondement des estimations des +4°C, +5°C, +6°C en 2100, énoncées fréquemment par diverses personnalités dans nos médias, tout particulièrement à l'approche de la COP21.

 

 

A noter, au sujet de l'article de Hans von Storch et de ses collègues que ce dernier a été refusé par la revue Nature, ce qui n'est guère étonnant compte tenu de l'orientation délibérée de cette revue (grise). Sans insister, Von Storch et ses collègues qui n'ont nul besoin d'étoffer leur CV et leur renommée, ont décidé alors de le publier sous la forme que j'ai indiquée. A remarquer également que, s'agissant du point 1 (i.e. "les modèles sous-estiment la variabilité naturelle du climat"), von Storch et ses collègues n'ont pas évoqué frontalement le complément logique de cette possibilité, pourtant déjà relevé par beaucoup, que si la variabilité naturelle permet d'expliquer "la stagnation des températures", il n'y a aucun raison qu'elle ne puisse pas, tout aussi bien, expliquer, au moins en partie, la hausse des températures qui s'est produite durant de la période précédente (1976-1998), sauf à prouver le contraire. Dès lors la remarque des auteurs "La première cause n'aurait qu'un faible impact sur les attentes à long terme du changement climatique anthropique" est prise en défaut.
Inévitablement, si la variabilité naturelle est également responsable (au moins en partie) du réchauffement précédent (il n'y aucune raison de supposer que la variabilité naturelle puisse seulement refroidir mais pas réchauffer), cela conduit inexorablement à une diminution de la sensibilité climatique au CO2 dont il faudrait impérativement tenir compte dans les modèles.

3) Le plus chaud de toute l'histoire (!) :

Peu d'entre nous ont sans doute pu échapper aux titres des multiples coupures de presse qui nous affirmaient, comme, par exemple, Le Figaro, que "Le mois de Juillet 2015 est le plus chaud de toute l'histoire".
On se perd en conjectures sur ce qui constitue le début de '"toute l'histoire" pour l'auteure de cet article mais ce qui est certain c'est qu'elle ne s'est donné aucun mal pour informer ses lecteurs. Par exemple, en répondant aux questions "Qui dit cela ?, Que disent les autres ?", "le plus chaud, mais de combien ? Est-ce significatif compte tenu des incertitudes des mesures ?". Les lecteurs de PU qui en ont vu bien d'autres, ne seront pas étonnés...

Pour notre part, et selon nos bonnes habitudes, nous avons voulu en savoir un peu plus. Voici donc les données officielles, au sujet des mois de Juillet successifs (depuis 1997), publiées par le Goddart Institue (GISS) de la NASA (très proche de la NOAA qui utilise la même base de données thermométriques qui est d'ailleurs la seule existante, à gauche, en bleu sur le graphique suivant) et par l'organisme indépendant RSS- MSU qui mesure, à l'aide de satellites et avec des algorithmes qui lui sont propres, la température de l'atmosphère proche de la surface de la planète ( à droite, en rouge sur le graphique suivant)..

hsv13

Suivant les conventions habituelles, les segments verticaux au dessus et au dessous de chaque point (carré) de mesure indiquent les marges d'incertitudes. Celles-ci sont de ±0.1°C pour la NASA (et le HadCRUT) et de ±0.08°C revendiqués par le RSS-MSU. Les zones en grisé indiquent les zones d'incertitudes centrées sur les dernières mesures publiées du mois de Juillet 2015.

Pour ce qui est des valeurs numériques rapportées par le GISS de la NASA, et comme on le voit sur le graphique, en réalité, la température globale revendiquée pour le mois de Juillet 2015 ne diffère que très très peu de celle des mois de 2011 et que les écarts sont très inférieurs aux marges d'incertitudes.

Selon la NASA, Juillet 2015 a été plus chaud que
Juillet 2011 de +0,01°C (un centième de degré !)
Juillet 2009 de +0,03°C
Juillet 1998 de +0,04°C
Compte tenu des marges d'incertitudes de ±0.1°C, en réalité, le mois de juillet 2015 est quasiment indiscernable de 9 à 12 autres mois de juillet des années précédentes. On peut faire un peu mieux en usant de méthodes statistiques élaborées à l'aide des centiles comme ci-dessus, si on admet que les méthodes d'homégénéisation des stations de mesure des températures sont valides.

Le graphique et les données du RSS-MSU nous racontent une toute autre histoire. La température de l'atmosphère proche de la planète au mois de Juillet 2015 n'a absolument pas battu de records. Les mois de Juillet 1998 et 2010 ont été très significativement plus chauds (environ +0,3°C) que Juillet 2015, comme on le voit sur le graphique. A noter que les données de la dernière version (V6) de l' UAH qui utilisent des satellites et des méthodes différentes du RSS-MSU, sont très proches de ces dernières.

Enfin, on peut avoir une idée des différences des couvertures des méthodes thermométriques (NASA GISS et NOAA) et des méthodes satellitaires (UAH et RSS-MSU) en observant les deux images suivantes :

A gauche, la couverture satellitaire des températures du globe selon l'UAH. La couverture satellitaire est pratiquement complète ( à l'exception de régions très proches des pôles) et sans discontinuité.
A droite, la couverture thermométrique du globe selon le GHCN (la source des données de la NOAA et du GISS de la NASA, ici seulement pour les terres émergées). La couverture thermométrique de la planète est très pauvre. Comme indiqué en bas à droite de l'image, les zones en grisé représentent les zones où il n'y a pas de donnée thermométrique. Les températures des zones en grisé sont alors calculées avec des algorithmes d"'homogénéisation". Autant dire que, dans ces conditions, prétendre à une incertitude de ±0.1°C sur la température moyenne du globe relève de l'exploit. Quant aux écarts de l'ordre du centième de degré revendiqués, ils relèveraient, au mieux, du voeu pieux ou du rêve éveillé.

hvs14hvs15

A noter que l'on voit très bien, sur ces deux images, que le mois de Juillet 2015 a été relativement chaud pour l'Europe du Sud (et, bien sûr, comme on le sait, pour la France). A l'inverse, il a été relativement froid pour le Nord de l'Europe, l'Est des USA, la Chine et le Sud de l'Australie.hvs16

Dans ces conditions, affirmer, comme Le Figaro et beaucoup d'autres, que "Le mois de Juillet 2015 a été le plus chaud de toute l'histoire" équivaut à prétendre départager Usain Bolt (9 s 79/100e au 100m) et Justin Gatlin (9 s 80/100e au 100m), lors du dernier championnat du monde de course sur cent mètres, avec un chronomètre "vintage" gradué en dixièmes de seconde.

Ce serait stupide, me direz-vous. Alors pourquoi les médias publient-ils des articles qui font exactement la même chose ?

S'il s'agit de préparer les esprits pour la COP21 - ce qui est probable - il faudra trouver des arguments autrement plus convaincants pour les lecteurs un tant soit peu informés.

4) Plusieurs collègues scientifiques sont intervenus récemment dans le débat en cours, dans le même sens que ce site. Parmi d'autres, en voici deux exemples :

-Un texte de Philippe de Larminat auteur d'un livre (Changement climatique, identification et projections) novateur que j'avais signalé dans la page des liens, au sujet d'une analyse critique de la théorie de l'effet de serre.
-Une présentation de François Gervais à l'Institut Schiller.

Et enfin, deux annonces (déjà signalées dans la page des liens) ,

-Lancement du "Collectif des Climato-réalistes". " ... Tous ceux, individus ou associations, qui désirent soutenir le Collectif sont les bienvenus. Le Collectif souhaite vivement s’élargir aux sensibilités les plus variées et incarner ainsi cette large frange de la société civile qui, au-delà de tout clivage partisan, ne se reconnaît pas — ou plus — dans les discours alarmistes et culpabilisants sur le climat." (écrire au CCR).
-l'AFCO est une association des "climat-optimistes" fondée par Christian Gérondeau qui a pout but de fédérer tous ceux qui s'inquiètent des conséquences du pessimisme climatique généralisé initié par le GIEC et entretenu par les media, nombre d'ONG et de politiques.

Stay Tuned

18 Juin 2015 : Le climatologue John Christy témoigne devant le Comité sur les Ressources Naturelles de la Chambre des Représentants US au sujet des prises de position de la Maison Blanche.

En bref, le message de Christy est simple :
" Voici ce que nous disent les observations factuelles. Elles contredisent les modèles numériques utilisés par les climatologues et le GIEC ainsi que les affirmations du Conseil de la Maison Blanche sur la Qualité Environnementale."
______________________________

Dans le prolongement du billet précédent qui rapportait les avertissements de Judith Curry, adressés à la Maison Blanche, lors de son récent témoignage auprès de la chambre des représentants US, j'ai choisi de vous présenter le témoignage du climatologue John R. Christy qui a été invité à présenter son point de vue et les résultats de ses observations, toujours à propos des projets de la Maison Blanche, devant un autre comité de la Chambre US, celui des Ressources Naturelles. Il faut observer que les textes de lois américains (des USA) concernant notamment l'environnement (dont le NEPA, le National Environmental Policy Act), précisent que les projets de l'Administration (Présidentielle) doivent nécessairement faire l'objet d'un examen "approfondi" par diverses instances du Congrès de ce pays.

L'original du texte du témoignage de John Christy dont j'ai traduit de larges extraits ci-dessous, est disponible sur ce site officiel.

Un enregistrement vidéo de son exposé est également disponible.
Cet enregistrement vidéo est accompagné de la mention
: "Ajoutée le 22 mai 2015 : Le 13 Mai 2015, le Comité de la Chambre sur les Ressources Naturelles a conduit un audit sur "Le schéma directeur, récemment révisé, du CEQ [NdT : Conseil de la Maison Blanche sur la Qualité Environnementale] de la Maison Blanche sur les émissions de gaz à effet de serre et sur leurs effets sur le changement climatique".
"Le National Environmental Policy Act de 1969 (NEPA) impose que les agences fédérales effectuent "un examen approfondi" sur les conséquences environnementales de leurs actions."

Voici l'en-tête de l'exposé de John Christy devant le comité de la chambre des représentants. christy-hncr9

Avant projet du schéma directeur du Conseil de la Maison Blanche sur la Qualité Environnementale au sujet des Emissions des Gaz à Effet de Serre et de leurs Effets sur le Changement Climatique.

Comité sur les Ressources Naturelles

13 Mai 2015

Témoignage de John Christy

Université de l'Alabama (Huntsville)

Suivi d'un traduction de la quasi-totalité de l'exposé (les caractères engraissés le sont par PU. Les caractères en italique sont de John Christy; de même que les notes placées entre crochets. Celles qui sont indiquées NdT (note du traducteur) sont de PU :

"Je suis John R. Christy. Je suis "Distinguished" Professeur [NdT: titre proche du titre de "Professeur de Classe Exceptionnelle" des universités françaises] des Sciences de l'Atmosphère, Climatologue de l'Etat de l'Alabama et Directeur du Centre des Sciences de la Terre de l'Université de l'Alabama à Huntsville. J'ai exercé les fonctions d'auteur principal, de contributeur et de relecteur pour les rapports du GIEC de l'ONU. J'ai été récompensé par la Médaille de la NASA pour Réussite Scientifique Exceptionnelle et, en 2002, j'ai été élu membre de la Société Météorologique Américaine.

C'est un privilège pour moi d'avoir l'opportunité de vous exposer mon analyse sur l'impact que les réglementations envisagées pourraient avoir sur le système climatique. Mon activité de recherche pourrait être mieux décrite comme l'élaboration de données, à partir de zéro, destinées à faire progresser notre compréhension de ce que fait le climat et pourquoi il le fait. J'ai utilisé les observations traditionnelles de surface aussi bien que les données issues des ballon-sondes et des satellites afin de documenter la question du climat. Nombre de nos données UAH sont utilisées pour tester les hypothèses sur la variabilité et le changement climatiques.

L'impact d'un (ou de plusieurs) projets fédéraux sur le climat : [NdT : Rappelons que John Christy est invité, par les élus, à analyser les conséquences potentielles du schéma directeur de la Maison Blanche en matière de changement climatique dans le cadre du NEPA (Décret sur la Politique Environnementale Nationale)].
[...]
Supposons, par exemple, que les émissions totales des Etats-Unis soient réduites à zéro, aujourd'hui même, le 13 Mai 2015. En d'autres termes et à partir d'aujourd'hui, il n'y aurait plus d'industrie, plus de voitures, plus de services publics, plus personne - c'est à dire que les Etats-Unis cesseraient d'exister à partir d'aujourd'hui. Partant de là, nous allons essayer de répondre à la question posée par le schéma directeur NEPA qui est, fondamentalement, celle-ci : quelle est "l'ampleur du changement climatique dû aux émissions des gaz à effet de serre ?".

[Note : Il semble qu'il existe une confusion à ce sujet . La déclaration NEPA semble requérir le calcul du montant du changement climatique résultant des niveaux d'émission de chaque projet, pris individuellement. Cependant, le schéma directeur du CEQ envisage "les effets potentiels d'une action sur le changement climatique selon les émissions de gaz à effet de serre envisagées". De fait, le schéma directeur du CEQ affirme que, d'une certaine manière, n'importe quelle émission de gaz à effet de serre est connectée à la totalité des conséquences supposées des gaz à effet de serre ajoutés.
C'est ainsi que le schéma directeur tend à affirmer que les émissions constituent un indicateur (un "proxy") pour les impacts négatifs du changement climatique (ce qui, comme nous le montrerons ci-dessous n'a pas été démontré) tout en passant sous silence toute évaluation de l'effet réel résultant des effets individuels.
De fait, il est inconcevable que le schéma directeur ne prenne même pas en compte les conséquences indubitablement positives d'une augmentation des émissions de gaz à effet de serre qui sont tout aussi quantifiables :
1) le prolongement et l'amélioration de la vie humaine au moyen de l'utilisation d'une énergie aisément accessible et,
2) le renforcement de la biosphère (tout particulièrement pour ce qui concerne la végétation utilisée comme aliments par les humains).
]

En utilisant le logiciel dédié du GIEC de l'ONU connu sous le nom de Modèle pour la Détermination du Changement Climatique Induit par les Gaz à Effet de Serre, MAGICC ( Model for the Assessment of Greenhouse-gas Induced Climate Change), un étudiant, Rob Junod, et moi-même avons calculé l'effet de la diminution de la progression des émissions globales avec la contribution des Etats-Unis en partant de la date de ce jour et en progressant vers l'avenir. Nous avons aussi utilisé la valeur de 1,8°C pour la sensibilité climatique à l'équilibre déterminée par les techniques empiriques.

Après 50 ans, l'impact calculé par ce modèle (MAGICC) serait de seulement une baisse de 0,05 à 0,08°C - c'est à dire une quantité plus petite que les fluctuations mensuelles de la température globale. [Ces calculs utilisent les scénarios d'émission A1B-AIM et AIF-MI avec des émissions des Etats-Unis comprises entre 14 et 17% des émissions gobales pour l'année 2015. Il existe des évidences indiquant que la sensibilité climatique serait inférieure à 1,8°C, ce qui abaisserait d'autant les résultats de ces projections.]

Du fait que les modifications des émissions de notre pays tout entier auraient un impact calculé aussi petit sur le climat du globe, il est évident que des projets isolés ou même de secteurs tout entiers de l'économie n'auraient que des impacts imperceptibles. En d'autres termes, il n'existerait aucune preuve, dans l'avenir, qui démontrerait un impact particulier sur le climat résultant des réglementations qui sont proposées. C'est pourquoi ces réglementations n'auront aucune conséquence significative et utiles sur la physique du système climatique - même si l'on est convaincu que les modèles sont utiles pour faire des prédictions.

Que vaut notre connaissance du climat ?

Il est important de comprendre que les projections sur le futur du climat et sur le lien spécifique que l'augmentation du CO2 pourrait avoir sur le climat ne sont, en réalité, définies que comme des hypothèses scientifiques ou comme des affirmations et non pas comme des preuves de ces liens. Les projections qui sont utilisées dans ce but, et dans d'autres buts politiques, sont basées sur les résultats de simulations numériques. Ces modèles sont des programmes complexes d'ordinateur qui tentent de décrire, à l'aide d'équations mathématiques, le plus grand nombre possible des facteurs qui affectent le climat et simulent, de cette manière, l'évolution future du climat. Les équations pour nombre des processus importants ne sont pas exactes mais elles représentent les meilleures approximations disponibles dont les modélisateurs peuvent disposer, au point où nous en sommes.

Un aspect fondamental de la méthode scientifique consiste à observer que si nous affirmons que nous comprenons un système (tel que le système climatique), il en résulte que nous devrions être en mesure de prédire son comportement futur. Si nous sommes dans l'incapacité de réaliser des prédictions correctes cela signifie qu'au moins certains facteurs du système sont mal compris ou, peut-être, manquants. [Note : cependant, le fait de simplement reproduire le comportement d'un système (c'est à dire de reproduire ce que fait le climat), n'offre aucune garantie que la physique fondamentale est correctement prise en compte. En d'autres termes, il est possible d'obtenir une réponse exacte pour de mauvaises raisons, c'est-à-dire que nous pouvons trouver "ce que fait le climat" tout en nous trompant sur les raisons pour lesquelles il le fait.]

Comprenons-nous comment les gaz à effet de serre affectent le climat, c'est à dire le lien qui relie les émissions et les effets climatiques ?

Une approche très fondamentale pour les études climatiques consiste à mesurer la température de la couche atmosphérique appelée la troposphère qui occupe l'espace compris entre la surface de la Terre et une altitude d'environ 50.000 pieds. C'est cette couche qui, d'après les modèles, doit se réchauffer de manière significative à mesure que le taux de CO2 augmente. Ce réchauffement résultant de l'effet du CO2, devrait être, à présent, aisément détectable, selon les modèles. Ceci constitue un bon test de la pertinence de notre compréhension du système climatique parce que, depuis 1979, nous disposons de deux méthodes indépendantes pour suivre l'évolution de cette couche atmosphérique. Nous bénéficions, d'une part, des satellites pour l'observer vue de dessus et d'autres part de ballons équipés de thermomètres et lâchés depuis la surface.


J'ai eu accès aux 102 résultats des simulations numériques des températures de l'atmosphère CMIP-5 rcp4.5 (représentatifs des trajectoires des variations de concentration) pour la couche troposphérique. J'ai reproduit les températures correspondantes, données par les modèles, pour effectuer une comparaison pertinente, entre éléments semblables [NdT : "apples-to-apples" en anglais], avec les observations des ballons-sondes et des satellites. Ces modèles ont été développés au sein de multiples institutions réparties sur tout le globe et ont été utilisés pour le rapport AR5 du GIEC (2013).

christy-hcnr1


Ci-dessus : Variations de la température moyenne de la moyenne troposphère globale (lissées sur 5 ans) pour 32 modèles représentant 102 simulations distinctes (représentées par des lignes continues). Les cercles (ballons) et les carrés (satellites) rendent compte des observations.
[NdT : La ligne épaisse de couleur rouge représente la moyenne des 102 modèles CMIP5 regroupés en 32 sous-ensembles).


Les informations contenues dans cette figure apportent une preuve évidente que les modèles ont une forte tendance à surchauffer l'atmosphère par rapport aux observations factuelles. En moyenne, les modèles réchauffent l'atmosphère globale avec un taux trois fois supérieur à ce qui se produit dans la réalité. Si nous faisions usage de la méthode scientifique, nous en conclurions que les modèles ne représentent pas correctement au moins certains des processus importants qui régissent le climat parce qu'ils ont été incapables de "prédire" ce qui s'est produit. En d'autres termes, ces modèles échouent au simple test destiné à nous dire "ce qui s'est réellement produit" et, en conséquence, ne seraient pas capables de nous apporter une réponse digne de confiance de ce qui "pourrait se passer" dans le futur et pourquoi. En tant que tels, ils seraient hautement problématiques pour déterminer une politique qui devrait reposer sur une compréhension tout à fait digne de confiance sur la manière dont fonctionne le système climatique.

Il existe une autre mesure apparentée qui utilise également la température de l'atmosphère mais qui, dans les modèles, montre une réponse encore plus importante que celles de la moyenne globale représentée ci-dessus. De fait, cette mesure fournit un test encore plus critique sur l'évaluation de la manière dont les modèles prennent plus spécifiquement en compte les gaz à effet de serre. Les modèles nous disent que l'atmosphère tropicale se réchauffe intensément en réponse à l'ajout de gaz à effet de serre - plus encore que la température moyenne globale de l'atmosphère.

christy-hcnr1b


Ci-dessus : Variations de la température moyenne de la moyenne troposphère tropicale (lissée sur 5 ans) pour 32 modèles représentant 102 simulations distinctes (lignes pointillés). Les cercles (ballons) et les carrés (satellites) rendent compte des observations.


La comparaison dans la zone des tropiques ci-dessus, met en évidence une divergence encore plus importante entre les modèles et les observations, avec des modèles qui, en moyenne, réchauffent cette région de l'atmosphère quatre fois plus que la réalité. Un tel résultat renforce l'idée que les modèles ont encore beaucoup de progrès à accomplir avant que nous puissions leur faire confiance pour fournir des informations sur ce que le climat fera dans le futur ou, même, sur les raisons pour lesquelles il le fera.

Pour ce qui nous concerne aujourd'hui, les estimations au sujet de la façon dont le climat pourrait être affecté par les réductions des émissions résultant de l'arrêt des projets, seraient abusives et dénuées de fiabilité. Il est évident que les émissions de gaz à effet de serre ne peuvent être utilisées comme un indicateur [NdT : proxy] pour un changement climatique envisagé du fait que notre capacité à démontrer comment les gaz à effet de serre influent sur le climat déjà observé est tellement défaillante.

christy-hcnr8

Note : Au cours des questions-réponses qui ont suivi son exposé, John Christy a montré un graphe encore plus explicite.

Le voici, ci-contre. Ce graphe montre une comparaison entre la moyenne des 102 modèles climatiques CMIP-5 (en rouge) pour la troposphère (globale) et la moyenne des observations correspondantes pour les deux systèmes satellitaires (Christy fait sans doute allusion aux deux institutions indépendantes RSS-MSU et UAH qui donnent des résultats très semblables) (les carrés) ainsi que la moyenne des 4 séries de résultats obtenus par les ballons-sondes (points bleus).

La divergence entre les modèles et les observations est particulièrement évidente. Ce graphe a été repris à de très nombreuses reprises dans la presse et les blogs anglo et germanophones.


Impacts supposés des changements climatiques anthropiques mentionnés dans le schéma directeur du Conseil de la Maison Blanche sur la Qualité Environnementale
(CEQ).


Comme il est écrit dans le paragraphe entre crochets ci-dessus [NdT : non rapporté ici], le schéma directeur du Conseil de la Maison Blanche sur la Qualité Environnementale tente d'établir un lien entre chaque émission de gaz à effet de serre avec tous les impacts supposés de ces émissions ce qui, comme je l'ai mentionné plus haut, apparaît incohérent avec le National Environmental Policy Act (NEPA). En d'autre termes, il est allégué que le CO2 est un indicateur (proxy) pour tous les changements climatiques dus aux activités humaines. En réalité, ces impacts revendiqués ne sont même pas corroborés de manière consistante par les observations factuelles.
Selon Le Conseil de la Maison Blanche sur la Qualité Environnementale
"des événements déjà observées de nos jours et projetés pour le futur incluent des vagues de chaleur plus intenses et plus fréquentes, des feux de forêts plus intenses, une qualité de l'air dégradée, de fortes pluies et des inondations plus sévères, des sécheresses en augmentation, un accroissement de la montée des eaux, des tempêtes plus intenses, des dégâts causés aux ressources hydriques, des dégâts causés à l'agriculture, à la vie sauvage et aux écosystèmes." (Section II.B pp 6-8.)

Un simple examen de ces changements climatiques revendiqués comme "déjà observés de nos jours" montrent que le Conseil de la Maison Blanche sur la Qualité Environnementale n'a pas, à l'évidence, tenu compte des données répertoriées de l'observation. Je vais donner ici plusieurs exemples qui montrent que ces affirmations sont des présentations tendancieuses.


Pour ce qui concerne les vagues de chaleur
, voici ci-dessous, le nombre des journées où la température a été supérieure ou égale à 100°F [NdT : environ 38°C], observées aux Etats-Unis et rassemblées dans une série fiable de données collectées par les stations de mesures météorologiques. Non seulement il est évident que le nombre des jours de forte chaleur n'a pas augmenté mais il est aussi intéressant de constater que, durant les années les plus récentes, nous avons assisté à une pénurie relative de ces périodes de forte chaleur.
christy-hcnr2


Ci-dessus : Moyenne par station de la fraction des journées durant chaque année qui ont atteint ou dépassé 100°F dans 982 stations de la base de données USHCN (NOAA/NCEL, préparée par JR Christy). Une valeur de 0,03 est équivalent à une moyenne de 11 jours par an avec des mesures supérieures à 99°F sur les 982 stations qui couvrent la totalité du territoire.


Les feux de forêts et de végétation
sont documentés pour les Etats-Unis. Les observations suivantes montrent qu'il n'y a pas eu de changement dans la fréquence des incendies. Les superficies affectées (non illustrées ici) montrent également peu de changement.
christy-hcnr3

Ci-dessus: Nombre des incendies de forêt et de végétation aux USA. Tandis que la gestion de ces événements a évolué, le nombre a évolué en parallèle mais le nombre de ces événements est resté constant depuis 1985.

christy-hcnr4


Ci-dessus : Nombre des feux de forêts par an aux USA depuis 1965.

Ces deux figures démontrent que la fréquence des incendies n'a pas augmenté aux USA durant les dernières décennies écoulées.
On peut, tout aussi bien, examiner, à l'aide des données observationnelles, la validité de l'affirmation selon laquelle les sécheresses et les inondations auraient augmenté.

christy-hcnr5
Ci-dessus : Fraction des surfaces, pour le globe, des zones à cinq niveaux de sécheresse de 1982 à 2012. La sécheresse est indiquée en classement des centiles avec D0 < 30, D1 < 20, D2 < 10, D3 < 5 and D4 < 2 centile de la disponibilité moyenne d'humidité (Hao et al. 2014)

christy-hcnr6


Ci-dessus : Fraction des surfaces des états contigus des USA [NdT : "Conterminous" désigne tous les états adjacents des USA donc sauf l'Alaska et Hawaï] en conditions très humides (en bleu) ou très sèches (en rouge). NOAA/NCEI.


Ces deux graphiques démontrent que les conditions d'humidité n'ont montré aucune tendance à la décroissance (en cas de plus de sécheresse) ou de croissance (en cas de pluies de plus grande extension).

Ce genre d'informations ne sont que rarement consultées quand il est simplement plus profitable de proférer des affirmations insubstanciées selon lesquelles les extrêmes d'humidité, c'est à dire les sécheresses et les inondations (qui ont toujours eu lieu) deviennent, de quelque manière, de plus en plus extrêmes. Sur des périodes de temps plus courtes et dans certains endroits, il apparaît que les précipitations intenses tendent à s'aggraver. Ceci n'est pas un phénomène universel et il n'a pas été établi que de telles variations peuvent résulter des modifications de la concentration des gaz à effet de serre, comme je l'ai montré si-dessus, parce les projections des modèles sont incapables de reproduire les plus simples des mesures.

christy-hcnr6

Ci-dessus : Production globale de céréales de 1961 à 2012. (Organisation pour l'alimentation et l'agriculture de l'ONU) [NdT : Wheat = blé, Rice = Riz, Coarse grains = céréales secondaires]


Trouver la documentation au sujet de la production qui apparaît en croissance ininterrompue, des céréales est une chose aisée. On se perd en conjecture au sujet de l'allégation du CEQ [NdT : Le Conseil de la Maison Blanche sur la Qualité Environnementale] selon lequel le changement climatique anthropique aurait créé des "dommages pour l'agriculture" du fait qu'en observant la hausse globale de la production qui semble s'accélérer, on supposerait plutôt qu'il n'y a pas eu de "dommage" durant la période de croissance des gaz à effet de serre.

Au vu des observations rapportées dans les exemples cités ci-dessus, il est évident qu'il apparaît difficile de supporter les affirmations au sujet d'une détérioration de la situation résultant du changement climatique anthropique ou, plus généralement, de soutenir que n'importe quel changement pourrait être directement lié à l'accroissement du CO2. Ceci est également à mettre en relation avec la pertinence des modèles climatiques mentionnée plus haut. Il est clair que les modèles climatiques sont loin de répondre aux attentes pour rendre compte de plusieurs questions très fondamentales relatives à la variabilité climatique parce qu'ils sont dans l'incapacité de reproduire "ce qui s'est produit" en ce qui concerne la température globale et, de ce fait, ils sont dans l'incapacité d'expliquer "pourquoi' les choses se sont passées ainsi. De ce fait, il est prématuré d'affirmer que nous connaissons les causes des changements d'une série de mesures exotiques de la météorologie telles que l'intensité des pluies sur des périodes limitées lesquelles ne sont même pas explicitement générées dans les sorties des modèles numériques.

En résumé, les informations présentées ci-dessus, montrent que le blocage de projets spécifiques ou même l'arrêt de secteurs tout entiers de l'économie dans les secteurs énergétiques n'auront aucun impact sur le système climatique du globe. De plus, les informations rappelées plus haut indiquent que la compréhension scientifique (c'est à dire les modèles du climat) sur la manière dont les gaz à effet de serre affectent le climat sont défaillants du fait qu'il n'existe pas de lien quantifié et établi entre la croissance des émissions et les changements spécifiques du climat non plus qu'avec les événements météorologiques extrêmes."

Conclusion :

Le texte de l'allocution de John Christy est destiné à un auditoire de décideurs politiques spécialisés dans la question des ressources naturelles. De ce fait, Christy présente un panorama nettement plus restreint et plus spécifique que celui de Judith Curry (présenté ci-dessous).

A l'évidence, le point saillant du témoignage de John Christy concerne la divergence observée entre les mesures de l'évolution des températures de l'atmosphère (la troposphère) et les projections/scénarios des modèles. Selon Christy qui rappelons-le est un (sinon le) spécialiste de ce genre de mesures par satellites et ballons-sondes, la stratosphère se réchauffe environ 3 fois (au niveau du globe) et 4 fois (sous les tropiques) moins que prévu par les modèles les plus récents.
De fait, il ne s'agit pas là d'un détail, mais bien d'un point crucial c'est à dire de l'échec apparent d'un test exigeant et incontournable des modèles de l'effet de serre et des rétroactions prises en compte par la communauté des modélisateurs en climatologie. En effet, les théories de l'évolution de l'effet de serre censé provoquer un réchauffement climatique anthropique trouvent leur source dans la physique de l'atmosphère à des altitudes et dans les zones de la troposphère testées par Christy.

Les questions qu'un observateur indépendant peut se poser sont alors les suivantes :

1- Les mesures satellitaires de John Christy (et Roy Spencer) pourraient être erronées ?
Ceci est très peu probable parce que ces mesures satellitaires sont confirmées par des mesures totalement indépendantes fournies par les ballons-sondes. D'autre part, et comme on le sait, il existe deux organismes totalement indépendants (RSS-MSU et UAH) qui mesurent les températures de l'atmosphère par satellites. Les méthodes et les satellites utilisées sont différents pour ces deux organismes et elles donnent des résultats sensiblement concordants.

2- Les températures relevées à la surface de la planète qui servent de référence pour les facteurs x3 et x4 pourraient être biaisées et le réchauffement de la surface serait largement surestimé par les mesures thermométriques traditionnelles utilisées par le GISS (NASA), la NOAA et le HadCRUT (UK) ?
Ceci n'est pas totalement exclu car il n'existe, en réalité, qu'un seul jeu d'instruments de mesure répartis sur la surface de la planète et le plus souvent mal adaptés au but poursuivi. D'autre part, la mesure de la température "moyenne" de la planète avec la précision requise est une tâche très difficile compte tenu du grand nombre de "corrections" à apporter aux résultats bruts de lecture des thermomètres. Enfin , on observe une divergence croissante entre les mesures satellitaires de la basse atmosphère et les mesures "Terrestres", qui est devenue particulièrement apparente au cours des derniers mois écoulés. Dans cette hypothèse, il est inutile de préciser que les mises en garde "ne pas dépasser les +2°C" énoncées et répétées par les décideurs n'aurait, ipso facto, plus aucun sens.

3- Les modèles numériques climatiques reposeraient sur une compréhension de la physique du climat défaillante ?
Ceci n'est pas exclu non plus, compte-tenu de la complexité de la problématique du climat et des nombreuses inconnues qui restent encore à élucider (tels que les nuages, l'impact des oscillations océaniques, entre autres) et du nombre d'hypothèses peu ou non validées qui sous-tendent la mise en équations du système climatique.
Dans ce cas, au vu des mesures présentées par John Christy, il est évident qu'il serait impossible d'accorder la moindre confiance aux prédictions/scénarios climatiques envisagés pour la fin du siècle. En particulier, le fameux objectif à atteindre, revendiqué par les politiques d'une limitation à 2°C du réchauffement n'a évidemment plus aucune signification.

Il est donc crucial de résoudre le problème soulevé par John Christy et rapporté dans ce billet : Qui est dans l'erreur ?
Les mesures dans l'atmosphère, les mesures thermométriques à la surface, les modèles des prédictions/scénarios numériques utilisés par le GIEC ? Où est l'erreur ?

Il peut paraître curieux que, connaissant ces observations, la communauté des climatologues et notamment celle qui participe aux rapports du GIEC ne s'en soit guère préoccupé. D'autant plus, que le Professeur Syukuro Manabe qui est considéré comme le "père fondateur" des modélisations de l'effet de serre, avait publié un article, il y a quatre ans, en 2011, dans lequel il s'inquiétait, lui aussi, de la divergence entre les modèles et les observations dans l'atmosphère (tropicale).

J'avais signalé son article à l'époque :

"Au sujet du réchauffement de la haute troposphère tropicale : Les modèles comparés aux observations"
"On the warming in the tropical upper troposphere: Models versus observations"
Qiang Fu, Syukuro Manabe, and Celeste M. Johanson

GEOPHYSICAL RESEARCH LETTERS, VOL. 38, L15704, doi:10.1029/2011GL048101, 2011
publié le 4 Août 2011.


Cet article de 2011 montrait une divergence analogue à celle qui se poursuit encore de nos jours, quatre ans après, et qui est présentée, avec des résultats complétés et améliorés par John Christy. Le résumé et le corpus de l'article de Manabe et de ses collègues s'achevaient par cet avertissement que j'ai déjà cité :

[...]"Au vu de l'importance de l'évaluation de l'augmentation du réchauffement de la haute troposphère tropicale vis à vis de la sensibilité climatique et de l'évolution des circulations atmosphériques, il est d'une importance fondamentale de comprendre les causes possibles du désaccord entre les modèles et les observations."

Dans ces conditions et compte tenu du désaccord persistant entre les observations et les modèles de l'atmosphère, laquelle se trouve au coeur de notre compréhension de la physique du climat, il peut paraître, pour le moins, imprudent et hasardeux de tirer, à partir de modèles éventuellement invalidés, des plans sur l'avenir du climat de notre planète pour les futures décennies.

C'est pourtant ce que la communauté internationale est invitée à faire au cours des mois à venir.

Stay tuned !

16 Mai 2015 : La climatologue Judith Curry met en garde la chambre des représentants curry2015 US au sujet de la politique climatique du Président Obama.

Ce mois-ci, j'ai choisi de vous présenter une traduction de l'essentiel de la déclaration de la climatologue Judith Curry auprès de la Chambre des Représentants US (l'équivalent de la Chambre des Députés française) au sujet des engagements pris par le Président Obama auprès de l'ONU (sans consultation préalable du congrès US), prononcée lors de sa séance du 15 Avril 2015. L'original de cette déclaration est ici.

En effet, ce texte qui émane d'une professionnelle chevronnée et reconnue dans le domaine de la climatologie, résume parfaitement et de manière aisément accessible, notamment pour un personnel politique non spécialiste de ces questions, l'essentiel des anomalies ou/et des incertitudes qui affectent actuellement "l'épineuse question" du "changement climatique" (que Judith Curry qualifie volontiers de "wicked problem", un problème pernicieux).

De fait, la déposition de Judith Curry me semble emblématique des informations qui pourraient être utilement communiquées à nos propres responsables politiques et notamment à ceux qui se sont engagés dans le processus d'organisation de la COP21 qui se tiendra à Paris en cette fin d'année.

Vous retrouverez ici, clairement résumés par la plume de Judith Curry, un certain nombre des constats factuels sur l'évolution des températures, sur celle des glaces polaires, sur les divergences entre les modèles et les observations, sur l'exagération de la sensibilité climatique au CO2, sur le prise en compte croissante de la variatibilité naturelle, longtemps négligée, et plus généralement sur l'état de la science climatique que j'ai fréquemment évoqués au cours de mes précédents billets.

Les caractères engraissés dans la traduction du texte de Judith Curry (cadre bleu-vert) sont le fait de PU. Ils sont destinés à attirer l'attention sur des points clefs. Hormis les sous-titres en caractères gras, le texte original en est dépourvu.

Voici une traduction de l'en-tête de la déposition de Judith Curry.

DECLARATION PRESENTEE DEVANT LE COMITE POUR LA SCIENCE, L'ESPACE ET LA TECHNOLOGIE DE LA CHAMBRE DES REPRESENTANTS DES ETATS-UNIS D'AMERIQUE

Audit sur
"L'engagement du Président des Etats-Unis auprès de l'ONU sur le Climat "

15 Avril 2015

Judith A. Curry
Institut de Technologie de Géorgie

Judith Curry a fait précéder le texte de sa déclaration par le bref résumé que voici :

"Les points principaux :

La recherche et les données récentes vont dans le sens de l'importance de la variabilité naturelle du climat. Ils remettent en question la conclusion que les humains sont la cause principale du changement climatique récent.

• La suspension du réchauffement climatique depuis 1998.
• Les estimations à la baisse de la sensibilité du climat au dioxyde de carbone.
• Les modèles climatiques prédisent beaucoup plus de réchauffement que celui qui a été observé au début de ce XXIe siècle.

Nous (NdT : La communauté des climatologues, le GIEC etc.) avons fait plusieurs choix qui posent problème quant à la définition de la situation du changement climatique et aux remèdes à y apporter.


• La définition d'un changement climatique "dangereux" est ambiguë et suppose l'existence de points de basculement catastrophiques qui sont considérés comme très peu, ou extrêmement peu, probables au cours du XXIe siècle.

Les efforts poursuivis dans le but d'établir un lien entre les catastrophes résultant des extrêmes climatiques avec le réchauffement climatique causé par l'homme, sont trompeurs et ne sont pas supportés par les observations.

• Le changement climatique est un problème épineux qui est mal adapté à une solution de "commandement et de contrôle".

Il a été estimé que l'engagement des USA (INDC, Intended Nationally Determined Contribution) d'une réduction de 28% des émissions, réduirait de 0,03°C le réchauffement en 2100 (NdT : soit une baisse de quelques millièmes de degré pour des mesures équivalentes prises par la France).

Le caractère inadapté des politiques engagées qui reposent sur le Principe de Précaution laissent totalement sans solution les conséquences réelles du changement climatique et des événements météorologiques extrêmes (que ceux-ci résultent de la variabilité naturelle ou soient causés par l'humanité) :

• Nous devrions élargir le cadre de pensée pour la politique climatique et nous devrions fournir aux décideurs un choix plus vaste d'options lorsqu'il s'agit de gérer les risques liés au changement climatique.

• Des solutions pragmatiques reposant sur des efforts pour accélérer l'innovation en matière d'énergie, pour accroître notre résilience aux événements météorologiques extrêmes et pour poursuivre des mesures effectives de réduction de la pollution, ont des justifications indépendantes de leurs bénéfices en terme d'atténuation du changement climatique et d'adaptation."

Voici de larges extraits de la déposition de Judith Curry.
Je n'ai pas inclus les nombreuses références/citations qui documentent le texte initial et qu'on pourra retrouver dans l'original..


"Je remercie le Président et le Comité pour me donner l'opportunité d'apporter mon témoignage, aujourd'hui, au sujet de "L'engagement du Président auprès de l'ONU sur le climat". Je suis Professeur et ancienne Présidente de l'Ecole des Sciences de l'Atmosphère et de la Terre du Georgia Institute of Technology. En tant que climatologue, j'ai consacré 30 années à la poursuite de recherches sur une quantité de sujets qui incluent les processus de rétroaction de l'Arctique, sur le rôle des nuages et des aérosols sur le système climatique et sur l'impact du changement climatique sur les caractéristiques des cyclones tropicaux. En tant que Présidente du Réseau des Prévisions Climatiques LLCC, j'ai eu l'occasion de travailler avec les décideurs sur les questions d'attribution des impacts climatiques, de développer des stratégies d'adaptation au climat et de mettre en oeuvre des stratégies de prévision climatique sub-saisonnière dans le but de définir une politique et une tactique d'adaptation.

Je suis de plus en plus inquiète de constater que, tout à la fois, la question du changement climatique et ses solutions ont été envisagées de manière exagérément simplistes.
Ma recherche sur la compréhension de la dynamique de l'incertitude à l'interface de la politique du changement climatique m'a conduit à me questionner sur le fait de savoir si ces dynamiques fonctionnent de manière saine aussi bien pour la science que pour le processus politique.

Il en résulte que je suis préoccupée parce que l'engagement des USA (INDC : Intended Nationally Determined Contribution, la contribution envisagée à l'échelle nationale) auprès de la Convention Cadre des Nations Unies sur le Changement Climatique (UNFCC) ne fera pratiquement rien pour changer le climat et que les USA et les autres nations resteront vulnérables face aux surprises climatiques et aux événements météorologiques extrêmes.

Mon témoignage se concentre sur les points suivants qui sont essentiels pour l'engagement des USA (INDC).

• L'affaiblissement des éléments de preuves supportant la notion d'un changement climatique dangereux et d'origine anthropique.
• Le challenge de la réponse au changement climatique.
• L'élargissement des options pour répondre au changement climatique.

Un affaiblissement des preuves supportant la notion d'un changement climatique dangereux et d'origine anthropique.

Les scientifiques sont d'accord sur le fait que les températures de surface ont augmenté depuis 1880, que les humains ont ajoutés du dioxyde de carbone dans l'atmosphère et que le dioxyde de carbone et les autres gaz à effet de serre ont un effet réchauffant sur la planète. Cependant, il existe un désaccord considérable sur les questions qui ont le plus d'importance du point de vue des conséquences :

• Sur la question de savoir si le réchauffement constaté depuis 1950 a été dominé par des causes anthropiques.
• De combien la planète va-t-elle se réchauffer au cours du XXIe siècle ?
• Sur la question de savoir si le réchauffement est "dangereux".


Le point crucial dans le débat au sujet du changement climatique est de savoir dans quelle mesure le récent (et futur) réchauffement résulte des émissions anthropiques de gaz à effet de serre par rapport à la variabilité naturelle du climat
- c'est à dire les variations causées par le soleil, les éruptions volcaniques et la circulation océanique à grande échelle. Ma contribution devant le Comité pour l'Environnement et les Travaux Publics du Sénat en 2014, faisait remarquer que le support à la thèse du changement climatique anthropique dangereux était en retrait dans le document du GIEC de 2013 (GIEC AR5 WGI) par rapport au document du GIEC (AR4) publié en 2007.

Je présente ici un résumé des observations et des travaux récents qui vont dans le sens de la variabilité naturelle et qui remettent en question les conclusions du GIEC
que les humains sont la cause principale du changement climatique récent. L'implication, en matière de politique, de ces considérations sont que si les humains ne sont pas la cause dominante du changement climatique, les tentatives pour modifier le climat en réduisant les émissions de gaz à effet de serre n'auront que peu d'impact sur le changement climatique futur.

Le hiatus du réchauffement climatique :

Le rapport AR5 du GIEC note un ralentissement du réchauffement de la surface depuis 1998 :

Le taux de réchauffement durant les 15 dernières années (1998-2012) est de 0.05 [de –0.05 à +0.15] °C par décennie, ce qui est inférieur au taux calculé depuis 1951 qui est 0.12 [de 0.08 à 0.14] °C par décennie.
[...]
Les médias ont promu l'idée que 2014 était 'l'année la plus chaude" des données historiques, mais, étant données les incertitudes, 2014 était statistiquement indiscernable de 2010 et 2005. Les données du HadCRU qui sont peut-être les plus réalistes du point de vue des incertitudes, ont montré que 2014 se classait parmi les dix années les plus chaudes qui ont toutes eu lieu depuis 1998. Bien que la dernière décennie ait été la plus chaude de l'histoire, les données pour l'année la plus chaude ne font que prolonger le plateau du réchauffement.

Ainsi, constations nous que nous n'avons pas observé de hausse de température depuis 1998 alors que cette période a connu une augmentation égale à 25% du total des émissions de CO2 anthropiques.

Ce hiatus contredit les conclusions du rapport AR4 (2007) du GIEC qui avait prévu un réchauffement avec un taux de 0.2°C par décennie au début du XXIe siècle. Un grand nombre d'articles scientifiques ont mis en lumière l'importance de la variabilité naturelle associée avec la circulation dans les océans Pacifique et Atlantique dont on pense, à présent, qu'ils sont la cause principale du hiatus. Si le hiatus récent du réchauffement résulte de la variabilité naturelle, alors ceci pose la question de savoir dans quelle mesure le réchauffement qui s'est produit entre 1975 et 1998 peut être, lui aussi, expliqué par la variabilité naturelle du climat.

Le rapport AR5 du GIEC reconnaît le rôle important joué par la variabilité naturelle dans le comportement des variations des banquises polaires et dans les variations à l'échelle multidécennale. Néanmoins, le rapport AR5 du GIEC a conclu que : "

Il est très probable que la banquise arctique continuera à diminuer et s'amincira tout au long de l'année au cours du XXIe siècle. Il est aussi probable que l'océan arctique deviendra presque libre de glace en Septembre avant le milieu du siècle (confiance moyenne)

Voici les observations satellites de la variabilité des banquises (Ndt : Arctique à gauche, Antarctique à droite) jusqu'à la fin 2014.

seaice2015


En 2013 et 2014, la banquise arctique a récupéré depuis les minimas estivaux observés dans la période 2007-2012.

Il est remarquables que le volume de la glace arctique (une métrique qui combine l'extension horizontale et l'épaisseur de glace) montre une augmentation continue depuis 2012.
Durant l'année 2014, la glace antarctique a établi un record maximum hivernal. Un article récent de Swart et al. insiste sur le fait que la variabilité naturelle interne du climat peut masquer ou augmenter les pertes de glaces d'origine anthropique sur des échelles temporelles qui se prolongent sur des décennies voire sur un siècle. Un nouvel article de Zhang clarifie la question des fluctuations naturelles qui influent sur les pertes de la banquise arctique - la chaleur transportée par l'Atlantique et le Pacifique et la structure des vents au dessus de l'Arctique poussent la glace de mer en dehors de la partie centrale de l'Arctique où elle fond dans l'Atlantique Nord. En particulier,
le refroidissement récent des hautes latitudes de l'Atlantique Nord est associé avec la récupération actuelle de la mer glacée dans le secteur Atlantique.

Il est évident qu'il se passe beaucoup de choses au sujet de la variabilité des banquises arctique et antarctique et ceci ne peut être expliqué directement, ou même indirectement, par le réchauffement dû aux gaz anthropiques à effet de serre. Les modèles climatiques ne simulent pas correctement le transport de chaleur dans les océans, non plus que ses variations. Les scientifiques ne sont pas d'accord sur les raisons de l'augmentation de l'extension de la banquise antarctique et la question clef qui consiste à savoir si le réchauffement anthropique en est la cause principale, demeure sans réponse.

Sensibilité

Le réchauffement causé par l'homme dépend non seulement de l'augmentation des gaz à effet de serre mais aussi de la "sensibilité" du climat à cette augmentation.
La sensibilité climatique est définie par l'augmentation de la température de surface qui résulte d'un doublement de la concentration de l'atmosphère en dioxyde de carbone. Si la sensibilité climatique est élevée nous pouvons nous attendre à un réchauffement substantiel au cours du siècle à venir si les émissions continuent à augmenter. Si la sensibilité climatique est faible, le réchauffement à venir sera substantiellement plus faible.
La définition la plus adaptée de la sensibilité climatique est le changement de température de surface en 70 ans si la concentration en dioxyde de carbone est doublée. Ceci est connu sous le nom de " réponse transitoire du climat".
Le rapport AR4 du GIEC (2007) a conclu que la réponse transitoire du climat est très probablement supérieure à 1°C et très improbablement supérieure à 3°C. Le rapport AR5 du GIEC (2013) a conclu que la réponse transitoire du climat se situe probablement [ probabilités 17 à 83%] dans le domaine de 1°C à 2,5°C.

L'année dernière, Nicholas Lewis et moi avons publié un article qui montrait que la réponse transitoire du climat se trouvait probablement dans le domaine de 1.05°C à 1,8°C. A partir d'une approche observationnelle du bilan énergétique, nos calculs utilisaient les mêmes données sur les variations de l'équilibre énergétique de la planète soumise aux changements dus aux gaz à effet de serre, aux aérosols et aux autres pilotes du changement climatique utilisés dans le rapport AR5 du GIEC. Notre domaine pour la réponse transitoire du climat est plus resserré avec des limites hautes beaucoup plus basses que celles qui ont été rapportés par le rapport AR5 du GIEC.
Des résultats de recherche récents suggèrent des valeurs encore plus faibles pour la réponse transitoire du climat. La plus grande incertitude dans ces estimations provient des effets des petites particules d'aérosols contenues dans l'atmosphère, lesquelles induisent un refroidissement du climat (qui compense en partie le réchauffement dû aux gaz à effet de serre). Un article récent de Stevens trouve une limite inférieure pour l'impact des aérosols sur le climat qui est sensiblement plus faible que celui qui est postulé dans le rapport AR5 du GIEC. Nicholas Lewis a repris les calculs en utilisant les estimations de l'impact des aérosols en accord avec cet article (NdT : cad de Stevens). Le domaine probable d'évolution de la réponse transitoire du climat est alors de 1.05 à 1.45°C. Ceci contredit les estimations de la plupart des modèles climatiques dont la réponse transitoire est supérieure à 1,8°C. Les recherches se poursuivent pour valider les méthodes utilisées pour estimer la sensibilité climatique. Cependant, l'estimation à la baisse de l'effet du refroidissement dû aux aérosols conduit inévitablement à des réductions de la limite haute de la sensibilité climatique.

Les modèles du climat indiquent-ils trop de réchauffement ?


Ces récentes estimations de la sensibilité climatique combinées avec le ralentissement ou le "hiatus" du réchauffement depuis 1998, viennent s'ajouter aux éléments de preuve croissants que les modèles du climat ont tendance à "surchauffer" la planète.
Les projections à moyen terme des modèles climatiques sont indiquées ci-dessous, en comparaison avec les observations de la température du globe jusqu'à la fin 2014. RCP2015

 

Les températures globales observées, en particulier depuis 2011, sont plus basses ou juste à la limite inférieure de l'enveloppe (probabilité de 5 à 95%) des modélisations climatiques CMIP5. De manière générale, la tendance des simulations numériques est considérablement plus forte que la tendance observée depuis plus de 15 ans.

Remarquez que la zone hachurée semble être une concession au "hiatus". Le GIEC cite "le jugement des experts" comme justification pour abaisser les projections (indiquées par la zone hachurée en rouge) pour prendre en compte l'hypertrophie apparente de la sensibilité par les modèles.


Au vu des projections des modèles climatiques, la probabilité que le hiatus se prolonge au delà de 20 ans est infiniment petite.
Le hiatus du réchauffement combiné avec les résultats de recherche qui montrent que les sensibilités des modèles climatiques sont trop élevées, pose de sérieuses questions quant à la pertinence des projections climatiques pour le XXIe siècle pour servir de base à la prise de décisions politiques. Ainsi :

• Les modèles climatiques sont-ils trop sensibles au forçage des gaz à effet de serre ?
• La prise en compte de la variabilité naturelle par les modèles est-elle inadéquate ?
• Le projections des modèles climatiques pour le XXIe siècle sont-elles exagérées dans le sens du réchauffement ?


Quid du climat du 21e siècle ?

La question la plus préoccupante est de savoir comment le climat va évoluer durant le 21e siècle.
Il y a deux point de vue distincts en réponse à cette question. RCP22015

Le premier point de vue est celui exprimé par le GIEC lequel projette un réchauffement continu tout au long du 21e siècle dont il s'attend à ce qu'il dépasse le seuil "dangereux" d'un réchauffement de 2°C dès 2040. La figure ci-contre qui provient du Résumé pour les Décideurs (SPM) du rapport AR5 du GIEC montre les projections climatiques pour le 21e siècle selon les modèles RCP8.5 qui prennent en compte une progression des émissions de gaz à effet de serre dans l'hypothèse où le comportement actuel reste inchangé.


L'autre point de vue insiste sur la variabilité naturelle.

• Notre compréhension des régimes de circulation des océans Atlantique et Pacifique (hypothèse de l'onde de stade) suggère que
le "hiatus" se poursuivra pendant, au moins, encore une décennie et peut-être jusque dans les années 2030. La banquise arctique regagnera en extension au cours des deux prochaines décennies.

• Les modèles climatiques sont trop sensibles au forçage anthropique.
Le réchauffement du 21e siècle se trouvera dans l'extrémité basse des projections du GIEC (ou même, peut-être, en dessous).

• Les variations du soleil et les éruptions volcaniques représentent un joker. Des scientifiques russes avancent l'idée qu'il y a eu un Grand Maximum Solaire qui est survenu en 2000 et que nous pouvons nous attendre à un Grand Minimum Solaire (qui contribuerait au refroidissement) vers 2060.

• Et enfin, nous ne pouvons écarter la possibilité de surprises imprévues. Le hiatus du réchauffement survenu au début du 21e siècle a été une surprise imprévue.

L'avenir nous dira lequel de ces deux points de vue est correct.

Résumé :

Le changement climatique anthropique est une théorie dont le mécanisme de base est bien compris mais dont l'amplitude est hautement incertaine. Nous savons que le climat évolue naturellement sur des échelles de temps allant de décennies aux siècles mais nous n'avons pas d'explication pour un grand nombre de variations répertoriées au cours de l'histoire ou vues dans les données paléo-climatiques. Ces dernières incluent le réchauffement de 1910 à 1940, le refroidissement de la moitié du 20e siècle et les hiatus observé au début du 21e siècle. Les désaccords au sujet du changement climatique résultent de l'incertitude reconnue au sujet de la variabilité naturelle du climat.

Les projections des modélisations du climat pour le 21e siècle voient leur crédibilité s'amenuiser à cause de :

• L'échec des modélisations dans la prédiction du hiatus du réchauffement de la surface au début du XXe siècle.
• L'incapacité de simuler l'organisation et le timing des oscillations océaniques multidécennales.
• L'absence de la prise en compte des variations solaires futures et des effets indirects du soleil sur le climat.
• L'apparente exagération de la sensibilité vis à vis de l'augmentation des gaz à effet de serre.

Ainsi, comment le climat du 21e siècle va-t-il évoluer ?

Outre le manque de confiance dans les projections des modèles climatiques qui se focalisent principalement sur l'impact de l'augmentation des gaz à effet de serre, notre connaissance est insuffisante pour être capable de projeter les effets des variations du soleil, les conséquences des éruptions volcaniques futures et des variations décennales et centennales de la circulation des profondeurs océaniques.
Nous ne pouvons pas éliminer la possibilité d'une continuation du hiatus ou même d'un refroidissement à venir durant une partie du 21e siècle.
Nous ne pouvons pas prévoir, avec la moindre certitude, comment les variations solaires, les éruptions volcaniques, les circulations océaniques et l'influence humaine vont interagir pour déterminer l'évolution du climat durant le 21e siècle et les scientifiques ne sont pas d'accord sur lequel de ces facteurs dominera les autres.

[...]

Le changement climatique est-il dangereux ?

La question cruciale pour ce qui est du changement climatiques est celle-ci : Le réchauffement climatique est-il dangereux ?
La convention internationale de l'ONU, l'UNFCC (1992) affirme que son objectif est de parvenir à " la stabilisation de la concentration des gaz à effet de serre à un niveau qui éviterait une interférence anthropique dangereuse avec le système climatique".

Les troisième et quatrième rapports du GIEC font état de "raisons d'inquiétude". Ce n'est qu'en 2010 qu'une clarification au sujet du mot "dangereux" a été apportée par les négociateurs internationaux de l'ONU. En 2010 les gouvernements sont tombés d'accord sur le fait que les émissions doivent être réduites de manière à ce que l'augmentation de la température du globe soit limitée à 2°C. La cible des 2°C est demeurée le point central des accords internationaux et des négociations bien que cette définition reste controversée et soit actuellement remise en question.

La justification originale de la cible des 2°C repose sur l'idée que des "points de basculement", - c'est à dire des transitions abruptes et non linéaires vers une état différent - pourraient se produire si ce seuil était franchi avec des conséquences qui seraient grandement non maîtrisables et hors de notre contrôle.
Le rapport AR5 du GIEC a envisagé la possibilité d'un certain nombre de points de basculement incluant la disparition de calottes glaciaires, l'effondrement de l'AMOC ( NdT : dont fait partie le Gulf Stream) et le relâchage du carbone par le pergélisol.
Chacun de ces scénarios catastrophiques a été analysé par le GIEC (table 12.4) et ils se sont vus attribuer des qualificatifs de "très improbable" et "exceptionnellement improbable" ou bénéficient d'une faible confiance. Le seul point de basculement que les GIEC considère comme probable pour le 21e siècle est la disparition de la glace arctique en été (qui se reforme en hiver quoiqu'il arrive). [...]

En dépit de cela, le seuil de 2°C est utilisé dans un but politique pour motiver sur l'urgence à agir pour limiter les émissions de CO2.
Lors d'un récent sommet climatique de l'ONU, le secrétaire général
Ban-Ki-Moon a averti que " En l'absence de réductions significatives des émissions de tous les pays et dans des secteurs clefs, la fenêtre d'opportunité pour rester dans la limite des 2°C ( de réchauffement) sera fermée pour toujours." En réalité, cette fenêtre d'opportunité pourrait rester ouverte beaucoup plus longtemps encore. Les valeurs plus faibles de la sensibilité climatique trouvées par Lewis et Curry et par d'autres études récentes impliquent que l'on s'attend à ce que le réchauffement climatique anthropique ne dépassera pas la limite "dangereuse" des 2°C au cours du 21e siècle. Un taux d'augmentation plus faible du réchauffement signifie qu'il est moins urgent d'éliminer les émissions de gaz à effet de serre et que l'on dispose de plus de temps pour trouver des solutions acceptables du point de vue économique pour décarboner l'économie. Cela procure aussi plus de flexibilité pour réviser nos politiques au fur et à mesure que de nouvelles informations deviendront disponibles. [...]

Une cascade d'informations biaisées

Le changement climatique peut exacerber les problèmes environnementaux qui résultent de la surpopulation, de l'utilisation mal programmée des sols et de la sur-exploitation des ressources naturelles. Cependant il est très difficile de séparer les impacts des variations climatiques anthropiques de ceux qui résultent des variations naturelles du climat et des autres impacts sociétaux.

Il n'en reste pas moins que le changement climatique est devenu l'objet d'un grand plaidoyer selon lequel les variations anthropiques du climat sont devenues la cause dominante des problèmes sociétaux.
Tout ce qui tourne mal et y compris jusqu'à des problèmes qui existaient auparavant, renforce la conviction qu'il n'y a qu'une seule chose que nous puissions faire pour résoudre le problème du changement climatique, c'est d'arrêter de brûler des combustibles fossiles. Ce grand plaidoyer est trompeur parce qu'il nous persuade que si nous résolvions la question du changement climatique la situation des autres problèmes serait alors résolue.

Les politiciens, les activistes et les journalistes ont mis en place un système de cascade d'informations biaisées et alarmantes quant au changement climatique anthropique
dans le but de renforcer un agenda politique dont l'objectif est de réduire les émissions des carburants fossiles.

Une cascade d'informations est un processus qui s'amplifie de lui-même pour participer à la mise en place d'une croyance qui déclenche une réaction en chaîne auto-entretenue à l'image de la constitution d'une foule ou de la formation d'une boule de neige qui dévale une pente : Plus un danger retient l'attention, plus le public s'en inquiète, ce qui conduit à une amplification de la couverture médiatique et, donc, de l'alarme.
Du fait que la lente augmentation des températures ne semble pas alarmante, ceux qui mettent en place ces processus mettent en avant l'idée que les événements météorologiques extrêmes et les impacts sur le santé résultent du changement climatique anthropique et que l'avenir est encore plus sombre si nous n'agissons pas rapidement pour refroidir la planète en réduisant les émissions des carburants fossile.

Une déconstruction de la cascade d'informations est impérative si nous voulons éviter de voir notre raisonnement biaisé et si nous voulons améliorer notre compréhension des véritables risques encourus du fait du changement climatique :


• L'origine de cette cascade se trouve dans
le traité de l'UNFCC (NdT : La Convention Cadre des Nations Unies sur le Changement Climatique) de 1992 qui était destiné à éviter le changement climatique anthropique dangereux au moyen de la stabilisation des émissions de CO2. Il est remarquable que ce n'est qu'en 1995 que le second rapport du GIEC a identifié une influence humaine "discernable" sur le climat du globe. Il est donc évident que le "char" de la politique" a précédé le "cheval" de la science.

• Par la suite l'
UNFCC a modifié la définition du changement climatique pour se référer à un changement climatique qui est attribué directement ou indirectement à l'activité humaine. Ceci a conduit à la perception que tous les changements climatiques sont dus à l'homme.

• La hausse du niveau des océans et les événements météorologiques extrêmes tels que les ouragans, les sécheresses et les vagues de chaleur résultent du changement climatique dont on suppose, de facto, qu'il est causé par les hommes.


• Les impacts sur la santé humaine, les risques pour la sécurité nationale etc. qui sont exacerbés par les événements météorologiques extrêmes sont alors fallacieusement attribués à des causes liées au changement climatique anthropique.

Le point clef de cette cascade est le lien suggéré entre le changement climatique anthropique et les événements météorologiques extrêmes.


En 2012, le GIEC a publié un Rapport Spécial sur la Gestion des Événements Extrêmes et des Désastres pour la Promotion de l'Adaptation au Changement Climatique (Rapport SREX).
Ce rapport a accordé une confiance basse à moyenne pour une tendance des sécheresses dans plusieurs régions du monde et une confiance élevée pour les vagues de chaleur en Australie. Il n'y a aucune tendance pour ce qui est des ouragans et des feux de forêts. L'attribution de quelque tendance que ce soit pour les événements météorologiques extrêmes ne peut être effectuée avec quelque degré de confiance que ce soit.
Pour ce qui concerne la perception (et les statistiques sur les dommages) selon laquelle les événements météorologiques extrêmes deviendraient plus fréquents, il y a plusieurs facteurs à prendre en compte.
Le premier est la vulnérabilité croissante et l'exposition associées avec une concentration croissante de la richesse dans les zones côtières et dans d'autres régions naturellement exposées aux désastres.
Le second facteur résulte de la variabilité naturelle. Nombre d'événements météorologiques extrêmes ont été attribués à la variabilité naturelle du climat. Aux Etats-Unis, les événements météorologiques extrêmes (e.g. les sécheresses, les vagues de chaleur et les ouragans) ont été notablement pires durant les années 1930 et 1950.

La cascade des informations sur le changement climatique décrit comme une apocalypse, obère notre capacité à raisonner rationnellement sur la manière dont nous devrions répondre au changement climatique et agit en rétrécissant les points de vue et les options politiques sur lesquels nous pourrions converger pour ce qui concerne la santé publique, les désastres météorologiques et la sécurité nationale.

Devrons nous être surpris si la réduction des émissions de CO2 n'améliore aucun de ces problèmes ?
"
[...]


Dans la suite de son exposé que vous pourrez retrouver dans le texte original, Judith Curry évoque, avec quelques détails, l'utilisation du Principe de Précaution dans les cas où demeurent un grand nombre d'inconnues aussi bien sur la définition du problème que sur l'évaluation des risques ("le réchauffement climatiques est un problème pervers") que dans l'évaluation des conséquences des mesures adoptées. Plus spécifiquement pour ce qui concerne les engagements du Président Obama auprès de l'ONU (l'INDC), Judith Curry précise que :

"Le Principe de Précaution - plus de regrets que de sécurité ?

L'
UNFCC a formulé le problème du changement climatique et sa solution dans des contextes irréductibles du globe et du Principe de Précaution avec une solution qui reste focalisée dans la réduction globale des émissions de gaz à effet de serre.

Chaque pays est, à titre individuel, chargé de soumettre son INDC (ses intentions) à l'UNFCC. Les Etats-Unis
(NdT : cad l'administration du Président Obama sans consultation préalable du congrès US) poursuivent le but de réduire leurs émissions de 28% en dessous de celles de 2005 et ceci avant 2025. En dehors de toute considération sur la faisabilité et sur les coûts résultants, il a été estimé par le modèle MAGICC de l'EPA ( l'Agence US pour la Protection de l'Environnement directement placée sous la responsabilité de la Maison Blanche) que cet engagement réduirait le réchauffement de 0,03°C en 2100. Lorsque l'on combine cet engagement avec celui des autres nations, seule une petite fraction du réchauffement futur projeté sera limitée par ces engagements. Si les modèles climatiques surestiment vraiment le réchauffement, la quantité du réchauffement qui serait éliminée serait encore plus petite.

Même si les émissions tombaient immédiatement à zéro et s'il faut en croire les projections des modèles climatiques, l'impact sur le climat ne serait pas décelable avant la seconde moitié du 21e siècle. On ne sait pas exactement ce que les INDC (les engagements) espèrent réaliser.

Les politiques de l'UNFCC et le Principe de Précaution nous ont placés entre le marteau et l'enclume. C'est une situation dans laquelle
les politiques qui sont proposées, avec leurs coûts extensifs et leur faisabilité problématique, sont inadéquates pour réaliser une brèche significative et un ralentissement du réchauffement attendu. Et les conséquences sociétales réelles du changement climatique ainsi que les événements météorologiques extrêmes (qu'ils résultent de l'action humaine ou de la variabilité naturelle) restent largement irrésolus." [...]

Après avoir évoqué les difficultés et les dangers auxquels s'expose la société en voulant, à tout prix, prendre des mesures définitives pour résoudre un problème entaché d'aussi grandes incertitudes ("Stratégies de prise de décision en présence de profondes incertitudes"), Judith Curry suggère, comme alternative au Principe de Précaution, d'adopter une politique de "Pragmatisme Climatique" qui consiste essentiellement à favoriser l'innovation, la résilience (aux événements météorologiques extrêmes) et la poursuite des efforts pour réduire la pollution.
Voici sa conclusion finale qui, comme il se doit, s'adresse directement aux représentants US :

"Conclusion

Il y a des raisons de se soucier du changement climatique. Cependant, répondre efficacement aux menaces potentielles résultant d'un réchauffement climatique est rendu très difficile du fait des graves incertitudes qui pèsent sur les risques qui résultent à la fois du problème lui-même et des solutions envisagées.
L'incertitude est une épée à deux tranchants. Les conséquences du climat futur pourraient être meilleures ou plus mauvaises que ce qu'on envisage actuellement.
Cependant, les résultats de recherche récents ont affûté la lame de l'épée dans le sens d'impacts moindres du fait du changement climatique d'origine anthropique et d'une plus grande infaisabilité politique et économique des réductions significatives des émissions de CO2.

C'est pour cette raison que je m'inquiète que l'engagement (INDC) proposé par les USA pour traiter les problèmes envisagés liés au changement climatique ne fera pratiquement rien pour modifier le climat et que les USA, comme les autres nations, demeureront vulnérables aux surprises climatiques et aux événements météorologiques extrêmes.

La structuration de la question du changement climatique par le GIEC de l'UNPCCC et le choix effectué, dès le départ, d'une politique déterminée, ont marginalisé les recherches sur les questions plus générales qui concernent la variabilité naturelle, et obéré l'adoption d'une palette plus étendue d'options politiques.
Le caractère épineux de la question du changement climatique ouvre de grandes opportunités de désaccord parmi les gens raisonnables et intelligents. On peut défendre l'idée que le principal problème de la politique climatique a été de réduire les discours et les options politiques à un éventail de possibilités excessivement réduit.
C'est en ouvrant le cadre de raisonnement sur la politique et sur ses relations avec les autres problèmes sociétaux que l'on pourra développer un éventail d'options politiques plus aisées à mettre en oeuvre, ce qui pourrait procurer aux décideurs politiques un choix plus vaste d'options pour le traitement des risques liés au changement climatique."

Le CV complet (et impressionnant) de Judith Curry est disponible sur le site du Tech. Institute de Géorgie. Voici comment elle est brièvement présentée au Représentants US :

"Le Docteur Judith Curry est Professeur et ex-Directrice de l'Ecole des Sciences de l'Atmosphère et de la Terre de l'Institut de Technologie de Géorgie. Elle est Présidente du Réseau des Applications des Prévisions Météorologiques (CFAN). Le Dr Curry a reçu son diplôme de doctorat es Sciences de l'Atmosphère à l'Université de Chicago en 1982. Avant de rejoindre la faculté Tech. de Géorgie elle a occupé des postes académiques à l'Université du Colorado, à l'Université de Pensylvanie et à celle de Purdue. La recherche du Dr. Curry porte sur toute une série de sujets en relation avec le climat. Ses recherches actuelles portent sur les interactions atmosphère/océans, sur les processus de rétroaction associés aux nuages et aux mers glacées ainsi que sur la dynamique climatique des ouragans. Elle est une personnalité publique reconnue pour les questions qui traitent de l'intégrité dans le domaine de la climatologie et elle est propriétaire du weblog Climate Etc. judithcurry.com. Le Dr Curry a récemment participé au NASA Advisory Council Earth Science Subcommittee, au DOE Biological and Environmental Research Advisory Committee, au National Academies Climate Research Committee and the Space Studies Board et au NOAA Climate Working Group. Le Dr Curry est membre élu de l'American Meteorological Society, de l'American Association for the Advancement of Science, et de l'American Geophysical Union."

Depuis plusieurs années, et après avoir été pendant un temps et autrefois, considérée comme la "Grande Prêtresse du Réchauffement Climatique" (Sic), Judith Curry a très sérieusement révisé ses positions, essentiellement au vu des observations objectives qui se sont accumulées au cours des années passées.
Elle fait désormais partie, aux côtés d'autres climatologues chevronnés comme Richard Lindzen, John Christy, Roy Spencer, Lennard Bengtsson et bien d'autres fréquemment cités dans ces colonnes et, entre autres, dans une page dédiée de ce site, des scientifiques qui tirent la sonnette d'alarme et s'inquiètent sérieusement des graves conséquences que pourraient avoir des politiques aussi inadaptées qu'inutiles, engagées sur des bases scientifiques qu'ils estiment manifestement hasardeuses.

Dans ces conditions, ne serait-il pas souhaitable que le témoignage et la mise en garde du Professeur Judith Curry, énoncés le mois dernier devant les parlementaires US, bénéficient également de l'écoute de nos propres parlementaires et de nos décideurs ?
icanthearyou

Ne serait-ce que parce que, selon le vieil adage, "qui n'entend qu'une cloche n'entend qu'un son"...

Jugez-en vous-mêmes...

Stay tuned !

MAJ 01/06/15 : Vidéo Youtube du témoignage de Judith Curry devant la chambre des représentants US.

11 Avril 2015 : Catastrophisme en série : Vanuatu, le cyclone Pam et autres événements climatiques.

En fin 2013, comme je vous l'avais raconté, le typhon Haiyan qui avait frappé une partie des Philippines (notamment la ville de Tacloban), avait fait l'objet d'une campagne de presse tonitruante de la part de médias un peu trop empressés pour effectuer quelques travaux de recherche. Notamment il avait été affirmé que "Le typhon Haiyan, le plus destructeur recensé dans l'histoire, pourrait être le précurseur de tempêtes tropicales de plus en plus violentes et de plus en plus fréquentes, sous l'influence du réchauffement climatique" (Médiapart), alors qu'Haiyan ne se classe même pas dans la liste des 36 tempêtes tropicales les plus meurtrières documentées à ce jour.

Ce constat que chacun peut faire à partir des données disponibles n'a pas dissuadé une éminente délégation française d'aller récemment prêcher la "bonne parole" ( i. e. "nous allons lutter contre le changement climatique pour vous sauver") aux malheureux habitants de
Tacloban qui se souvenaient, sans aucun doute, que leurs parents, grands-parents ou arrière grands-parents leur avaient parlé des énormes dégâts, causés de tout temps par ces calamités climatiques, et des pertes humaines, encore plus considérables, provoquées par un autre typhon qui avait déjà frappé, pratiquement au même endroit (Tacloban) en 1912, c'est à dire près de cent ans plus tôt, à l'époque où il n'était nullement question de "changement climatique anthropique ". Et de fait, 1912 (c'est à dire, deux ans après la grande crue de la Seine) se révèle être une des années les plus froides du XXe siècle.

Dans le même esprit que celui de l'enquête que nous avions effectuée au sujet du typhon Haiyan, nous allons passer en revue les données réelles et officielles qui concernent le cyclone Pam qui est survenu, cette fois-ci, dans la zone du Pacifique Sud qui inclut l'Australie, la Nouvelle Zélande ainsi qu'un certain nombre d'îles telles que Vanuatu fréquemment affectés par ces calamités climatiques. La tempête Haiyan, elle, faisait partie de la longue cohorte des typhons qui sévissent fréquemment dans la région du Nord-Ouest du Pacifique.
Nous indiquerons quelques données factuelles avérées sur
Pam puis nous rappellerons les conclusions du GIEC, inscrites dans son dernier rapport AR5, concernant l'évolution de l'activité cyclonique dans la zone de Vanuatu, ainsi que les tendances sur la fréquence et la violence des cyclones dans cette région rapportées par les organismes dédiés.

Ce billet est divisé en deux parties. La première (1) rapporte quelques unes des nombreuses réactions qu'a suscité la survenue du cyclone Pam aussi bien à l'échelle de la France qu'à celle de l'Europe et à celle d'autres organisations internationales comme l'ONU ou la Banque Mondiale. La seconde partie (2) rassemble un certain nombre de données factuelles dont la plupart sont mises à la disposition du public par les organismes officiels dédiés. La comparaison de ces éléments met en évidence une méconnaissance impardonnable (au mieux) ou délibérée (au pire) des conclusions des scientifiques et des observations factuelles.

1) Quelques déclarations officielles ou médiatiques au sujet du cyclone Pam :

A) En France

14 Mars : Sur le site du ministère des Affaires Etrangères français, on lit : "On sait que 70% des catastrophes dites naturelles sont liées au dérèglement climatique. Le cyclone Pam constitue un nouveau cri d’alarme pour que la communauté internationale prenne ses responsabilités."
Lors de son discours à Sendaï (conférence des Nations unies sur la prévention des catastrophes naturelles), le Ministre français des Affaires Etrangères a affirmé qu' "Aujourd’hui, on estime en effet que plus de 70% des catastrophes dites naturelles sont liées au dérèglement climatique.

Note : Voilà un chiffre (70%, plus loin 87%) qui a dû faire tiquer nombre de spécialistes qui savent très bien que les études scientifiques (notamment celles relevées par le GIEC) sont actuellement incapables de tirer la moindre conclusion de ce type sur les événements climatiques extrêmes qui surviennent sur la planète, année après année, décennie après décennie et ceci depuis des éons, avec ou sans "dérèglement" climatique.

Dans une tribune intitulée "
Ne cédons pas au catastrophisme climatique", publiée par le journal Libération, Bruno Tertrais, maître de recherche à la Fondation pour La Recherche Stratégique, FRS, a épinglé ce détournement hasardeux qui, compte tenu de ses multiples répétitions par des voies officielles, semble relever des "éléments de langage " chers au gouvernement. Voici un extrait de cette tribune :

"Dans une contribution récente (Libération, 17 mars), la secrétaire d’Etat chargée du Développement, et de la Francophonie, affirme que «87% des catastrophes climatiques ont un lien avec le réchauffement de la planète». Cette affirmation est doublement fausse, et elle est malheureusement révélatrice d’un certain catastrophisme climatique. Pour l’appuyer, Mme Girardin cite «les dernières données du Bureau des Nations unies pour la réduction des risques». Or, ce n’est pas ce que dit cette institution, qui affirme seulement que 87% des catastrophes naturelles (et non pas «climatiques») seraient «liées au climat» (et non pas «liées au réchauffement de la planète»).

Mais qu’appelle-t-on alors les catastrophes «liées au climat» ? L’ONU s’appuie sur les statistiques annuelles produites par l’Université de Louvain et la compagnie de réassurance Munich Re. Et l’on comprend alors mieux d’où vient ce chiffre de 87% : il s’agit du total des événements «météorologiques» (ouragans, tempêtes), ou «hydrologiques» (inondations), ou encore «climatologiques» proprement dits (températures extrêmes, sécheresses, feux de forêt). Aucun lien avec le réchauffement planétaire."

Toujours dans le même esprit, sur le site de Ministère des Affaires Etrangères, et à propos du cyclone Pam, on peut également lire ceci :

"Cette tragédie (NdT : le cyclone Pam) souligne une nouvelle fois le danger que font courir à la planète les phénomènes météorologiques extrêmes, aggravés par les dérèglements climatiques."..."Cette catastrophe renforce encore la détermination de la France à trouver un accord ambitieux lors de la conférence sur le climat qu’elle présidera en décembre à Paris."

Le Président du Vanuatu n'est pas en reste dans ce domaine. Très sûr de lui, il a affirmé à la conférence de l'ONU à Sendaï (13-15 Mars) que :

"Le changement climatique a contribué au désastre au Vanuatu. Nous assistons à la montée du niveau de la mer, à la modification des schémas météorologiques, toutes ces choses se produisent partout. Cette année, nous avons eu plus de pluie que les années précédentes"


Le président de Vanuatu, Baldwin Lonsdale, déclare , entre autres, qu'il "assiste à la montée du niveau des mers à Vanuatu".
J'ai eu la curiosité d'aller voir ce qui justifiait les inquiétudes du Président en allant rechercher les mesures de la hausse du niveau des mers autour de
Vanuatu publiées par le BOM (Le Bureau australien de la Météorologie) qui fait autorité dans ces matières. slrvanuatu

Voici, ci-dessus, un extrait de la Figure 13 du rapport du BOM au sujet de la "hausse" du niveau des mers à Vanuatu (et dans d'autres sites) depuis 1992 jusqu'en Août 2014. L'échelle verticale est graduée en mètres. Les fluctuations sont de l'ordre de la dizaine de cm et on ne discerne aucune tendance à la hausse du niveau marin. Tout au plus perçoit-on que le niveau aurait plutôt tendance à baisser depuis 2008.

Bien entendu, la presse française a repris l'antienne gouvernementale. C'est ainsi que parmi beaucoup d'autres et dans le même esprit, "Le Monde" titre : "Vanuatu, symbole de l'urgence climatique."

Le JDD du 15 Mars semble un peu mieux renseigné. Il titre : "Cyclone Pam : naissance et mort d'un monstre. Le réchauffement climatique n’entraîne pas de multiplication des cyclones, mais pourrait augmenter leur puissance." Le "pourrait" fait allusion à certaines projections d'ordinateur (donc délicates et non avérées) pour les années 2050..

Pour sa part, le journal 20 mn est très affirmatif : "Le changement climatique a "contribué" à la puissance dévastatrice du cyclone."

Comme on s'y attend, la radio n'est pas en reste. Entre autres, France info consulte un chercheur du CNRS en se posant la question suivante "Cyclone Pam : le réchauffement climatique en partie responsable ? ". Le chercheur interrogé, Robert Vautard du CNRS, répond factuellement ce que savent tous les scientifiques qui s'intéressent à ces questions :

"il est impossible de dire qu'un événement ponctuel est le résultat du changement climatique d'origine humaine qui se juge sur  des décennies. Et notamment parce que la question des cyclones est tout à fait délicate".

En effet, certaines théories avancent l'idée que le changement climatique "devrait" atténuer le différentiel de température pôles-équateur ce qui "devrait" contribuer à un ralentissement de l'activité cyclonique. Mais d'autres font valoir que le taux d'humidité "devrait" augmenter provoquant un effet de sens opposé. Du point de vue des scénarios prévisibles par les ordinateurs, c'est, en effet, "une question tout à fait délicate". Compte tenu des dimensions de la maille des simulations numériques, il est actuellement impossible de modéliser l'amorçage et le développement d'une perturbation turbulente localisée telle qu'un cyclone ou un ouragan ou un typhon (le nom dépendant de la région considérée).
Bref, dans la réalité objective, on ne sait pas. Même si certains, souvent placés devant les caméras, avancent des hypothèses qui vont dans le sens de la doxa catastrophiste du style "Pam est cohérent avec ce que nous attendons."
Le problème est que Pam est également cohérent avec le déroulement naturel des événements cycloniques qui se produisent fréquemment dans ces régions comme nous allons le voir ci-dessous.

Les propos mesurés du chercheur CNRS interrogé à ce sujet n'empêche pas France Info, dans la même page, se basant sur un reportage de Philippe Reltien, de titrer que "Vanuatu est un cas d'école pour la conférence climat le COP21 à Paris".

B) L'Europe : Euractiv.

En contradiction flagrante (comme nous le verrons), entre autres, avec les conclusions des derniers rapports du GIEC (AR5 et rapport spécialisé SREX sur les événements extrêmes), se référant aux affirmations d'une ONG écologiste, Oxfam France, et à l'occasion de la récente "Négociation Internationale sur la Réduction des Risques Naturels" qui a eu lieu à Sendaï à la mi-Mars, Euractiv qui représente le réseau d'information de l'Europe, affirme (caractères engraissé par PU) :

"Les négociations internationales sur la réduction des risques naturels ont abouti à un accord décevant au Japon le 18 mars, malgré le drame de Vanuatu. Un mauvais signal pour les négociations climatiques.

Rappelée à l’ordre par le cyclone Pam qui a dévasté l’archipel du Vanuatu dans la nuit du 13 au 14 mars, la communauté internationale n’a pas pour autant réussi à trouver un accord ambitieux sur la réduction des catastrophes naturelles.

Rassemblées à Sendaï au Japon du 14 au 18 mars, les délégations des 186 nations devaient s’accorder sur un nouveau cadre pour la période 2015-2030 portant sur la réduction des risques naturels.  Les nouvelles orientations et objectifs devaient prendre le relais du Cadre d’action de Hyogo (2005-2015), qui arrivait à échéance."
[...]

"Catastrophes naturelles en hausse

Pourtant, le constat est unanime : la fréquence et l’intensité des catastrophes naturelles augmentent avec le réchauffement climatique.

Depuis 1980, les données disponibles montrent une augmentation de 233 % des catastrophes liées au climat. Les sécheresses, inondations, cyclones et incendies, entre autres, sont devenues à la fois plus fréquentes et plus intenses rappelle Oxfam France."

« Les catastrophes devenant plus courantes et plus fréquentes sous l’effet des dérèglements du climat, la ‘prévention du pire’ doit occuper une place centrale dans le développement » a déclaré Jim Yong Kim, président du Groupe de la Banque mondiale."

A noter que les affirmations d'Oxfam et du Président du groupe de la banque mondiale selon lesquelles "les catastrophes deviennent plus courantes et plus fréquentes sous l'effet des "dérèglements du climat" sont également en contradiction formelles avec des articles scientifiques récents publiés sur cette question comme je l'avais rappelé dans le billet du 1er Février. Elles sont également démenties pour ce qui concerne plus spécifiquement les cyclones, notamment (mais pas seulement) dans la région de Vanuatu, comme nous le verrons ci-dessous.

C) L'ONU qui est l'un des responsables du GIEC n'hésite pas à utiliser le cyclone Pam pour faire avancer la cause de la COP21 (Paris) tout en contredisant la plupart des experts spécialistes de cette question, jusqu'aux rapports de l'organisme dont il est responsable, le GIEC.
Voici un extrait du texte qui figure sur le site dédié de l'UNFCC (Convention Cadre des Nations Unies pour le Changement Climatique)
dont la secrétaire générale est Christiana Figueres.

"La dévastation de la semaine dernière qui a frappé l'Etat de Vanuatu constitué de petites îles, du fait du cyclone Pam, a jeté une lumière crue sur les conséquences humaines des menaces que fait peser le changement climatique et les désastres apportées au développement durable."

En dépit des affirmations d'un scientifique renommé en matières de cyclones/ouragans/typhons, le professeur Kerry du MIT qui a écrit que

"La période d'environ 30 années pour laquelle nous disposons de mesures satellitaires fiables (pour les cyclones tropicaux) est trop courte pour que nous puissions éliminer l'influence de la variabilité naturelle."

Comme nous le verrons ci-dessous, Pam, tout comme les autres cyclones tropicaux (tels que Haiyan aux Philippines) enregistrés jusqu'à maintenant, ne sort part du domaine des occurrences naturelles ou de la normalité. Les études scientifiques et les analyses statistiques montrent qu'on ne dispose pas de données suffisantes pour discerner une tendance significative qui pourrait être attribuée au changement climatique. C'est, en d'autres termes, à peu près ce qu'avait dit le chercheur Vautard.

2) Le cyclone Pam : Les données officielles.

A) Le nombre des victimes :

Le bilan officiel des pertes humaines a été dressé le par le Bureau de Coordination des Affaires Humanitaires de l'ONU (OCHA) qui, après avoir annoncé 44 décès (et, certains médias, plusieurs douzaines) a finalement révisé son bilan à la baisse avec un total de 11 morts le 22 Mars (Vanuatu recense 270000 habitants).
C'est certes un bilan regrettable mais que l'on peut considérer comme mineur, s'agissant, comme certains l'ont affirmé, d'une "monstruosité climatique".
Au vu des chiffres qui vont suivre, on peut effectivement s'étonner de la remarquable résilience des habitants de ces contrées, car, en effet, Pam a été un cyclone particulièrement violent, sans être exceptionnel comme nous le verrons, pour cette zone du Pacifique.

Le journal Le Monde nous explique comment les populations de ces îles se protègent des cyclones, très fréquents dans cette région :

"Selon le scientifique, les savoirs traditionnels ancestraux des communautés mélanésiennes ont eux aussi joué un rôle positif dans la limitation du nombre de victimes. Les nakamals, abris communautaires en végétaux où les gens se réunissent pour boire le kava, boisson emblématique du Pacifique confectionnée avec les racines macérées d’une plante du même nom, ont sans doute sauvé de nombreuses vies. « Ces lieux sont des refuges en cas de cyclone. Les poteaux de la structure sont fortement enfoncés dans le sol, les murs et la toiture sont très bas, l’intérieur est ventilé. Les nakamals ont une architecture adaptée aux cyclones », poursuit Sylvain Todman.[...] "Avec six volcans actifs, une quinzaine de volcans dormants, et des risques sismiques, cycloniques et de tsunamis majeurs, Vanuatu est le territoire le plus exposé aux aléas naturels de la planète", selon le World Risk Report 2014.

De fait, les habitants des contrées fréquemment ravagées par des cyclones/ouragans/typhons se sont adaptés à ces aléas climatiques et autres. De même, les toits des habitations de l'île de la Réunion sont fréquemment surélevés, ménageant ainsi un espace libre par rapport aux murs des habitations. De plus, les habitants de la Réunion ont, peu à peu, remplacé beaucoup d'arbres trop fragiles qui ne résistaient pas au renversement brutal du sens du vent avant et après le passage de l'oeil du cyclone, par des arbres d'origine australienne, particulièrement élastiques et très utiles qui peuvent, sans dommage être sollicités dans les deux sens : les filaos. Il est manifestement plus utile de développer des techniques d'adaptation que de prétendre modifier le cours du développement des tempêtes tropicales qui existaient bien avant le "dérèglement climatique".

B) Les vitesse des vents et l'énergie accumulée de Pam :


pamspeedVoici l'évolution de la vitesse des vents soutenus pendant une minute du cyclone Pam, pour la période considérée, selon différentes estimations des satellites et du graphe ci-contre de la NOAA, en fonction de la date.

Des données exhaustives sur le cyclone Pam se trouvent sur ce lien (NOAA-RAMMB-CIRA)

sh172015 est l'indicatif officiel du cyclone Pam.

Comme on peut le constater, la dispersion des résultats des mesures des vitesses de vents est relativement importante (de l'ordre de ± 30 km/h).
Si on prend la vitesse (l'Intensité Estimée pendant une minute) on trouve que le maximum (environ 145 noeuds soit 268 km/h) a été atteint le 13 Mars vers minuit, c'est à dire, assez précisément, à l'heure du passage du cyclone sur Port Vila, la capitale comme nous allons le voir. C'est une circonstance particulièrement malheureuse et relativement exceptionnelle.

A noter que je n'ai pas trouvé de mention officielle de vitesses de vent de 300 km/h, voire de 350 km/h, comme l'ont rapporté la plupart des médias (qui n'indiquent jamais leurs sources).

Pour mémoire, L'Energie Accumulée de Pam ( l'indice ACE, Accumulated Cyclone Energy) a été de 31,2. A titre de comparaison, celle de Haiyan était de 37.

C) La (malheureuse) trajectoire de Pam et une rétrospective des cyclones de classe 5 dans la région de Vanuatu depuis 1970 :

pam-trajectCe graphique, établi après le passage de Pam, montre un fait qui est assez généralement ignoré :
Les vents les plus destructeurs se produisent non pas dans l'oeil du cyclone (où les vents sont faibles ou nuls) mais à proximité de celui-ci dans un couloir de quelques dizaines de km. A mesure que l'on s'éloigne de l'oeil du cyclone, les dégâts occasionnés et la vitesse des vents diminuent.

Comme on peut le voir sur ce graphique,
Port Vila, la capitale, s'est trouvé, dans la nuit du 13 Mars, dans la zone située en bordure de la zone la plus destructrice, alors que les vents étaient à leur maximum. Les petites îles beaucoup moins peuplées de Erromango et de Tanna ont subi le même sort au cours de la journée du 14 Mars.

 

 

 

 

 

Voici une statistique révélatrice de la violence de l'activité cyclonique à proximité de Vanuatu tirée du site Weather Undergroound (du Dr. Jeff Masters qui est un spécialiste bien connu des pamtrack5tempêtes, notamment tropicales. JM n'utilise que les bases de données officielles). Il s'agit des trajectoires de tous les cyclones de classe 5 (les plus violents dont fait partie Pam) dans la région de Vanuatu.

La statistique ci-contre sur les cyclones de catégorie 5 qui ont affecté cette région a été établie avant que la trajectoire de Pam ne soit connue. Les prédictions connues, à l'époque, sur la trajectoire de Pam sont indiquées par la zone de couleur marron.

"Figure 3. Trajectoire de tous les cyclones de catégorie 5 qui se sont produit dans le Pacifique Sud (à l'Est de 133°E) depuis le début des enregistrements satellitaires (1970).

Pam n'est que l'une des dix tempêtes de catégorie 5 qui ont été enregistrés sur ce bassin depuis 1970.

 

 

 

Les cyclones les plus puissants d'après les données du Joint Typhoon Warning Center dans cette zone sont Zoe (2002/2003) and Monica (2006), qui ont connu les vents les plus rapides avec des vitesse de 180 mph (NdT : 289 km/h, soutenus pendant une minute. Ils se classent donc devant les 268 km/h de Pam, encore qu'au vu des incertitudes sur les mesures, on peut être circonspect).
(merci à Phil Klotzbach de la Colorado State University pour cette statistique) Image credit: Michael Lowry, TWC."

Il y a eu, dans cette zone du Pacifique Sud, environ 5 cyclones de catégorie 5 en 45 ans , c'est à dire, en moyenne, un cyclone de catégorie 5 comme Pam tous les neuf ans pour cette région. Nous verrons plus bas que la fréquence de ces événements extrêmes ne montre aucun signe d'augmentation, ce qui est conforme aux graphiques du GIEC. La distribution temporelle des cyclones de catégorie 5 dans cette région est très loin d'être uniforme. Ainsi, les années 2003, 2004 ont été marquée pas une activité cyclonique bien supérieure à celle des années récentes.

Du point de vue des cyclones qui ont été actifs dans toute la zone Pacifique Sud et du point de vue de la vitesse des vents, selon la NOAA, Pam se classe également derrière Orson et Monica qui ont frappé la côte australienne en 1989 et 2006 avec des vitesses de vents de 180 mph (289 km/h), ainsi que derrière Zoé (également 180 mph) qui a aussi affecté la région de Vanuatu (entre autres) en 2002.
Les organismes de mesure ne sont pas d'accord pour ce qui est de la dépression (896, 899, 900 mbar ?) atteinte par Pam, mais les observations concordent pour affirmer que cette pression minimale qui n'est pas exceptionnelle et a été très brièvement atteinte alors que la vitesse des vents avait déjà régressé. A titre de comparaison, Zoe qui a affecté la même zone en 2002 avait atteint 890 mbar.

D) Le GIEC, dans son récent rapport (complet) AR5 (WGI, chap. 14, Fig. 14-17) , évoque, entre autres à l'aide de graphiques, l'activité cyclonique dans la zone du Pacifique Sud où se trouve Vanuatu :

ipcc-chapt14-cyclones

Ci-contre, la Figure 14-17 du rapport AR5 du GIEC.

 

 

 

 

 

Ce graphique, dont j'ai agrandi la partie qui concerne les statistiques sur l'activité cyclonique de la zone Pacifique Sud, se lit de la manière suivante (comme indiqué dans le cartouche situé à droite).

Les rectangles en bleu clair indiquent les marges d'incertitudes. Le trait épais de couleur bleu, la valeur médiane.

Les chiffres romains indiqués dans l'agrandissement ci-contre, en regard des rectangles bleus, sont relatifs à :

I : Fréquence des cyclones, toutes catégories confondues.
II : Cyclones de catégories 4 et 5, les plus puissants.
III : Durée de vie de l'intensité (de la vitesse des vents) maximale.
IV : Taux de précipitations.

Ainsi, le GIEC observe que, dans la zone considérée, la fréquence des cyclones (toutes catégories confondues) a tendance à diminuer, que la durée de vie de l'intensité maximale n'a pas subi de variation et que les précipitations ont augmenté d'environ 10% et qu'il leur est impossible de se prononcer pour ce qui est de l'évolution des cyclones de classe 4 et 5. (insf. d. signifie données insuffisantes).
Ce qui est plutôt fâcheux en comparaison des nombreuses affirmations péremptoires rappelées ci-dessus et qui est conforme avec les déclarations des scientifiques interrogés.

 

 

 

 

 

 

Voici maintenant deux graphiques globalement cohérents avec le rapport du GIEC. Le premier provient du Bureau de Météorologie australien (BOM) , l'autre de son équivalent néo-zélandais (Met-service)). Ils montrent l'évolution du nombre des cyclones classés en différentes catégories selon leur puissance, toujours dans la même zone Pacifique Sud. On notera au passage que le nombre moyen des cyclones qui sévissent dans ces régions, chaque année est de l'ordre de la dizaine. Bien heureusement, la plupart ne touchent pas terre.
pam-australie

Ci-contre : Activité cyclonique, depuis 1969, dans le Pacifique Sud aux environs de l'Australie, selon le Bureau australien de la Météorologie, (le BOM).

Nous avons vu que des cyclones tels que Pam ne sont pas exceptionnels dans le Pacifique Sud, même si Pam fait partie de la liste des quelques 4 ou 5 cyclones les plus intenses recensés depuis les débuts de l'ère satellitaire dans cette zone, il est loin d'en être le plus violent.

Comme on le voit immédiatement, le nombre total des cyclones dans cette région évolue plutôt à la baisse, c'est à dire qu'ils deviennent moins fréquents. Les cyclones de moindre intensité sont représentés en jaune-orange.
Les cyclones les plus sévères (catégorie 4 et 5, en rouge foncé) ne sont pas, non plus, plus fréquents que lors des décennies précédentes.

 

pamstat

Selon le Service Météorologique de Nouvelle Zélande.

Ce graphique indique le nombre des cyclones (toute la zone Pacifique Sud) en fonctions de leur classe 1, 2, 3 et 4-5, avec des colorations de plus en plus foncées à mesure que l'indice de la classe augmente.

Comme on le voit, ici encore, le nombre total des cyclones n'est pas en hausse et les cyclones les plus intenses (cat. 4 et 5) ne sont pas plus fréquents qu'au cours des décennies passés.

Aussi bien le rapport GIEC que les observations rapportés par les organismes compétents australiens et néo-zélandais contredisent la quasi totalité des déclarations de l'UNFCC et autres responsables politiques et/ou médias à ce sujet.

 

 

 

Voici, de manière plus générale, en guise de rappel au sujet des événements climatiques extrêmes, des extraits du dernier rapport scientifique du GIEC (l'AR5) publié en 2013. (source) (déjà cité ici) (Détails supplémentaires dans ce billet).

Au sujet des ouragans et cyclones tropicaux :
“Les bases de données existantes ne montrent aucune tendance significative dans la fréquence des cyclones tropicaux durant le siècle dernier....Aucune tendance robuste dans le nombre des cyclones tropicaux, des ouragans et des ouragans les plus forts, n'a été identifiée lors des 100 dernières années dans le bassin Nord Atlantique."

Au sujet des inondations :
"En résumé, le manque de preuve persiste en ce qui concerne le signe et la grandeur et/ou la fréquence des inondations à l'échelle globale, ce qui se traduit par un indice de confiance faible."

Au sujet des tempêtes, orages, grêle etc.
"En résumé, il y a une faible confiance dans les tendances observées pour les phénomènes météorologiques violents à petite échelle tels que les grêles, les orages, à cause de l'inhomogénéité des données et de l'inadaptation des systèmes de suivi."

Concernant les sécheresses et les affirmations du rapport précédent AR4 :
"Au vu des études mises à jour, les conclusions de l'AR4 (Le rapport 2007 du GIEC) concernant une augmentation des sécheresses depuis les années 1970, ont été probablement surestimées".

Concernant les cyclones extra-tropicaux :
"En résumé, la confiance est faible dans des changements à grande échelle de l'intensité des cyclones extra-tropicaux extrêmes depuis 1900."

En bref, faute de données objectives, pour beaucoup de ces événements climatiques (météorologiques) extrêmes, le GIEC ne peut pas se prononcer ou, lorsque les observations existent, on ne voit pas de tendance statistiquement significative qui puisse permettre d'incriminer le "changement climatique".

En conclusion, on peut se demander légitimement quelle est l'utilité des volumineux rapports que le GIEC publie périodiquement depuis plus de 20 ans ainsi que celle des nombreux graphiques établis et rendus accessibles par les différents organismes officiels financés par les états et chargés du suivi des calamités climatiques.Il apparaît évident que ni les responsables des grands ministères, ni les organismes d'information européenne, ni la banque mondiale, ni l'UNFCC de l'ONU, ni les rédacteurs des dépêches des médias, ne se donnent la peine de les consulter et de s'y référer avant de rédiger leurs communiqués.

Compte tenu du nombre et de la qualité des acteurs impliqués, il est difficile d'imaginer qu'il s'agirait d'incompétence ou de légèreté. On doit malheureusement en conclure qu'il est probable que des objectifs politiques ont pris le pas sur les observations scientifiques et sur l'impérieuse nécessité d'informer correctement le grand public. Il apparaît que les tragédies causées par le cyclone Pam, tout comme celles du typhon Haiyan, ont pu être récupérées à des fins politiques dans la perspective de la promotion de la conférence mondiale, dite COP21, qui se tiendra à Paris à la fin de cette année.

Si c'était le cas, doit-on rappeler, une fois encore, que la fin ne justifie pas les moyens ?

Stay Tuned !

PS : De nombreux lecteurs me font remarquer que la plupart des déclarations impliquant Pam, mériterait l'attribution d'un bonnet d'âne comme PU le pratiquait autrefois. Compte-tenu de l'approche de la COP21, il serait sans doute bon que je réapprovisionne ma collection de ces prestigieux couvre-chefs en passant une grosse commande chez mon fournisseur. D'autre part, la mise en place d'un climathon hebdomadaire sur Skyfall permet de distinguer quelques uns des plus brillants candidats.

8 Mars 2015 : Les cycles climatique sont de retour et, cette fois-ci, sous la plume d'auteurs proches du GIEC.

Comme on pouvait s'y attendre, la divergence croissante et de plus en plus évidente, entre les modèles numériques qui extrapolaient, pour le présent et le futur, le réchauffement observé durant la période 1976-1997 et les observations objectives qui montrent une stagnation (un "plateau") de la température moyenne de la surface du globe depuis quelques 15 à 18 ans (selon les auteurs), a suscité un certain nombre d'interrogations, de débats et de tentatives d'explications. Parmi ces dernières, la prise en compte de la variabilité naturelle du climat via les oscillations océaniques multidécennales dont la période est d'environ 65 ans, ne pouvait que ressurgir.

Dans le passé, plusieurs auteurs avaient déjà fait observer et analysé le caractère plus ou moins cyclique des variations de la température du globe durant les dernières décennies. S'agissant d'oscillations liées à la variabilité interne ou naturelle du climat, leurs travaux avaient été délaissés ou ignorés dans les rapports successifs du GIEC dont la mission première consistait explicitement à rechercher et analyser les causes et les conséquences d'un réchauffement d'origine externe, c'est à dire anthropique.

Ce qui est nouveau et qui justifie la publication de ce billet, c'est que les oscillations océaniques multidécennales sont maintenant prises en compte pour expliquer "le plateau" (ou 'la pause" ou le "hiatus" selon les auteurs) par des auteurs proches du GIEC. Parmi ces derniers, emblématique entre tous, figure Michael Mann, l'un des principaux participants du GIEC et l'inventeur de la "crosse de hockey" dont les travaux ont fait les beaux jours des rapports du GIEC et défrayé la chronique (voir les Climategate I et II), comme le savent tous les lecteurs fidèles de ce site.

En guise d'introduction, voici un bref rappel illustré des indices classiques caractérisant les oscillations océaniques les plus usitées :

Rappels : Les indices des oscillations océaniques

Voici deux graphiques, concernant les principales oscillations océaniques, extraits de Climate4you qui est un site qui tient à jour une multitude d'indicateurs du climat, géré par le Professeur Ole Humlum. amopdo

 

 

Ci contre, voici un graphique montrant les variations de l'indice de l'AMO (l'Oscillation Multidécennale atlantique) tirées des bases de données de l'ESRL (NOAA).

La période d'oscillation de cet indice est d'environ 65 ans. Au vu de ce graphique nous sommes actuellement en phase positive et proches du maximum de la valeur de cet indice. Il est probable que cet indice décroîtra dans les années à venir.

 

 

 

Voici, tirés des bases de données de l'Université de Washington (JISAO en collaboration avec la NOAA) les variations de l'indice PDO ( Oscillation Décennale Pacifique). Comme vous le voyez, la période de cette oscillation est d'environ 60-65 ans.

Nous nous trouvons actuellement en phase négative (c'est à dire plus froide) de cet indice. Cette situation devrait perdurer pendant plus d'une décennie.

 

 

 

On ne connaît pas, actuellement, les mécanismes sous-jacents de ces oscillations multidécennales, pas plus que l'on comprend le fonctionnement interne de la NAO (l'Oscillation Atlantique Nord) dont il sera question ci-dessous. Ce que l'on sait, par contre, c'est que ces oscillations océaniques ne sont pas indépendantes. Elles sont liées entre elles par ce que l'on appelle des "téléconnexions" et le jeu relativement complexe de ces interactions a été étudié, notamment par Tsonis et al (repris plus récemment par Judith Curry et Marcia Wyatt) sous l'image d'ondes de stade, (la "ola") que j'avais évoquées dans un billet précédent.

2) Michael Mann et ses collègues expliquent ce qu'ils appellent "la fausse pause"
à l'aide des oscillations océaniques multidécennales.

dans un article récent publié dans la revue Science

mann2015a

Dont voici le résumé original suivi d'une traduction en français.

mann2015b

Résumé : Le ralentissement récent du réchauffement climatique a remis en question la fiabilité des projections des futurs changements de température par les modèles climatiques et ceci a conduit à un débat véhément sur la question de savoir si ce ralentissement résulte d'une variabilité interne d'origine naturelle ou bien à des forçages externes au système climatique de la Terre. Dans le but de répondre à ces questions, nous avons utilisé une approche semi-empirique qui combine les observations climatiques et des simulations numériques destinées à obtenir une estimation de la variabilité multidécennale interne atlantique et pacifique (notées respectivement par "AMO" et "PMO"). En utilisant cette méthode, on trouve que l'AMO et la PMO expliquent une grande fraction de la variabilité interne des températures moyennes de l'hémisphère Nord. On observe que la compétition entre un pic positif modeste de l'AMO avec une tendance substantiellement négative de la PMO, résulte en un ralentissement ou à "une fausse pause" du réchauffement de la dernière décennie.

Le résumé de l'article de Mann et de ses collègues est suffisamment explicite pour qu'il ne soit pas nécessaire de rentrer dans les détails de l'article qui ne comporte que quelques graphiques explicatifs.

On pourra observer, qu'en effet, et comme vous pouvez le voir sur les graphiques de Ole Humlum rapportés ci-dessus, nous sommes effectivement, depuis 1998, dans une phase descendante (qualifiée de "tendance substantiellement négative" par Mann et al.) de la température de l'océan pacifique et dans une période ascendante (que Mann et al. qualifient de "pic positif modeste") de l'indice AMO de l'océan atlantique, durant la même période.

Cependant et si on admet à présent que ces variations naturelles ont été capables d'annihiler le réchauffement anthropique depuis plus d'une décennie et demie, en provoquant "la pause", la question de savoir si les mêmes causes (c'est à dire les oscillations océaniques naturelles) n'étaient pas également responsables de la hausse des températures observée durant la période 1975-1997, devient inconfortable. De fait, comme nous le verrons plus loin et comme l'ont analysé d'autres auteurs, la conjonction des oscillations océaniques peut fort bien également expliquer le réchauffement précédent qui a été très généralement attribué à l'influence anthropique.

Assez curieusement, Michael Mann et ses coauteurs n'abordent pas cette question fondamentale qui vient pourtant immédiatement à l'esprit...

C'est ce que fait remarquer le climatologue Roy Spencer dans un billet récent au sujet de cet article de Mann et al. :

"L'objet de ce billet est de rappeler au lecteur une chose que j'avais déjà signalée auparavant : Dans la mesure où une variation de la circulation océanique a annihilé le réchauffement anthropique durant les 15+ dernières années, une variation opposée a probablement augmenté le réchauffement durant la période allant des années 1970 aux années 1990.
Vous ne pouvez pas avoir l'un sans l'autre. Les fluctuations naturelles de la circulation océanique verticale sont cycliques. Vous ne pouvez pas attribuer le hiatus du réchauffement à des forçages naturels sans, également, prendre en compte le rôle des forçages naturels qui ont été responsables de la période de réchauffement précédent.
Au mieux, cela révèle un biais dans le raisonnement et, au pire, c'est incohérent du point de vue de la logique."

L'article que je présente ci-dessous ne souffre pas de cette critique puisque les auteurs reconstruisent, à partir de la variabilité naturelle, l'évolution de la température (hindcast) durant la période précédant la "pause". La reconstruction est remarquable. Comme on s'y attend, les auteurs en déduisent que la température devrait baisser légèrement au moins jusqu'en 2027.

3) Reconstruction et prédiction de la température de l'Hémisphère Nord à partir des oscillations multidécennales des indicateurs océaniques :

Le deuxième article publié par Jianping Li et al. (Une collaboration sino-américaine, en lecture libre) fait intervenir l'Oscillation Nord Atlantique (la NAO) et l'AMO dans l'évolution de la température de l'hémisphère Nord. Cet article, publié dans la revue renommée et réputée proche des thèses du GIEC, Geophysical Research Letters, est intitulé :
"Implication de la NAO pour une prédiction de la variabilité multidécennale de la température moyenne de l'hémisphère Nord.".

grl1

 

 

 

 

 

 

 

 

 

 

Abstract :  The twentieth century Northern Hemisphere mean surface temperature (NHT) is characterized by a multidecadal warming-cooling-warming pattern followed by a flat trend since about 2000 (recent warming hiatus). Here we demonstrate that the North Atlantic Oscillation (NAO) is implicated as a useful predictor of NHT multidecadal variability. Observational analysis shows that the NAO leads both the detrended NHT and oceanic Atlantic Multidecadal Oscillation (AMO) by 15–20 years. Theoretical analysis illuminates that the NAO precedes NHT multidecadal variability through its delayed effect on the AMO due to the large thermal inertia associated with slow oceanic processes. An NAO-based linear model is therefore established to predict the NHT, which gives an excellent hindcast for NHT in 1971–2011 with the recent flat trend well predicted. NHT in 2012–2027 is predicted to fall slightly over the next decades, due to the recent NAO decadal weakening that temporarily offsets the anthropogenically induced warming.

Soit, en français,

Résumé : La température moyenne de l'hémisphère Nord durant le XXe siècle (NHT) est caractérisée par une tendance multidécennale de réchauffement-refroidissement-réchauffement suivie par une tendance plate depuis environ l'année 2000 (le récent hiatus du réchauffement). Dans cet article nous démontrons que l'Oscillation Nord Atlantique (NAO) est impliquée en tant qu'instrument utile pour la prédiction de la variabilité multidécennale de la NHT. L'analyse résultant des observations montre que la NAO précède aussi bien la tendance de la NHT (sans sa tendance à long terme) que celle de l'Oscillation Atlantique Multidécennale (AMO) d'environ 15 à 20 ans. Une analyse théorique met en lumière le fait que la NAO précède la variabilité multidécennale de la NHT via son action retardée sur l'AMO, ceci étant dû à la grande inertie thermique associée aux processus océaniques lents.
Un modèle linéaire basé sur la NAO est ainsi élaboré afin de prédire la NHT.
Celui-ci donne lieu à une excellente rétro-prédiction pour la NHT durant la période 1971-2011 ainsi qu'à une bonne prédiction de de la tendance plate. On prédit que La NHT durant la période 2012-2027 baissera légèrement durant les prochaines décennies, ceci résultant de l'affaiblissement décennal de la NAO qui compense temporairement le réchauffement anthropique.

La NAO, L'oscillation Nord Atlantique (voir description par la NOAA) est caractérisée par un indice dont les variations de 1990 à 2011 sont représentées en bleu sur le graphique (b) ci-dessous. La NAO consiste en un dipôle Nord-Sud des anomalies avec un pôle situé au dessus de l'Islande et l'autre, de signe opposé, couvrant les latitudes centrales de l'Atlantique Nord entre 35 et 40 degrés. La phase positive de la NAO rend compte de pressions inférieures la normale au dessus des hautes latitudes de l'Atlantique Nord et des pressions supérieures à la normale au dessus du centre de l'Atlantique Nord, entre l'Est des USA et l'Europe de l'Ouest. La phase négative reflète l'opposé. Il apparaît que la NAO et la température de l'hémisphère Nord montrent une variabilité multidécennale prononcée avec un retard (la NHT étant en retard sur la NAO) d'environ 10 à 20 ans. Un calcul plus précis des corrélations montre que le retard est proche de 16 ans. Les auteurs écrivent que :

"Ces résultats suggèrent que la moyenne annuelle de la NAO précède la DNHT [NdT: la NHT à laquelle on a retiré la tendance à long terme. Le D est pour "detrended" en anglais] et qu'elle peut ainsi être considérée comme un précurseur de la variabilité multidécennale de la DNHT."

Voici un graphique tiré de l'article qui montre les covariations de l'AMO et de la DNHT ainsi que leur décalage (leur retard) par rapport aux variations de la NAO.

Li1

Légende de la Fig. 1 (b)

Indices de la NHT, NAO, et AMO de 1900 à 2011.

La moyenne glissante sur 11 ans de la DNHT (en rouge), de la NAO (en bleu) et de l'AMO (en vert).
Les zones en grisé rose indiquent les incertitudes à deux sigma dans les figures 1a et 1b pour les indices NHT des données HadCRUT4, estimées en utilisant les 100 réalisations [Kennedy et al., 2011b]. Les lignes verticales vertes de la figure 1b montrent les domaines d'incertitudes ) deux sigma des séries de données de l'AMO pour les données HadSST3.

 

Li2

Le graphique ci-contre de la Figure 4(a) illustre la reconstruction de la variation de la température moyenne de l'hémisphère Nord à partir de la prise en compte des oscillations AMO et NAO. Il représente ce que l'on appelle des "hindcasts" (des rétro-prédictions), c'est à dire des reconstructions des variations passées.

Comme on peut le constater, les différents "hindcasts" (1976) et (1996) et les résultats des modèles reproduisent assez fidèlement les variations effectivement observées (courbe en rouge).

Il s'agit d'un test crucial destiné à montrer qu'une modélisation est capable de reconstituer correctement les variations observées dans le passé.
Un test "hindcast" positif, procure, bien entendu, une confiance raisonnable dans le "forecasts", c'est à dire dans les prévisions pour le futur.

 

La figure 4(b) traite des projections pour le futur (les forecasts) obtenues à partir des modèles adaptés et vérifiés par les "hindcasts" précédents (Fig 4(a)).
Comme on peut l'observer, l'utilisation de cette modélisation conduit à la prédiction d'une stagnation ou d'une légère baisse de la température de l'hémisphère Nord durant les années prochaines, jusqu'en 2027 (disent les auteurs).
Ce résultat n'est pas étonnant car, si on suit le raisonnement des auteurs, on constate (voir la Figure 4a, ci-dessus) que le précurseur (la NAO en bleu) de la NHT a amorcé une baisse marquée depuis les années 90.

 

 

La conclusion de Li et al. est explicite :

"Cet article démontre que la NAO est un prédicteur utile de la température de l'hémisphère Nord permettant une prédiction avancée de près de deux décennies Le signal NAO précède la température de l'hémisphère Nord et l'AMO d'environ 16 ans et la variabilité multidécennale de la température de l'hémisphère Nord peut-être très bien expliquée et modélisée à partir du signal de NAO.
On a élaboré un modèle linéaire basé sur la NAO qui prédit la température de l'hémisphère Nord ainsi que les rétro-prédictions de la NHT durant la période 1971-2011. Celui-ci apparaît en bon accord avec les observations. Du fait de l'affaiblissement récent de la NAO qui annihile temporairement les effets du réchauffement anthropique, nous prédisons une faible baisse de la température de l'hémisphère Nord durant la période 2012-2027."[...]

[14] Bien que l'origine des variations multidécennales de la NAO demeurent encore obscures [Cohen and Barlow, 2005], les résultats que nous présentons ici apportent des éléments de preuve convaincants que la variabilité multidécennale de la NAO contribue de manière significative à la variabilité multidécennale de la température de l'hémisphère Nord. Ils mettent aussi en lumière le fait que la compréhension et une meilleure modélisation de la variabilité multidécennale de la NAO est essentielle pour l'interprétation et les futures projections des changements climatiques de l'hémisphère Nord à une échelle multidécennale."

Que voyons-nous si nous comparons les prédictions de Li et al avec les modèles les plus récents utilisés dans les rapports du GIEC ? spencer-li

.
Le fond du graphique (ci-dessous) est tiré d'un billet récent de Roy Spencer qui comparait la variation de température globale observée (par le HadCRUT4, en vert) avec la moyenne des 90 modèles CMIP5 utilisés par les modélisateurs (en rouge) et mettait ainsi en évidence les profondes divergences qui existent entre les modèles et les observations.

royspencer-

J'ai prolongé les observations de température des bases de données HadCRUT4 utilisées par Spencer avec les prédictions du modèle de l'article de Li et al (qui ne concerne que l'hémisphère Nord lequel s'est nettement plus réchauffé que l'hémisphère Sud. Les données sont remises à l'échelle, bien entendu) mentionnées ci-dessus.

Si les prévisions de Li et al se vérifient et comme on peut le voir sur ce graphique, la divergence entre les modèles CMIP5-et les observations qui est déjà très apparente de nos jours, ira en s'aggravant, ce qui, inévitablement, provoquera une remise en question fondamentale des modèles qui devront, au moins, prendre en compte les oscillations multidécennales et ceci dans les deux sens. C'est à dire celles qui provoquent un réchauffement comme celles qui provoquent un refroidissement. Sans aucun doute, ceci conduira à une sérieuse atténuation de la sensibilité du climat à l'ajout de CO2 et donc à des prévisions beaucoup plus optimistes.

3) Les précurseurs :

Comme je vous l'ai dit, ces considérations sur les oscillations multidécennales avancées à présent dans des revues de premier plan comme Sciences et Geophys. Res. Lett. sous la plume de participants au GIEC, ne sont pas nouvelles. Dans le passé, plusieurs publications qui parvenaient sensiblement aux mêmes conclusions avaient pointé le caractère oscillatoire de la température du globe en le rattachant, à l'occasion, aux oscillations océaniques. Parmi ceux -ci, on peut citer les travaux de Mazarella, Scafetta, Tsonis et al, Curry et al et bien d'autres dont j'ai évoqué les publications au cours des années passées.

andre4

Parmi les rares chercheurs proches du GIEC, qui se sont, dans le passé, ouvertement interrogés sur l'importance de la variabilité naturelle du climat, Mojib Latif (de l'Institut Leibniz des Sciences Marines de l'Université de Kiehl en Allemagne) avait, dès 2009, évoqué ce qu'il appelle les influences internes (naturelles) par rapport aux influences externes, sous entendu anthropiques.

Révélatrice de l'ambiance qui régnait, à cette époque, au sein de la communauté des climatologues proches du GIEC au sujet de la variabilité naturelle considérée alors comme taboue, est une observation prononcée lors de sa présentation au cours de la 3e Conférence Mondiale sur le Climat (le WCC-3, placé sous l'égide de l'ONU et l'Organisation Météorologique Mondiale (L'OMM)). Mojib Latif avait dit :

"Je ne suis pas un des sceptiques du climat, cependant, nous devons nous poser les questions dérangeantes nous-mêmes, sinon d'autres le feront."

Tout en présentant la diapositive (originale, avec les annotations en rouge de Latif) ci-contre, accompagnée de la question :

"A combien se montait la contribution de la variabilité naturelle décennale interne au réchauffement observé durant les dernières décennies ?"

C'est une excellente question, semble-t-il très dérangeante pour le GIEC, qui ne resurgira que quelques 6 ans plus tard, en 2015, sous la contrainte des évidences, et dont auraient dû s'inspirer Michael Mann et ses collègues en rédigeant l'article présenté ci-dessus.

De fait, le graphique présenté par
Mojib Latif met en évidence une augmentation moyenne modérée (le trait rouge, environ +0,6°C/100 ans) de la température globale à laquelle est superposée une oscillation interne (donc non anthropique) approximativement sinusoïdale.
Ce graphique présente une grande ressemblance avec le dessin suivant de
Syun Ichi Akasofu (le fondateur et l'ancien directeur du Centre International de Recherche sur l'Arctique (Alaska Fairbanks)) que j'ai déjà évoqué dans ce site. En 2010, Akasofu a rédigé un article complet à l'appui de son analyse (Natural Science, 2, 1211-1224. doi: 10.4236/ns.2010.211149).
Voici le dessin d'
Akasofu (2009-2010) :
akasofured

A l'intérieur du rectangle jaune qui couvre les années 1880-2000, on retrouve un graphique proche de celui de Latif.
Le point rouge accompagné de la flèche rouge indique la situation à l'époque (2010) de la rédaction de l'article.

Sur la partie droite de ce graphique, Akasofu a rappelé les deux causes du réchauffement observé, selon lui . D'une part des oscillation multidécennales et d'autre part, le réchauffement linéaire (environ +0.5°C/100ans) résultant de la sortie du petit âge glaciaire précédent qui s'est terminé dans les années 1860.

Le croquis d'Akasofu illustre aussi le fait que les modélisations du GIEC prolongent l'arche montante de l'oscillation multidécennale (alors que ces modélisations ne prennent pas en compte les oscillations océaniques (!)) tandis que, toujours selon Akasofu, la température va poursuivre sa trajectoire résultant de la sortie du petit âge glaciaire accompagnée des oscillations multidécennales de périodes 65 ans environ, avec un refroidissement dans les décennies à venir.

La conclusion du résumé de l'article d'Akasofu résume son point de vue :

"Ces variations (NdT : les oscillations multidécennales et la sortie du petit âge glaciaire) sont d'origine naturelle et, afin de de déterminer la contribution de l'effet de serre anthropique, il est indispensable de les identifier de manière correcte et précise et de les soustraire."

Parmi les précurseurs un peu plus anciens, il faut aussi évoquer, entre autres, les travaux de deux chercheurs russes Klyashtorin et Lyubushin qui ont publié, en 2003, une étude purement statistique (c'est à dire sans aucune hypothèse sur les causes physiques), intitulée : " Au sujet de la cohérence entre les dynamiques de la consommation de carburant de la planète et l'anomalie de la température globale". J'avais évoqué leur article dans un billet de 2008 qui reprenait un certain nombre d'autres analyses purement statistiques des évolutions des anomalies de la température du globe. klyashtorin6

 

 


A titre d'illustration, j'ai superposé le graphique principal de Klyashtorin et Lyubushin qui s'arrête en 2002 (les hachures indiquant les prévisions faites à l'époque) avec le graphique actualisé des variations de températures selon les données mensuelles publiées par le HadCRUT 4.3 (les plus récentes, jusqu'en Décembre 2014 inclus) (Graphique en rouge, translaté vers le bas pour une meilleure lecture).

Comme on peut l'observer, l'analyse statistique de Klyashtorin et Lyubushin semble toujours pertinente, quelques 12 ans plus tard.

 

 

 

 

 

schlesinger2

Toujours en remontant dans le passé, on trouve les travaux des premiers précurseurs, Schlesinger et Ramankutty qui avaient fait paraître dans la revue Nature en 1994, un article intitulé "Une oscillation du système climatique du globe de période 65-70 ans".

Cet article contenait notamment le graphique reproduit ci-contre qui montre l'oscillation de l'anomalie de température ("detrended", c'est à dire à laquelle on a retiré la tendance sous-jacente de 0.5°C/100 ans) avec la période indiquée, en fonction de l'année. A noter que dans cet article précurseur, les auteurs faisaient déjà le lien avec l'oscillation Nord Atlantique.

Compte tenu du fait que les connaissances de l'époque se limitaient à l'année 1993, on peut considérer que c'était une bonne intuition. De fait, comme nous l'avons vu, les 22 années qui ont suivi ont confirmé sa validité.

Quelques années plus tard, en 2000, Schlesinger (cette fois-ci avec Andronova) a persisté et signé. Ces auteurs ont publié un article intitulé : "Causes des variations de la température du globe durant les XIXe et XXe siècles".
(GEOPHYSICAL RESEARCH LETTERS, VOL. 27, NO. 14, PAGES 2137-2140 2000)

La conclusion d'Andronova et Schlesinger y était explicite :

Quel est le facteur résiduel responsable du réchauffement de 1904 à 1944 et du refroidissement qui a suivi de 1944 à 1976 ? Une explication possible pour ceci a été donnée par Schlesinger and Ramankutty [1994] comme résultant de l'oscillation de température de l'Océan Nord Atlantique et des régions voisines avec une périodicité de 65-70 ans. Une autre explication possible est l'absence d'un forçage climatique [Hansen et al. 1997].
Il en résulte qu'il est prudent de ne pas s'attendre à un réchauffement continu, année après année, dans un futur proche et ce faisant, d'atténuer nos inquiétudes au sujet du réchauffement climatique s'il advenait qu'un refroidissement climatique global se manifestait de nouveau.

Ces articles ont été superbement délaissés/ignorés par le GIEC, de même que l'avertissement qui figure dans la conclusion d'Andronova et Schlesinger. Certains auteurs, proches du GIEC, ont même été jusqu'à qualifier leurs auteurs de "cyclo-maniaques".
Il est d'autant plus amusant de constater que les même arguments avancés par Schlesinger, ainsi que par tous leurs successeurs, longtemps méprisés, voire ridiculisés, soient maintenant repris, plus de 20 ans plus tard, par des piliers du GIEC tel Michael Mann qui les utilise pour expliquer ce qui contredit les modèles et ce qu'il appelle "la fausse pause"...
Ainsi va la science !
oceanfr

Ceci ne pouvait échapper à Josh qui est un dessinateur qui ne perd jamais une occasion de se moquer des climatologues proches du GIEC. Suite à la parution de l'article de Mann et al (évoqué ci-dessus), il a dessiné le petit cartoon ci-contre que j'ai francisé pour vous.


Bien entendu, le "Nous vous l'avions bien dit", tout en bas, fait allusion aux prédécesseurs, cités plus haut, de cette "découverte".

De fait, une partie non négligeable de la communauté scientifique (Judith Curry entre autres ainsi que Hubert Lamb, le créateur du CRU de l'Université d'East Anglia, avant son décès) ont déploré l'abandon a priori de l'étude approfondie des variations naturelles du climat qu'il aurait fallu envisager avant de s'intéresser aux éventuelles perturbations anthropiques.

Du moins, c'est ainsi que la science aurait progressé si l'on n'avait pas créé le GIEC et si la science n'avait pas été politisée à outrance depuis lors. Il apparaît que la climatologie se retrouve désormais plutôt embarrassée au point de faire machine arrière, allant jusqu'à "retrouver" ce qui avait été observé quelques 20 années auparavant.

 

Visiblement, the science is "not settled" (la science du changement climatique n'est PAS comprise) et ceux qui vous affirment qu'elle l'est, ne suivent pas la littérature scientifique sur ces sujets. Dans d'autres circonstances et dans d'autres domaines de la science, ce ne serait pas si grave...

Stay tuned !

 

ANNONCE : ----------------------------------------------------------

climat-optimistesL'AFCO est l'association des "climat-optimistes" fondée par Christian Gérondeau et destinée à fédérer tous ceux qui s'inquiètent des conséquences du pessimisme, voire du catastrophisme climatique généralisé initié par le GIEC, entretenu par les média, nombre d'ONG et les politiques.
Inscription en ligne.

 

1 Février 2015 : Hyperbole, exagérations, extrapolations hasardeuses, ça suffit ! Revenons à la science, soyons sceptiques !
nous dit un article retentissant publié par un groupe de chercheurs en biologie marine. Leur article, publié dans la revue BioScience, a fait l'objet d'un rapport dans la revue Nature.

Les lecteurs(trices) de PU savent bien que ce site n'a jamais hésité à pointer du doigt quelques-unes des innombrables erreurs ou exagérations dont les politiques, les médias (et, malheureusement, aussi, quelques scientifiques) nous abreuvent à longueur d'année au sujet des soi-disant "calamités" qui nous attendent dans les années à venir quand, selon eux, elles ne se sont pas déjà produites.

Comme vous vous en doutez, l'auteur de ce site est donc particulièrement heureux que des chercheurs activement impliqués dans ces affaires tirent, d'eux-mêmes, la sonnette d'alarme. D'autant plus qu'ils ne comptent pas en rester là.

Peut-être est-il encore temps de revenir à la démarche scientifique authentique, mesurée et prudente, comme ils le suggèrent ?

Ne nous y trompons pas. Bien que rédigé dans le langage mesuré des publications scientifiques, l'article dont je vais vous parler, paru dans une revue renommée et repris dans Nature, constitue une attaque particulièrement sévère contre le comportement des médias et aussi, de certains scientifiques.

De fait, et comme ils l'écrivent eux-mêmes, les 8 chercheurs, auteurs de l'article décrit ci-dessous, prennent de gros risques en dénonçant ainsi un certain nombre d'exagérations et d'extrapolations hasardeuses de la part de leurs collègues et des médias. Tous ceux qui s'y sont essayés jusqu'à présent, aussi expérimentés soient-ils (par exemple Lennart Bengtsson, Richard Tol, Daniel Botkin, Judith Curry, Garth Paltridge et bien d'autres comme Richard Lindzen) ont fait l'objet d'attaques venimeuses de la part de presque tous les médias et de plusieurs de leurs confrères comme j'ai souvent eu l'occasion de vous le rapporter.

Les articles qui suivent concernent la biologie des océans mais il est clair que les observations et les conclusions de ces chercheurs s'appliquent tout aussi bien aux autres domaines de la "science climatique". Introduisons le sujet en commençant par l'article de Nature qui résume l'article original que je présenterai plus bas.

1) L'article de Nature (édition du 14 Janvier 2015)

Voici son intitulé :

oversold
Dont voici une traduction :

NATURE| NEWS

On en fait trop avec les "calamités" océaniques, disent des chercheurs

Une équipe de chercheurs appelle à plus de scepticisme en matière de recherche sur les océans.

Daniel Cressey

Cet article de Nature est disponible en lecture libre sur le site de cette revue. Sa référence est doi:10.1038/nature.2015.16714
Voici une traduction de larges extraits. Les caractères engraissés le sont par PU comme d'ailleurs pour toutes les citations inscrites dans les rectangles jaunes.

"On décrit souvent les océans de la planète comme étant au bord de la catastrophe. Mais bien que certains de ces défis soient bien réels, d'autres ont été très largement exagérés, affirment des chercheurs dans un article de revue. L'équipe de recherche écrit que les journaux et les médias ont succombé à un mode de "pensée unique" (NdT : en anglais "groupthink") qui peut porter atteinte à la crédibilité des sciences de l'océan.

Carlos Duarte, un biologiste des océans de l'Université de Western Australia à Perth et ses collègues écrivent que les dépêches médiatiques pessimistes au sujet de questions relatives aux océans telles que les espèces invasives et la disparition des coraux, ne reposent pas toujours sur des observations authentiques. Ce ne sont pas seulement les journalistes qu'il faut blâmer, disent-ils. La communauté des chercheurs sur les océans "n'est peut-être pas demeurée suffisamment sceptique" sur ces sujets.

"Il y a de nombreuses discussions en aparté des colloques scientifiques, à propos des excès des prophéties apocalyptiques qui figurent dans nos rapports sur la santé des océans, et cet article est peut-être le premier à révéler ces inquiétudes en dehors de la sphère privée des discussions entre pairs." dit Duarte. "Il s'agit d'un mouvement silencieux parce qu'il existe une forte pression exercée à l'encontre de ceux qui exprimeraient ouvertement ces inquiétudes, de telle sorte que mes coauteurs et moi-même nous attendons-nous à ce que notre article provoque des réactions significatives à notre encontre."

Dans leur article de revue publié le 31 Décembre dans BioScience, Duarte et ses collègues ont analysé les catastrophes annoncées qui concernent la surpêche, l'éclosion des méduses, les espèces invasives et l'impact de l'acidification des océans sur des organismes tels que les coraux. Dans certains cas, disent-ils, il y a de forts éléments de preuve indiquant qu'il existe de fortes perturbations à l'échelle du globe - la surpêche en étant le meilleur exemple. Mais pour d'autres sujets qui ont retenu l'attention des scientifiques et des média, les éléments de preuve sont équivoques et de faible valeur. Dans ces catégories, Duarte inclut l'éclosion des méduses à l'échelle globale et les problèmes résultant des espèces invasives.

La course au gros titres

L'équipe de Duarte a passé en revue un certain nombre de rapports et d'articles scientifiques. Il les met en opposition avec d'autres articles qui sembleraient saper le discours catastrophique.

Parmi les "titrages excessifs des médias" est cité celui de CNN "Surpêche et mauvaise protection des océans les conduisent au bord d'un effondrement catastrophique". Duarte a dit aussi à Nature que son propre article : "La dévastation des côtes provoque une explosion du nombre des méduses" tombait aussi dans le piège des "prêcheurs d'apocalypse".

Un autre exemple est le déclin des espèces qui fabriquent des coquilles calciques, lequel est attribué à l'acidification des océans due au dioxyde de carbone dissous dans les océans. En 2013, le journal The Seattle Times a déclaré que ce problème "contribuait à pousser les océans vers une déstructuration qui menace de brouiller la vie marine à une échelle presque trop grande pour qu'on puisse l'imaginer."

Mais les auteurs de l'article de BioScience disent que cette question souffre d'importantes incertitudes. Beaucoup d'expériences reposent sur les "scénarios du pire", disent-ils et les affirmations selon lesquelles les organismes calciques sont déjà en déclin peuvent relever non pas des émissions de carbone mais d'autres processus océaniques.

Bien qu'il soit parfois affirmé que les éclosions de méduses augmentent dans le monde entier, l'article de Duarte dit qu'il n'y a eu aucune tentative pour quantifier l'augmentation globale avant 2012 de telle façon que les affirmations sont extrapolées à partir d'un nombre limité de situations.

L'hyperbole dans ces matières est dangereuse, nous dit l'équipe de chercheurs, parce que le public peut finir par s'endurcir et abandonner l'idée de sauver les océans s'il pense qu'ils sont parvenus à un stade au delà de la rédemption.

Duarte est actuellement occupé a rassembler un groupe de chercheurs qui pensent comme lui afin d'auditer les affirmations sur les désastres océaniques en analysant les éléments de preuve de manière critique. Ceci éliminerait les affirmations basées sur des éléments de preuve contestables et donnerait quelque espoir à la société que les océans peuvent être sauvés.

Tout en pointant du doigt aussi bien les journalistes que les scientifiques, l'équipe de Duarte place le blâme pour l'exagération sur quelques journaux scientifiques, y compris sur la revue Nature. "L'appétit des médias pour des titres ronflants peut influencer le contenu des meilleures revues scientifiques". (Note de Nature : Les news et les commentaires de Nature sont totalement indépendants de son équipe éditoriale)". [...]

Suivent quelques commentaires plus ou moins amènes (comme les auteurs s'y attendaient) de deux chercheurs explicitement visés par l'article de Duarte et al.

Que nous dit l'article original de Duarte (Winthrop Professeur à l'Université de Western Australia ) et de ses sept collègues ?

2) L'article original de Duarte et al : Bioimage

biosc

 

 

Accès libre : BioScience Advance Access publié le 31 Décembre 2014. (Article de revue).

L'article est sobrement intitulé :

"Ré examen des calamités océaniques"

La liste des auteurs :

CARLOS M. DUARTE, ROBINSON W. FULWEILER, CATHERINE E. LOVELOCK, PAULINA MARTINETTO,
MEGAN I. SAUNDERS, JOHN M. PANDOLFI, STEFAN GELCICH, AND SCOTT W. NIXON

Résumé : La prolifération d'un certain nombre de perturbations qui affectent les océans conduit à une inquiétude croissante selon laquelle l'état des océans est compromis ce qui induit un pessimisme sociétal. Les calamités océaniques sont des perturbations qui induisent des changements des écosystèmes océaniques ayant de profonds impacts et qui sont très répandus ou qui se produisent à l'échelle du globe.
Cependant, un examen des calamités océaniques dans le but de s'assurer qu'elles peuvent, en toute confiance, relever de causes humaines et opérer sur de grandes étendues ou à l'échelle du globe, montre que certains de ces problèmes ne répondent pas à ces critères ou que les éléments de preuve sont équivoques.
Un certain nombre de distorsions internes ou externes à la communauté scientifique, contribue à accréditer la perception de calamités océaniques et ceci en l'absence d'éléments de preuve solides.
L'organisation d'un audit sur les calamités océaniques peut conduire à un diagnostic plus précis sur l'état des océans ce qui peut aider à identifier les problèmes les plus pressants dont on doit s'occuper pour conserver des océans en bonne santé.

Nixon

L'article commence par une citation de Scott Nixon (ci-contre) qui est un appel au scepticisme raisonné et dont devraient s'inspirer tous les chercheurs. Scott W. Nixon , membre de l'Académie des Sciences, était un éminent et très respecté chercheur en biologie marine, décédé en 2012. A noter que Scott Nixon, bien que décédé, est également cité comme l'un des auteurs de l'article ne serait-ce que parce qu'il est l'auteur de la citation reproduite en tête de l'article. Il s'agit d'une pratique assez courante destinée à honorer, à titre posthume, une personnalité dont on est bien certain qu'il était d'accord avec les termes de l'article, ce qui laisse supposer que les considérations avancées par ses auteurs ne datent pas d'aujourd'hui :

"La science est une entreprise à caractère sociétal. Nous communiquons au moyen de la littérature scientifique et nous devons ne rien faire qui puisse porter atteinte à l'intégrité de cette communication. Aussi bien en émettant qu'en recevant de l'information, nous devons demeurer sceptiques. (Scott W. Nixon)."

Dans le chapitre introductif, les auteurs écrivent que :

[...]"On attend des scientifiques qu'ils restent sceptiques, se posent des questions, doutent ou réservent leurs jugements jusqu'à ce que des éléments de preuves suffisants deviennent disponibles pour qu'ils puissent tirer des conclusions relevant d'un scepticisme rationnel. Ce scepticisme repose sur des dispositions sociétales telles que le système de revue par les pairs destiné à assurer une analyse critique des affirmations relevant du domaine scientifique (Merton 1979). Cependant, on perçoit que le scepticisme scientifique a été abandonné ou s'est relâché dans de nombreux domaines. Ceci a permis à des opinions, à des croyances et à des adhésions tenaces à certaines théories, de jouer un rôle essentiel en faveur de croyances reposant sur des interprétations qui ne sont pas étayées par des preuves (Loehle 1987)".[...]

Duarte et ses collègues citent, dans la Table I de leur article, quelques exemples marquants de gros titres de la grande presse anglophone, insubstanciés et largement exagérés. Les auteurs font référence à cette Table I de la manière suivante :

"En réalité, les dépêches récentes des médias sur la question des océans, ne laissent que peu de place à l'optimisme. Mais une analyse de quelques unes des calamités rapportées dans les médias catastrophistes (par ex. Table I) montre parfois de graves déconnexions avec les observations factuelles. Par exemple, il n'existe aucune preuve que l'acidification des océans a fait disparaître les prédateurs des méduses non plus que les méduses ont pris possession des océans. Les prédictions que l'algue tueuse, la Caulerpa Taxifolia, allait dévaster l'écosystème méditerranéen ne se sont pas réalisées malgré les affirmations contraires des médias (Table I)."

Voici la Table I, avec sa légende.

"Table I : Exemples de titrages médiatique excessifs annonçant la disparition d'écosystèmes marins résultant de calamités océaniques :excessive"

 

 

 

 

 

 

 

 

 

 

A la lecture des deuxième ("le tueur silencieux") et troisième titres ("le monstre vert") de cette table I, les lecteurs séniors se souviendront sans doute de la panique suscitée, en 1984, par la couverture médiatique tonitruante qui avait accompagné "l'invasion des algues tueuses", la Caulerpa Taxifolia, une espèce invasive tropicale qui commençait effectivement à se répandre en Méditerranée à la suite (pensait-t-on) d'une relâchage malencontreux provenant d'un aquarium de Monaco.

De fait, l'invasion n'a pas eu lieu comme l'a démontré, entre autres, un article paru en 2003 (Mar. Ecol. Prog. Ser., 263: 75- 82) et, en 2011, un article du Monde rappelait que cette algue indésirable (notamment, disait-on, pour les posidonies) avait pratiquement disparu des zones auparavant déclarées colonisées, sans d'ailleurs que l'on sache très bien pourquoi. La lutte (inopérante) contre cette "algue tueuse" avait mobilisé, à l'époque, énormément d'efforts et des moyens considérables. Tout cela en pure perte.
Les autres titres, y compris sur l'"acidification" des océans tueuse de planctons producteurs d'oxygène, l'éclosion globale des méduses, ou la disparition des poissons sont également exagérément alarmistes et ne reposent sur aucune étude avérée, selon les 8 biologistes cosignataires de l'article.

Duarte et ses collègues pointent également du doigt une des "légéretés" assez fréquemment rencontrée dans le domaine des publications en science climatique où un grand nombre de travaux s'efforcent d'analyser l'évolution d'un phénomène au cours du temps.

"Pour quelques unes de ces calamités océaniques, il est possible que nous n'en soyons encore qu'au tout premier stade de la découverte. Cependant et même pour ces cas-là, les compte-rendus devraient se plier aux exigences des pratiques solides de la science et devraient éviter de tomber dans les pièges classiques comme de ne pas prendre en compte de la multiplication des moyens d'observations quand on rapporte sur la progression d'un phénomène au cours du temps. (par exemple, Fig. 1)"

Voici la Figure 1 de l'article (accompagnée de sa légende) dont les inserts (a) et (b) sont presqu'à la limite de la caricature :

habs

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Légende de la Figure 1 :
(a) Cartes des zones observées des éclosions d'algues mortifères (HABs) au cours du temps utilisées pour avancer l'idée que les HABS se répandent sur tout le globe. Source : reproduit avec la permission de Anderson et ses collègues (2012).
(b) La tendance temporelle du nombre des sites côtiers où on a observé des hypoxies
(NdT : déficit en oxygène) sévères afin de promouvoir l'idée d'une augmentation globale de l'hypoxie. Source : reproduit avec les permission de Vaquer-Sunyer et Duarte (2008).
(c) L'évolution au cours du temps de l'indice standardisé des méduses qui résume les variations de l'abondance sur des sites océaniques où les observations à long terme sont disponibles. Reproduit avec la permission de Condon et ses collègues (2013).

Comme on peut l'observer, les graphiques (a) et (b) montrent une prolifération des sites infectés par les éclosions d'algues mortifères, les HABS (a) (les taches orange) ou souffrant d'un manque d'oxygénation (b). De fait, ces graphiques, présentés tels quels, n'ont aucune valeur scientifique car il est évident que depuis les années 1970, le nombre des sites de mesure a considérablement augmenté. Une analyse solide aurait tenu compte de la prolifération des sites de mesure au cours du temps. En termes techniques cela s'appelle "normaliser" ou "renormaliser" les observations. J'en dirai quelques mots ci-dessous à partir d'un exemple précis.
Le graphique "normalisé" (ou "standardisé") suivant (c) ne montre aucune augmentation significative du nombre des éclosions de méduses, du moins pour les quelques sites localisés où les mesures ont été effectuées et de fait, comme le disent Duarte et al, on est encore très loin de savoir ce qu'il en est pour le globe tout entier.

Duarte et ses collègues dissertent en profondeur sur les biais ou les distorsions qui affectent les publications scientifiques. Il s'agit là d'accusations relativement graves que ceux qui pratiquent ou ont pratiqué la recherche scientifique auront cependant du mal à démentir. Il les résument de la manière suivante :

"Nous sommes de l'avis qu'il existe des mécanismes sous-jacents aussi bien à l'intérieur de la dynamique sociétale du processus de recherche qu'à l'extérieur de la communauté scientifique qui tendent à perpétuer la perception de l'existence de calamités océaniques même quand les preuves sont équivoques ou fragiles.
L'enchaînement des mécanismes internes au processus de la recherche scientifique qui peuvent opérer pour perpétuer la perception de l'existence de calamités impliquent des composantes de la recherche telles que les biais observationnels et les falsifications
(NdT : des données) ; les composantes propres au processus de publication telles que les biais dans la rédaction des publications ainsi que les composantes propres à l'usage de la littérature telles que les biais dans le choix des citations et leur détournement, de même que d'autres biais tels que le biais de confirmation (NdT : C'est à dire que l'on cherche absolument à démontrer ce dont on est convaincu à l'avance) et l'obstination théorique (NdT : C'est à dire l'obstination à adhérer à une théorie préférée même en présence d'évidences du contraire)."

De mon point de vue, le fameux syndrome du "publish or perish" ("publier ou disparaître") (et à présent du "soyez médiatique") ainsi que la comptabilité irréfléchie par les autorités du nombre des articles publiés et des citations afin d'attribuer les financements, participent à la prolifération d'articles de valeur discutable qui affectent pratiquement tous les chercheurs de la planète.

Duarte et al. ont fait allusion aux dangers typiques de la sur-exploitation de résultats qui "oublient" de normaliser les mesures. Voici, à l'inverse, les résultats d'une analyse sérieuse qui concerne ce que les médias appelleraient les "désastres causés par le réchauffement climatique".
Comme vous allez le voir, la "normalisation" permet de remettre les choses à l'endroit...tout en conduisant à des résultats exacts mais certainement "peu médiatiques" par les temps qui courent.

3) L'indispensable normalisation des observations :

Comme le rappellent
Duarte et al, c'est une faute inadmissible (mais fréquente) que de ne pas prendre en compte l'évolution de la totalité des facteurs (prolifération des moyens d'observations, amélioration et substitutions des méthodes de mesure, changement des situations) pour étudier l'évolution d'un phénomène au cours du temps.
A titre d'exemple de comportement scientifiquement correct, voici les résultats d'une étude publiée récemment (Juillet 2014) dans une revue scientifique renommée mais qui n'a pas (à ma connaissance) bénéficié de la moindre couverture médiatique, comme on pouvait s'y attendre compte tenu de la doxa actuelle.

Au sujet de la relation entre l'impact des désastres météorologiques, la vulnérabilité et le changement climatique.

Hans Visser & Arthur C. Petersen & Willem Ligtvoet

Climatic Change (2014) 125:461–477
DOI 10.1007/s10584-014-1179-z
Article en accès libre.

Le résumé de cet article explicite la démarche suivie par les auteurs :

"Les désastres tels que les inondations, les tempêtes, les vagues de chaleur et les sécheresses peuvent avoir d'énormes implications pour la santé, l'environnement et le développement économique. Dans cet article nous cherchons à savoir comment le changement climatique a pu influer sur l'impact des désastres météorologiques. Ce problème n'est pas évident parce que les conséquences des désastres ne dépendent pas seulement des événements climatiques ou météorologiques - Il y a d'autres facteurs tels que l'augmentation de la population et de sa richesse ainsi que des variations de sa vulnérabilité. Nous avons normalisé l'impact des désastres, nous avons analysé les évolutions des données observationnelles et nous les avons comparées avec les tendances des événements extrêmes, des événements climatiques et de la vulnérabilité.[...]

Les résultats de cette étude qui tient compte de l'ensemble des paramètres du problème, sont édifiants. On peut les résumer sous la forme de deux graphiques extraits de l'article.

ecohum

Ci-contre, les figures 3 et 4 de l'article cité.

En haut, l'évolution des pertes économiques normalisées au cours des 30 dernières années pour les pays de l'OCDE, les pays du BRIICS, le reste du reste du monde ainsi que le résultat pour le globe.


 

 




En bas, le
pertes humaines normalisées durant la même période.

 

 

 

 

 

D'où, dans la conclusion de l'article :

"[...]Les tendances des données normalisées montrent une stabilité des pertes dans la plupart des cas (Figs. 2, 3 and 4). C'est un résultat cohérent avec les résultats rapportés dans Bouwer (2011a) et dans ses références citées, dans Neumayer et Barthel (2011) ainsi que dans le raport GIEC-SREX (2012) (NdT : Un rapport du GIEC spécialement dédié aux événements météorologiques extrêmes).
L'absence de tendance de l'impact normalisé des désastres apparaît très cohérent avec l'absence de tendance observée dans les événements climatiques extrêmes."


Comme affirmé par les auteurs de cet article, leurs résultats recoupent les observations précédentes faites par d'autres équipes ce qui renforce la confiance que l'on peut accorder à leurs conclusions. En bref, on n'observe aucune tendance à l'aggravation des impacts aussi bien économiques qu'en terme de pertes humaines, dus aux événements climatiques extrêmes, qui ne soient expliqués par des facteurs internes (évolution de la population, de leur richesse et de leur vulnérabilité).

C'est, à peu près, exactement le contraire de ce que l'on peut lire ou voir actuellement dans les médias et entendre dans les discours de nos responsables politiques (et autres), quand ce n'est pas dans les déclarations des responsables des compagnies d'assurance.

Au mieux, ils ne doivent pas lire la littérature scientifique...
_____________________________________________________________________________

Les biais catastrophistes (Duarte et al disent "gloom and doom") médiatico-scientifiques dénoncés par Duarte et ses collègues sont à mettre en relation avec ce qu'avait écrit, en 1989, Stephen Schneider (décédé en 2010) (APS News, page 5) qui fut l'un des grands promoteurs de l'alarmisme climatique (caractères engraissés par PU) :

"Ainsi devons nous présenter des scénarios effrayants, proférer des affirmations simplistes et catastrophiques sans prêter attention aux doutes que nous pourrions avoir. Cette "contrainte éthique à deux versants" à laquelle nous sommes fréquemment confrontés, ne peut pas être résolue par une quelconque formule. Chacun d'entre nous doit décider quel est le bon équilibre à trouver entre l'efficacité et l'honnêteté. J'espère que ce sera les deux."

Pour un chercheur comme moi, une telle affirmation reste très choquante. Comme je l'ai déjà écrit en 2006, le devoir du chercheur est de faire progresser les connaissances, quelles que soient les conclusions de ses travaux et de les dire telles qu'elles sont tout en précisant les domaines d'incertitude. Mettre en balance l'honnêteté de la recherche scientifique et l'"efficacité", c'est faire de la politique, pas de la science.

Visiblement, les huit chercheurs coauteurs de l'article cité en début de ce billet, ont choisi de faire pencher la balance dans le sens de l'honnêteté et de la rigueur scientifique, sans nul doute au détriment de l'impact médiatique immédiat et probablement aussi des financements à venir pour leurs projets et, sans doute aussi, du futur de leur carrière. C'est un remarquable (et encore rare) exemple de courage et d'abnégation.

En outre, je ne suis pas certain que leur comportement intègre se fasse au détriment de l'efficacité. Bien au contraire. En effet, la confiance généralement accordée aux scientifiques qui travaillent dans ces domaines, comme dans les autres, est primordiale. Lui porter atteinte, "proférer des affirmations simplistes et catastrophiques sans prêter attention aux doutes que nous pourrions avoir" sera sans nul doute et in fine, contreproductif.

"Nous communiquons au moyen de la littérature scientifique et nous devons ne rien faire qui puisse porter atteinte à l'intégrité de cette communication. Aussi bien en émettant qu'en recevant de l'information, nous devons demeurer sceptiques." disait Scott Nixon.

Sages paroles !

Stay tuned !

19 Décembre 2014 : 2014, l'année la plus chaude ?
media2

Que les lecteurs(trices) me pardonnent en cette fin d'année et à l'approche des fêtes de Noël, pour ce billet qui peut paraître un peu rébarbatif parce qu'on parle chiffres mais, tout comme moi, vous avez tous lu et entendu, répété ad infinitum par la totalité des médias, en général sous le forme de gros titres, que l'année 2014 était, devrait ou pourrait être, ou encore serait, la plus chaude de tous les temps, du millénaire ou du siècle, ou, plus raisonnablement, depuis que les mesures ont commencé, etc.

D'après ce que j'ai pu voir et entendre, et assez bizarrement, aucun des reporters qui couvrent ces sujets ne semble s'être préoccupé de répondre à quelques questions qui viennent immédiatement à l'esprit des lecteurs un peu curieux et éduqués :

Si l'année 2014 est en passe d'être "la plus chaude", de combien de degrés s'agit-il ?
Le réchauffement proclamé pour l'année 2014 est-il significatif par rapport à la marge d'incertitude qui affecte ces mesures de température ?
Quid, exactement, de la situation de 2014 comparée aux précédentes années les plus chaudes 1998, 2005 et 2010 ?


Visiblement, ces questions n'intéressent pas les médias qui rapportent sur ces affaires climatiques.
Et les lecteurs/auditeurs qui aimeraient être réellement informés restent sur leur faim. On n'en saura pas plus.
Du moins par voie de presse, de radio ou de télé...
Heureusement, il nous reste Internet.

Pourtant, comme vous allez le voir, les réponses à toutes ces questions sont édifiantes. Et ceci à plus d'un titre et, notamment, sur la manière dont l'information sur les affaires climatiques est actuellement délivrée au grand public francophone par la totalité des médias.

A l'origine des très nombreux articles de presse, radio, télé etc. portant sur la température de l'année 2014, "l'année la plus chaude", se trouve un communiqué de presse de l'OMM (L'organisation Météorologique Mondiale, une émanation de l'ONU). Ce communiqué de presse a été diffusé urbi et orbi, peu avant la réunion COP20 organisée par l'ONU à Lima (dont on connaît à présent le résultat peu reluisant). En voici des extraits significatifs :

"Si Novembre et Décembre maintiennent la même tendance, alors 2014 sera probablement l'année la plus chaude enregistrée, devant 2010, 2005 et 1998. Ceci confirme la tendance sous-jacente à long terme au réchauffement. Il est important de noter que les différences entre les classements des années les plus chaudes sont des affaires de seulement quelques centièmes de degré et que des données d'institutions différentes peuvent montrer des classements légèrement différents".[...]

Un peu plus loin dans ce même communiqué.

“ L'information provisoire pour 2014 signifie que 14 des 15 années les plus chaudes se sont toutes produites au cours du XXIe siècle" a dit le secrétaire général de l'OMM, Michel Jarraud. "Il n'y a pas de pause dans le réchauffement climatique".

Il n'y a pas de pause dans le réchauffement climatique, nous affirme le Secrétaire Général de l'OMM ?
plateau1a
On se demande dès lors pourquoi le dernier rapport AR5 du GIEC inclut une discussion détaillée (Box 9.2 du WGI) sur ce qu'il appelle le "hiatus" des températures d'ailleurs magnifiquement illustré par le le petit histogramme du GIEC ci-contre et qu' un nombre conséquent d'articles qui paraissent, en ce moment même, dans la littérature scientifique cherchent justement à expliquer les causes de cette pause ou hiatus... qui n'existe pas selon Michel Jarraud.

Note : Les lecteurs attentifs remarqueront que les incertitudes qui affectent les tendances (en °C/par décennie) sont notablement inférieures aux incertitudes qui affectent les mesures des températures annuelles que nous allons voir ci-dessous. En effet, l'incertitude sur la pente d'une interpolation linéaire est bien inférieure à celle qui affecte chacun des points interpolés.

Dans la suite, nous allons voir tout cela en détail, avec précision et à l'aide de données objectives.
La question est évidemment celle à laquelle personne n'a répondu ou ne semble avoir envie de répondre :
"En quoi ou de combien, l'année 2014 diffère-t-elle des précédentes" ?

Pour cela, nous allons être contraints de nous plonger dans les bases de données officielles utilisées, notamment, par le GIEC ainsi que dans les données des observations satellitaires. De plus, nous allons également nous interroger sur les domaines d'incertitudes qui affectent les mesures de température du globe, ce que personne ne semble avoir fait dans le petit monde politico-médiatique auquel appartient visiblement l'OMM. Puis, nous tracerons les graphiques correspondants et établirons les tableaux des différences des températures moyennes entre l'année 2014 (jusqu'à présent, c'est à dire en Décembre) et les années précédentes.

Et nous verrons ce qu'il en est exactement.

1) Les bases de données.

Afin d'éliminer tout soupçon de manipulation des données, voici les adresses officielles des bases de données que j'ai utilisées pour tracer les graphiques que vous trouverez ci-dessous. Les deux premières, ou leurs succédanés, sont fréquemment utilisées par les contributeurs du GIEC. Les deux dernières qui sont relatives aux mesures satellitaires de températures n'ont toujours pas reçu les faveurs du GIEC.
Chacun pourra ainsi aisément vérifier l'exactitude des graphes et des données sur les moyennes que j'indique ci-dessous, en utilisant, soit un tableur-grapheur courant tel qu'Excel ou encore, comme je l'ai fait, Origin de Microcal qui est un logiciel à usage professionnel à destination des scientifiques. Cependant, il faut être conscient que les données thermométriques sont parfois modifiées (y compris rétroactivement et longtemps après) par les opérateurs des institutions, peut-être pour tenir compte de résultats non encore parvenus au moment de la mise en ligne. Ceci ne se produit qu'exceptionnellement pour les données satellitaires.

Bases de données mensuelles officielles disponibles Période de référence
NCDC (NOAA) Global : Source des données. Jan. 1901- Déc. 2000

GISTEMP¨LOTI (NASA) Global (Land-Ocean Temperature Index) : Source des données.

Jan. 1951- Déc.1980

RSS-MSU (Satellites -Global de 70.0S à 82.5N) : Source des données.

Jan. 1979 à Déc 1998

UAH : (Université de l'Alabama, Satellites- Global): Source des données. Jan 1981 à Déc. 2010 (recommandé par l'OMM)

On observera que je n'ai pas pris en compte, cette fois-ci, les données HadCRUT4 du Hadley Center comme je le fais d'habitude. La raison tient à ce que les séries de données du Hadley pour 2014 sont encore incomplètes par rapport à celles du NCDC (National Climatic Data Center-NOAA), du GISS (Goddard Institute for Space Science-NASA), du RSS-MSU (ou AMSU à présent) et de l'Université de l'Alabama (UAH- Spencer et Christy) qui, toutes les quatre, incluent maintenant le mois de Novembre 2014. Compte tenu du fait que le Hadley Center, le NCDC et le GISS utilisent (avec des traitements légèrement différents) la même base de données thermométrique GHCN, il est à prévoir que les données du Hadley ne différeront que très peu des deux autres, comme elles le font d'habitude.

A noter également que la prise en compte de la période de référence ne change évidemment pas le classement des années en fonction de leur température moyenne, ni leurs différences relatives. Cette différence des périodes de référence utilisées par les différentes institutions se traduit simplement par une translation verticale de l'ensemble des données dans les graphiques suivants, ce qui équivaut à un changement d'origine sur l'axe des ordonnées. Les valeurs des moyennes des anomalies rapportées par les différents instituts sont d'autant plus importantes que la période de référence est plus éloignée dans le temps comme cela est nettement apparent dans la série des graphes ci-dessous.
Quoiqu'il en soit, j'ai utilisé, dans la suite, les données officielles affichées dans les sites dont je donne les adresses, et évidemment, sans aucune modification.

2) Les incertitudes sur les mesures de température

Il n'est pas toujours facile de se faire une idée précise sur ces affaires d'incertitudes. Cependant, un article récent (2012) a fait le point sur cette question délicate, du moins pour les mesures dites HadCRUT du Hadley Center (UK). Le voici. Sa version .pdf est en accès libre.

(Quantifying uncertainties in global and regional temperature change using an ensemble of observational estimates: the HadCRUT4 data set
Colin P. Morice, John J. Kennedy, Nick A. Rayner and Phil D. Jones., JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 117, D08101, doi:10.1029/2011JD017187, 2012).

Cette étude prend en considération les différentes incertitudes (biais, erreurs sur les mesures, échantillonnage et problèmes de couverture du globe par les thermomètres) qui affectent les résultats des anomalies de température publiés par le Hadley Center. Il est évident que cette analyse concerne également, et à très peu près, toutes les autres bases de données (GISS, NCDC etc.) qui, toutes, utilisent la même base de données thermométriques, le GHCN.

Voici un fac-similé de la Figure 7 de cet article, accompagné de sa légende. Je l'ai complété (partie gauche et flèche) en zoomant sur la portion du graphique autour des années 50, afin de mettre en évidence les incertitudes analysées dans l'article et clairement visibles dans cette Figure 7.

Les incertitudes (à 95% de confiance) sont d'environ ± 0,1°C qui semblent se réduire à ~ ± 0.09°C pour les années récentes.

On retrouve ces mêmes domaines d'incertitudes pour les séries moyennées sur une année dans les 3e et 4e graphiques de la Fig. 6 du même article. Une prise en compte plus fine des incertitudes devrait, si possible, faire intervenir les écarts types, les percentiles etc. Cependant, cette prise en compte des incertitudes est largement suffisante pour le but que nous poursuivons ici.

incertitude

 

 

Figure 7 - "Comparaison entre les anomalies de la température moyenne globale de 1850 à 2010 (en °C, par rapport à la moyenne des années 1961-1990) pour la moyenne du HadCRUT4 (en rouge) et pour le HadCRUT3 (en bleu). Les intervalles à 95% de confiance sont représentés par les zones hachurées."

 

 

 

 

 

Les mesures satellitaires de la température de la basse atmosphère (la troposphère), en contact direct avec le sol de la planète, dites TLT (Temperature Lower Troposphere) sont également affectées par d'autres types d'incertitudes qui ont fait l'objet d'études attentives. Par contre, elles sont notamment exemptes des problèmes d'UHI (l'effet de chaleur des îlots urbains en expansion ce qui tend à faire monter les températures autour des thermomètres) ainsi que des questions de TOBS (Time of observation, Moment de la prise de mesure) etc. Elle bénéficient évidemment d'une couverture continue, quasi complète et instantanée de la planète sauf pour une zone limitée située à proximité des pôles.
Les erreurs qui affectent les mesures TLT qu'il s'agisse de RSS-MSU ou UAH qui utilisent des trains de satellites différents, dépendent, entre autres facteurs, de l'incidence des faisceaux de mesure et de la longitude. Un article de Carls Mears qui est le responsable des mesures RSS-MSU a fait le point sur ces questions.

On trouvera sous ce lien du RSS-MSU (-AMSU) les données détaillées (en format .nc) concernant les incertitudes affectant des séries de mesures prises pendant l'année 2014. Dans la suite et dans un souci de simplification, j'ai utilisé les mêmes barres d'erreurs de ± 0,09°C pour les mesures satellites que pour les mesures terrestres, ce qui ne change d'ailleurs pas grand chose au constat global.
A noter que, si on prend en compte les différentes périodes de référence utilisées par ces deux organismes, on observe que les données TLT de l'Université de l'Alabama (UAH) ne diffèrent que rarement de celles du RSS-MSU de plus d'un dixième de degré.
Par contre et comme je l'ai montré dans le billet précédent, ces deux dernières peuvent différer de quelques 0,4°C des données des mesures thermométriques telles que GISS-LOTI comme elles l'ont notamment fait au cours des derniers mois écoulés (en tenant compte des différentes périodes de référence), ce qui est évidemment considérable par rapport au réchauffement revendiqué (par rapport aux périodes de référence) qui n'est que d'environ 0,6 à 0,7°C comme on le voit sur les graphiques suivants.

Voici donc les graphiques tracés à partir des données relevées dans les sources indiquées. Je donne aussi un tableau comparatif des moyennes annuelles des données rapportées par les différents instituts. Comme vous le constaterez et au vu des très faibles écarts observés, on est contraint de travailler avec des décimales (ridicules) qui n'ont évidemment aucun sens du point de vue de la mesure mais qui en ont lorsque l'on calcule, avec précision, des différences. Ceci afin d'éviter de cumuler les erreurs d'arrondi.

3) Les graphiques et les données des anomalies de température :

Tous les graphiques de ce billet sont superposables entre eux. Ils ont été tracés avec les mêmes échelles des abscisses et des ordonnées.
Ils sont présentés sous forme de colonnes dont la hauteur indique la température moyenne de l'année considérée.
A la différence des nombreux graphiques de ce type que l'on peut trouver dans la littérature, les nôtres indiquent les marges d'incertitudes sous la forme de barres verticales de couleur noire. C'est une pratique courante, sinon obligatoire, dans tous les domaines de la science : Toute mesure doit être accompagnée de sa marge d'incertitude sauf à perdre sa signification.

NCDCannual
GISS-LOTI-annual

A) Les mesures "thermométriques"

-Le National Climatic Data Center de la NOAA (ci-contre)

Le tableau ci-dessous indique les différences calculées entre les moyennes annuelles des années "les plus chaudes" de la période 1998-2014.

Année X Temp. Moyenne °C Différence 2014-X
1998 0,63083 0,046 °C
2005 0,645 0,031 °C
2010 0,65083 0,026 °C
2014 0,67636 0 °C

Autrement dit, selon cette institution (le NCDC de la NOAA) "l'année la plus chaude" (de tous les temps comme disent certains), en moyenne, à la surface du globe, aurait été :

plus chaude que l'année 2010 d'environ 3 centièmes de degré.
plus chaude que l'année 2005 d'environ 3 centièmes de degré.
plus chaude que l'année 1998 d'environ 5 centièmes de degré.


-Le Goddard Institute de la NASA (ci-contre) :

Année X Temp. Moyenne °C Différence 2014-X
1998 0,60917 0,058 °C
2005 0,65 0,017 °C
2010 0,6575 0,01 °C
2014 0,66727 0 °C

Autrement dit, selon cette institution (le GISS de la NASA) "l'année la plus chaude" ("de tous les temps"), en moyenne à la surface du globe, aurait été :

plus chaude que l'année 2010 d'environ UN centième de degré.
plus chaude que l'année 2005 d'environ 2 centièmes de degré.
plus chaude que l'année 1998 d'environ 6 centièmes de degré.

Autant dire que ces différences d'un, de deux, de trois ou même de 6 centièmes de degré sont, en réalité, imperceptibles et n'ont aucune signification dans une collection de résultats de mesures qui sont déterminés à plus ou moins un dixième de degré près.

En réalité, l'anomalie de température de l'années 2014 est donc parfaitement indistinguable de celle des années 1998, 2005, 2010, ainsi d'ailleurs, en toute rigueur, que de toutes les années dont les marges d'incertitudes (trait vertical noir) interceptent les zones en grisé. C'est à dire au moins de toutes les années depuis 1997, sauf les années plus froides 1997, 1999 et 2000 pour le GISS-LOTI et 1999 et 2000 pour le NCDC-NOAA.

De fait, on ne saurait mieux illustrer le fait que le globe se trouve, encore et toujours, sur un plateau de température, et ceci au moins, depuis 1998. Le responsable de l'OMM (déjà épinglé dans le passé pour d'autres déclarations du même type) le reconnaît implicitement lui-même (mais le renie dans une déclaration qui contredit la première partie de sa phrase) en déclarant que :

" Il est important de noter que les différences dans les classements des années les plus chaudes sont seulement une affaire de quelques centièmes de degré et que différents jeux de données peuvent donner des classements différents"..[ et plus loin ] "Il n'y a pas de pause dans le réchauffement climatique".

En effet, si "les classements des années les plus chaudes sont seulement une affaire de quelques centièmes de degré" (ce qui est exact - mention d'ailleurs "négligée" ou "oubliée" par la quasi-totalité des reportages médiatiques), alors que personne n'est capable de mesurer l'évolution de l'anomalie de température avec cette précision, ceci signifie que ces années sont indistinguables entre elles et que la seconde partie de la phrase de Michel Jarraud : "Il n'y a pas de pause dans le réchauffement climatique" n'a pas de sens. Au contraire, ces années "record" qui s'étalent d'un bout à l'autre d'une période de 16 années sont indistinguables entre elles et on se trouve donc sur une "pause" ou un "hiatus" comme le dit le GIEC.

A noter, en passant, que même si les observations futures venaient à confirmer les modèles utilisés par le GIEC qui projettent une progression d'environ +0,2°C/décennie - ce dont on est très loin, on est plutôt proche de 0,04°C/décennie depuis 16 ans - il faudrait environ 5 ans de hausse continuelle pour que la hausse des températures moyennes devienne significative, c'est à dire supérieure à l'incertitude d'un dixième de degré.

B) Que nous disent les mesures satellitaires RSS-MSU et UAH ?

rss-msu
UAH-annual

 

Comme on le voit immédiatement, les mesures satellitaires RSS-MSU de la température moyenne globale de la basse troposphère, en contact direct avec la planète, ne montrent rien de particulier pour ce qui concerne l'année 2014.

2014 n'est pas une année "record".

2014, l'année "la plus chaude" selon l'OMM a, en réalité, été dépassée à de multiples reprises depuis 1998 selon les données satellitaires.

Je n'ai pas perdu de temps à calculer les différences de températures entre les "années record".

C'est inutile. Le résultat est évident au vu de ce graphique.

 

 

 

Pour ce qui est des mesures de l'Université de l'Alabama, UAH :

L'année 2014 n'est pas et ne sera probablement pas non plus l'année la plus chaude pour les mesures satellitaires UAH comme on peut le constater sur le graphique ci-contre et comme le déclare un des responsables (Roy Spencer) de ces mesures satellitaires.

 

Ces graphiques se passent de commentaires.

 

 

 

 

 

 

Plus intéressante est la comparaison des prédictions/scénarios des modèles du GIEC avec les mesures effectives de température, en les complétant par les données pour l'année 2014 dont nous disposons actuellement.

4) Quid de l'année 2014 quant à la divergence modèles/observations ?

Il est évident que ce ne sont pas des variations de l'anomalie de température de l'ordre du pour cent de °C pour 2014 qui pourraient modifier, en quoi que ce soit, le plateau qui se poursuit depuis 1998 et la divergence modèles/observations, sauf à l'aggraver, comme on peut le voir sur les deux graphiques suivants.


sod7a

 

 

Ci-contre, le graphique présenté par le GIEC dans la version au second ordre du rapport AR4 en 2013, mis à jour en le complétant avec ce que nous savons des mesures thermométriques (NCDC et GISTEMP LOTI) pour l'année 2014 (Décembre exclu).

Comme vous le voyez, l'ajout de l'année 2014 n'améliore en rien la divergence évidente entre les modèles(en couleur) et les observations (en noir). A l'évidence, les modélisations numériques "surchauffent" la surface de la planète.

 

 

Pour sa part, Steve McIntyre, le pourfendeur pointilleux et tenace de la fameuse crosse de hockey de Michel Mann, a superposé les dernières projections du modèle CMIP RCP 4.5 avec les données disponibles du HadCRUT4. Voici, ci-dessous, le résultat de cette superposition.

Deux des pics négatifs que l'on peut observer dans la courbe noire simulée et dans son intervalle de confiance à 95% (en grisé) correspondent aux éruptions volcaniques des années 1982 ( El Chichon) et 1991 (Pinatubo) dont les refroidissements simulés induits sont d'ailleurs nettement plus visibles dans les simulations que dans les observations.

mcintyre

 


Figure 1. "Moyenne des ensembles de modèles CMIP RCP4.5 (en noir) et 5-95% enveloppe en percentile en gris comparée aux mesures HadCRUT4 (en rouge). En tirets bleu, la projection du plateau/ralentissement de 1997-2014 jusqu'en 2030. En tirets rouge, une projection qui rattraperait la moyenne des modèles CMIP5 RCP4.5 vers 2030."

A noter que, pour des raisons de commodité, Steve McIntyre a utilisé les données RCP4.5 dont le scénario d'émission est inférieur à celui qui s'est produit dans la réalité. S'il avait utilisé le RCP8.5, plus proche de la réalité du point de vue des émissions, la divergence aurait été encore plus importante.

 

 

 

Steve McIntyre détourne ironiquement le mantra de Michel Jarraud de l'OMM au sujet des températures, dans un billet - non moins ironiquement - intitulé

"Désaccord "sans précédent" avec les modèles": (caractères engraissés par PU)

... La divergence entre la surchauffe prévue par les modèles et les températures de surface en 2014 a été la quatrième dans l'histoire des mesures et 5 des plus grandes divergences entre les modèles et les observations se sont produites durant les 6 dernières années.

5) Compléments et conclusion :

Parmi beaucoup d'autres, le journaliste scientifique David Whitehouse ne mâche pas ses mots quant au communiqué de presse de l'OMM, non plus d'ailleurs qu'au sujet du communiqué de presse du Met Office UK. Voici ce que David Whitehouse écrit à ce sujet, (caractères engraissés par PU), dans un billet intitulé "La surchauffe du reportage médiatique" dans lequel il cite des extraits du communiqué de presse de l'Office Météorologique UK.

0.01 +/- 0.1 

"Nulle part, dans le communiqué de presse de l'OMM, il n'est fait mention des erreurs dans la mesure de la température moyenne de la surface du globe. L'erreur est de +/- 0,1°C. Ainsi 2014 est de 0.01 +/- 0.1 °C plus chaude que 2010. Appuyer ses conclusions sur une telle mesure est ridicule.

[...] L'Office Météorologique (le Met Office) du Royaume Uni a publié ses prévisions pour 2014. Ils disent que la température moyenne du globe de Janvier à Octobre, en se basant sur les données HadCRUT4 (compilées par l'Office de Météorologie et le Centre de Recherche Climatique de l'Université d'East Anglia), est de 0.57 °C (+/- 0.1) au dessus de la moyenne à long terme (1961-1990). Ils disent que ceci est cohérent avec les affirmations de l'Organisation Météorologique Mondiale (OMM) "avec encore deux mois de données à ajouter, le chiffre pourrait changer mais, à l'heure actuelle", 2014 est juste au dessus du précédent record de 0.56°C établi en 2010 ( NdT : Soit une augmentation de un centième de °C !) dans les données globales qui remontent à 1850. La valeur finale pour cette année sera très proche de l'estimation centrale de 0,57°C de la prévision du Met Office pour 2014 effectuée à la fin de l'année dernière."

La fin du communiqué de presse du Met Office adopte un ton plus raisonnable. Colin Morice [NdT: qui est l'un des auteurs de l'article que j'ai donné plus haut en référence], un climatologue du Met Office dit : "Les années record ou proches des records sont intéressantes mais le classement des années les unes par rapport aux autres doit être traité avec une certaine prudence parce que les incertitudes dans les données sont plus grandes que les différences entre les années record. Nous pouvons dire que cette année complétera la série des températures proches des records que nous avons vues durant la dernière décennie."

On ne saurait mieux dire que Colin Morice qui exprime exactement ce que j'ai montré dans ce billet. Les années "records" sont indistinguables entre elles et, a fortiori, l'année 2014.

Pour sa part et parmi d'autres, la climatologue Judith Curry a consacré à ce sujet un billet intitulé
"Le travesti (ou le déguisement) de "l'année la plus chaude"

Elle rejoint évidemment les observations précédentes. Voici quelques extraits de son billet :

[...] "Eh bien, classer 1998, 2005, 2010 et 2014 comme "les années les plus chaudes" apparaît tout à fait cohérent avec un plateau de température depuis 1998.

[...]Même si 2014 maintient son statut parmi le top 4 des années les plus chaudes en quoi cela impacte-t-il l'affaire de "la pause" ? [...]La véritable question est relative à la divergence croissante qui existe entre les projections des modèles et les observations de la température de surface.[...] Mettre à jour le diagramme pour y inclure l'année 2014 ne fera qu'augmenter la divergence entre les modèles et les observations parce que les modèles montrent un réchauffement inexorable.[...]  .

Alors que le rapport de l'OMM [NdT : qui est un organisme de l'ONU] n'était pas déraisonnable, leur communiqué de presse constitue une tentative évidente pour influencer les délibérations à Lima, dans le sens de l'alarmisme."

preuvechauffe

 

 

Et Judith Curry conclut son billet avec ce petit cartoon ironique que j'ai francisé :

 

 

En conclusion :

Les médias ont fait beaucoup de bruit pour rien.

On peut comprendre que la totalité de la presse nationale s'efforce d'épauler les efforts du gouvernement qui a décidé (fort imprudemment, à mon avis) de faire du COP21 à Paris-Le Bourget, en 2015, un succès.

Mais ceci a été fait sans aucune investigation, au détriment de la complétude et de l'exactitude de l'information communiquée au grand public. L'information délivrée sur cette question a été systématiquement tronquée voire dissimulée au public et ceci, manifestement, dans un but politique.
Dans ce domaine, comme dans les autres, la fin ne justifie pas les moyens.
Les médias traditionnels y perdent en crédibilité ce qui n'arrange pas leurs affaires face à la concurrence d'Internet qui attire, à présent, de plus en plus de lecteurs. On comprend pourquoi.

Il est non moins inquiétant qu'un organisme mondial comme l'OMM de l'ONU, supposé paré de tous les attributs de la science, publie des communiqués de presse de cette nature. Là encore, si on peut comprendre que l'OMM et son secrétaire général soient contraints de s'inscrire dans le cadre de la politique de l'ONU, s'agissant de science et d'observations objectives, les non-dits, l'ellipse et l'hyperbole ne sont pas admissibles.

On comprend également la situation délicate dans laquelle se trouve le Met Office UK qui, lui aussi, pour des raisons évidentes, se voit contraint de s'inscrire dans le cadre de la politique gouvernementale de son pays. Mais, à sa décharge et à la différence de l'OMM, on observe que son communiqué de presse inclut volens nolens et à la fin du texte, les observations du climatologue Colin Morice du Met Office qui semble être le seul à informer correctement le grand public.


Hélas, c'est un bien triste constat sur la manière dont les médias informent le grand public, en cette fin d'année 2014. sapin
______________________________________________________________________________

Joyeux Noël et meilleurs vœux pour 2015, à toutes et à tous,
... sur un globe qui ne s'est toujours pas réchauffé de manière mesurable depuis, au moins, 1998 et tout particulièrement durant l'année 2014.

Prenez des forces, reposez vous bien. Nous en aurons besoin. Sans aucun doute, à l'approche du COP21 à Paris, l'année médiatique 2015 sera "la plus chaude"...

Stay tuned !
__________________________________________

Addendum du 18 Janvier 2015 : La NASA et la NOAA viennent de publier leurs données pour le mois de décembre 2014; Les conclusions sont inchangées.

Comme promis, voici les mises à jour pour les températures moyennes globales pour 2014, incluant le mois de Décembre, selon le GISS-LOTI, le NCDC, UAH et RSS.
Je reprends la mise en forme précédente en actualisant les tableaux. Les corrections à apporter par l'introduction des données du mois de décembre sont de l'ordre de quelques millièmes de degré (!),ce qui peut affecter les arrondis.

-Le National Climatic Data Center de la NOAA (ci-contre)

Le tableau ci-dessous indique les différences calculées entre les moyennes annuelles des années "les plus chaudes" de la période 1998-2014.

Année X Temp. Moyenne °C Différence 2014-X
1998 0,63083 0,058 °C
2005 0,645 0,044 °C
2010 0,65083 0,038 °C
2014 0,6892 0 °C

Autrement dit, selon cette institution (le NCDC de la NOAA) "l'année la plus chaude" (de tous les temps comme disent certains), en moyenne, à la surface du globe, aurait été :

plus chaude que l'année 2010 d'environ 4 centièmes de degré.
plus chaude que l'année 2005 d'environ 4 centièmes de degré.
plus chaude que l'année 1998 d'environ 6 centièmes de degré.


-Le Goddard Institute de la NASA (ci-contre) :

Année X Temp. Moyenne °C Différence 2014-X
1998 0,60917 0,066 °C
2005 0,65 0,025 °C
2010 0,6575 0,0175 °C
2014 0,675 0 °C

Autrement dit, selon cette institution (le GISS de la NASA) "l'année la plus chaude" ("de tous les temps"), en moyenne à la surface du globe, aurait été

plus chaude que l'année 2010 d'environ UN à DEUX centièmes de degré.
plus chaude que l'année 2005 d'environ 2 à 3 centièmes de degré.
plus chaude que l'année 1998 d'environ 6 à 7 centièmes de degré.

Autrement dit, encore et en tenant compte des erreurs d'arrondis, la prise en compte du mois de décembre introduit, dans les mesures des températures moyennes annuelles de surface, une augmentation de 0 à 1 centième de degré par rapport aux données précédentes.

Autant dire que ces différences d'un, de deux, de trois, ou même de 7 centièmes de degré sont, en réalité, imperceptibles et n'ont aucune signification dans une collection de résultats de mesures qui sont déterminés à plus ou moins un dixième de degré près, c'est à dire avec une marge d'erreur totale d'environ 0,2°C.

En réalité, l'anomalie de température de l'années 2014 est donc parfaitement indistinguable de celle des années 1998, 2005, 2010, ainsi d'ailleurs, en toute rigueur, que de toutes les années dont les marges d'incertitudes (trait vertical noir) interceptent les zones en grisé dans les graphiques ci-dessus. C'est à dire, au moins, de toutes les années depuis 1997, sauf les années plus froides 1997, 1999 et 2000 pour le GISS-LOTI et 1999 et 2000 pour le NCDC-NOAA. On ne saurait mieux illustrer le fait que nous sommes actuellement sur un plateau de température qui se poursuit depuis, au moins, 17 ans.

Pour sa part, BEST, l'organisme de l'Université de Berkeley (USA) indépendant qui affirme avoir réduit les marges d'incertitudes à ± 0,05°C (!) enfonce le clou. BEST déclare que (caractères engraissés par PU) :

Le domaine d'incertitude que nous avons atteint est remarquablement réduit (0,05°C avec une confiance de 95%). Ceci a été obtenu en partie par l'introduction de données à partir de 30000 stations de température et par l'utilisation de méthodes d'optimisation statistique. Mais même dans ces conditions, l'année la plus chaude n'a pas pu être distinguée.
Bien entendu, ceci indique que la température moyenne de la Terre n'a que très peu changé durant la dernière décennie.

On ne peut mieux dire que le réchauffement climatique fait "la pause". (Voir, sur le même sujet, le billet de Judith Curry).

Pour ce qui est des mesures satellitaires UAH comme RSS-MSU, les variations des températures moyennes globales annuelles dues à la prise en compte du mois de décembre ne sont que d'environ 0,003 °C qui sont évidemment imperceptibles sur les graphiques rapportés ci-dessus. Ces graphiques demeurent donc inchangés. Ils montrent que la température moyenne de la basse atmosphère durant l'année 2014 ne présente aucun caractère particulier par rapport aux années précédentes.
Ainsi que l'ont montré les analyses précédentes, on observe que la divergence entre les mesures satellitaires et les mesures thermométriques s'accroît d'année en année. Il s'agit là d'un problème qu'il faudra bien résoudre un jour ou l'autre.

Note : Des experts en métrologie ou, plus couramment, des chercheurs habitués à la pratique de diverses mesures en physique et en thermique, s'étonnent que des institutions se déclarent capables d'évaluer des variations de la température moyenne globale de l'ordre de quelques centièmes de degré, d'un objet aussi vaste, hétérogène et convectif qu'une couche d'air plus ou moins confinée, répartie sur toute la surface de toute la planète...

Pour ma part, je me suis contenté de reproduire ici les résultats communiqués par ces différentes institutions avec les marges d'erreurs retenues, sans porter de jugement.
_______________________________________________________________________________________________________________________________

Mise à jour du 18 Janvier 2015 : Des éclaircissement sur les incertitudes et les probabilités.

Bien entendu, de nombreux scientifiques/journalistes scientifiques (anglophones) qui sont au courant des incertitudes qui affectent les mesures de température se sont émus, tout comme moi, des affirmations péremptoires répercutées par tous les médias selon laquelle "l'année 2014 est la plus chaude etc."

L'un de ces journalistes scientifiques, (David Rose UK), a demandé (sur Twitter) des explications, à ce sujet, directement à Gavin Schmidt. Schmidt est le successeur de James Hansen notamment en tant que responsable de ces mesures au GISS de la NASA. Celui-ci lui a répondu que la présentation orale à la presse des données de température incluait effectivement une estimation des différentes probabilités qui tenaient compte des marges d'incertitudes.
Voici le tableau inclus dans le tweet de Gavin Schmidt :

nasanoaa

Ce tableau est intitulé "Le classement des années records est sensible à la méthodologie et à la couverture"


Il indique, entre autres, que le probabilité que 2014 soit "l'année la plus chaude" est d'environ 48% (un peu mois d'une chance sur deux) pour la NOAA et d'environ 38% (un peu plus d'une chance sur trois) pour la NASA.

 

 

 

 

Sous le titre "Le calcul des probabilités pour le classement de l'année 2014" la NOAA explique la dialectique utilisée pour déterminer les probabilités indiquées ci-contre et donne quelques compléments :

"En utilisant la méthode de Monte-carlo (Arguez et al, 2013), le NCDC a pris en compte l'incertitude connue pour la température annuelle des terres et des océans du globe pour la détermination du classement de l'année 2014. En tenant compte de l'incertitude et en supposant que toutes les années (1880-2014) dans les séries de données sont indépendantes, les chances de 2014 d'être :

  • L'année la plus chaude : 48.0%
  • Une des cinq années les plus chaudes : 90.4%
  • Une des dix années les plus chaudes : 99.2%
  • Une des vingt années les plus chaudes : 100.0%
  • Plus chaude que la moyenne du XXe siècle : 100.0%
  • Plus chaude que la moyenne des années 1981-2010 : 100.0%"

Si, maintenant, on se rapporte aux éléments de langage rappelés (ci-dessous) par la NOAA, donnant une définition précise des fameux "probable", "improbable", "très probable", etc. on trouve que les probabilités indiquées dans le communiqué de presse présenté par Gavin Schmidt tombent dans la catégorie "more unlikely than likely" (plus improbable que probable, ce qui est justifié par le fait que les probabilités sont inférieures à 0,5 soit 50%) aussi bien pour le NCDC de la NOAA que pour le GISS de la NASA.


likely
Autrement dit, se conformant aux conventions tabulées (ci-contre) par la NOAA (et le GIEC) (h/t WUWT, Motl) dans le même billet de la NOAA, tous les médias auraient dû intituler leurs articles par la phrase suivante :

"Il est plus improbable que probable que l'année 2014 a été l'année la plus chaude"

Ou bien, du moins pour la NOAA, "il est très probable (90%<90,4 <99%) que l'année 2014 est l'une des cinq années les plus chaudes" ou encore, " il est presque certain (99,2%>99%)) que l'année 2014 est l'une des dix années les plus chaudes", et encore, "il est certain (100%) que l'année 2014 est l'un des 20 années les plus chaudes".

.. Ce qui aurait été exact mais aurait fait désordre par rapport au mantra ambiant dans la perspective de la conférence Climat COP21 à Paris.


C'est pourtant ce qu'auraient fait des journalistes bien renseignés et soucieux d'exactitude et de précision quand il s'agit d'informer leurs lecteurs. Il faut bien reconnaître que les NOAA/NASA ont omis (on se demande bien pourquoi ...) d'évoquer les probabilités dans le communiqué de presse distribué aux médias. Les médias sérieux auraient dû remonter jusqu'à la source de la présentation (en particulier, sur le site de la NOAA indiqué) faite à la presse.
___________________________________________________________________________________________________________

Maj du 27/01/2015 : Les seules données manquantes, celles du HadCRUT4 britannnique, viennent juste d'être publiées. Celles-ci sont commentées par le Met Office de la manière suivante (texte engraissé par PU) :

“Les données HADCRUT4 (compilées par le Met Office (UK) et le Centre de Recherche sur le Climat de l'Université d'East Anglia) montrent que l'année dernière a été de 0,56°C (±0.1C) au dessus de la moyenne à long terme des années (1961-1990). En principe ceci classe 2014 comme la co-détentrice du record de chaleur avec 2010 mais les domaines d'incertitude indiquent qu'il n'est pas possible de dire de manière définitive laquelle parmi plusieurs années récentes a été la plus chaude."

Voilà qui est honnête et conforme à ce que nous avons dit plus haut. A noter que l'agence de presse US, l'AP (Associated Press), a tempéré ses premières déclarations en évoquant également les incertitudes des mesures. Dommage qu'ils ne l'aient pas fait avant et que d'autres n'aient pas suivi son exemple !
____________________________________________________________________________________________________________

Stay Tuned ! Le prochain billet paraîtra sous peu...

17 Novembre 2014 : Climat : Où en est-on ? Y a-t-il des raisons de s'inquiéter ?

Nombreux sont les lecteurs qui m'ont alerté récemment au sujet du déchaînement politico-médiatique catastrophiste qui se développe de nos jours en francophonie (mais pas nécessairement ailleurs), à propos du climat. Beaucoup prévoient que la préparation de la réunion COP21 de l'ONU qui doit se tenir à Paris en fin 2015 est l'occasion de lancer une campagne orchestrée destinée à persuader nos compatriotes (réticents) que "la fin du monde est pour bientôt" si nous ne faisons pas ce que certains voudraient que nous fassions.
Il est vrai que les occasions n'ont pas manqué, récemment, d'en rajouter une couche, telles la publication du dernier Rapport de Synthèse du GIEC (qui n'est rien d'autre qu'une approximation a-scientifique du Résumé pour les Décideurs de l'AR5 qui n'était lui-même qu'une caricature du rapport scientifique complet AR5, comme beaucoup d'autres scientifiques l'ont dit avant moi ainsi que je l'ai relaté dans les billets précédents), telles les réunions répétées des responsables du GIEC ou des politiques lors de divers sommets, toujours planétaires, etc.
Tout cela peut sembler très inquiétant et cela l'est surtout pour les quidams qui ne se plongent jamais dans les courbes, les données et les graphiques publiés par les instituts dédiés ou dans les revues scientifiques, comme la plupart de nos contemporains.

Mais, au fait, y a-t-il vraiment des raisons objectives de s'inquiéter au sujet du climat de la planète ? Et si oui, à quel sujet ?

C'est ce que nous allons voir dans ce billet, à partir des mesures objectives et en nous appuyant, parfois, sur le dernier Rapport Scientifique Complet du GIEC, l'AR5, qu'aucun de nos décideurs inquiets, ou de nos communiquants alarmistes, ne semble avoir lu avant de forger leur opinion... et celle des autres.

Nous allons donc passer en revue les évolutions, jusqu'à présent et successivement, des glaces des pôles, de la température du globe, de la hausse du niveau des mers, des événements météorologiques, dits "extrêmes" à la lumière des indicateurs officiels et des articles scientifiques parus récemment.

Et nous verrons s'il y a lieu de s'inquiéter comme "on" nous assure qu'il convient de le faire...

1) La glace des pôles :

1.A) Pôle Nord : L'océan arctique.

arcticdmi2014

 

Il s'agit de l'évolution de l'extension de la surface de la mer arctique qui contient au moins 15% de glace, ce qui est le critère généralement retenu et notamment par le GIEC d'après l'Institut Danois DMI.
La variation de l'extension de la surface glacée relative à l'année 2014 est représentée par le gros trait noir.

Comme on peut l'observer, lors du minimum d'extension, observé vers le 10 septembre, c'est à dire au moment du maximum de la fonte, l'extension de la surface glacée de l'arctique de cette année est supérieure à celle des années 2010, 2011, 2012, 2013, et aussi 2007 et 2008 qui ne figurent pas sur ce graphique.

D'autre part, le graphique de l'organisme japonais IARC-JAXA montre qu'actuellement, l'extension de la glace arctique est assez proche de l'extension moyenne des années 2000.

 

 

 

 

L'évolution positive de l'englacement de l'océan arctique durant ces dernières années est également clairement visible sur le graphique suivant qui provient de Cryosphere (Université de l'Illinois, Urbana-Champaign, Polar Research Group), pour tout ce qui est en trait noir.
arctic2014a

J'ai superposé à ce graphique deux interpolations-extrapolations possibles (L'une de couleur rouge, l'autre de couleur bleue.) afin d'illustrer les deux points de vue qui s'affrontent quant au futur proche de l'évolution de la glace arctique.

La courbe en rouge représente le point de vue pessimiste tel qu'on peut le lire sous la plume de chercheurs engagés avec le GIEC, tel Marc Serreze du NSIDC qui parle de "spirale mortelle", ou encore, d'Al Gore qui, lui, avait carrément prédit la disparition de la glace arctique en déclarant, lors de la cérémonie de la remise de son prix Nobel de la Paix (conjointement avec le GIEC), en 2007 que : "La calotte glaciaire est en chute libre. Elle pourrait avoir disparu, en été, dans près de 7 ans".
Comme on le voit, c'était faux.

La courbe en bleu illustre le point de vue des chercheurs qui, se rapportant aux oscillations des indices des températures océaniques (et plus précisément de l'AMO), pensent que la mer glacée arctique pourrait s'épaissir et résister de mieux en mieux à la fonte de l'été dans les années qui viennent (tels, par exemple Judith Curry).

De fait, personne ne connaît avec certitude la réponse à cette question, même si les observations actuelles vont plutôt dans le sens de la courbe en bleu.

"Time will tell" comme disent les américains des USA, c'est à dire, "l'avenir nous le dira"... Cependant, il existe un autre indicateur qui va dans le sens des optimistes. Il s'agit de l'observation de l'évolution du volume de la glace arctique et non plus seulement de son extension.

Voyons ce qu'il en est.

Evolution récente du volume de la glace arctique :piomas2014

Le graphe ci-contre (établi d'après les bases de données de PIOMAS (Polar Science Center)) indique l'évolution du volume de la glace arctique au cours des mois de Septembre successifs qui sont les mois durant lesquels l'extension de cette glace de l'arctique atteint son minimum,

Comme on le voit, le volume de la glace arctique en septembre a diminué jusqu'en 2012 puis est reparti à la hausse durant les deux dernières années. Le volume de la glace arctique durant le mois de Septembre 2014 est un peu inférieur à celui observé en 2008 mais il est supérieur à celui de tous les autres mois de Septembre depuis 2007 (inclus).

A noter que, bien que l'extension minimale de la glace arctique soit, en 2014 assez proche de celle observée en 2013, son volume et donc, son épaisseur, a sensiblement augmenté en 2014 ce qui laisse présager une meilleure résistance lors de la prochaine fonte, en été 2015.
Bien entendu, ceci va à l'encontre de la fameuse prédiction de la "spiral death", la "spirale mortelle" pronostiquée par les tenants du GIEC qui extrapolaient le graphe indiquant la décroissance de la surface glacée arctique comme cela est indiqué par le trait rouge que j'ai reporté sur le graphe ci-dessus.

Enfin, et c'est d'une grande importance dans cette discussion, on sait que les anomalies de température en Arctique dans les années 1920-1930 étaient assez semblabes à ce qu'elles sont aujourd'hui, ce dont on ne peut certes pas rendre responsables les émissions anthropiques de CO2. Voici ce qui est écrit dans le dernier rapport (c'est à dire dans le rapport scientifique complet et non pas dans le Résumé pour les Politiques (SPM), ni dans le récent "rapport de synthèse") du GIEC, l'AR5 (publié en 2013) (cité par Judith Curry) :

“Les anomalies de la température en Arctique dans les années 1930 étaient apparemment aussi importantes que celles des années 1990 et des années 2000. Il y a encore de nombreuses discussions au sujet des causes profondes qui sont à l'origine des anomalies de température dans l'Arctique dans les années 1920 et dans les années 1930." - GIEC AR5 Chapitre 10

J'ai évoqué plusieurs fois cette question dans cette page (Chylek, Tsonis etc.).
A ce sujet,
Richard Lindzen, souvent cité dans ce site, aime présenter la diapositive ci-contre, lors de ses conférences traitant de la glace arctique :fermin90

Le texte date de ...1922. Il est issu du "US Weather Bureau", l'organisme officiel de la météorologie de l'époque. En voici une traduction :

"L'Océan Arctique se réchauffe, les icebergs se font de plus en plus rares et dans certains endroits les phoques trouvent l'eau trop chaude. Tous les rapports pointent vers un changement radical des conditions climatiques et jusqu'à des températures inconnues jusqu'à présent dans la zone arctique. Des expéditions nous rapportent que pratiquement aucune glace n'a été vue au dessus d'une latitude de 81 degrés 29 minutes. D'énormes masse de glace ont été remplacées par des moraines de terre et des pierres tandis qu'en de nombreux endroits, des glaciers bien connus ont entièrement disparu."

On croirait lire la presse actuelle...Dès lors, d'aucuns pourraient penser qu'il serait sans doute utile, sinon indispensable, de trouver une explication rationnelle pour la fonte intense de l'Arctique survenue dans les années 1920 et les années 1930, attestée par le GIEC dans son dernier rapport, ainsi que le regel qui s'en est ensuivi, avant d'incriminer les activités humaines pour la période actuelle.
Assez bizarrement, ce n'est pas l'option qui a été choisie par la communauté des climatologues, bien que le GIEC avoue clairement sa perplexité au sujet du réchauffement arctique des années 1920-1940.

Examinons, à présent, ce qu'il en est de la banquise à l'autre bout du monde : La banquise antarctique.

1.B) La banquise antarctique :antar2014

 

Source : Cryosphere (Université de l'Illinois)

L'évolution de la surface (extent) de la banquise antarctique est représentée en jaune.

Comme on le voit, la banquise antarctique a battu, cette année encore, le record absolu d'extension depuis le début des mesures répertoriées.

A noter que cette extension a été nettement au dessus de la moyenne durant la quasi totalité de l'année, même pendant l'été austral.

 

 

 

 

antar2014a

 

 

 

Ce record d'extension reflète une tendance générale qui se poursuit au moins depuis les années 1990, ainsi qu'on peut le voir sur le graphique des données mensuelles ci-contre, tiré de la même source (Cryosphere de l'Université de l'Illinois).

 

 

 

 

 

 

 

 

 

 

La progression de l'englacement de la banquise antarctique peut réserver des surprises aux "touristes des pôles" comme ceux (des journalistes, des Chokalskiscientifiques, des touristes et une politique) qui s'étaient joyeusement embarqués en fin Novembre 2013 à bord de l'Akademik Chokalski et qui se sont retrouvés piégés à Noël, loin du continent, dans la banquise antarctique en plein été austral (photo ci-contre). Il a fallu mobiliser, à plusieurs reprises, de gros moyens pour les sortir de ce mauvais pas.
De même, il est évident que la progression de la superficie de la banquise antarctique et le dégel tardif posent aussi de sérieux problèmes pour le ravitaillement des bases antarctiques par voie maritime ne serait-ce qu'en raccourcissant sérieusement la période d'accès au continent.


1.C) La surface des glaces des mers polaires : Glace arctique + banquise antarctique (Cryosphere)

 

globalseaice2014

Comme on peut le voir, au cours des deux dernières années, c'est à dire en 2013 et 2014, l'extension des surfaces glacées du globe a rejoint ou est repassée au dessus de la "normale", c'est à dire au dessus de la moyenne des années 1979-2008.

 

 

 

 

 

 

 

 

 

Ainsi et au vu de l'évolution actuelle des observations, il n'y a aucune raison objective de prêcher l'alarmisme en ce qui concerne l'extension des glaces des deux mers polaires. Bien au contraire.

2) La température moyenne de la surface du globe :

gistemp-rss-2014

Voici les représentations des données mensuelles données par deux organismes représentatifs des mesures thermométriques (ici le GISS de la NASA) et des mesures satellitaires (ici, le RSS-MSU), depuis 1997 jusqu'au mois d'octobre de cette année.

Comme chacun le sait, il s'agit ici d'une représentation de ce que d'aucuns nomment "le plateau" des températures qui se prolonge depuis au moins 17 ans et d'autres qui supposent que les températures vont remonter, "le hiatus".

Les bases de données utilisées ici sont les bases "officielles" de ces deux organismes telles que je les ai indiquées dans des billets précédents.

Comme on le voit et comme on s'y attend étant donné le très faible incrément temporel par rapport à l'année dernière, au vu des graphes des températures mensuelles et compte tenu des fluctuations, il ne se passe rien de particulier en 2014 par rapport à 2013 ni par rapport aux années précédentes du millenium.

 

 

Nous avons pourtant tous entendu et lu dans les médias que "les mois d'août ou(et) de Septembre était les plus chauds depuis le début des relevés" ainsi que d'autres affirmations du même genre, pratiquement jamais sourcées. Si c'est exact, cela ne l'est que pour les instituts qui utilisent les mesures thermométriques qui dérivent d'ailleurs, toutes, d'une seule base de données appelée GHCN (Global Historical Climatology Network) (voir ci-dessous). Les données satellitaires indépendantes entre elles, que ce soient celles de l'UAH (Université de l'Alabama, Hunstville) ou celles de l'organisme RSS-MSU qui n'utilisent pas les mêmes satellites, concourent pour indiquer que les températures du globe des mois d'Août, Septembre etc. ne figurent pas en haut du classement des températures. Autrement dit, nous avons affaire à trois systèmes de mesures réellement indépendants, deux satellitaires et un thermométrique.
Ceci mérite quelques explications.

giss-rss

2.A) Divergences entre les différentes institutions

On peut observer une divergence croissante, au cours du temps, entre les données thermométriques (GISS-NASA, NOAA) et les mesures satellitaires (ici le RSS-MSU, UAH).

Voici, ci-contre, un zoom sur les divergences observées entre les mesures thermométriques et les mesures satellitaires dans les années 2013 et 2014.

On peut s'étonner de cette divergence sachant qu'elle atteint parfois les 0,3°C (ce qui représente près de la moitié du réchauffement observé au XXe siècle) si on se souvient que les organismes responsables de ces mesures estiment que les incertitudes sont de l'ordre de 0,05°C (soit 5 centièmes de degrés pour la surface du globe (!)).
Les divergences observées étant largement supérieures aux incertitudes cumulées, on peut se dire que soit l'une des deux mesures est fausse, soit les deux.

Mais qu'en est-il de la base des données thermométriques ?

2.B) La base GHCN des données des mesures thermométriques :

GHSNlandonly

Le site de la National Oceanic and Atmospheric Administration, la NOAA donne une représentation des anomalies de température pour le mois de Septembre 2014, (ici, seulement les terres émergées) réparties sur le globe et illustrées selon le code des couleurs indiqué en dessous de la figure, selon les données thermométriques tabulées par le GHCN comme indiqué.

1) La taille des petits carrés donne une indication sur les méthodes d'homogénéisation adoptées par le GHCN et ses utilisateurs. Ainsi observe-t-on que ces carrés dans lesquels la température est supposée varier de la même manière, sont d'une taille approximativement égale à la moitié de la France ce qui présuppose que les anomalies de température affecteraient, de la même manière, des portions distantes de quelques 500 km.

2) Comme cela est indiqué, en petits caractères, à droite et en bas de ce document, les parties en grisé représentent les "données manquantes" dans l'établissement de la base de données du globe.
Si, dans le cas présent, on n'est guère surpris de constater que le continent antarctique ne comporte que quelques rares thermomètres, on s'étonne de la
très faible couverture thermométrique de l'Afrique, de l'Amérique du Sud, de l'Alaska, du Groenland, de la Sibérie etc. bref, d'une portion très importante de la surface des continents de la planète.
Dans ces conditions, on peut s'étonner, une fois encore, que les organismes qui se basent sur cette base de données, affirment que leurs évaluations pour la température moyenne de la surface du globe, pris dans sa totalité,
sont obtenues avec une incertitude de 5 centièmes de degré.

A titre d'information et à titre d'exemple, il apparaît que le mois de Septembre 2014 n'est, en réalité, que le septième mois de septembre le plus chaud pour l'UAH (satellite), le neuvième pour le RSS-MSU (satellite) et le premier pour la NOAA (ou la NASA qui utilisent la même base GHCN). Autrement dit, deux mesures indépendantes entre elles sur trois, contredisent la troisième et ce, bien au delà des marges d'erreur proclamées.

En bref, il n'y a toujours pas de quoi s'alarmer à ce sujet. Au contraire, le "plateau" est plutôt rassurant.
Mais, qu'en est-il de la situation pour ce qui concerne la hausse moyenne du niveau des océans du globe ? Il s'agit d'un autre observable important, souvent mentionné dans les médias, comme particulièrement inquiétant.

3) La hausse du niveau des océans à l'échelle du globe

Le graphe (en bleu) a été tracé à partir des données de l'Université du Colorado par le Prof Humlum. Ce dernier a effectué une analyse polynomiale d'ordre deux de la série des données fournies par cette université. Les résulats de son analyse sont représentés sur son graphe par une courbe en trait pointillés bleus et un petit cartouche de même couleur. 4youmslr

 

 

Anomalie globale du niveau moyen des océans en mm de 1993 à Mars 2014.

 

 

 

 

 

 

 

 


Comme on peut l'observer le "best fit" polynomial quadratique obtenu par
Humlum a un indice de confiance de 93%. Il comporte un faible terme quadratique négatif (cartouche du graphique) ce qui m'a incité à chercher à le mettre en évidence en superposant une droite (en point-tirets rouge) sur son tracé (superposition de de 1993 à 2003) en pointillés bleus.
Comme on le voit, le terme quadratique négatif représente une diminution tout à fait perceptible de la vitesse de hausse des océans ce qui est en accord avec un certain nombre d'observations indépendantes publiées récemment.
Ceci qui est en accord avec plusieurs publications et contraire aux affirmations alarmistes généralement répandues
selon lesquelles la hausse du niveau des océans s'accélérerait.
Il n'en est rien. Au contraire, la hausse ralentit depuis quelques années, ce qui est d'ailleurs cohérent avec la stagnation de la température globale de la planète.

Comme on le constate, les observations concernant aussi bien l'évolution de la température moyenne du globe que le regel des banquises arctique et antarctique et le ralentissement de la hausse du niveau des mers, incitent plutôt à l'optimisme qu'au pessimisme.

Mais voyons maintenant, ce qui concerne un sujet d'inquiétude récemment devenu réellement invasif : Les événements climatiques (météorologiques) extrêmes. Deviennent-ils plus fréquents ou plus violents comme on l'entend dire fréquemment ?

4) Les événements climatiques extrêmes :

4.A) Les cyclones/ouragans/typhons

Evolution de l'indice ACI (Energie cyclonique accumulée) des Cyclones/ouragans/typhons à l'échelle du globe.
Comme je l'ai déjà mentionné auparavant l'indice ACI constitue une évaluation compacte de l'intensité et de la fréquence de l'activité cyclonique. Il existe d'autres indices légèrement différents qui conduisent sensiblement aux même résultats.

maue2014

Contrairement aux déclarations apocalyptiques que l'on peut lire à ce sujet dans les médias, ni la fréquence, ni la violence des ouragans/cyclones/typhons n'ont augmenté durant les dernières décennies.

Une explication scientifique pour cette (nouvelle) divergence entre les modèles et les observations vient d'ailleurs d'être exposée par James Kossin dans le Bulletin of the American Meteorological Society (Validating Atmospheric Reanalysis Data Using Tropical Cyclones as Thermometers by James P. Kossin, published in Bulletin of the American Meteorological Society DOI:/10.1175/BAMS-D-14-00180.1).
En bref, il s'agirait d'une migration vers les pôles de ces instabilités atmosphériques qui sont donc ainsi apaisées par les températures plus froides, ce que les modèles ne prenaient pas en compte. (Voir l'analyse de cet article).

Ainsi n'y a t-il aucune raison objective d'anticiper une augmentation de la fréquence et de la violence des ouragans/cyclones/typhons pour les années à venir et les prochaines décennies.

4.B) Les tornades (aux USA). tornade2014

Comme chacun sait, les tornades sont des événements météorologiques extrêmes relativement localisés qui peuvent être d'une extrême violence (avec des vents de près de 400km/h). On les rencontre principalement aux Etats-Unis, le long d'une ligne que l'on appelle la "tornado alley", "l'allée des tornades" où les habitants se sont aménagé tout un système de protections et d'abris qui leur permettent de sauver leurs vies, à défaut des constructions.
L'évolution de l'intensité et de la fréquence des tornades états-uniennes a fréquemment été citée comme étant un bon indicateur de la "dégradation climatique", étant entendu que le "réchauffement climatique" "devrait" conduire à une intensification de ces phénomènes aussi extrêmes que dangereux.

 

 

tornado0

Ce n'est pas du tout ce que nous disent les mesures. De fait, celles-ci nous disent, à peu de chose près, le contraire.

Voici, ci-contre, un graphique dressé par le NOAA américaine qui montre le développement du nombre des tornades observées au cours de l'année et ceci depuis l'année 2005 jusqu'en 2014 (998 tornades observées au moment de l'établissement du graphique).


Comme on le voit, par exemple, les années 2013 et 2014 figurent toutes deux parmi les années les moins affectées par les tornades pour cette période et on n'observe pas de croissance de la fréquence de ces phénomènes à mesure que le temps passe.

 

 

 


Les tornades que l'on subit aux USA, bénéficient d'un système de classement qui les rangent, suivant leur potentiel de destruction, dans plusieurs catégories nommées EF-1 (les plus violentes), EF-2 etc. par ordre décroissant de puissance destructrice.

tornado1

Voici l'évolution du nombre des tornades US de catégorie EF-1 (les plus destructrices) auxquelles on ajoute celles qui sont encore pires, en fonction des années écoulées, en partant de 1971 jusqu'en 2013.

Comme on le voit, le nombre des tornades les plus violentes aux USA n'a pas augmenté au cours des dernières décennies. D'après le trait rouge tracé par l'organisme qui a publié ces données, ce nombre a même diminué, en moyenne, au cours de cette période.

On pourrait examiner la suite des graphiques qui analysent l'évolution temporelle des tornades de violence moindre (le EF-2 etc.). Je ne les ai pas reportés ici pour ne pas allonger exagérément ce billet. Il suffit de savoir qu'aucun de ces graphiques ne montre une augmentation du nombre de ces tornades au cours des décennies écoulées.


Il faut donc en conclure qu'il n'y a pas, non plus, lieu de s'inquiéter à ce sujet : Les tornades sont de phénomènes naturels dont la violence et la fréquence ont plutôt tendance à décroître depuis les années 70.

4.C) L'enneigement de la planète.

On ne peut certainement pas affirmer que les chutes de neige, ou leur absence, puissent être considérées comme des "événements climatiques extrêmes". Néanmoins et compte tenu des conséquences économiques délétères que pourrait entraîner l'affaiblissement ou la disparition de l'enneigement, certains semblent les considérer comme tels.
wintersnow2014

Ainsi, voici ce qu'écrivait le journaliste spécialisé du journal anglais The Independent (Le 20 Mars 2000), sous le titre "Il apparaît que les chutes de neige ne sont plus qu'une chose des temps passés".Comme on le voit ci-contre, sur un graphique donnant la superficie enneigée du globe en hiver depuis 1967, publié par le Rutgers University Snow Lab, l'hiver 1999-2000 avait été particulièrement pauvre en neige, à l'échelle du globe comme au Royaume Uni.

"Cependant, le réchauffement jusqu'à présent se manifeste plus durant les hivers qui sont moins froids plutôt que durant les étés beaucoup plus chauds. Selon le Dr. David Viner qui est un chercheur confirmé de l'Unité de Recherche sur le Climat (CRU) de l'Université d'East Anglia [NdT : le QG du célèbre Climategate], dans quelques années les chutes de neige en hiver deviendront "un événement rare et excitant"

"En définitive, les enfants ne sauront plus ce qu'est la neige" dit-il".

Il apparaît que les années suivantes, peut-être à l'exception de l'année 2007, ont connu des enneigements hivernaux particulièrement abondants. Les enfants d'aujourd'hui savent toujours ce qu'est la neige et le Dr. David Viner du CRU de l'UEA est encore fréquemment cité pour cette prédiction aussi alarmiste qu'aventureuse.

snowoctober2014

Pour rester dans l'actualité, voici, ci-contre, l'évolution de la surface enneigée du globe de l'hémisphère Nord pour chaque mois d'octobre depuis 1968 (à l'exception de l'année 1969 pour lesquelles il n'existe pas de données (ND)). Il s'agit de 'l"anomalie" c'est à dire de la variation de la superficie enneigée (en millions de km carrés) du globe constatée par rapport à une moyenne choisie à l'avance.


Comme on le voit immédiatement, le mois d'Octobre 2014, c'est à dire le mois dernier qui est pourtant réputé "chaud" par les instituts utilisant les mesures thermométriques, a connu un enneigement particulièrement abondant.
De fait, ce mois d'Octobre 2014 se situe en troisième position, pour l'étendue de l'enneigement, depuis 1968, derrière les mois d'octobre 1977 et 2003.

Donc, là encore, pas de raison de s'inquiéter de l'évolution de l'enneigement hivernal et automnal de la planète, même s'il est vrai que l'enneigement printanier tend à diminuer à l'échelle du globe, ce qui reflète probablement la (faible) hausse des températures que nous avons connues depuis les années 80.

4.D) Les sécheresses à l'échelle mondiale

C'est un sujet très important qui conditionne l'existence de milliards d'êtres vivants sur la planète, via l'accès à l'eau et à la nourriture. Beaucoup affirment, sans preuve, que les sécheresses augmentent globalement du fait du "réchauffement climatique anthropique".

Il existe pourtant un grand nombre d'articles scientifiques rassurants à ce sujet dont plusieurs montrent, au contraire, que nous assistons à un "reverdissement" de la planète dû, sans doute, à la proportion croissante de CO2 dans notre atmosphère. J'avais évoqué cette question dans un billet précédent.
Au sujet de l'évolution des sécheresses, la revue Nature vient précisément de faire paraître un article révélateur à ce sujet. Il ne va pas dans le sens de l'alarmisme. Au contraire.

Voici le graphe principal extrait de cet article publié dans Nature (accès libre). Il est intitulé : "Global integrated drought monitoring and prediction system" soit "Système de suivi intégral des sécheresses à l'échelle du globe et de prédiction."

Ci-contre le graphique qui donne la fraction du globe affectée par les sécheresses depuis le mois de Juin 1982 jusqu'au mois de Juillet 2012.

drought2014

 

 

 

 

 

 

 

 

 



Le code des couleurs utilisé est indiqué dans la légende de la Figure 5 ci-dessus : "Fraction des continents du globe en situation D0 (anormalement sec), D1 (modéré), D2 (sévère), D3 (extrême) et D4 (exceptionnel) (Les données sont les Indices Standardisés des Précipitations tirés de MERRA-Land)."

Comme on le voit, qu'il s'agisse des zones "anormalement sèches", "sécheresses modérées", "extrêmes" ou "exceptionnelles", il n'y a pas de variation significative de la fraction du globe affectée, au moins, au cours des trois dernières décennies.

Ceci est cohérent avec ce que l'on trouve dans le dernier rapport (scientifique) du GIEC au sujet des fortes sécheresses :

Variation de la composante du système climatique

Potentiellement
brutal (Définition AR5)

Irréversibilité si le forçage est renversé

Probabilité envisagée dans le changement au XXIe siècle des scénarios considérés

Sécheresses de longues durées

Oui

Réversible de quelques années à des décennies

Faible confiance dans les projections des variations de la fréquence et la durée des méga-sécheresses.


Autrement dit, les scientifiques du GIEC ne se prononcent pas. Ils n'ont tout simplement pas assez de données pour juger d'une quelconque tendance. Et le graphe précédent, récemment publié, donc après la rédaction du rapport AR5 du GIEC, ne va certainement pas donner du grain à moudre aux alarmistes des sécheresses.

4.E) Que nous disait le dernier rapport scientifique du GIEC (AR5 -2013) au sujet des événements extrêmes ?

Voici, de manière plus générale, au sujet des événements climatiques extrêmes, des extraits du dernier rapport scientifique du GIEC (l'AR5) publié en 2013. (source) (déjà cité ici).

Au sujet des ouragans et cyclones tropicaux :

“Les bases de données existantes ne montrent aucune tendance significative dans la fréquence des cyclones tropicaux durant le siècle dernier....Aucune tendance robuste dans le nombre des cyclones tropicaux, des ouragans et des ouragans les plus forts, n'a été identifiée lors des 100 dernières années dans le bassin Nord Atlantique."

Au sujet des inondations :

"En résumé, le manque de preuve persiste en ce qui concerne le signe et la grandeur et/ou la fréquence des inondations à l'échelle globale, ce qui se traduit par un indice de confiance faible."

Au sujet des tempêtes, orages, grêle etc.

"En résumé, il y a une faible confiance dans les tendances observées pour les phénomènes météorologiques violents à petite échelle tels que les grêles, les orages, à cause de l'inhomogénéité des données et de l'inadaptation des systèmes de suivi."

Concernant les sécheresses et les affirmations du rapport précédent AR4 :

"Au vu des études mises à jour, les conclusions de l'AR4 (Le rapport 2007 du GIEC) concernant une augmentation des sécheresses depuis les années 1970, ont été probablement surestimées".

Concernant les cyclones extra-tropicaux :

"En résumé, la confiance est faible dans des changements à grande échelle de l'intensité des cyclones extra-tropicaux extrêmes depuis 1900."

Assez curieusement, il semble que les médias et les décideurs savent ce que les chercheurs qui contribuent au rapports du GIEC ne savent pas. Malheureusement, le personnel politique au sens large tout comme la "grande presse" et les autres médias ne semblent pas s'être donné la peine de lire, en profondeur, le contenu du dernier rapport scientifique complet du GIEC (qui date de l'année dernière), dont quelques conclusions sont rapportées ci-dessus.

Il est sans doute utile de rappeler ce qu'a déclaré récemment l'éminent climatologue, Lennart Bengtsson (fréquemment cité dans les billets précédents), à ce sujet :
bengtsson2

"Ce qui est encore plus inquiétant c'est la tendance qui consiste à donner au public l'impression que les événements météorologiques deviennent plus extrêmes et que ceci est déjà en cours. A l'exception d'une possible augmentation des précipitations et d'une possible intensification des ouragans tropicaux qui n'ont pas encore été observés, il n'y a aucune indication de l'augmentation d'événements météorologiques extrêmes dans les simulations des modèles et encore moins dans les observations actuelles."

5) Conclusions :

En partant des données officielles, nous avons successivement passé en revue l'état actuel des observations qui concernent :

- l'évolution des mers glacées au pôle Sud et au pôle Nord,
- l'évolution de la température moyenne à la surface du globe,
- la hausse du niveau des mers,
- l'évolution des tempêtes extrêmes comme les tornades aux USA, les typhons et les ouragans à l'échelle du globe,
- les questions d'enneigement, des tempêtes diverses et des sécheresses,

ainsi que les conclusions du contenu du dernier rapport scientifique AR5 (2013) du GIEC au sujet des événements climatique extrêmes.

Ces observations sont indubitablement rassurantes. Nous ne voyons strictement rien dans tout cela qui justifie le déchaînement médiatico-politique catastrophiste (francophone) auquel nous assistons en ce moment.
Au contraire, toutes ces évolutions climatiques restent dans le cadre des évolutions naturelles observées dans le passé et pour un certain nombre d'entre elles, personne n'est encore capable de se prononcer.

Ainsi, rien n'est observé dans la situations actuelle qui puisse susciter l'inquiétude. Il est possible, cependant, que certains justifient leur anxiété en se référant aux prévisions/scénarios des modélisations informatiques du climat.

L'inquiétude serait-elle alors justifiée par les modèles des prévisions/scénarios du GIEC ?
On pourrait le comprendre si les modèles numériques du climat avaient systématiquement démontré leur pertinence lors de leur confrontation avec les observations objectives. Ce n'est pas le cas.
Voici trois exemples parmi d'autres dont certains ont déjà été mentionnés dans les billets précédents, au cours des mois et des années passées.

  1. Modélisation de la température moyenne de la surface du globe. plateau1a
    Je rappelle ici le graphe qui figure dans le rapport AR5 (complet) (Chapitre 9, page 162, Box 9.2 Fig. 1a) du Rapport scientifique complet du GIEC AR5. Ce graphe confronte le résultat des mesures de températures thermométriques HadCRUT4 avec les prévisions/scénarios du GIEC.


    Comme on peut le voir immédiatement, les plupart des modèles du GIEC (ici les CMIP5) avaient prévu une hausse de la température moyenne du globe de 0,2°C (ou plus) par décennie).
    Les mesures du HadRUT4 montrent que la hausse, durant la période considérée ("le plateau") n' a été que de 0,04°C par décennie, c'est à dire 4 fois plus petite. Encore que, compte tenu de la précision réelle des mesures, cette hausse de température doit être statistiquement peu ou non significative.
    Autrement dit,
    les modèles ont été incapables de prédire l'existence du plateau de température qui a d'ailleurs toujours cours en ce moment. Les modèles surestiment manifestement le réchauffement de la planète, d'un facteur au moins égal à 5 pour ce millénaire..

  2. Modélisation de l'évolution de l'extension de la banquise antarctiqueantar-ar5

    Comme nous l'avons vu, l'extension de la banquise antarctique augmente d'année en année et ceci depuis au moins les années 90. Elle a battu son record d'extension (depuis 1979, le début des mesures satellitaires) cette année comme elle l'avait déjà battu l'année dernière.
    Que nous disent les scénarios climatiques à ce sujet ?

    Voici, ci-contre, la Figure chap 12, page 1088, Figure 28d du rapport scientifique (complet) AR5 (2013) du GIEC (Groupe de travail I).

    Comme on le voit, tous les modèles du GIEC (toutes les couleurs y compris le noir, sauf le vert) prévoient globalement une diminution de l'extension maximale de la banquise antarctique au mois de septembre.
    Ceci est contraire aux observations (ici, en vert) qui , comme nous l'avons vu, montrent une augmentation constante de cette extension.

    Il est vrai que les marges d'erreurs énormes qui affectent ces modélisations, ici représentées par les zones ombrées, permettent au GIEC d'affirmer que celles-ci sont "cohérentes" avec les observations. Il faudra peut-être attendre encore quelques années pour que ces modèles soient (enfin) déclarés inopérants par le GIEC, c'est à dire que la courbe expérimentale sorte des zones ombrées, si cela est possible.

  3. Modélisation de la température de la moyenne troposphère tropicale.

De manière un peu ironique, un de mes collègues (le physicien Howard Hayden) s'est amusé à superposer les affirmations successives des différents rapports du GIEC quant à leurs certitudes, sur un graphique de Roy Spencer et John Christy qui mettait en évidence les divergences modèles/observations pour la température prévue par les modèles et la température mesurée dans la moyenne troposphère tropicale. Il s'agit, comme chacun le sait, d'un point critique pour tester la validité des modèles climatiques. Voici ce graphique (en partie francisé) :

tropospencer

Les carrés/cercles bleus représentent les résultats des mesures in situ obtenues par une multitude de ballons sondes et de nombreux satellites.
Les courbes "bruitées" en trait fin représentent les résultats des calculs des 73 modèles en cours. Le gros trait noir représente la moyenne des résultats de ces modèles (si tant est que la "moyenne de modèles" ait une quelconque signification statistique).

La divergence croissante entre les prévisions/scénarios des modèles avec les observations est évidente. Là encore, les modèles surestiment - et de beaucoup - le réchauffement de la moyenne troposphère tropicale.

Les étiquettes rectangulaires indiquent les degrés de confiance revendiqués dans les rapports successifs du GIEC.

Comme on le voit, la "confiance" du GIEC dans ses prévisions/prédictions/scénarios s'accroît au fur et à mesure que les modèles s'écartent des observations.

Je rappelle les dates de la parution des rapports successifs du GIEC, indiqués sur le graphique par les flèches rouges.

FAR 1990, SAR 1995, TAR 2001,AR4 2007, AR5 2013.

 

 

Tant que les modélisations informatiques n'auront pas résolu leurs (graves) problèmes de divergence avec les observations, il est, sans doute, pour le moins prématuré d'anticiper l'avenir de la planète dans l'état actuel de nos connaissances et de mettre en place des mesures contraignantes qui peuvent s'avérer lourdes de conséquences.

Ainsi, dans l'état actuel des choses, nous ne voyons rien, ni dans les observations objectives ni dans les modèles manifestement pris en défaut qui puisse affecter le bien-être futur de nos enfants et de nos petits enfants (fréquemment invoqué dans les médias et jusques et y compris dans les déclarations politiques les plus officielles) qui, sans doute, dans quelques années, s'ils n'ont pas eux-mêmes sombré dans le pessimisme généralisé, s'interrogeront (ou s'amuseront), au sujet de l'étrange psychose collective qui s'est emparée d'une proportion notable des dirigeants et des communicants de notre planète en ce début du XXIe siècle.

Time will tell.

Stay Tuned !


 

16 Octobre 2014: "La science du climat n'est pas établie"...

C'est ce que déclare, en substance, un physicien renommé, Steve Koonin (ci-contre), dans une lettre ouverte publiée dans un journal US à grand tirage. Koonin a, entre autres, été récemment Sous-Secrétaire dkoonin'Etat à la Science et à l'Energie dans l'administration Obama. Il a dirigé une enquête approfondie sur la science du climat au nom de la Société de Physique Américaine (l'APS).

Ainsi, Steve Koonin rejoint la lignée des Lennart Bengtsson, Richard Tol, Daniel Botkin, Judith Curry, Garth Paltridge et bien d'autres, que l'on ne saurait qualifier de "climato-sceptiques" et qui ont, longtemps eux-mêmes, défendu, sinon participé à la rédaction des attendus et des conclusions des rapports successifs du GIEC mais qui ont, plus ou moins récemment, exprimé leur scepticisme quant aux certitudes affirmées par cet organisme de l'ONU.

Steve. E Koonin a publié un op-ed (ou une lettre ouverte) dans le Wall Street Journal du 19 Septembre 2014. Voici le fac-simile de l'en-tête de cet article accompagné de la traduction de cet en-tête..

 

 

 

WSJKoonin

La science du Climat n'est pas établie.
Nous sommes très loin de posséder les connaissances requises pour mener une bonne politique en matière de climat, écrit le scientifique éminent Steven E. Koonin.

Par STEVE KOONIN

En guise de préambule à la lecture de l'article de Koonin, il est sans doute utile de situer le contexte dans lequel intervient la publication de cette lettre ouverte.

1) La Société de Physique Américaine (l'American Physical Society) (APS) et Steve Koonin.

Petit aperçu historique sur les prises de positions de l'APS sur les affaires climatiques.
Note : Cette section, un peu spécialisée, explique l'historique des démarches qui ont conduit à la nomination de Steven Koonin à la présidence d'un groupe de l'APS chargé de mener une enquête sur l'état de la science climatique. Les lecteurs non intéressés pourront sauter directement à la traduction de la lettre ouverte de Koonin.

-En 2007, sans aucune consultation préalable auprès de ses quelques 50.000 membres, le bureau de l'APS a publié un communiqué dans lequel il exprimait son (celui du bureau) point de vue sur le "réchauffement climatique "(nommé ainsi à l'époque, à présent qualifié de "changement climatique") en déclarant notamment que la science climatique était "irréfutable".
S'ensuivit une longue liste de récriminations, de protestations voire de démissions bruyantes de la part de plusieurs piliers de la société comme j'ai eu l'occasion de vous relater au cours des dernières années. Ainsi :

-En Juillet 2008, j'avais été contraint (à regret, parce que je suis membre de l'APS depuis des décennies) d'attribuer un bonnet d'âne au bureau de l'APS pour ses réactions pour le moins incohérentes suite à la déclaration de Jeffrey J. Marque qui était alors l'éditeur des Newsletters de "Physics and Society" de l'APS. Compte tenu des désaccords au sein de l'APS dont il était un témoin privilégié, J. J. Marque avait décidé d'ouvrir un débat sur le réchauffement climatique dans les colonnes de son forum. Pour ouvrir ce débat et comme il est d'usage, Jeffrey Marque avait écrit un paragraphe d'introduction dont voici une traduction :

"Il existe une proportion considérable de gens, dans la communauté scientifique, qui sont en désaccord avec les conclusions du GIEC qui affirme que le CO2 anthropique est, très probablement, le principal responsable du réchauffement climatique qui s'est produit depuis la Révolution Industrielle. Comme la justesse ou la fausseté de cette conclusion a d'immenses implications pour l'action politique et l'avenir de notre biosphère, nous avons pensé qu'il était pertinent d'ouvrir un débat dans les pages de Physics and Society " (source).

Suite à des récriminations insistantes, le bureau de l'APS a décidé, en 2010, de publier un commentaire explicatif de la déclaration de 2007 tout en prenant du recul, notamment par rapport à une adjectif ("incontrovertible" soit "irréfutable") qui y figurait et auquel beaucoup ont reproché son caractère peu scientifique. En effet, très peu de choses, s'il en existe, sont "irréfutables" en matière de science.

-En 2012, quelques corrections mineures ont été apportées à ce commentaire. A noter que le commentaire publié en 2010 avait été précédé d'une consultation des membres de l'APS sous la forme d'un questionnaire succinct. A ma connaissance, les résultats et l'analyse des résultats de ce sondage n'ont pas été publiés mais il est clairement apparent, comme le montre la lecture des différents documents dans l'ordre chronologique que la déclaration (péremptoire) de 2007 a été sérieusement remise en cause et que l'évolution des déclarations a été clairement dans le sens de la prudence. On peut penser que le sondage mis en place par l'APS dans le courant de l'année 2010 faisait ressortir une forte demande allant dans ce sens, dont les responsables ont dû tenir compte.

-En 2013, Le POPA de l'APS, c'est à dire le Comité Chargé des Affaires Publiques de l'APS, a décidé de mettre sur pied un groupe d'enquête (nommé "The American Physical Society’s (APS) Climate Change Statement Review (CCSR)") sur les fondements de la science du climat, c'est à dire sur les connaissances qui relèvent essentiellement de la physique et donc du groupe I du GIEC. Le but déclaré de ce groupe d'enquête vise à réviser (si nécessaire) la très contestée prise de position officielle de l'APS, énoncée sans consultation des membres en 2007. Le groupe d'enquête - le CCSR - mandaté par l'APS comprenait les personnalités suivantes : Steven Koonin (président), Phillip Coyle, Scott Kemp, Tim Meyer, Robert Rosner et Susan Seestrom.
L'ordre de la mission pris en charge par ce groupe d'enquête est disponible en ligne. Il s'agissait, principalement, d'organiser une séance de travail à laquelle étaient invités un certain nombre de climatologues reconnus afin de faire le point sur l'état des connaissances en matière de sciences fondamentales du climat, dans le but d'éclairer le POPA et le bureau de l'APS dans leur prise de position officielle sur le "changement climatique". Les participants invités se sont vus proposer un cadre de discussion sous la forme d'un questionnaire (lui aussi disponible sur le site de l'APS). Ce document de 14 pages regroupe, de manière pertinente (de l'avis de Judith Curry et du mien), un grand nombre de questions qui ont été souvent évoquées sur ce site. La lecture de ce questionnaire donne un aperçu significatif sur le niveau approfondi des connaissance de ses rédacteurs physiciens.

Les bios des experts qui ont participé à la séance de travail organisé par l'APS sont également disponibles sur le site de l'APS. La transcription complète de la séance de travail (AMERICAN PHYSICAL SOCIETY CLIMATE CHANGE STATEMENT REVIEW WORKSHOP) tenue sous l'égide de l'APS et sous la direction de S. Koonin est disponible (pdf, 573 pages) sur le site de l'APS.

Un CV abrégé de
Steven Koonin est disponible sur le site de l'American Institute of Physics. La page qui le concerne sur le site du Département de l'Energie US (DOE) donne plus de détails. Entre autres fonctions, Steven Koonin a été professeur de physique théorique au Caltech pendant près de 20 ans. A noter que Steven Koonin a la réputation de ne pas hésiter à dire ce qu'il pense. Il s'est notamment illustré, en 1989, lors d'une sévère dénonciation de la célèbre "fusion froide" de Pons and Fleischmann.

2) La lettre ouverte de Steve Koonin dans le Wall Street Journal

Je donne ci-dessous une traduction intégrale* de l'article de Koonin publié dans le WSJ. Ceux qui voudront savoir d'où Steven Koonin tire un certain nombre de ses affirmations peuvent lire sa version initiale qui inclut les références des sources que le journal n'a pas repris mais qui figurent dans son article original. A noter que nombre de ses affirmations font référence au contenu du dernier rapport (scientifique, complet) AR5 du GIEC.
Les caractères engraissés ci-dessous le sont par l'auteur de PU. Ils ne le sont pas dans l'article original du WSJ.

"L'idée selon laquelle la "Science du Climat est établie" a envahi les discussions populaires et politiques actuelles. Malheureusement, cette affirmation est trompeuse. Elle n'a servi qu'à dénaturer les débats publics et politiques au sujet des questions relatives à l'énergie, aux émissions de gaz à effet de serre et à l'environnement. Elle a aussi réduit à néant les discussions scientifiques et politiques que nous devons avoir au sujet du climat du futur.

Ma formation de base comme physicien spécialiste en modélisation numérique - avec une carrière de 40 années passées dans la recherche scientifique, dans le conseil et la gestion dans des départements gouvernementaux, dans des activités académiques ou dans le secteur privé - m'ont permis d'acquérir une perspective détaillée et une vue générale de la science climatique. Une série de discussions approfondies, durant l'année écoulée, avec des climatologues éminents (NdT: Koonin fait ici clairement allusion à l'enquête dont il a la charge pour l'American Physical Society) m'ont apporté une perception encore meilleure sur ce que nous savons et sur ce que nous ne savons pas au sujet du climat. J'en suis arrivé au point de porter une appréciation sur le redoutable défi posé lorsqu'il s'agit de répondre aux questions qui intéressent les décideurs politiques et le public.

La question scientifique cruciale pour la politique n'est pas de savoir si le climat change ou non. C'est une affaire avérée. Le climat a toujours changé et le fera toujours. Les bases de données historiques et géologiques montre l'occurrence de changements climatiques majeurs, parfois sur des durées aussi brèves que quelques décennies. Nous savons, par exemple, que, durant le XXe siècle, la température moyenne de la surface de la Terre a augmenté de 1,4 degré Fahrenheit.(NdT : environ 0,8°C)

Il ne s'agit pas non plus de répondre à la question fondamentale de savoir si les humains influent sur le climat. Ce n'est pas un canular. Il y a peu de doute dans les communautés scientifiques que l'augmentation continuelle des gaz à effet de serre dans l'atmosphère, ceci étant grandement dû aux émission de dioxyde de carbone résultant de l'usage conventionnel des carburants fossiles, influe sur le climat. Il y a aussi peu de doute que le dioxyde de carbone persistera dans l'atmosphère pendant plusieurs siècles. De nos jours, l'impact de l'activité humaine semble être comparable à la variabilité intrinsèque naturelle du système climatique lui-même.

En revanche, la question cruciale et non résolue pour la politique est la suivante : "Comment le climat va-t-il évoluer du fait des influences naturelles et anthropiques au cours du prochain siècle ?". Les réponses à cette question aussi bien au niveau régional que global, tout comme à des questions aussi difficiles concernant les conséquences sur les écosystèmes et sur les activités humaines, devraient nous aider à déterminer nos choix en matière d'énergie et d'infrastructures.

Mais -là est le noeud du problème - ces questions sont les plus difficiles à résoudre. Elles représentent un défi fondamental pour ce que la science peut nous dire au sujet des climats du futur.

Même si les influences anthropiques pouvaient avoir des conséquences sérieuses pour le climat, elle sont physiquement minimes par rapport au système climatique pris dans son ensemble. Par exemple, vers le milieu du XXIe siècle, on s'attend à ce que les contributions humaines au dioxyde de carbone présent dans l'atmosphère fassent directement évoluer l'effet de serre naturel de seulement 1 ou 2%. (NdT : Pour cette observation, Koonin donne les références AR5 WG1 Figure 2.11 et AR5 Figure SPM 4.). Du fait que le système climatique est, par lui-même, hautement variable, la petitesse de cette fraction revient à placer très haut la barre qu'il faut atteindre pour donner confiance dans les projections des conséquences des influences humaines.

Un second défi auquel est confrontée notre "connaissance" du climat du futur réside dans notre piètre compréhension des océans. Les océans qui évoluent pendant des décennies et des siècles renferment l'essentiel de la chaleur du climat et influent fortement sur l'atmosphère. Malheureusement, des observations complètes et précises sur les océans ne sont disponibles que depuis les dernières décennies ; Ainsi, les bases de données fiables sont encore beaucoup trop limitées pour pouvoir comprendre, de manière satisfaisante, comment les océans vont évoluer et comment cela va affecter le climat.

Un troisième défi fondamental relève des rétroactions qui sont capables d'amplifier fortement ou d'anihiler la réponse du climat aux influences humaines ou naturelles. Une rétroaction importante dont on pense qu'elle multiplierait pas deux l'effet direct du dioxyde de carbone provient de la vapeur d'eau, des nuages et de la température.
Mais les rétroactions sont incertaines. Elle dépendent de détails des processus tels que l'évaporation et le flux radiatif à travers les nuages. Elles ne peuvent pas être déterminées avec certitude à partir des lois fondamentales de la physique et de la chimie, de telle manière qu'elles doivent être testées par des observations précises et détaillées qui, dans de nombreux cas, ne sont pas encore disponibles.

Au delà des défis posés par les observations, il y a ceux qui sont posés par les modélisations informatiques complexes qui sont utilisées pour prédire le climat du futur. Ces gros programmes tentent de décrire la dynamique et les interactions des diverses composantes du système climatique - l'atmosphère, les océans, les continents, les glaces ainsi que la biosphère des être vivants. Alors que quelques éléments des modèles reposent sur des lois physiques bien testées, d'autres parties impliquent des estimations qui résultent d'informations imposées par des considérations techniques. La modélisation informatique des systèmes complexes est autant un art qu'une activité scientifique.

A titre d'exemple, les modèles du climat du globe décrivent la Terre sur une grille qui est actuellement limitée par les capacités des ordinateurs à une résolution qui n'est pas meilleure que 60 miles (Ndt : environ 100 km) (La distance du centre de New York à Washington DC est ainsi représentée par 4 cellules de grille). Mais des processus tels que la formation des nuages, les turbulences et la pluie, tous apparaissent sur des échelles beaucoup plus petites. Ainsi, ces processus déterminants n'apparaissent dans les modèles que sous la forme de paramètres ajustables qui spécifient, par exemple, comment la couverture nuageuse moyenne dépend de la température moyenne et de l'humidité sur une case de la grille. Dans un modèle donné, il y a ainsi des douzaines de telles suppositions qui doivent être ajustées ("tunées" dit-on dans le jargon des modélisateurs) afin de reproduire à la fois les observations actuelles et des données historiques mal connues.

Nous entendons souvent dire qu'il existe un "consensus scientifique" au sujet du changement climatique. Mais, pour ce qui est des modélisations informatiques, il n'existe pas de consensus utile au niveau des détails qui seraient pertinents pour nous assurer de l'influence de l'activité humaine. Depuis 1990, le Groupe Intergouvernemental pour l'Etude du Climat de l'ONU (Le GIEC) a mis en place une révision périodique de l'état de la science climatique. Chaque rapport successif émis par cette organisme, avec la contribution de milliers de scientifiques du monde entier, en est arrivé à être perçu comme représentant l'état de l'art en matière de science climatique au moment de sa parution.

Pour ce qui est du dernier rapport du GIEC (Septembre 2013), son Groupe de Travail N°1 qui se consacre aux sciences physiques, utilise une collection de quelques 55 modèles différents. Bien que la plupart de ces modèles soient ajustés pour reproduire les grandes caractéristiques du climat de la Terre, les différences marquées dans leurs détails et dans les projections, mettent en évidence toutes les limitations dont je viens de parler.

Par exemple :

Les modèles diffèrent dans leurs description de la température moyenne de la surface du globe durant le dernier siècle par un facteur supérieur à 3 pour le réchauffement total enregistré durant cette période. De tels désaccords sont aussi présents dans de nombreux autres paramètres fondamentaux du climat, y compris pour ce qui est de la pluviométrie qui est déterminante pour l'équilibre énergétique de l'atmosphère. Il en résulte que ces modèles conduisent à une très grande dispersion des descriptions du fonctionnement interne du climat. Du fait que les modèles sont si largement en désaccord, il n'y en a guère plus d'un seul qui puisse être correct.

Bien que la température moyenne de la surface de la Terre ait augmenté rapidement de 0,9 degrés Fahrenheit ( NdT : environ 0,5°C) pendant le dernier quart du XXe siècle, celle-ci a augmenté beaucoup plus lentement durant les 16 dernières années alors que la contribution de l'humanité au dioxyde de carbone de l'atmosphère a augmenté de quelques 25%. Ce fait surprenant démontre, à l'évidence, que les influences naturelles et la variabilité sont suffisamment puissantes pour contrebalancer le réchauffement actuel résultant de l'activité humaine.

De fait, il est bien connu que les modèles ont échoué à représenter ce ralentissement de la montée de la température. On a avancé plusieurs douzaines d'explications différentes pour expliquer cet échec, la variabilité océanique étant sans doute un acteur de premier plan. Mais, dans l'ensemble, cet épisode persiste à mettre en lumière les limites de nos modélisations.

Les modèles donnent une description approximative de la diminution de la surface de la banquise arctique observée durant les deux dernières décennies mais ils échouent à décrire une augmentation comparable de la banquise antarctique qui se trouve maintenant avoir atteint des records d'extension.

Les modèles prédisent que la basse atmosphère au dessus des tropiques absorbera une grande partie de la chaleur correspondant au réchauffement de l'atmosphère. Mais ce "hotspot" n'a pas été observé de manière crédible ce qui jette un doute sur notre compréhension de la rétroaction déterminante de la vapeur d'eau sur la température.

Même si l'influence humaine était beaucoup plus faible dans le passé, les modèles ne rendent pas compte du fait qu'il y a 70 ans, le taux de montée global des océans était aussi important que celui que nous observons de nos jours - environ un pied par siècle.

Un test crucial de nos connaissances en matière de rétroactions est la sensibilité climatique - c'est à dire le réchauffement induit par un doublement hypothétique de la concentration en dioxyde de carbone. La meilleure estimation actuelle de la sensibilité (entre 2,7 degré Fahrenheit et 8,1 degré Fahrenheit) (NdT : respectivement environ 1,6°C et 4,5°C) n'est ni différente ni plus assurée qu'elle ne l'était il y a trente ans. Et ceci en dépit des efforts titanesques en recherche qui ont coûté des milliards de dollars.

Ces questions, et beaucoup d'autres demeurées ouvertes, sont, en fait, mentionnées dans les rapports scientifiques complets du GIEC bien qu'une lecture attentive et informée soit quelquefois indispensable pour parvenir à les dénicher. Il ne s'agit pas là de "problèmes mineurs" qui devraient être "éclaircis" par les recherches à venir. Il s'agit bien là de déficiences qui érodent la confiance dans les projections des modèles numériques. Les efforts pour venir à bout de ces problèmes devraient figurer parmi les premières priorités de la recherche climatique.

En revanche , une lecture par les organes officiels et par le public du seul "Résumé Pour les Décideurs" (SPM) du GIEC ne permettrait pas d'avoir une bonne perception des implications de ces déficiences. Il s'agit de défis fondamentaux à l'encontre de notre compréhension des impacts humains sur le climat et ils ne devraient pas être dissimulés au nom du mantra "la science du climat est établie".

Alors que les deux décennies écoulées ont vu des progrès en science climatique, ce domaine de recherche n'est pas encore assez mûr pour répondre aux questions difficiles et importantes qui sont posées. L'état de la question, manifestement immature, met en lumière ce qui devrait être évident : la compréhension du climat, au niveau requis pour déterminer l'importance de l'influence humaine, est un problème vraiment très très difficile.

Dans l'avenir, nous pouvons et nous devrions prendre les mesures afin de rendre les projections du climat plus utiles. Un effort international pour mettre en place un système global d'observation du climat générerait une collection de données d'observation plus précise, s'enrichissant sans cesse à mesure que le temps passe. De même, des calculateurs de puissance croissante peuvent permettre de parvenir à une meilleure compréhension des incertitudes inhérentes aux modèles. On pourra utiliser des pas de grilles plus fins incluant des descriptions plus sophistiquées des processus qui y prennent corps. Il est urgent de faire des progrès dans cette science car nous pourrions être pris au dépourvu si notre compréhension ne s'améliore pas aussi rapidement que le changement climatique lui-même n'évolue.

Une transparence rigoureuse serait aussi un progrès souhaitable, tout particulièrement du fait de l'importance de la politique et des décisions qui sont en jeu. Ceci pourrait être mis en place par des analyses périodiques et indépendantes de la part d'une "équipe rouge" (NdT : La mise en place de "red teams", d'"équipes rouges" est une pratique courante aux USA. Elle permet d'informer les décideurs en leur apportant des points de vue alternatifs sur une variété de question délicates. Cette idée a déjà été suggérée à plusieurs reprises par les "climatosceptiques"... sans aucun résultat.) qui mettent à l'épreuve et discutent les projections en se focalisant sur leurs déficiences et sur leurs incertitudes ; ce serait certainement la meilleure chose à faire pour ce qui est de la méthode scientifique. Mais du fait que le climat change de manière naturelle sur des décennies, il faudra encore de nombreuses années pour obtenir les données nécessaires pour isoler, de manière crédible, et pour quantifier les effets de l'influence humaine.

Les décideurs et le public souhaiteraient sans doute vivre dans le confort que procurent les certitudes dans la science climatique. Mais je redoute que la promulgation intransigeante de l'idée que la science "est comprise" (ou est un "canular") n'obère et ne fige les efforts scientifiques retardant ainsi les progrès dans ces questions importantes. L'incertitude est un des premiers moteurs et une des premières motivations de la science et elle doit être confrontée frontalement. Elle ne doit pas être confinée à des conversations feutrées dans des apartés lors des conférences académiques.

Les choix sociétaux, dans les prochaines années, reposeront nécessairement sur des connaissances incertaines sur les climats du futur. Cette incertitude ne doit pas nécessairement être une excuse pour l'inaction. Il y a une prudence bien justifiée pour accélérer notre développement dans les technologies à basses émissions (NdT : Koonin a dirigé un groupe sur les énergies renouvelables chez BP) et pour prendre des mesures à la fois économiques et efficaces du point de vue énergétique.

Mais les stratégies vis à vis du climat, au delà des efforts "sans regrets", impliquent des coûts, des risques et des questions d'efficacité de telle manière que des facteurs non scientifiques rentrent en ligne de compte pour les décisions. Elles mettent en jeu notre degré de tolérance vis à vis des risques ainsi que les priorités que nous attribuons au développement économique, à la réduction de la pauvreté, à la qualité de l'environnement et à l'équité intergénérationnelle et géographique.

Des individus et des pays peuvent légitimement être en désaccord sur ces questions, de telle manière que la discussion ne devrait pas porter sur la "croyance" ou sur la "négation" de la science. En dépit des affirmations de la part de nombreuses sociétés scientifiques, la communauté scientifique ne peut prétendre à aucune expertise particulière en ce qui concerne les objectifs et les valeurs les plus profondes de l'humanité. Ce sont les sphères politiques et diplomatiques qui sont le mieux adaptées pour ce débat et pour la solution de ces questions. Les distorsions dans la présentation de l'état actuel de la science du climat ne sont d'aucune utilité pour la progression de ces efforts.

Toute discussion sérieuse au sujet du changement climatique doit commencer par la reconnaissance non seulement des certitudes mais aussi des incertitudes, tout particulièrement s'agissant des projections du futur. La reconnaissance de ces limites, plutôt que leur ignorance, conduira à une discussion plus sobre et, en définitive, plus productive sur le changement climatique et les politiques qui lui sont associées. Agir différemment rend un très mauvais service à la climatologie elle-même.

Le Dr. Koonin a été sous-secrétaire d'Etat pour la Science et le Département de l'Energie durant le premier mandat du Président Obama. il est actuellement directeur du "Center for Urban Science and Progress" à l'Université de New-York. Dans le passé, il a été professeur de physique théorique et recteur au Caltech ainsi que directeur scientifique de BP où son travail était consacré aux énergies renouvelables et aux énergies à bas carbone."


*Skyfall.fr en a publié une autre traduction sur son site.

3) Quelques réactions

Comme on s'en doute, compte tenu du parcours remarquable de Steve Koonin, de sa notoriété et des fonctions importantes qu'il a exercées au sein de l'administration Obama, la publication de cette sorte de "coming out" dans le Wall Street Journal a généré un buzz important dans la presse anglophone. A l'heure où j'écris ces lignes, le nombre des commentaires qui font suite à l'article de Koonin sur le WSJ s'élève à 2938 (!).
Bien que
Koonin ne remette pas en cause les fondamentaux de la doxa en vigueur en se retranchant, pour ce faire, derrière le "consensus" scientifique, son article constitue une très sérieuse remise en question des affirmations des supporters du GIEC, des politiques et de la totalité des médias (francophones). Comme on s'y attend et compte tenu des enjeux, cette lettre ouverte (cet op-ed) a suscité des réponses peu amènes de la part des ténors et des promoteurs bien connus de "la science du GIEC" (tels Pierrehumbert et Ben Santer-Thomas Stocker, entre autres).

Pourtant, Koonin se contente de pointer quelques-unes des divergences modèles/observations (visibles par tous et mentionnées maintes fois dans ce site au cours des années passées) et de conclure, comme le ferait (ou le fera), sans doute, tout physicien indépendant qui se serait donné la peine de se pencher attentivement sur cette question, que la science sur cette affaire est très loin d'être conclusive.
Ceci ne devrait pas surprendre car comme on le sait, la physique est fille des mathématiques. A ce titre, elle place très haut la barre de la rigueur en matière de sciences et s'accomode mal des hypothèses plus ou moins hasardeuses ou invérifiées.

La revue Physicstoday (publiée par l'American Institute of Physics), très populaire chez les physiciens et dont on connaît la ligne éditoriale conforme à la doxa en vigueur, n'a, semble-t-il, pas pu éviter (ce qui lui est d'ailleurs reproché par quelques commentateurs) de rapporter sur cette lettre ouverte de Steven Koonin.

C'est ainsi que l'un de ses éditeurs, Steven Corneliussen, reprend des extraits des déclarations de Steven Koonin, avec un titre et un sous-titre qui ont manifestement provoqué la colère des promoteurs de "la cause". Ce à quoi Corneliussen a répondu qu'il n'a fait que son devoir de journaliste scientifique.
Voici le fac-simile de l'en-tête de cet article accompagné de sa traduction :

physicstoday

Le physicien Steve Koonin remet en cause (ou discrédite) le consensus des climatologues.

Dans un long commentaire publié dans le Wall Street Journal, le vétéran leader en technoscience déclare que la science n'est pas avérée.
Par Steven T. Corneliussen, Septembre 2014."

Ainsi et compte tenu de la notoriété de Physicstoday dans le petit monde de la physique internationale, on peut penser que la grande majorité des physiciens sont désormais informés des prises de position de Steve Koonin.

4) Le rétropédalage continue : La sensibilité climatique au CO2 s'amenuise au point de jeter un grand doute sur la nécessité ou l'urgence affirmée des politiques entreprises par différents pays (comme, en premier chef, la France)..

Comme je vous l'ai dit, on constate qu'un nombre croissant de scientifiques consciencieux qui s'attachent notamment à comparer les prévisions/projections/scénarios des modèles climatiques en vigueur avec les observations factuelles et qui constatent des divergences croissantes et multiples, entre les modèles et les faits, prennent actuellement du recul par rapport à la doxa en vigueur. curry3

 

Peu après la publication de l'article de Koonin, Le Wall Street Journal a demandé un "op-ed" à Judith Curry suite à la publication de son dernier article dans le "Climate Dynamics " dans lequel, avec Nicholas Lewis et à partir des observations objectives, les auteurs montrent que la sensibilité du climat aux ajouts de CO2 est bien moindre que celle qui est rapportée dans les rapports successifs du GIEC.

 


Voici le fac-simile de l'en-tête de l'article de Judith Curry dans le WSJ accompagné de sa traduction.

WSJcurry

La fonte statistique du réchauffement climatique
Des évidences croissantes suggèrent que les hypothèses de base du changement climatique sont fausses : Le compte n'y est pas.

Par JUDITH CURRY
"Lors du dernier sommet des Nations Unies sur le climat, le Secrétaire Général Ban Ki-Moon, a averti qu'"En l'absence de diminutions significatives des émissions par tous les pays et dans les secteurs clefs, la fenêtre d'opportunité qui permettrait de confiner le réchauffement à moins de deux degrés, va bientôt définitivement se refermer". En réalité, cette fenêtre d'opportunité pourrait rester encore ouverte pendant un bon moment. Un nombre croissant d'éléments de preuve suggère que le climat est moins sensible aux émissions de dioxyde de carbone que ne le supposent, en général, les politiques - et que la nécessité de réduire ces émissions est moins urgente."


Le texte complet de cet article de Judith Curry dans le WSJ était, pendant un temps, réservé aux abonnés de ce journal. Judith Curry en propose une version complète sur son blog Climate Etc.

5) Perspectives

De manière générale et à la lecture de la littérature qui paraît, à jet continu, sur ces sujets, on observe actuellement une augmentation du nombre des désaccords, voire de défections par rapport à la ligne du GIEC. Du strict point de vue scientifique, on constate également l'intervention de plus en plus fréquente, jusqu'à devenir quasi omniprésente, de la mention à la variabilité naturelle intrinsèque désormais souvent estimée être d'une amplitude (au moins) équivalente aux effets anthropiques, comme le rappelle Koonin. C'était loin d'être le cas, il y a quelques années, ou la variabilité naturelle n'était quasiment jamais mentionnée. Il est clair qu'il s'agit là d'une tendance lourde qu'il convient de suivre avec attention.
Comme je l'ai souvent noté dans les lignes de ce site, on revient ainsi, peu à peu, à ce qui aurait dû, dès le début, être la démarche scientifique normale : il faut expliquer les mécanismes de la variabilité naturelle du climat avant de tenter de discerner une éventuelle influence humaine.

La question qui reste posée est de savoir quel sera le délai nécessaire pour que cette évolution importante de la tendance de la recherche scientifique dans ce domaine parvienne aux oreilles de nos médias et de nos politiques, notamment (mais pas seulement) francophones. Comme nous avons eu l'occasion de l'apprendre, dans le passé et parfois à nos dépens, l'inertie du système politico-médiatique peut être excessivement grande.

Enfin, la lettre ouverte de Koonin pourrait indiquer un possible infléchissement des prises de position de l'APS par rapport au statu quo ante, ce qui constituerait une grande première dans le microcosme des grandes sociétés savantes.

Car il faut savoir que les universités et autres centres de recherche financés par l'argent public bénéficient grandement des subsides gouvernementaux attribués à ces recherches sur le climat, par le biais de l'"overhead" (c'est le mot qui est aussi fréquemment utilisé dans les universités françaises).
L'"overhead" (i.e. le prélèvement pour les frais généraux) qui peut se monter à quelques 60% (aux USA mais nettement moins en France) des contrats de recherche obtenus par les chercheurs, tombe dans l'escarcelle des universités. Ainsi, il est évident qu'il n'est pas dans l'intérêt bien compris des responsables des universités de s'opposer à la doxa gouvernementale en vigueur. Or, le plus souvent, ce sont ces mêmes responsables qui constituent le gros des dirigeants des sociétés savantes comme l'APS.
Ainsi peut-on comprendre qu'il faudrait vraiment beaucoup de vertu aux responsables de l'APS pour qu'ils emboîtent le pas de Steven Koonin et des autres contestataires physiciens. On ne tue pas facilement la poule aux oeufs d'or quand on gère le budget d'une université mais, en revanche, il serait suicidaire d'engager une société savante comme l'APS dans une voie sans issue contredite par les faits et les observations scientifiques.

Cruel dilemme !
A mon avis, compte tenu des incertitudes, il est assez probable que le bureau de l'APS choisira une voie nettement plus neutre que par le passé : la voie de la prudence. Et il est fort possible, également, que d'autres sociétes savantes suivront cet exemple.

Nous verrons...

Stay tuned !

 

14 Septembre 2014 : Les dessous du GIEC vus par ses experts. D'autres scientifiques subissent foudre et censure de la part de leurs collègues.

Ce billet comporte trois parties distinctes. D'une part, il rapporte les propos tenus notamment devant les élus US par plusieurs scientifiques éminents et participants actifs au GIEC qui ont brisé l'omerta et ont parlé ouvertement et en termes particulièrement critiques du contenu des rapports et du processus interne au GIEC.
Par ailleurs, peut-être motivés par "
l'affaire Bengtsson" que je vous ai relatée dans mon précédent billet, d'autres chercheurs se sont récemment élevés contre les comportements autoritaires (c'est un euphémisme) de la communauté des climatologues.
Enfin, et cela va dans le bon sens, la revue Science se pose (enfin) de bonnes questions au sujet de l'engloutissement supposé programmé des îles coralliennes...

A la différence de la plupart des démocraties francophones qui n'invitent que très rarement, un ou deux scientifiques (toujours les mêmes et de préférence de l'establishment) à exposer les résultats des travaux qui pourraient avoir des conséquences politiques, les élus des démocraties anglophones et tout particulièrement des USA et du Royaume Uni, organisent fréquemment des sessions d'information sur une grande diversité de sujets scientifiques ou techniques auxquels ils invitent à témoigner un grand nombre de scientifiques présentant divers points de vue et reconnus pour leur expertise.
C'est dans ce cadre que le "Comité pour la Science, l'Espace et la Technologie" de la Chambre des Représentants US a organisé, le 29 Mai dernier, une session plénière d'information dite " Full Committee Hearing - Examining the UN Intergovernmental Panel on Climate Change Process", c'est à dire une réunion d'information pour examiner le fonctionnement et le processus du GIEC. Lors de cette session, quatre scientifiques étaient invités (Tol, Oppenheimer, Botkin et Pielke Sr).

Dans la suite, je donne des traductions de différents articles/déclarations de deux de ces scientifiques (Tol et Botkin) en respectant l'enrichissement (caractères majuscules, engraissés, en italique etc.) typographique telle qu'il figure dans leurs différents témoignages écrits. Le texte complet (en anglais) des quatre témoignages rédigés par les auteurs est disponible sur le site du Comité de la Chambre US.

1) Les rapports du GIEC (groupes II et III) : Beaucoup de biais, de contre-vérités et un fonctionnement problématique voire inquiétant.

A) Richard Tol tol1

Richard Tol (photo ci-contre) se présente ainsi :

"Je m'appelle Richard Tol. Je suis professeur d'économie à l'Université du Sussex et Vrije Universiteit Amsterdam. Je suis un chercheur associé au Tinbergen Institute et CESifo. Je suis classé parmi les Top 100 économistes au monde par IDEAS/RePEc1 et je figure parmi les 25 climatologues les plus cités selon Google Scholar. Je suis éditeur de Energy Economics qui est un des meilleurs journaux du domaine [...] J'ai participé au GIEC depuis 1994 où j'ai rempli différentes fonctions dans les trois groupes de travail. Plus récemment, j'ai été l'auteur principal-animateur du chapitre sur l'économie du groupe de travail II."

Autant dire que Richard Tol est un des pivots du GIEC. Son témoignage est notamment disponible sur ce site (en anglais). On y trouvera les nombreuses citations, mentionnées par Tol dans sa déposition originale à l'appui de ses affirmations.

Notamment, Richard Tol a refusé de co-signer le Résumé pour les Décideurs de l'AR5 du GIEC qu'il jugeait trop alarmiste.

Il s'en explique de cette manière :

"Ce biais alarmiste m'a poussé à retirer mon nom du Résumé Pour les Décideurs (NdT le SPM) en Septembre 2013. Mes points de vue sur les impacts du changement climatique sont bien connus. J'appréciais le premier brouillon du Résumé dont l'un des points clefs était que les pires impacts du changement climatique étaient des symptômes d'une mauvaise gestion et du sous-développement. Il n'était tout simplement pas crédible que je signe la version finale du Résumé avec son exagération des risques. Malheureusement, les nouvelles annonçant mon retrait ont fait la une des médias en Mars 2014, procurant ainsi une excuse à la presse pour se focaliser sur les gens impliqués plutôt que sur les déficits structuraux du GIEC."

Au cours de sa déposition devant les Représentants US, Richard Tol donne quelques explications supplémentaires,

"Les chercheurs qui, poussés par la curiosité, poursuivent leurs travaux sur le changement climatique mais qui trouvent des choses moins alarmantes, sont ignorés. A moins qu'ils ne deviennent célèbres et, dans ce cas, ils sont harcelés et discrédités. Le harcèlement dont a fait l'objet Lennart Bengtsson en est un exemple récent. Bengtsson est un monsieur sympathique de 79 ans. Il a remporté de nombreux prix au cours d'une longue et éminente carrière en météorologie et en climatologie. Il a récemment rejoint une association (NdT en anglais "Charity" : i.e. association sans but lucratif) et s'est vu contraint de démissionner deux semaines plus tard. En tant que conseiller il n'a jamais été responsable de quoi que ce soit qu'ait fait cette association et a fortiori de ce qui s'est passé avant qu'il n'y adhère. Pour cela, il a été insulté par ses pairs. Un professeur de l'Université du Texas A&M a même suggéré qu'il était sénile. Bizarrement, la "communauté" climatique n'a pas ouvert la bouche quand l'un des leurs a été élu au Parti Vert. Elle n'a pas non plus protesté contre les liens étroits qui existent entre les auteurs du GIEC avec le Fonds de Défense de l'Environnement, avec les Amis de la Terre, Greenpeace ou le World Wildlife Fund for Nature (NdT : le WWF). D'autres météorologues éminents qui ont reçu le même traitement que Bengtsson étaient – Curry, Lindzen, Pielke Sr., Pielke Jr qui ont été également maltraités, simplement pour être restés fidèles à la littérature scientifique, telle qu'elle est compilée par le GIEC - qu'il n'y a pas d'évidence statistique que les impacts des désastres naturels aient augmenté du fait du changement climatique. J'ai eu, moi aussi, droit à ma part d'insultes. L'équipe de direction de la London School of Economics ainsi que le Guardian, maintenant et fréquemment, répandent des mensonges à mon sujet et au sujet de mon travail.

[...]

Ce biais de sélection (Ndt : le "cherry-picking") est évident dans le cinquième rapport (AR5) du groupe II. Le Résumé pour les Décideurs (SPM) évoque les rendements des récoltes, mais omet le plus important de tout - l'évolution des technologies - qui a fait progresser les rendements de l'agriculture, depuis des temps immémoriaux. Ainsi, il montre les impacts du changement climatique sur l'agriculture en supposant que les agriculteurs n'ajusteront pas leurs pratiques au gré des circonstances - Les impacts beaucoup moins dramatiques, après adaptation, sont dissimulés au sein du rapport principal. Il montre que les pays les plus vulnérables devraient payer quelques 10% de leur revenu annuel pour la protection des côtes mais omet de dire qu'un pays moyen paierait moins de un dixième de 1% - de nouveau le chiffre le plus bas, le plus pertinent, est enterré dans le rapport. Il insiste sur les effets sur la santé du fait du stress dû à la chaleur mais minimise les impacts sur la santé du stress dû au froid - bien que ce dernier chiffre soit probablement numériquement plus important.

[...]

Les premiers articles au sujet de la hausse du niveau des océans, au sujet de l'agriculture, de la santé, des courants océaniques et des calottes glaciaires étaient carrément en contradiction avec les articles plus récents qui sont beaucoup mieux documentés. Mais le GIEC a choisi de ne pas attendre ces articles ultérieurs.

[...]

...Je pense que ces contretemps reflètent le biais des auteurs. Il s'ensuit que le GIEC devrait analyser les orientations de ces auteurs ainsi que leurs performances en recherche et devrait s'assurer que, dans le futur, ils seront plus représentatifs de leurs pairs.

[...]

Un rapport, peu fréquemment publié, devrait faire un grand boum - et une équipe ambitieuse sera portée à faire un plus gros boum que la fois précédente. C'est pire que nous le pensions. Nous allons tous mourir et la mort sera encore plus horrible que nous le pensions il y a 6 ans. Le lancement d'un gros rapport, d'un seul trait, implique aussi que les auteurs vont rentrer en compétition pour que leur chapitre soit le plus terrifiant."

Richard Tol ouvre quelques pistes pour remédier au défauts structurels du GIEC. Entre autres, une restructuration complète du GIEC qu'il faut impérativement et définitivement mettre à l'abri des influences politiques. De ce point de vue, il est plus optimiste que la climatologue Judy Curry qui estime que les problème du GIEC sont irrémédiables.

"Ce sont les gouvernements qui nomment les chercheurs pour le GIEC - mais nous devons clairement dire que ce sont souvent les agences environnementales qui gèrent les nominations. Les pays utilisent différentes méthodes mais il est rare qu'une agence gouvernementale avec des objectifs purement scientifiques prenne le dessus pour ce qui concerne les affaires avec le GIEC. Il en résulte que certains chercheurs sont promus au dépens de leurs collègues plus qualifiés. D'autres personnels compétents sont exclus parce que leurs points de vue ne cadrent pas avec ceux de leurs gouvernements. Certains auteurs n'ont pas les qualifications adéquates ni les degrés d'expertise nécessaires mais sont nommés uniquement sur la base de leur tissu relationnel.

[...]

Tous les auteurs du GIEC ne sont pas nés égaux. Certains occupent des positions de pouvoir dans des chapitres clefs, d'autres occupent des positions subalternes dans des chapitres sans conséquences. Dans le passé, le GIEC a été expert dans l'art de mettre certains auteurs dérangeants dans des situations où ils ne pouvaient pas nuire à la cause.

Ceci doit cesser.

[...]

(NdT : Dans la conclusion )

Ce qu'il nous faut c'est une organisation qui n'est soumise à aucun gouvernement ou à aucun parti afin d'ancrer la politique climatique dans la réalité telle que nous la comprenons. "

Ces constats nous rappellent, presque mot pour mot, ceux qui avaient été énoncés, il y a 9 ans, par un spécialiste mondial des maladies transmises par les insectes, le Professeur Paul Reiter de l'Institut Pasteur, lequel, outré par ces pratiques délétères, avait démissionné du GIEC (Voir ce billet de 2010). Reiter témoignait ainsi devant la chambre des Lords UK dès 2005 :

"A mon avis, le GIEC a rendu un mauvais service à la société en se reposant sur des "experts" qui ont une connaissance minimale ou nulle du sujet et en les autorisant à prononcer des jugements qui font autorité mais qui ne relèvent pas de la science avérée.

Il apparaît donc que, 9 ans plus tard, malgré de nombreuses critiques, les problèmes structurels du GIEC n'ont guère été résolus. Il semble même qu'ils aient empiré.
Cela n'a pas échappé au Professeur D. Botkin qui a également témoigné devant la Chambre des Représentants US, lors de la même session. Comme vous allez le voir, ce dernier n'a pas non plus mâché ses mots devant les représentants US.

B) Daniel Botkin (photo ci-contre)
botkin2
"Daniel B. Botkin (bio) est un écologiste mondialement réputé. Il est Professeur (émérite) au Département d'Ecologie, de l'Evolution et de Biologie Marine de l'université de Santa Barbara (Californie). Il est également Président du Centre pour l'Etude de l'Environnement qui fournit des analyses indépendantes, basées sur la science, des problèmes environnementaux complexes pour le XXIè siècle. Le New York Times a écrit que son livre "Harmonies discordantes : Une nouvelle écologie pour le XXIè siècle" était considéré par de nombreux écologistes comme le texte classique du mouvement environnemental. Son livre sur la Science de l'Environnement qui en est maintenant à sa sixième ré-édition a été qualifié de meilleur livre académique de l'année 2004 par l'Association des Auteurs de Livres Académiques et d'Enseignement (US)."

Daniel Botkin est donc est un véritable écologiste (ce mot pris dans son acception "scientifique de l'environnement") particulièrement confirmé et reconnu comme tel et c'est à ce titre qu'il a été invité à témoigner devants les représentants US.

Voici une traduction de plusieurs extraits du témoignage du Professeur Daniel B. Botkin. Les caractères engraissés et en majuscule sont de Botkin et figurent tels quels dans le texte officiel.

Voici son introduction :

"Dès 1968, j'ai publié des résultats de recherche au sujet de la possibilité d'un réchauffement climatique anthropique et sur ses implications potentielles pour les individus et la biodiversité. J'ai consacré ma carrière à essayer d'aider à la protection de notre environnement et de la grande diversité de ses espèces. Ce faisant, j'ai toujours cherché à conserver une attitude objective, honnête du point de vue intellectuel, en usant d'une approche rigoureuse dans la ligne de la meilleure tradition de la démarche scientifique. De ce fait, j'ai été consterné et déçu au cours des dernières années parce que ce sujet a été transformé en un débat politique et idéologique. J'ai des collègues qui sont des deux côtés du débat et qui pensent que nous devrions travailler ensemble comme des scientifiques plutôt que de nous diviser sur des "positions" préconçues et basées sur des émotions.

J'ai été expert relecteur pour, à la fois, le GIEC et le Rapport sur le Climat de la Maison Blanche et je veux vous dire d'emblée que nous avons traversé une période de réchauffement causé par plusieurs facteurs.
Cependant, de mon point de vue, ceci n'est pas inhabituel et, en opposition avec les analyses de ces deux rapports, ces changements environnementaux ne sont ni apocalyptiques, ni irréversibles

J'espère que mon témoignage devant vous contribuera à générer une approche plus calme, plus rationnelle sur des questions qui ne traitent pas seulement du changement climatique mais aussi d'autres questions environnementales essentielles.
Le rapport du GIEC de 2014 ne s'inscrit pas dans ce genre de discussion rationnelle que nous devrions avoir.
J'aimerais vous expliquer pourquoi."

Botkin passe ensuite en revue un certain nombre d'"anomalies" qu'il a relevées dans les textes du rapport complet et, surtout, dans le Résumé pour les Décideurs (SPM) qui décidément fait l'objet de critiques sévères, comme nous le verrons dans la suite. En voici quelques extraits qui donnent le ton de la déposition de Botkin.

"Mon plus gros souci est que les deux rapports présentent un grand nombre de conclusions spéculatives et parfois incomplètes, enrobées dans un langage qui leur donne plus d'allure scientifique qu'ils ne le méritent. En d'autres termes, les rapports "ont l'apparence du scientifique" plutôt que d'être basés sur des faits clairement établis ou admettant leur absence de preuve. Les faits avérés au sujet de l'environnement global sont moins nombreux que l'homme de la rue ne le pense généralement."

[...]

IL Y A UNE SUPPOSITION IMPLICITE [NdT : dans le dernier rapport du GIEC] QUE LA NATURE EST DANS UN ETAT D'EQUILIBRE ET QUE TOUS LES CHANGEMENTS SONT NEGATIFS ET INDESIRABLES pour toute vie y compris pour les individus. Ceci est à l'opposé de la réalité : L'environnement a toujours changé. Les êtres vivants ont eu à s'adapter à ces changements et beaucoup d'entre eux ont besoin de ces changements. Le rapport du GIEC fait un usage répétitif des termes "changements irréversibles". La disparition d'une espèce est irréversible mais très peu d'autres choses sont irréversibles en matière d'environnement. L'étude du passé le confirme. Les glaciers ont avancé et reculé de manière répétitive. Le passage du Nord Ouest de l'Amérique du Nord a disparu puis est réapparu.La température moyenne a de beaucoup excédé celle du présent et celle qui est prédite, puis elle a décliné pour augmenter de nouveau.

[NdT : Le rapport] DONNE L'IMPRESSION QUE LES ETRES VIVANTS SONT FRAGILES ET IMMUABLES, incapables de faire face aux changements. C'est le contraire de la vérité. La vie est persistante, adaptable, ajustable. En particulier, le rapport du GIEC pour les décideurs [NdT : le résumé SPM] répète l'affirmation que l'on trouvait dans les précédents rapports du GIEC qu'une grande fraction des espèces risque de disparaître. Une montagne d'observations contredit cette affirmation Les modèles qui font ces prévisions reposent sur des hypothèses erronées qui conduisent à une surestimation des risques d'extinction Ainsi, il est remarquable que peu d'espèces aient disparu durant les 2,5 millions d'années passées qui englobent plusieurs périodes glaciaires et chaudes

[...]

QUELQUES-UNES DES CONCLUSIONS DU RAPPORT SONT A L'OPPOSE DE CELLES DES ARTICLES CITES COMME VENANT A L'APPUI DE LEURS CONCLUSIONS.
Par exemple, le Rapport du GIEC sur les Ecosystèmes Terrestres affirme que "7 des 19 sous-populations des ours polaires sont en déclin numérique"
citant à l'appui pour cette affirmation un article de Vongraven et Richardson. Mais ces auteurs disent au contraire que "le déclin est une illusion".
De plus, le Rapport sur le Climat de la Maison Blanche inclut un tableau qui rassemble les 30 différents effets écologiques résultant du changement climatique, ce qui constitue une liste impressionnante des impacts. Cependant, j'ai passé en revue les études qui sont citées à l'appui de ce tableau et je n'en ai pas trouvé une seule, parmi ces trente, qui soit étayée par des études légitimes d'impact du réchauffement climatique anthropique ou par des observations directes.


PLUSIEURS CONCLUSIONS SONT EN CONTRADICTION OU SONT IGNORANTES DES MEILLEURES OBSERVATIONS STATISTIQUEMENT VALIDEES. Par exemple, le Rapport du GIEC sur les Ecosystèmes Terrestres affirme que "les écosystèmes terrestres et d'eau douce ont séquestré environ un quart du dioxyde de carbone émis par les activités humaines durant les trois dernières décennies (avec un haut degré de confiance). Etant à l'origine des premières estimations, statistiquement validées, du stockage et de l'assimilation du carbone pour des grandes portions de la surface terrestre, je peux vous affirmer que l'estimation de l'assimilation du carbone par la végétation utilisée par le GIEC n'est pas statistiquement valide. Elle surestime le stockage du carbone et l'assimilation par un facteur aussi grand que 300%.

LE RAPPORT DU GIEC UTILISE L'EXPRESSION "CHANGEMENT CLIMATIQUE" AVEC DEUX ACCEPTIONS : NATUREL ET ANTHROPIQUE. Cette distinction n'est pas faite dans le texte qui, de ce fait, prête à confusion. Si l'affirmation est relative au changement climatique naturel, alors il s'agit d'un truisme c'est à dire à une chose connue et éprouvée de tous temps. Si l'affirmation est exprimée dans le concept de changement anthropique, alors les données disponibles ne confirment pas les affirmations. "

[etc.]

Je recommande la lecture du texte complet aux lecteurs(trices) anglophones. Il dresse un panorama assez complet des problèmes inhérents aux différents rapports du GIEC déjà dénoncés par d'autres auteurs et, tout particulièrement, s'agissant du Résumé Pour les Décideurs (SPM). Robert Stavin, un autre membre pivot du GIEC s'est ému des distorsions non scientifiques apportées durant la phase de finalisation du SPM. Il décrit, avec quelques détails, comment les choses se passent au GIEC, "derrière les rideaux" (behind the curtain, expression américaine).

C) Robert N Stavin : Les dessous des Résumé pour les Décideurs SPM du GIEC stavin

R. N Stavin (photo ci-contre) est le titulaire de la chaire Albert Pratt et Professeur de Gestion et de Management ainsi que Directeur du Programme d'Economie Environnementale de l'Université d'Harvard et Président du Groupe de recherche de l'Université sur l'Environnement et les Ressources Naturelles.
Il est, et a été, un participant particulièrement actif à la rédaction (auteur principal et coordinateur) des rapports successifs du GIEC.
Robert Stavin a publié, le 25 avril 2014, une lettre ouverte critiquant sévèrement les exigences multiples et autoritaires des représentants politiques des gouvernements de différents pays lors de la rédaction finale du Rapport SPM (Le Résumé destiné aux décideurs) du récent rapport (groupe III) du GIEC. Stavin y dénonce notamment de nombreux conflits d'intérêt qui ont, selon lui, gravement dénaturé ce rapport dans un sens alarmiste.

Voici une traduction de quelques extraits significatifs de cet lettre ouverte, largement citée par les médias anglophones et totalement ignorée par les médias francophones, tout comme les deux témoignages précédents, d'ailleurs. Cette lettre ouverte est intitulée :
"Le processus d'approbation du rapport du GIEC par les gouvernements est-il détraqué ?"

Dans l'introduction de sa lettre, Stavin indique que nombre de ses collègues participants au GIEC ont été choqué par le comportement des représentants gouvernementaux des différents pays qui siégeaient à Berlin durant la phase d'approbation finale du résumé pour les décideurs, le SPM.
Stavin note ironiquement que :

"Plusieurs des CLAs [NdT Les coordinateurs des auteurs principaux] présents avec moi à Berlin ont déclaré qu'étant donné la nature et le résultat de la semaine [NdT: La semaine durant laquelle le rapport final SPM a été approuvé par les politiques], le document final devrait probablement être renommé "Le Résumé PAR les politiques" plutôt que "Le Résume POUR les politiques"."

Stavin explique :

"Pendant le déroulement des délibérations du groupe de contact qui a duré deux heures, il est apparu clairement que la seule solution pour que les représentants des gouvernements approuvent le texte du Résumé SPM5.2 consistait essentiellement à retirer tout le texte considéré comme "controversé" (c'est à dire la partie du texte qui déplaisait à un quelconque représentant des gouvernements) ce qui a résulté dans la suppression de 75% du texte, y compris pratiquement toutes les explications et les exemples qui se trouvaient en dessous des titres en gras. Dans plus d'une occasion, des exemples spécifiques ou des phrases ont été retirées suivant la volonté de seulement un ou deux pays, parce que, selon les règles du GIEC, le désaccord d'un seul pays est une raison suffisante pour stopper tout le processus à moins et jusqu'à ce que le pays se déclare satisfait."

Stavin donne quelques détails, en termes mesurés :

"Les motivations générales pour les révisions demandées par les gouvernements - de la part de la plupart (mais pas toutes) des délégations - sont apparues clairement durant les sessions plénières. Ces motivations ont été explicitées dans les "groupes de contact" qui se réunissent, par petits groupes, derrière des portes closes, avec les auteurs principaux au sujet de questions particulièrement épineuses du SPM. Lors des réunions des groupes de contact, les représentants des gouvernements ont oeuvré pour supprimer des parties de texte qui pourraient être défavorables à leurs pays durant leurs négociations sous les auspices de l'UNFCC (la Convention Cadre de l'ONU sur le Changement Climatique).

Je comprends bien que les représentants gouvernementaux ont cherché à se conformer à leurs obligations vis à vis de leurs gouvernements en défendant les intérêts de leurs propres pays mais, dans certains cas, ceci a posé des problèmes pour ce qui est de l'intégrité scientifique du Rapport pour les Décideurs (SPM) du GIEC. Une telle implication - et parfois une telle interférence - avec le processus scientifique du GIEC a été particulièrement grave dans la section SPM 5.2 au sujet de la coopération internationale. "

Dans sa conclusion, Stavin s'adresse directement aux responsables du GIEC dont il est - et a toujours été - un fidèle participant. Il écrit (caractères en italiques de Stavin)

"De mon point de vue, avec la réglementation et la structure actuelle, il sera extraordinairement difficile, sinon impossible, de produire une version complète et scientifiquement correcte du texte du Résumé Pour les Décideurs (SPM) sur la coopération internationale qui pourrait survivre au processus d'approbation par les différents pays.

Plus généralement, je demande instamment au GIEC d'attirer l'attention du public sur les documents qui ont été rédigés par les auteurs principaux et qui ont été soumis aux commentaires des gouvernements (et des experts) mais qui n'ont pas subi la phase d'approbation des gouvernements."

Pour illustrer ces observations de Robert Stavin, je rappelle ici le schéma du processus (assez bizarre, s'agissant, en principe, de science et du résumé d'un "rapport scientifique") suivi par le GIEC, depuis sa création et systématiquement appliqué depuis lors. ipccprocess

 

De fait, comme cela est rappelé par Robert Stavin, la publication du rapport (que très peu de politiques ou de journalistes (s'il y en a) ont le courage de lire in extenso) et du Résumé pour les Décideurs (beaucoup plus popularisé dans les médias et dans les milieux politiques), le SPM, n'interviennent qu'après approbation unanime des divers représentants des différents pays de l'ONU. Autant dire que les représentants politiques font tout leur possible pour bloquer la publication d'un rapport qui desservirait (ou ne servirait pas) les intérêts de leur pays.
D'autant plus que nombre de pays en voie de développement sont avides de "dédommagements" de la part des pays dits "riches" et n'ont certainement pas intérêt à ce que le rapport SPM paraisse moins alarmiste. Et ces pays sont numériquement majoritaires.
A noter que les représentants des gouvernements sont déjà intervenus avant la préparation de l'édition finale du rapport comme le montre ce schéma (tiré du site du GIEC). Les politiques interviennent donc avant et après la rédaction de la version finale du rapport qui est ainsi solidement encadré par les représentants gouvernementaux des différents pays. La lettre de Robert Stavin que l'on ne peut guère accuser de tiédeur vis à vis du GIEC, illustre à merveille les errements auxquels peut aboutir l'interférence des politiques dans un processus scientifique.

Il est sans doute difficile de concevoir un processus dit "scientifique", plus politisé que celui du GIEC, illustré ci-contre.
Pourtant, certain éminent politique francophone a récemment cité le GIEC comme un exemple à suivre et proposé de généraliser ce type de structure à d'autres activités scientifiques.
_______________________________________________________________________________________________________

2) La chasse aux sorcières. La censure et le "McCarthysme climatique" évoqué par Bengtsson (ci-dessous) continue ...
rossiter

A) Le Professeur Caleb Rossiter (photo ci-contre) :

Rossiter qui est un mathématicien-statisticien universitaire est aussi un homme de conviction et fervent acteur de causes humanitaires en faveur des contrées en voie de développement dont l'Afrique (voir son CV). Pourtant, Rossiter a été récemment évincé de l'ONG progressiste à laquelle il participait depuis des décennies, pour avoir publié un article dans le Wall Street Journal intitulé "Nous sacrifions l'Afrique au nom du changement climatique. Les politiques des pays de l'Ouest semblent plus intéressés par le niveau du dioxyde de carbone que par l'espérance de vie."

Cet article, jugé sans doute par trop "déviant" par rapport à la doxa de son organisation mère, dans lequel Rossiter professe ses doutes sur les théories en vigueur du changement climatique et où il défend le droit à l'usage des énergies fossiles par les africains lui a valu une éviction immédiate de l'organisation humanitaire, progressiste et environnementale, l'Institute for Policy Studies, avec laquelle il travaillait depuis des années. Caleb Rossiter s'est alors confié lors de plusieurs interventions ou interviews comme celui dont je traduis quelques paragraphes significatifs ci-dessous.

Pour la petite histoire, il faut savoir que Caleb Rossiter raconte qu'en tant que professeur au département de Mathématiques et de Statistiques à l'Université Américaine de Washington (DC)) a donné comme sujet de travail à ses étudiants, à titre d'exercice d'application de ses enseignements, l'analyse des corrélations des variations temporelles de la concentration du CO2 et de la température. Ce faisant, ses étudiants ont constaté, comme beaucoup d'autres avant et après eux, que les variations de température ne collaient pas avec les modèles du GIEC en vigueur et qu'il existe des cycles de température (notamment avec une période d'environ 60 ans, comme l'ont trouvé de nombreux autres auteurs). Caleb Rossiter, jusqu'alors convaincu du contraire, a alors planché avec ses élèves sur ce sujet pendant un certain temps. Il a finalement a été convaincu par la validité de leur travail et c'est sans doute ce qui explique les déclarations suivantes :

“Je suis simplement quelqu'un qui a été convaincu que les affirmations de certitude au sujet des causes du réchauffement et au sujet des conséquences du réchauffement ont été terriblement exagérées et ceci de manière irresponsable. [...] "Je ne suis pas quelqu'un qui dit qu'il n'y a pas eu de réchauffement et que cela n'aura pas de conséquences, c'est juste que je ne parviens pas à comprendre pourquoi tant de gens croient que c'est catastrophique pour notre société et pour l'Afrique.

Pour cette conviction - basée sur une décennie de recherches statistiques et d'analyse des données sur le changement climatique - Rossiter a récemment été exclu de son poste de chercheur associé à l'Institute for Policy Studies qui est un groupe de réflexion progressiste de Washington D.C.

Rossiter a publié un article dans  The Wall Street Journal intitulé "Le sacrifice de l'Afrique au nom du changement climatique" dans lequel il qualifiait la notion de catastrophe climatique de "science non avérée". Peu après, il a reçu une missive de l'Institut lui indiquant que sa participation était terminée.

Visiblement, il est plutôt périlleux de professer des doutes, fussent-ils soutenus par des analyses statistiques dont Rossiter est un spécialiste, dans certains milieux "progressistes" US.

Un chercheur d'un institut renommé, le Helmholtz Institute Allemand, nous raconte une bien curieuse histoire, déjà un peu ancienne, au sujet d'un article qu'il avait soumis en 2009, avec des collègues, pour publication à une revue renommée de climatologie US. Ce qui suit nous rappelle les déboires éprouvés et racontés récemment par Lennart Bengtsson.

semenov1

B) Vladimir Semenov (CV, photo ci-contre ) du Geomar- Helmholtz Institute Kiel Allemagne.

C'est Ben Webster, l'éditeur pour l'environnement du journal britannique "de référence", qui nous raconte, dans The Times (UK) du 8 Juillet 2014, cette histoire passablement inquiétante, sous le titre "Les voix des contestataires sont étouffées par des climatologues." Cet article a été repris dans diverses autres publications anglophones, mais malgré la grande notoriété du Times, il ne semble pas avoir réussi à franchir "the English Channel", la Manche.

 

 

Voici une traduction de quelques extraits de cet article de Ben Webster :

"Un travail de recherche qui remettait en question l'exactitude des modèles informatiques utilisés pour prédire le réchauffement climatique a été "censuré" par des climatologues, a-t-il été déclaré hier.

Un des relecteurs scientifiques de l'article a dit qu'une section ne devait pas être publiée parce qu"'elle créerait une confusion inutile au sein de la communauté des climatologues". Un autre a écrit qu'"Il faut que cette discussion toute entière disparaisse".

L'article suggérait que les modèles informatiques utilisés par le GIEC de l'ONU étaient erronés ce qui conduisait à une exagération de l'influence humaine sur le climat et à une sous-estimation de l'impact de la variabilité naturelle.

Ces découvertes pourraient avoir de profondes implications. Si elle sont exactes, ceci voudrait dire que les gaz à effet de serre ont moins d'impact que le GIEC ne l'a prédit et que le risque d'un réchauffement global catastrophique a été exagéré.

Cependant, les questions soulevées à propos des modèles ont été retirées de l'article avant que celui-ci soit publié en 2010 dans le American Meteorological Society’s Journal of Climate. L'article a été soumis en Juillet 2009 alors que beaucoup de climatologues poussaient les dirigeants de la planète à trouver un accord pour limiter les émissions lors du sommet de Copenhague sur le changement climatique en Décembre de cette année-là.

Vladimir Semenov qui est un climatologue de l'Institut Geomar à Kiel en Allemagne a dit que les questions que lui et dix autres de ses collègues avaient posées dans la version originale de leur article étaient valides et que leur élimination était "une sorte de censure"..

Il s'est décidé à en parler ouvertement après avoir constaté qu'un de ses anciens collègues, le Professeur Lennart Bengtsson, avait été vilipendé pour avoir remis en question les prédictions du GIEC sur le réchauffement climatique.

[...]

Le Dr Semenov a déclaré que certains semblaient s'efforcer de supprimer des suggestions que le climat était moins sensible aux augmentations d'émissions (NdT de CO2) que le GIEC l'avait affirmé. (NdT : A noter que c'est assez exactement ce que suggérait l'article de Bengtsson et al. il y a peu, soit quelques 5 ans plus tard, et qui a carrément été refusé).

“Si vous dites qu'il y a quelques indications que la sensibilité est erronée, ceci brise le socle sur lequel tout l'édifice repose." dit-il (NdT : Semenov) "Le public peut douter de l'ensemble des résultats."

Le Dr Semenov a déclaré que les relecteurs qui ont critiqué les résultats étaient techniquement corrects parce que leurs remarques n'étaient pas explicitement basés sur ses résultats." Cependant, dit-il : " Nous avions le droit d'en discuter...Si votre opinion sort du consensus général alors vous avez plus de problèmes pour publier vos résultats."

Un troisième relecteur était beaucoup plus en faveur de l'article dont il dit que la suggestion "très provocante" que les modèles étaient erronés, était "si intéressante qu'il était nécessaire d'en discuter plus en profondeur".

Cependant, presque tout le paragraphe a été supprimé tout comme la conclusion qui disait que "la sensibilité moyenne des modèles du GIEC est peut-être trop forte."

Le journal a choisi de ne publier que la phrase d'ouverture " Nous voudrions insister sur le fait que cette étude ne remet pas en question l'existence d'une tendance de réchauffement anthropique à long terme durant le XXe siècle. "

La dernière petite phrase que la revue à consenti à publier à l'exclusion des autres est typique de ce que Richard Lindzen avait nommé "le petite phrase magique" qui est le sésame permettant d'obtenir l'autorisation de publier dans ce genre de revue. Mais, dans cette "opération" la discussion plutôt dérangeante pour "la cause", soumise par les auteurs, a été totalement éliminée.
Comme on le voit, dans cet exemple comme dans d'autres, il s'agit d'un "consensus" de la "communauté des climatologues" obtenu à bon compte.
Dans les autres domaines de la science, on publie ce que l'on pense exact et qui ne souffre pas d'erreurs flagrantes détectées par les relecteurs. Si d'autres ne sont pas d'accord, la discussion s'engage. C'est comme cela que la science progresse et a toujours progressé.
_______________________________________________________________________________________________________________________________

3) Complément : Submersion des îles coralliennes : Mise à jour dans la revue Science.

L'antienne, maintes fois évoquée dans les médias alarmistes, dans quelques revues orientées et, même, par la Banque Mondiale, de l'engloutissement futur affirmé comme "inéluctable" des îlots coralliens, a du plomb dans l'aile.

Dans un article récent intitulé "
Le réchauffement pourrait ne pas submerger les îles", la "revue de référence" Science dont on connaît pourtant les orientations alarmistes, a (enfin) pris du recul sur cette question en se basant notamment sur les travaux les plus récents de Paul Kench et de ces collègues dont je vous avais déjà donné un aperçu dans le billet, rédigé en août 2010 et intitulé " Les îlots coralliens du Pacifique ne sont pas submergés par la hausse du niveau des océans. En réalité, ils "repoussent" quand l'eau monte."
En effet, dans un article récent publié au Geophys. Research Letters,
Paul Kench et ses collègues viennent de lever une objection mise en avant par les alarmistes qui soutenaient l'idée que si les îlots coralliens se sont certes adaptés aux variations du niveau des océans au cours des millénaires passés, ils ne pourront pas suivre le rythme d'une montée rapide du niveau marin ou de tempêtes brutales.
Le mécanisme démontré par
Kench et al est, a priori, assez contre-intuitif : Lors des élévations brutales du niveau des mers (comme, par exemple, durant les grandes marées dues aux El Niños), les vagues engendrées à proximité des côtes de ces îlots coralliens, tendent, non pas à éroder les côtes comme tout le monde le pense, mais, au contraire, à faire monter le niveau des terres en y apportant quantité de sédiments, notamment du sable, qui se déposent à la surface des parties temporellement submergées. "Kench note que les récifs coralliens peuvent croître de 10 à 15mm par an - c'est à dire plus rapidement que la hausse des océans qui est attendue à la fin de ce siècle" rapporte l'article de Science. "Aussi longtemps que les coraux sont en bonne santé et gênèrent un approvisionnement abondant en sable, il n'y a pas de raison qu'une île corallienne ne puisse pas croître et continuer à le faire", dit Paul Kench.

Note : Ceci ne suprendra pas les physiciens qui sont au fait des problèmes "d'instabilité de surface". C'est pour une raison similaire que, planté dans une zone plate et désertique soumise aux vents chargés de particules de silice, un objet proéminent servira d'ensemencement pour la création d'une dune par un processus d'accrétion.
Il s'agit du même mécanisme qui gère notamment la formation des "moutons" de poussière sous les lits peu visités par l'aspirateur. Ainsi, un grain de poussière qui a accrété (capturé) un deuxième grain de poussière augmente la probabilité d'une capture ultérieure d'un troisième grain de poussière. Au fur et à mesure que la taille du "mouton" augmente son efficacité (sa section efficace de capture) pour accréter d'autres grains de poussière, augmente. C'est un mécanisme divergent typique d'une instabilité lequel est en général limité par l'érosion. Pour ce qui est des îlots coralliens, Paul Kench démontre le mécanisme d'accrétion (ou de dépot) l'emporte sur le mécanisme d'érosion.
___________________________________________________________________________________________________________________________

 

Enfin, un grand merci aux nombreu(ses)x lecteurs(trices) qui se sont alarmé(e)s du "hiatus" (ou de "la pause") prolongé dans mes billets durant la période estivale écoulée et m'ont écrit pour me demander de mes nouvelles. Certains envisageaient la possibilité d'ennuis de santé, d'autres que j'aurais pu être soumis à des persécutions style Bengtsson (!) etc.
En réalité, rien de tout ça. j'ai tout simplement été très occupé durant cet été par diverses activités qui m'ont le plus souvent tenu éloigné de mon clavier (et parfois d'internet) sans toutefois parvenir à m'empêcher de suivre attentivement l'actualité climatique...

Donc, tout va bien en ce qui me concerne, et le cours normal de mes billets va reprendre comme auparavant, à l'approche de l'automne et de l'hiver.

Dear friends, stay tuned !


24 Mai 2014 - Dossier : "L'affaire Bengtsson"
bengtsson1

1) Introduction :

J'ai déjà eu, à plusieurs reprises, et notamment dans le billet précédent, l'occasion de citer les propos du Professeur suédois Lennart Bengtsson. Ce chercheur éminent qui est, sans conteste, l'un des plus expérimentés de son domaine, a consacré la plus grande partie de son activité de recherche à la modélisation numérique de la météorologie et du climat. Il est particulièrement bien placé pour porter des jugements étayés sur la situation actuelle de la science climatique qui comme chacun sait repose essentiellement sur des projections/scénarios générés par des programmes d'ordinateurs.

Les propos récents et actuels de Lennart Bengtsson que j'ai rapportés dans ces pages, pourtant exprimés dans le langage mesuré propre aux scientifiques, se révèlent particulièrement critiques et destructeurs dans le contexte actuel du fameux "consensus"
qui est l'argument d'autorité le plus souvent utilisé par la classe médiatico-politique. Dans ces conditions, les déclarations de Bengtsson ne pouvaient que déplaire à ceux, nombreux, qui ont investi leur crédibilité, leur réussite professionnelle et parfois leurs investissements, dans le pessimisme climatique avec l'appui et le soutien de la quasi-totalité de l'establishment politique.

Venant d'une personnalité de ce statut qui faisait partie intégrante et travaillait au coeur même de l'establishment climatique, ceci ne pouvait être considéré par certains que comme une trahison. Dès lors, les critiques, les menaces, le dénigrement systématique, le harcèlement et les pressions exercées sur Bengtsson n'ont pas manqué comme d'ailleurs cela a été le cas pour la plupart des collègues scientifiques qui l'ont précédé dans cette voie, tels que Lindzen, Christy, Spencer, Curry, Vahrenholt, Pielke et beaucoup d'autres, dans un passé récent. Jusqu'à présent, ces agissements étaient restés plus ou moins confinés dans le microcosme climatique et n'avaient que peu ou pas touché le grand public.

Cependant, cette fois-ci, les limites du supportable semblent avoir été franchies. La grande presse (US-anglo-germanophone) s'est faite, en cette occasion, l'écho des pratiques délétères exercées par ses propres collègues à l'encontre de Lennart Bengtsson. Certains des comportements bien connus des connaisseurs mais ignorés du grand public ont percé le "plafond de verre" et des journalistes en vue s'en sont émus d'autant plus que la personnalité de la victime, âgée et méritante, attire plutôt la sympathie.
C'est ainsi qu'a commencé ce que beaucoup ont appelé "l'affaire Bengtsson".

En réalité, l'"affaire" à laquelle est consacrée ce dossier s'est déroulée en deux épisodes successifs, aussi inquiétants l'un que l'autre, ce qui a amplifié le phénomène par une sorte d'"effet réplique".
Les réactions des uns et des autres, plus ou moins directement impactés dans le "scandale" ont été intéressantes comme vous pourrez en juger.

En guise de préambule, je rappelle ici quelques données documentaires sur le professeur Bengtsson :

Le Professeur Suédois Lennart Bengtsson a été le Directeur de la Recherche du European Centre for Medium-Range Weather Forecasts de 1975 à 1981, puis Directeur, jusqu'en 1990 de l'Institut Max Planck pour la Météorologie à Hambourg. Toujours actif à 79 ans, il est à présent chercheur invité à l'Environmental Systems Science Centre de l'Université de Reading (UK). Il continue de publier régulièrement des articles dans les revues scientifiques comme on peut le constater en visitant son site à l'Université de Reading (UK). Il est actuellement l'auteur ou coauteur de 238 publications, ce qui est considérable même après 51 ans de carrière.bengtsson5

Quelques récompenses attribuées à Lennart Bengtsson :
2007 Rossby Prize 2007 by the Swedish Geophysical Society (SGS)
2007 Elected Honorary Member of the American Meteorological Society (AMS)
2006 International Meteorological Organization (IMO) Prize of the World Meteorological Organization (WMO)
2005 Descartes Research Prize
1999 Fellow of American Meteorological Society
1998 Umweltpreis 1998 der Deutschen Bundesstiftung Umwelt
1998 Member of the Finnish Academy of Science
1996 Milutin Milancovic medal by the European Geophysical Society
1995 Member of the Nordrhein-Westfälischen Wissenschaftsakademie
1993 Member of the Swedish Academy of Science
1991 Honorary Member of the Swedish Meteorological Society
1990 Doctor honoris causa, University of Stockholm
1990 Förderpreis and the Golden Rosette for European Science by the Körberstiftung, Hamburg
1989 Member of Academia Europea
1986 Julius von Hann´s Gold Medal by the Austrian Meteorological Society

2) La lettre de démission de Bengtsson :

En tant qu'éminent climatologue de l'Académie des Sciences suédoise, Lennart Bengtsson est réputé avoir largement déterminé l'orientation (mainstream) de son pays en matière de politique vis à vis du climat. En tant que modélisateur, il était, il y a quelques années encore, parfaitement dans la ligne du GIEC. Il apparaît, comme il le déclare lui-même que ses points de vue sur la science climatique ont évolué et divergé de ceux de l'establishment du GIEC à la mesure des progrès réalisés dans les observations qui, peu à peu, ont mis en évidence la divergence qui existe entre les modèles et la réalité. Les citations que j'ai relevées dans le billet précédent et dans quelques autres, reflètent parfaitement le recul, relativement récent, pris par Bengtsson par rapport à ses collègues de l'establishment. Ainsi, j'avais rapporté ces phrases de Bengtsson qui expliquent, en grande partie, sa démarche intellectuelle :

"En d'autres termes, le réchauffement climatique n'a pas été un problème sérieux jusqu'à maintenant si nous nous fions aux observations. Cela ne devient un problème que si nous nous basons sur les simulations numériques du climat par les ordinateurs.[...]Mais comme il n'y a aucun moyen de s'assurer de leur validité, les prévisions numériques reposent plus sur de la croyance que sur des faits. Le GIEC a publié l'opinion de ses experts il y a quelques mois et a présenté ces dernières sous la forme de probabilités. Tant que les résultats ne peuvent pas être étayés par des modèles dûment validés celles-ci donnent l'impression trompeuse d'être fiables."

Venant d'un expert de la simulation sur ordinateur comme Bengtsson qui connaît parfaitement la fragilité intrinsèque des modélisations numériques dans ce genre de problème particulièrement complexes, on imagine aisément que ces déclarations n'ont pas dû soulever l'enthousiasme (c'est un euphémisme), chez les nombreux supporters du GIEC ainsi qu'auprès des rédacteurs des rapports de cet organisme. Un expert renommé jetait le doute sur les modélisations climatiques qui, à défaut d'observations concordantes, constituent le fer de lance des arguments défendus par le GIEC.
On ne pouvait pas faire pire, pensaient, sans aucun doute, les émules du GIEC de l'ONU. C'était une attaque frontale de la raison même de l'existence de l'alarmisme climatique sur laquelle reposent les politiques énergétiques d'une partie des gouvernements de la planète (dont la France).
Pourtant, la personnalité de l'éminent Professeur Bengtsson forçait quand même au respect et les critiques (acerbes) restaient limitées au petit cercle des initiés.

C'est dans ce contexte, déjà tendu, que la décision récente (le 1er Mai) de Lennart Bengtsson de rejoindre le GWPF (considéré par la plupart des supporters-participants du GIEC comme le grand satan) a fait l'effet d'une bombe.

Mais, qu'est-ce exactement que le GWPF ?

Le GWPF (Global Warming Policy Foundation, la fondation pour la politique du réchauffement climatique) est ce que l'on appelle dans les pays anglo-saxons un "think tank", c'est à dire un groupe de réflexion. C'est une structure extrêmement courante dans les pays anglophones. Ce groupe de réflexion a été fondé en 2009 par Lord Lawson (ancien ministre des finances britannique) et le Dr. B. Peiser qui est à présent chargé de la communication. Le GWPF se consacre aussi bien à la science du réchauffement climatique qu'à ses conséquences (éventuelles) économiques et à son traitement politique. Le GWPF explique son état d'esprit et sa mission dans cette présentation. En bref, le GWPF a été créé dans la perspective d'ouvrir un débat qui, selon lui, fait défaut, aussi bien sur le plan scientifique qu'économique ou politique ce qui le place, notamment, en opposition directe avec les tenants du GIEC qui affirment que la science est comprise.
Le GWPF prétend à la neutralité aussi bien scientifique que politique. C'est ainsi que son Conseil d'Administration de 8 membres inclut un membre du Labour et un(e) autre du Lib. Dem. à côté de personnalités conservatrices ou indépendantes.
Le conseil scientifique du GWPF regroupe 26 personnalités du monde scientifique et de l'économie ainsi que du secteur journalistique dont plusieurs sont bien connues des lecteurs de PU. Parmi les scientifiques, on retrouve, entre autres, Richard Lindzen, Freeman Dyson, Henrik Svensmark, Nir Shaviv, Vincent Courtillot, William Happer, Ross McKittrick, Paul Reiter, Robert Carter et Ian Plimer. Le président de ce conseil est, actuellement, le Prof. David Henderson, un économiste et statisticien éminent qui a été notamment le directeur du Département de l'Organisation pour la Coopération et le Développement de l'OCDE. Comme on le sait, tous ces scientifiques et le professeur Henderson lui-même, professent de grands doutes quand au sérieux des rapports du GIEC et de l'alerte climatique.

Lennart Bengtsson avait donc accepté de rejoindre le conseil scientifique du GWPF pour travailler aux côtés des personnalités mentionnées ci-dessus (pour lesquelles il a de l'estime, dit-il), ce qui a immédiatement déclenché une énergique levée de boucliers de la part de ses collègues supporters du GIEC. On ignore la nature, les noms des auteurs et le contenu exacts des pressions qui se sont exercées sur Lennart Bengtsson à cette occasion mais la lettre qu'il a adressée, le 14 Mai, soit deux semaines après son adhésion, au responsable actuel du GWPF, le Professeur Henderson, a ému et soulevé l'indignation de la plupart de ceux qui en ont eu connaissance.

Cher Professeur Henderson,

J'ai été soumis à une énorme pression de la part de mes pairs durant ces derniers jours et ceci venait du monde entier au point que c'est devenu pratiquement insupportable pour moi. Si cela continue je serai incapable de poursuivre mon travail habituel et je commencerai même à m'inquiéter pour ma santé et ma sécurité. De ce fait, je ne vois aucune autre porte de sortie que de démissionner du GWPF. Je ne m'attendais pas à subir une telle pression à l'échelle de la planète, de la part d'une communauté dont j'ai été proche tout au long de ma carrière. Des collègues me privent de leur soutien, d'autres retirent leurs noms de la liste de mes coauteurs etc.

Je ne vois aucune limite ni aucune fin à ce qui va arriver. C'est une situation qui me rappelle l'époque de McCarthy. Je ne me serais jamais attendu à quelque chose de semblable de la part d'une communauté autrefois aussi pacifique que l'était la météorologie. Apparemment, les choses ont bien changé ces dernières années.

Dans ces conditions, je serai incapable de contribuer de manière positive au travail du GWPF et, en conséquence, je crois qu'il est préférable pour moi de revenir sur ma décision de rejoindre le conseil et ceci dès que possible.

Avec mes meilleurs sentiments,
Lennart Bengtsson

Et de fait, qu'un éminent professeur de 79 ans, mondialement connu, particulièrement méritant, bénéficiant de l'estime générale et qui a consacré son existence à la recherche en météorologie et climatologie, déclare subir des pressions "pratiquement insupportables" et en arrive à craindre "pour sa santé et sa sécurité" du fait du harcèlement (à la McCarthy, dit-il) de la part de ses propres collègues pose quand même quelques problèmes quand à la déontologie du microcosme des climatologues.
Comme on peut s'y attendre, les réactions ne se sont pas faites attendre. Elles ont été nombreuses et énergiques. Elles se poursuivent encore à l'heure où j'écris ces lignes. En voici quelques-unes. D'autres références, notamment journalistiques, seront indiquées à la fin de ce billet.

3) Quelques réactions à "l'affaire Bengtsson":

 Le Times de Londres (UK) (Ben Webster,15 Mai 2014) titre :
"Une "chasse aux sorcières" force un scientifique à la démission" .

"Un climatologue renommé a démissionné du conseil scientifique d'un groupe de réflexion après avoir été soumis à ce qu'il a décrit comme des pressions "du style McCarthy" de la part de certains de ses collègues. Le Professeur Lennart Bengtsson, chercheur invité à l'Université de Reading, a déclaré que les pressions étaient si intenses qu'il serait incapable de continuer à travailler et qu'il craignait pour sa santé et sa sécurité à moins qu'il ne renonce à participer au conseil scientifique de la la fondation GWPF. Il a déclaré que les pressions venaient essentiellement de climatologues US, y compris de la part d'un d'entre eux employé par le gouvernement US qui l'avait menacé de retirer son nom en tant que coauteur d'un article à venir à cause de son lien avec la fondation."

National Review Online (US), Rupert Darwall, 15 Mai 2014. Titre : "La science comme du McCarthysme".

La science régresse si elle devient intolérante aux critiques. Au début de son règne, la reine Elizabeth I d'Angleterre avait proféré des paroles de tolérance à une époque de luttes religieuses en déclarant qu'elle n'avait aucunement l'intention d'épier l'âme de ses sujets. A la différence de la religion, la science n'est pas une affaire de coeur ou de croyance. Elle n'existe que par ce qui peut être démontré. En persécutant un de leurs vieux collègues qui avait avancé un pied en dehors de la ligne et en forçant les scientifiques à être soumis à un test sur leur foi, les climatologues du XXIe siècle se sont montrés moins tolérants qu'un monarque du XVIe siècle. Il y a quelque chose de pourri dans la situation actuelle de la science climatique."

Professeur David G. Gee, un collègue suédois à l'Université d'Uppsala, 15 Mai 2014

J'ai reçu votre lettre avec stupeur, désarroi et une grande sympathie. La pression qui est exercée sur vous par la communauté des climatologues confirme les pires aspects d'une science politisée. J'ai moi-même été réprimandé pour m'être opposé à la cause climatique et son dévouement aveugle aux ambitions politiques. Ceci doit être révélé, au plan global. Merci d'avoir montré tant de courage. Espérons qu'il y a d'autres personnes plus honnêtes dans le monde de la climatologie que ce que l'on voit en ce moment."

 Daily Mail (UK), Wills Robinson,15 Mai 2014. Titre : "Un climatologue déclare qu'il a été forcé de démissionner d'un nouveau poste dans un style chasse aux sorcières à la "McCarthy" par des collègues du monde entier."

"Un climatologue mondialement connu a été contraint de démissionner d'un groupe de réflexion après avoir été soumis à des pressions du style "McCarthy" de la part de scientifiques du monde entier. Le Professeur Lennart Bengtsson, âgé de 79 ans, est un scientifique de l'Université de Reading. Il a quitté la Fondation Pour la Politique sur le Réchauffement Climatique bien connue, à cause de menaces dont il dit qu'elles "sont pratiquement insupportables" a déclaré le Dr. Benny Peiser, directeur du GWPF au Mail Online. "Cette annonce a été accueillie avec un grand étonnement et une vague de colère. Cela montre à l'évidence qu'il existe une inquiétude grandissante parmi les observateurs intéressés que l'intolérance qui règne au sein de la communauté des climatologues fragilise les déclarations des scientifiques. Ceci constitue un scandale qui se retournera contre les scientifiques si leur communauté ne se mobilise pas pour venir à son secours. "

Judith Curry, Climate Etc, 14 Mai 2014
Judith Curry reproduit les échanges de courriers entre le GWPF et Bengtsson suite à la démission de ce dernier. Elle conclut :

"Je regrette vivement que n'importe quel scientifique mais tout particulièrement un scientifique aussi éminent que Bengtsson ait eu à subir de telles attaques. La semaine dernière nous avons assisté à de nombreuses et enrichissantes déclarations faites par Bengtsson au sujet de la situation de la science climatique. Il en résulte que la politique, la science et la société en ont été les bénéficiaires. Nous avons aussi assisté à un répugnant étalage de McCarthysme climatique de la part de climatologues, lequel a le potentiel de faire autant de mal à la science climatique que l'avaient fait les emails du Climategate. Nous avons observé que le GWPF a géré cette situation avec maturité et avec dignité."

Par ailleurs, Judith Curry décrit les vexations et humiliations subies par ceux qui ont eu la malencontreuse idée de s'écarter du "consensus" de la "communauté", ce qu'elle fait depuis quelques années, notamment en évoquant constamment les grandes incertitudes qui affectent la climatologie.Voici ce qu'elle a écrit dans son blog, récemment, le 16 Mai 2014.

“Ainsi qu'en est-il de l'impact sur un scientifique de ce qui est appelé le "McCarthysme climatique"?
Comme résultat du dénigrement à mon encontre par (Joe) Romm, par (Michael) Mann et d'autres, je suis écartée de toute possibilité d'obtenir des postes administratifs dans les universités et de situations de responsabilité dans les sociétés professionnelles. Ma candidature est systématiquement écartée de toutes les récompenses attribuées par les sociétés professionnelles, un grand nombre de collègues ne collaboreront pas avec moi et quiconque voudrait m'inviter comme orateur principal doit se justifier par rapport à toute les con...ries que vous pourrez trouver sur le WEB si vous googlez "Judy Curry"."

En effet. Je confirme. Visiblement, Judith Curry sait de quoi elle parle.

Lord Nigel Lawson, Standpoint Magazine Mai 2014
Lawson est l'un des deux fondateurs du GWPF.

Il y a quelque chose d'étrange quant au débat sur le réchauffement climatique - ou le débat sur le changement climatique comme nous sommes supposés l'appeler maintenant, du fait, qu'à l'heure actuelle, le réchauffement climatique s'est arrêté. Je n'ai jamais reculé devant les controverses, ni par exemple en tant que Chancelier (NdT : de l'échiquier, ministre des finances) ni ne me suis jamais inquiété d'être impopulaire si je pensais que ce que je disais et faisais servait l'intérêt public. Mais, jamais dans ma vie, je n'avais subi autant d'extrême hostilité envers ma personne, autant de vitupération et de calomnies dont moi-même - ainsi que les autres contestataires, bien sûr - avons été l'objet du fait de nos points de vue sur le réchauffement climatique et la politique qui en découle.

Mike Hulme a été (2000-2007) le Directeur-Fondateur du Centre de Recherche Tyndall du Royaume Uni. Il a été très actif dans les débuts du GIEC. Hulme est très loin d'être un climato-sceptique. Pourtant, entre autres critiques, il avait sévèrement pointé du doigt "l'esprit tribal" de ses collègues mis en lumière par les courriels du Climategate.
Voici quelques déclarations de Mike Hulme au sujet de "l'affaire Bengtsson" (rapportés par le Times UK, Ben Webster, 17 mai, cité aussi dans The Telegraph UK du 16 mai):

"Les climatologues qui diffament un collègue pour avoir apporté son concours au conseil scientifique d'un groupe de réflexion sont "aveugles de leurs propres biais", selon un ancien membre du conseil de l'ONU sur le changement climatique, Mike Hulme, professeur sur le climat et la culture au King's College de Londres. Hulme a condamné ses collègues climatologues pour avoir "persécuté" Lennart Bengtsson et il avertit que la science climatique est devenue trop politisée. Il a condamné les climatologues qui "croient que c'est leur rôle de prononcer des jugements publics quant à savoir si un collègue scientifique devrait apporter sa contribution à des organisations politiques, publiques ou faisant campagne, et d'exercer des persécutions sur ce scientifique jusqu'à ce qu'il "rentre dans le rang"..."Cet épisode nous en apprend beaucoup sur la profonde politisation actuelle de la science et aussi sur le fait que certains scientifiques demeurent aveuglés par leurs propres orientations."

Steve McIntyre (l'auteur de l'analyse destructrice de la fameuse "crosse de hockey") titre "L'épuration de Lennart Bengtsson".

Ceci est encore le fait d'une conduite honteuse de la part de la "communauté" des climatologues.
D'un point de vue général, il me semble que si le changement climatique est un problème aussi sérieux que le croit la "communauté" des climatologues, alors celui-ci exigera de prendre des mesures qui requièrent un engagement de la part de toutes les branches de notre société. La plupart des "sceptiques" ne sont pas de suppôts des frères Koch (NdT : Une famille de milliardaires qui sont réputés soutenir les climato-sceptiques aux USA) mais ce sont des gens qui n'ont pas été convaincus jusqu'à présent que le problème est aussi sérieux que ce qui est leur est présenté et que les politiques qui sont prescrites (le vent et le solaire tout particulièrement) représentent une forme quelconque d'assurance contre les risques. Ce sont ces gens-là que la "communauté" climatique devrait essayer de persuader.
Le projet de la participation de Bengtsson au GWPF me semblait être une sorte de main tendue aux sceptiques rationnels, ce dont la "communauté" aurait dû se réjouir.
Au lieu de cela, la "communauté" a lancé une fatwa. C'est exactement le genre d'action et d'attitude qui ne peuvent qu'engendrer le mépris de la part de la société au sens large, envers la "communauté".

Dr. Roy Spencer de l'UAH.

Le harcèlement de Lennart Bengtsson par des collègues n'est que le dernier exemple du comportement déplorable des climatologues qui ont passé un contrat avec le diable. Ils ont troqué leurs âmes de scientifiques contre des contrats de recherche, du prestige et un accès facile aux revues scientifiques pour publier leurs articles.
Je prédis que l'histoire les traitera sans indulgence et que la réputation de tous les climatologues pâtira de ces procédés. Dans l'état actuel des choses, le public qui paye nos salaires, est déjà en train de rire à notre sujet.
Certains d'entre nous (Christy, Lindzen, moi-même et d'autres) ont dû subir des années de traitement déloyaux de la part d'une poignée de collègues activistes et gardiens du temple qui ont empêché la publication de nos articles et bloqué nos demandes de crédits pour des raisons les plus futiles.

...Ce n'est pas tout. L'"affaire Bengtsson" ne s'est pas arrêtée là. Il y a eu un second épisode. Voyez la suite.


4) Un article scientifique de Bengtsson et al. est refusé avec des commentaires de relecteurs pour le moins étonnants :

Perçu comme s'inscrivant dans la lignée de cette "épuration" comme l'appelle Steve McIntyre, un article récent de Bengtsson et de quatre collaborateurs américains et suédois vient d'être rejeté par l'éditeur d'une revue de l'IOP (UK) (Environnment Research Letters).
Cet article mettait en lumière les divergences entre les modèles et les observations relevées notamment à partir des données telles que celles qu'on peut trouver dans le dernier rapport du GIEC (AR5) (comme je l'avais noté dans des billets précédents) et avançait l'idée (comme quelques autres) d'une sensibilité climatique au CO2 nettement plus faible que celle qui est prônée par les rapports du GIEC, ce qui, à l'évidence, rejetterait le "changement climatique anthropique" dans les profondeurs du classement des préoccupations.
Entre autres commentaires négatifs, le rejet de l'article est justifié, par l'un des rapporteurs, de la manière suivante :

"En résumé, la comparaison simpliste des prédictions tirés de l'AR4, de l'AR5 et de Otto et al, ceci combiné avec les affirmations qu'elles sont incompatibles est moins qu'utile, et de fait, cet article est nuisible car il ouvre la porte à des affirmations exagérément simplistes d'"erreurs" ou encore pire de la part des médias climato-sceptiques.

Plusieurs médias (anglophones et germanophones) ont réagi à ces assertions, pour le moins surprenantes de la part de relecteurs de revues scientifiques dont le devoir est de se limiter strictement à des considérations scientifiques à l'exclusion de toute considération politique. Ainsi le très connu Times de Londres (qui a démontré timesukdans le passé qu'il était très loin d'être un "média climato-sceptique", bien au contraire) titre, en une, dans son édition du 16 Mai avec une accusation gravissime (pour des scientifiques) : "Des scientifiques dissimulent des points de vue "nuisibles" sur le climat" et explique à ses (très nombreux) lecteurs :

Hier soir, un travail de recherche qui accumule les doutes sur le taux du réchauffement climatique a été délibérément écarté par des scientifiques parce qu'il était "moins qu'utile" pour leur cause. Faisant écho au scandale infamant du "Climategate" à l'Université d'East Anglia [NdT : Voir ce billet], une des revues au top des journaux académiques a rejeté le travail de cinq experts suite à un jugement confidentiel d'un relecteur dénonçant cet article comme "nuisible". Lennart Bengtsson qui est actuellement chercheur invité à l'Université de Reading et l'un des auteurs de cette étude, a déclaré qu'il soupçonnait que l'intolérance vis à vis des vues dissidentes sur la science climatique était à l'origine du refus de publier cet article. [...]
"Le problème que nous rencontrons maintenant dans la communauté scientifique c'est que quelques scientifiques confondent leur rôle en tant que scientifiques avec celui d'activistes du climat." a dit Bengtsson.

Toujours dans le Times (UK) du 16 Mai, (Lord) Matt Ridley (Ridley est un écrivain-journaliste, membre de la chambre des Lords, de la Royal Society of Literature, de l’Académie britannique de médecine et de l’Académie américaine des Arts et des Sciences) écrit sous le titre :
"Ce harcèlement contre les sceptiques de la science climatique doit cesser.
Depuis quand la diabolisation de ses contradicteurs est-elle devenue une pratique acceptable ?"

La démission du Professeur Bengtsson montre que le "consensus" revendiqué au sujet du réchauffement climatique alarmant implique la suppression des désaccords au moyen du harcèlement académique. Le Professeur insiste sur le fait qu'il n'y a pas de consensus au sujet de la vitesse et de l'intensité future du réchauffement dû aux gaz à effet de serre et encore moins au sujet des réponses qui peuvent être apportées.

Les preuves de l'existence d'un tel harcèlement sont apparues lors du scandale du "Climategate" en 2009 dans lequel les emails de quelques scientifiques ont révélé qu'ils étaient disposés à menacer et à blackbouler les collègues, les journalistes et les éditeurs qui exprimaient des points de vue sceptiques. Je discute fréquemment avec des scientifiques qui ne sont pas convaincus que le changement climatique soit, même de loin, le problème environnemental le plus urgent pour la planète mais qui ne mettront pas leur tête au dessus du parapet [NdT : Allusion aux soldats dans les tranchées] par peur de représailles pour leurs carrières.
Qu'advient-il du monde académique si la pratique de la diabolisation et du bâillonnement de vos opposants est devenue une pratique acceptable ? Les persécutions exercées à l'encontre du Professeur Bengtsson montrent précisément pourquoi des groupes de réflexion tels que le GWPF sont essentiels. En vérité, la vieille plaisanterie s'est révélée encore plus pertinente : "Quel est l'opposé de diversité ? C'est l'Université."

Partant du communiqué de l'éditeur de la revue de l'IOP qui endosse la prise de décision du rejet de l'article de Bengtsson et al. en y incluant l'argument politique mentionné ci-dessus, Steve McIntyre, pour sa part, remarque (ironiquement) :

Ainsi, l'"erreur", selon l'éditeur, semble n'être rien d'autre que l'exigence de Bengtsson que les modèles soient cohérents avec les observations. Sans aucun doute et même en matière de science climatique, une telle exigence ne peut pas être sérieusement considérée comme une "erreur".

De fait, la lecture du rapport des referees montre que selon ces deniers, Bengtsson et al commettent l'erreur" de comparer les résultats des observations avec les résultats des simulations numériques qui, selon eux, ne sont pas des prédictions ou des prévisions mais des projections ou des scénarios, et donc que cette comparaison serait une "erreur" (selon les referees).
Si on se souvient que Bengtsson a consacré la plus grande partie de sa longue carrière (51 ans !) à la modélisation numérique, il est difficile d'imaginer qu'il ne sait pas exactement de quoi il parle et on imagine aisément qu'il a suffisamment d'expérience pour savoir qu'il est indispensable de comparer les résultats des projections ou des scénarios numériques avec la réalité afin de valider ces derniers, si possible...

Pour sa part, Roy Spencer, climatologue à l'UAH, responsable des mesures satellitaires du même nom, écrit, le 16 mai :

"Les manoeuvres d'intimidation à l'encontre de Lennart Bengtsson ne sont que le dernier exemple du comportement déplorable de climatologues qui ont passé un contrat avec le diable. Ils ont échangés leurs âmes de scientifiques contre des contrats de recherche, du prestige et un accès facile aux revues scientifiques pour publier leurs articles. Je prédis que l'histoire les traitera sans indulgence et qu'en conséquence la réputation des climatologues sera mise à mal. Ce comportement déplorable de la communauté des scientifiques du climat n'a rien de nouveau. Il perdure depuis au moins 20 ans.
Certains d'entre nous (Christy, Lindzen, moi-même et d'autres) ont eu a subir des traitements inéquitables depuis plusieurs années de la part d'une poignée de collègues activistes et gardiens du temple qui ont empêché la publication de nos articles ou l'obtention de contrats de recherche avec les arguments les plus fragiles."

Le climatologue vétéran Roger Pielke Sr. est cité par le Spiegel Intl online en ces termes :

"Roger Pielke Sr. de l'Université du Colorado déclare : "Malheureusement, la climatologie est devenue très politisée et les points de vue qui diffèrent de ceux qui contrôlent le processus de rédaction des rapports sont, soit ignorés, soit ridiculisés. Au vu de ma propre expérience, je suis d'accord à 100% avec les déclarations du très éminent Lennart Bengtsson."

Le professeur Roger Pielke Jr. (le fils du précédent) et également cité dans le Spiegel Intl online. A noter que ni lui, ni son père ne sont des climato-sceptiques.

Pielke Jr. confirme que la recherche en climatologie est un boulot difficile. "Nous avons affaire à des gens qui jouent dur" dit-il. "A titre personnel, j'ai subi de très fortes pressions professionnelles au cours de ces années. Ceci incluait des menaces contre mon travail, l'ostracisme professionnel, des présentations publiques déformant mes propos et mes points de vue, des tentatives pour m'empêcher de parler en public ainsi que des menaces personnelles dont beaucoup d'entre elles ont été documentées en public." Il ajoute que "Quiconque désirant participer au débat public sur le changement climatique devrait le faire en sachant comment cela se passe de nos jours -- C'est sordide, méchant, destructeur."

Le Grantham Institute à l'Imperial College de Londres représente le versant opposé au GWPF avec lequel il est en conflit ouvert. Pourtant, dans cette occasion peu reluisante et au vu de la réaction outrée des médias, ses responsables ont choisi de se désolidariser des chercheurs qui ont harcelé Bengtsson et de rappeler quelques grands principes oecuméniques tout en égratignant au passage le GWPF, leur "pire ennemi".
Un responsable du Grantham écrit, sous le titre "La science et une société ouverte":

La démission du Professeur Lennart Bengtsson du conseil scientifique du GWPF a fait l'objet d'une importante couverture médiatique. Elle pose des questions importantes.
Quel que puisse être le point vue de quiconque sur le rôle, les motivations et l'intégrité du GWPF dans cette affaire, il relève du choix personnel des scientifiques de s'associer ou non avec lui afin d'y assurer un rôle de conseil.
Il est regrettable que les orientations politiques au sujet du climat affectent apparemment à ce point l'activité scientifique. Le Grantham Institute de l'Imperial College s'est toujours opposé à ce genre de comportement, pensant que le progrès scientifique exige que la société demeure ouverte. Nous essayons d'échanger avec un large éventail de personnalités, certaines d'entre elles ayant des points de vue radicalement différents sur le changement climatique.
Le déroulement de cette affaire est probablement un effet du "eux ou nous" qui a imprégné le débat sur la science climatique depuis des décennies. Il résulte, en partie de - et en réaction à - une pression externe exercée sur la communauté climatique.

Mais nous devons être clairs, ceci ne constitue en aucun cas une justification. Une pression concertée externe - si c'est ce qui a été fait - sur le Professeur Bengtsson pour le forcer à démissionner de sa fonction au GWPF était une faute et une erreur de jugement.

[...] Cet événement nous montre que le maintien d'une saine séparation entre la science et la politique - de chaque côté du débat politique - constitue un enjeu aussi permanent qu'indispensable..

3) Quelques titres récents dans la presse US/UK/Allemande :
bengtsson6

Der Spiegel (All) (Axel Bojanowski, 12 mai) : "Débat sur le changement climatique : Un scientifique renommé devient un sceptique". "Le météorologue Lennart Bengtsson a depuis longtemps été considéré comme une tête froide dans le conflit souvent virulent sur le réchauffement climatique. Il défend sa décision de rejoindre une organisation sceptique sur le changement climatique au cours d'un interview."
La légende de l'image ci-contre en en-tête de l'article est une citation de Bengtsson tirée de l'interview : "Je ne crois pas que cela ait du sens que notre génération croit ou prétende qu'elle peut résoudre les problèmes du futur."

The Financial Post (Peter Foster, 15 mai) : "Un scientifique suédois éminent est la dernière victime du McCarthysme climatique."

The Wall Street Journal (US) (James Taranto, 15 Mai) "L'autoritarisme scientifique. La question du scepticisme pour les climatologues."
Taranto conclut : "L'intuition est suffisante pour faire la distinction entre l'autoritarisme et l'autorité authentique."

The Times of London (UK) (Ben Webster, 15 Mai) ""La chasse aux sorcières" contraint un scientifique à la démission."

Investor.com (éditorial, 16 Mai) : "Climategate II et la montée du McCarthysme climatique".

The Telegraph (UK) (Lucy Kinder, 15 Mai): "Un climatologue est forcé de revenir sur ses positions suite à des pressions dignes du McCarthysme"
"Un climatologue suédois déclare qu'il a été soumis à une chasse aux sorcières réminiscente de l'ère McCarthy."
dailymailbeng


Daily mail (UK) (Ben Spencer, 16 Mai) : "Une étude suggérant que le réchauffement climatique a été exagéré a été rejetée par un journal réputé parce qu'elle était " moins qu'utile" pour la cause climatique, déclare un professeur."

Mail on Sunday (UK) (David Rose, 18 mai) : "Révélation : Comment des zélotes verts ont bâillonné un professeur qui avait osé remettre en question le réchauffement climatique."

  • Une étude du Professeur Lennart Bengtsson a été re