bandeau

hiboux

 

bonnet d'ane
Le Prix d'Honneur
Rechercher sur le site avec Google:

 

 

Enfin un fil RSS pour les accros du site ! Il faut un RSS reader. fil RSS

Les NEWS

 

Comme de nombreux lecteurs me l'ont fait remarquer à juste titre et au cours du temps ce site est devenu très (trop) touffu et les dossiers désormais excessivement copieux, ralentissent le chargement pour les déshérités qui ne bénéficient pas de la connexion internet par fibre optique.
Dès le début (en fin 2006), j'avais pris le parti de rassembler les billets dans des dossiers thématiques (par exemple, glaciers et océans, paroles, bonnets d'âne, thèses, calamités etc.) et les billets successifs y étaient introduits, rapprochés selon leurs thématiques, parfois indépendamment de leur ancienneté, ce qui, évidemment, n'a pas contribué à faciliter la lecture.
D'autre part, la quantité et la qualité des observations relatives au climat se sont sérieusement étoffées et améliorées, notamment, au cours de ces deux ou trois dernières années. On constate ainsi que le rythme de publication des articles scientifiques qui permettent de porter un regard critique sur les théories en vigueur, s'est singulièrement accéléré. Face à ce déferlement d'articles scientifiques sur lesquels il serait bon de rapporter, on peut imaginer deux types d'exposés différents : Soit une série de compte-rendus succincts de plusieurs découvertes récentes en se contentant d'une traduction des titres et des résumés, le tout accompagné de quelques explications minimales. Soit une synthèses un peu plus approfondie d'un ou de plusieurs articles récents, comme j'ai parfois tenté de le faire au cours des dernières années.
Les articles de la page "NEWS" seront systématiquement empilés selon la méthode LIFO, comme disent les informaticiens (Last In, First Out), c'est-à -dire que les articles les plus récents se retrouveront sur le sommet de la pile. C'est la disposition qui est très généralement utilisée par les blogs classiques tels que Wordpress ou autres.
Comme d'habitude, c'est la couleur du fond des pages qui change lorsque l'on passe d'un billet à l'autre.
D'autre part, j'ai mis à votre disposition une table des matières avec tous les liens nécessaires pour vous y retrouver plus facilement dans les billets publiés sur PU.
Bonne lecture !

10 Février 2016 : Mythes et légendes II : La science progresse mais les idées reçues demeurent et les polémiques font rage.

En bref : Les deux première parties de ce billet sont dans le prolongement du billet précédent.

La première partie
donne un aperçu significatif des résultats les plus récents de la recherche scientifique sur la question des tendances de l'intensité et de la fréquence des ouragans, typhons ou cyclones à l'échelle de divers bassins et du globe, dont certains nous répètent qu'elles sont en augmentation. Comme vous le verrez, il n'en est rien, contrairement à ce que certains ont pu affirmer dans le passé.

Dans la seconde partie, toujours en partant de sources scientifiques avérées, nous verrons que les affirmations contenues dans le rapport des experts de la Maison Blanche aux USA sont sévèrement démenties par les observations, notamment pour ce qui concerne les pluies et les sécheresses qui ont affecté récemment certaines régions des Etats-Unis d'Amérique.

Enfin, dans une troisième partie, comme il est d'usage en début d'année, nous examinerons, avec quelques détails, l'épineuse question des mesures de la température moyenne du globe pour l'année 2015, selon différentes institutions. Comme vous le verrez, les effets du très puissant El Niño 2015 sont très perceptibles et les différentes méthodes de mesure ne sont pas d'accord entre elles. Ce qui est beaucoup plus grave encore, c'est que l'écart entre les modélisations du climat et les observations, y compris au sein de l'atmosphère, diverge de plus en plus au cours des années qui passent.
La question est d'importance et les chercheurs impliqués le savent. Nous verrons qu'une vive polémique s'est instaurée sur ce sujet qu'il est tout à fait fondamental de trancher, dans un sens ou dans l'autre. De fait, le "consensus" en matière de climat tant vanté par le microcosme médiatico-politique est une idée tout à fait étrangère à la réalité.

Comme toujours et sauf spécification du contraire, les caractères engraissés figurant dans les encadrés des citations ( ici, en jaune, de couleur différente du fond) le sont par PU.

1) Les ouragans/cyclones/typhons : Non, ils ne sont pas en augmentation !

source : Journal of Climate (publié en Octobre 2015)

Titre : " Les ouragans extrêmement intenses : Révision de l'article de Webster et al (2005) dix ans plus tard."

hurricanes1

Note : Outre Klotzbach, Christopher Landsea de la NOAA est un (sinon Le) spécialiste des plus renommés sur la question des ouragans/cyclones . Il est connu des lecteurs de ce site notamment pour avoir refusé de signer un rapport du GIEC (l'AR4 publié en 2007) auquel avait participé, comme auteur principal, son collègue Kevin Trenberth , lequel avait aussi présenté, en public, des conclusions que Landsea tenait pour erronées et contraires aux observations. Landsea avait, à cette occasion rédigé une lettre de démission (du GIEC) dans laquelle il déclarait (en 2005) :

landsea

" Pour ce qui me concerne, je ne peux pas, en toute honnêteté, continuer à contribuer à un processus que je considère comme motivé par des objectifs pré-conçus et qui sont scientifiquement infondés. Comme les responsables du GIEC n'ont rien trouvé de mal dans les actions du Dr. Trenberth et l'ont maintenu à son poste d'Auteur Principal pour l'AR4, j'ai décidé de ne plus participer à la préparation de l'AR4 du GIEC."


Pour sa part, Kevin Trenberth est également connu des lecteurs de ce site pour avoir écrit, entre autres, à ses collègues, dans les échanges de courriels révélés lors de l'affaire dite du "Climategate" (2009) : " Le fait est que nous ne savons pas expliquer l’absence de réchauffement actuel et c’est grotesque."
De nos jours, Trenberth soutient l'idée que la "chaleur manquante" s'est réfugiée au fond des océans...

Voici une traduction du résumé de cet article du "Journal of Climate" qui n'est malheureusement pas en libre accès pour le public :

Résumé :
Il y a dix ans, Webster et al. ont documenté une augmentation importante et significative aussi bien dans le nombre que dans le pourcentage d'ouragans de catégories 4 et 5 pour tous les bassins de 1970 à 2004. Le présent manuscrit porte sur la question de savoir si ces tendances se sont poursuivies si l'on inclut 10 années de données supplémentaires. En opposition avec leur étude [NdT: de Webster et al] et ainsi que nous le démontrons dans cet article, la fréquence globale des ouragans de catégories 4 et 5 a subi une légère baisse, non significative
[NdT : du point de vue statistique], tandis que le pourcentage d'ouragans de catégories 4 et 5 a subi une légère hausse, non significative [NdT : du point de vue statistique], entre 1990 et 2014. L'énergie cyclonique accumulée à l'échelle du globe a subi une baisse importante et significative [NdT : du point de vue statistique] durant la même période. On conclut que la raison fondamentale de l'augmentation des ouragans de catégorie 4 et 5 notée dans les données observationnelles de 1970 à 2004 par Webster et al. est dûe aux progrès réalisés par les centres d'alertes aux différents types de cyclones tropicaux, essentiellement lors des deux premières décennies analysées par cette étude.

Dit plus simplement, les observations modernes ne montrent aucune tendance significative, ni dans la fréquence des ouragans/cyclones tropicaux les plus intenses à l'échelle de la planète, ni dans leur pourcentage relatif. De fait, l'énergie cyclonique accumulée pour le globe, elle, est en baisse significative durant les 25 dernières années. Les tendances positives rapportées antérieurement ont sans doute été biaisées par l'augmentation graduelle des moyens d'observation (notamment par la mise en orbite progressive de satellites géostationnaires au dessus des différents bassins, laquelle est à présent terminée).

Voici deux figures typiques extraites de l'article de Klotzbach et Landsea :

hurricanes2hurricanes3

La figure de gauche est la FIG. 2. (a) "Nombre total sur cinq années consécutives des ouragans qui ont atteint une intensité maximale pour chaque catégorie déterminée par l'échelle de Saffir-Simpson"
La figure de droite est la FIG. 5. (a) Valeurs de l'Energie Cyclonique Accumulée (ACE ) par bassin de 1970 à 2014."

Les auteurs font remarquer que la mise en place des satellites géostationnaires pour tous les bassins n'a été achevée que dans les années 1990 et concluent que les observations effectuées avant cette date sont douteuses. De fait, depuis cette époque, ont observe que les tendances du nombre des ouragans les plus violents et de l'ACE sont plutôt en baisse.

Cette étude, publiée au mois d'Octobre dernier révise, prolonge et prend le contre-pied d'une étude précédente. En réalité, et sauf découverte révolutionnaire, la science procède ainsi, par une suite d'erreurs et de corrections successives. Dans ces conditions, affirmer ou croire qu'à un moment donné "the science is settled", que "la science est définitivement établie" relève, au mieux, de l'ignorance sur le fonctionnement réel de la recherche scientifique et a fortiori quand il s'agit d'un objet aussi complexe et "épineux" que le système climatique, comme le qualifie Judith Curry.

Une fois encore, les observations et les conclusions de cet article sont en totale contradiction avec les discours de nos responsables politiques ou religieux, entendus et lus dans la presse durant les mois écoulés, notamment à l'occasion de la préparation de la COP21, tels que ceux-ci

  • "Soyons prudents, mais il me semble assez manifeste que le changement climatique et les phénomènes climatiques extrêmes qui se multiplient jouent au minimum un facteur aggravant et parfois déclencheur de conflits"

  • "Mais ça n'est pas ça que ça fait, le changement climatique. Ça multiplie ce qu'on appelle “les événements climatiques extrêmes”, c'est-à-dire que là où il y a du désert ça va être toujours plus sec, et là où il y a des problèmes d'ouragan, il va y en avoir toujours plus... On ne peut pas lier un événement climatique extrême au changement climatique, mais on sait que la multiplication lui est liée."

  • "Mais le fait que l'on ait des pluies, des typhons, des événements de plus en plus lourds et de plus en plus nombreux, ça, c'est en lien avec le dérèglement climatique."

  • "Sous l'effet des gaz à effet de serre issus pour l'essentiel de la combustion d'énergies fossiles, la planète se réchauffe à une vitesse inédite, générant des événements météorologiques extrêmes, la fonte accélérée des glaciers ou encore la montée du niveau des océans."

  • .."il est en outre difficile de ne pas le [NdT : le changement climatique] mettre en relation avec l’augmentation d’événements météorologiques extrêmes, indépendamment du fait qu’on ne peut pas attribuer une cause scientifiquement déterminable à chaque phénomène particulier."

Les lectrices et lecteurs pourront s'amuser à essayer de deviner qui sont les auteurs de ces citations pour le moins péremptoires au vu de l'état de nos connaissances scientifiques. Pour aider les lecteurs, je précise qu'il s'agit d'affirmations proférées par un ministres, un ancien ministre, un ministres putatif, une autorité religieuse et une agence de presse officielle de la république française. Celles et ceux qui n'auraient pas deviné, pourront se reporter à un billet antérieur où elles/ils trouveront les références complètes et les noms de leurs auteurs.

2) Pluies et sécheresse aux USA : Des articles scientifiques réfutent les affirmations des experts de la Maison Blanche et des médias US.

Il n'y a pas qu'en France que les politiques (et les médias) "ignorent" les résultats des études scientifiques. En voici une, rédigée par des scientifiques reconnus du domaine, qui dément carrément les affirmations des experts de la Maison Blanche dont le rapport officiel, le "National Climate Assessment (NCA)", soutenait que l'abondance des pluies et les inondations qui ont frappé les USA ces dernières années étaient la signature du réchauffement climatique anthropique. A noter, ce qui ne manque pas de sel, que les auteurs de l'article scientifique présenté ci-dessous (source) qui réfute les affirmations des experts de l'Administration Obama, sont tous affiliés à la NOAA (Laboratoire ESRL) qui est une éminente agence fédérale aux USA.

L'article ci-dessous, actuellement sous presse et qui doit être publié dans le principal journal de l'American Meteorological Society sur le climat, montre que les pluies abondantes aux USA sont étroitement corrélées ("intimement" dit l'article) avec la variabilité décennale océanique (d'origine parfaitement naturelle). Autrement dit, il s'agit encore, comme je l'ai souvent évoqué dans ce site, d'une nouvelle mise en évidence de l'un des facteurs naturels qui dominent les variations climatiques.

hoerling

Résumé :

Les données quotidiennes relatives aux précipitations les plus intenses (95e percentile) aux Etats-Unis ont été analysées afin de déterminer les facteurs responsables de la saisonnalité et de leur caractère régional dans les tendances de 1979 à 2013. Pour ce qui est des conditions annuelles, les tendances observées dans les Etats Contigus (NdT : c'est à dire sans Hawaï et l'Alaska) des USA, ont été caractérisées par un accroissement des précipitations associé à des événements intenses journaliers dans le Nord et par une décroissance dans le Sud. Les diagnostics des simulations climatiques (CCSM4 et CAM4) montrent que l'évolution des températures de surface des océans (SST) observées était un facteur plus important pour influer sur ces tendances que les variations des conditions aux limites liées au seul forçage radiatif externe.
Depuis 1979, ce dernier (NdT : Le forçage radiatif externe, sous-entendu anthropique) induit une augmentation de grande extension mais de faible intensité, dans les précipitations associés avec les événements intenses journaliers. Le premier (NdT : cad l'effet des température de surface des océans) résulte dans un accroissement au Nord des USA et un affaiblissement dans le Sud comme cela est observé et dont l'amplitude est parfaitement dans la ligne des variations observées, tout particulièrement dans le Sud et dans l'extrême Ouest (NdT : Le Far West) . L'analyse de la dispersion des ensembles des modèles révèle qu'une tendance appréciable de 3 à 5 ans dans les précipitations journalières intenses peut se produire en l'absence de forçage ce qui limite la détection d'une faible influence anthropique à des échelles régionales.

L'analyse de la saisonnalité des tendances des fortes précipitations journalières va dans le sens des arguments physiques indiquant que leurs variations durant la période 1979-2013 ont été intimement liées à la variabilité interne décennale des océans et moins avec le changement climatique anthropique. La plus grande partie de la décroissance observée dans le Sud des USA s'est produite durant la saison froide qui a été pilotée de manière dynamique par la circulation atmosphérique qui est réminiscente des teléconnexions reliées à la température froide de surface (SST) de la zone du Pacifique tropical Est. La plus grande partie de l'accroissement de la zone Nord-Est des USA s'st produit durant les saisons chaudes. Leur cause immédiate est encore inconnue.

Un autre article tout aussi récent, publié 1er Février 2016 dans la même revue, analyse les conséquences potentielles du "changement climatique" pour l'agriculture lors de la récente sécheresse éprouvée par la Californie dans le cadre du réchauffement climatique dit anthropique.

Cheng

Le résumé de cet article se termine sur la conclusion suivante :

"C'est ainsi que nos résultats montrent que l'effet net du changement climatique a été de rendre les sécheresses pour l'agriculture moins probables et que les impacts sévères subis de nos jours n'ont pas été causés, de manière substantielle, par les changements climatiques à long terme."

...alors que la Maison Blanche et la quasi-totalité des médias US affirmaient très précisément le contraire.

Dans le même ordre d'idées, un étude récente qui vient de paraître dans le Journal of Earth Science, publié par des chercheurs de l'Université Washington de St Louis, explique que les récentes inondations records observées dans le Missouri, résultent d'une gestion déplorable des cours d'eau et non pas du "réchauffement climatique" comme cela avait été affirmé par la presse US. Voir le communiqué de presse de l'Université à ce sujet. Ce n'est certainement pas un cas isolé.

3) 2015, l'année "la plus chaude" ?

Un ou deux mois après la fin de l'année, lorsque toutes les données ont été publiées par les différents instituts, il est d'usage de situer la température moyenne du globe de l'année passée dans le cadre des années précédentes. Alors quid de l'année 2015 ?

Compte tenu des incertitudes (que beaucoup oublient de mentionner) il est probable que l'année 2015 a été, au plan global, une année parmi les plus"chaudes", ce qui n'est guère étonnant au vu du très puissant El Niño qui a poussé les températures à la hausse depuis plusieurs mois. Par contre, le fait qu'il s'agisse d'une "année record" reste discutable car les différents instituts de mesure ne sont pas d'accord entre eux et que leurs évaluations divergent de plus en plus..
C'est ce que nous allons voir avec quelques détails.

A) En réalité, 2015 est surtout l'année d'un El Niño record, d'une intensité au moins égale, voire supérieure, à celui qui est survenu, il y a 18 ans, en 1998 :

Brefs rappels : Il apparaît fréquemment un réchauffement/refroidissement marqué de la zone équatoriale de l'océan pacifique située entre la zone Ouest des Philippines et l'Equateur (le pays). Il s'agit, en réalité d'une oscillation. D'où le nom d'ENSO (El Niño-Southern Oscillation) donné à ce phénomène aussi naturel que récurrent. Ces variations de températures, positives ou négatives, qui se reproduisent plus ou moins périodiquement, environ tous les deux à trois ans, sont naturelles et on est encore incapable de les modéliser correctement et, a fortiori, d'en prévoir le signe et l'intensité ne serait-ce qu'avec quelques années d'avance.
Voici deux images typiques de la situation du El Niño 2015. Celle de gauche provient de Unisys. Celle de droite de la NOAA. Je les ai simplement complétées en indiquant la situation du El Niño actuel.

nino2015-2nino2015

On sait que, sauf quelques rares exceptions mal comprises, il existe une corrélation nette entre l'indice ENSO (El Niño/La Niña) et le réchauffement/refroidissement transitoire global de la planète. Le mécanisme sous-jacent qui fait l'objet d'un grand nombre d'études fait appel aux "téléconnexions" entre les divers bassins océaniques. Voir, par exemple, ce billet sur la "Ola", l'onde de stade. Autrement dit, les oscillations ENSO (El Niño et la Niña) font intervenir aussi bien le réchauffement local de la zone équatoriale du Pacifique que le régime des vents qui règnent dans la basse stratosphère. Tout cela se fait sentir sur une très grande partie du globe.

Rss-nino2

Le graphique ci-contre superpose l'évolution de l'anomalie de température de la basse atmosphère (TLT) donnée par le RSS-MSU, pour les années 1996-2015 avec celles de l'indice ENSO (Nino3-4) "normalisé", c'est à dire décalé verticalement ( de +0,3°C) et remis à l'échelle (divisé par 5). Ce dernier est notamment fourni par le KNMI qui collationne une grande quantité de données observationnelles (et/ou résultant des modèles).
Comme on peut le constater et comme je l'avais déjà fait remarquer en 2010, la température de l'air à la surface de la planète suit assez fidèlement les variations de l'indice ENSO avec un retard d'environ 3 à 5 mois.

Sur la droite de ce graphique, on devine que le El Niño 2015 était proche de la saturation en Nov-Déc comme l'indiquent plus précisément les données détaillées à ce sujet. Depuis Janvier, cet El Niño semble avoir a entamé sa descente qui devrait ramener l'indice ENSO vers le neutre (c'est à dire avec une valeur comprise entre -0,5 et +0;5) vers la fin du printemps- début de l'été 2016, si on en croit les prévisions à ce sujet.

Nul ne sait avec certitude ce qui se passera par la suite (El Niño ou La Niña ?). Mais, ce que l'on sait c'est que, dans le passé, 11 des El Niño les plus intenses (sur 15) ont été suivis d'épisodes d'intenses La Niña, c'est à dire de périodes de refroidissement, comme pendant les années 1999-2001 qui ont succédé au très intense El Niño de 1998. Il est donc probable que la période de réchauffement relatif observé en fin d'année 2015 et, qui se poursuivra vraisemblablement au début de 2016, sera suivi d'un refroidissement à peu près équivalent mais de signe opposé.

B) Les températures moyennes globales selon les différents instituts. Les résultats divergent de plus en plus entre les mesures thermométriques et les mesures satellitaires.

Les sources des données qui ont servi à tracer les diagrammes suivants sont aisément accessibles.
Voici les liens utiles :
NOAA ; GISS (NASA) ; UAH V6 ; RSS-MSU.

noaa2015gistemp2015

Je rappelle que la NOAA, le GISS de la NASA ou le HadCRUT, utilisent les mêmes bases de données thermométriques (notamment le USHSN pour les USA). A noter que le nombre des stations de mesure, réparties sur la surface du globe, par ces différentes institutions a considérablement diminué au cours des années.
Plutôt que de prendre en compte des stations défectueuses ou peu entretenues, ces organismes préfèrent utiliser des algorithmes d'homogénéisation (dont je parlerai ci-dessous) à partir des résultats de stations "bien choisies". Comme vous le verrez également ci-dessous, tout dépend, bien sûr, de ce que l'on entend par "des stations bien choisies" car différents choix sont possibles qui donnent des résultats sensiblement différents.

Je rappelle que les valeurs absolues des anomalies indiquées sur ces diagrammes en colonnes dépendant des périodes choisies pour "périodes de référence". En pratique, seul l'UAH (mesures satellitaires) se conforme aux stipulations de l'OMM qui prescrit que la base de référence choisie doit être celle de la moyenne des 3 décennies précédentes.
Voici les périodes de référence choisies par les différents instituts pour lesquels j'ai tracé les graphiques.

Source Période de référence
GISS Jan 1951 - Dec 1980 (30 ans)
NOAA Jan 1901 - Dec 2000 (100 ans)
RSS Jan 1979 - Dec 1998 (20 ans)
UAH Jan 1981 - Dec 2010 (30 ans)


Compte tenu des incertitudes revendiquées par les différents organismes et qui sont indiquées sur ces diagrammes par des barres verticales noires, il est incorrect d'affirmer que selon ces instituts "2015 est l'année la plus chaude". On peut simplement dire que, selon ces instituts, 2015 figure dans la liste des années les plus chaudes comme c'était d'ailleurs déjà le cas en 2014, toujours selon ces mêmes instituts.

Les mesures satellitaires, elles, donnent une toute autre vision des choses
.
A noter que, du fait de la différence des périodes de référence choisies, les mesures RSS-MSU se trouvent décalées d'environ +0;1°C par rapport aux mesures UAH.

rss2015uah2015

 

De fait, comme vous le verrez ci-dessous, la cohérence entre les mesures satellitaires UAH (V6) et les mesures satellitaires (totalement indépendantes et même concurrentes) RSS-MSU est excellente. Les écarts entre ces deux dernières sont bien inférieures aux incertitudes revendiquées (0,09°C).

Donc, d'après les mesures satellitaires, la basse troposphère n'a absolument pas battu des records de chaleur en 2015. Cette année a été nettement surpassée par 1998 (année d'un autre El Niño très intense) et, aux erreurs près, l'année 2015 n'est guère plus chaude que plusieurs des années précédentes comme on le voit sur les graphiques.

Il apparaît que les tendances indiquées par les données thermométriques divergent de plus en plus de celles des données satellitaires. Il n'en allait pas ainsi dans les années précédentes et cette divergence problématique a suscité des polémiques acerbes entre les tenants des mesures thermométriques et les tenants des mesures satellitaires.

La divergence croissante entre la tendance des mesures satellitaires et la tendance des mesures thermométriques apparaît nettement sur le graphique suivant qui regroupe les variations des anomalies de température selon la NOAA et le RSS-MSU :

divnoaarss

Compte tenu du fait que la NOAA et le RSS-MSU utilisent des périodes de référence différentes, et de manière à pouvoir comparer les tendances, il a été nécessaire de translater verticalement les données RSS-MSU de +0,32°C de manière à minimiser les différences observées pour les années 1999 et 2000.
A l'évidence, la translation ne change pas les tendances.

Comme on peut le voir, alors que les mesures satellitaires persistent à indiquer que nous restons sur un "plateau de température
" pour lequel un grand nombre d'explications ont été proposées, il n'en est plus de même pour les mesures thermométriques de la NOAA qui ont, tout récemment, subi une assez profonde altération résultant de la remise en question des mesures thermométriques de la température des océans. Cette remise en question par la NOAA a été effectuée par l'équipe de Karl et al, 2015, d'où le nom de "Karlisation" utilisé pour désigner cette altération rétrospective très controversée des mesures des températures océaniques.
A noter que les organismes qui fournissent les données HadCRUT et GISTEMP ont immédiatement adopté le procédé de "Karlisation" lors de leurs dernières actualisations, tout en génèrant des divergences mesures satellitaires-mesures thermométriques de moindre amplitude que celle de la NOAA.

Dans l'état actuel des choses, les données de la NOAA, toutes corrections de la période de référence étant effectuées, indiquent une anomalie de la température moyenne globale d'environ 0,2 à 0,3°C supérieure à celle des mesures satellitaires (et des mesures par ballons sondes).

Ces divergences sont considérables à l'échelle du "réchauffement climatique" (estimé entre 0.7°C et 1°C) du globe depuis le début de l'ère industrielle n'ont pas laissé les scientifiques impliqués indifférents. Elles font l'objet d'un débat particulièrement virulent entre les tenants des mesures thermométriques et les tenants des mesures satellitaires.
C'est ainsi que les supporters des mesures thermométriques ont publié une vidéo produite par un think-tank supporter du "réchauffement climatique", le "Yale Climate Connection", visant à discréditer les mesures satellitaires. Les principaux intervenants dans cette vidéo sont bien connus des lecteurs de PU. il s'agit de Kevin Trenberth (cité plus haut), de Michael Mann (l'auteur du très célèbre article dit "crosse de hockey"), et de Ben Santer, tous protagonistes de l'affaire des courriels révélés au public, lors du Climategate en 2009.
La politique s'en est mêlé et le Sénat US, soutenu par une pétition de 300 scientifiques internationaux, a déposé une demande officielle exigeant, entre autres, la communication des données et la transparence dans le traitement des données de température par la NOAA.

De fait, comme vous allez le voir, les mesures thermométriques ne sont pas seulement sous le feu des critiques des défenseurs des mesures satellitaires.

C) Indépendamment des délicates mesures océaniques, la fiabilité des données thermométriques continentales pose des problèmes. Elle est sérieusement remise en question, notamment pour les USA, par deux climatologues et un météorologue lors d'une communication (texte complet et communiqué de presse) présentée à la dernière session de l'AGU. Les trois auteurs principaux de cette communication sont Anthony Watts, John Nielsen-Gammon et John Christy.

Voici une traduction du résumé de cette communication qui fait l'objet d'un article soumis à publication. A noter que la climatologue d'état, Nielsen-Gammon qui est très loin d'être un "sceptique", a tenu à vérifier la totalité des observations et des calculs avec un de ses étudiants avant de cosigner cet article, ce qui l'engage vis à vis de ses collègues "mainstream".

Les observations climatiques sont affectées par des variations de l'utilisation des sols et de la couverture arborée et ceci à toutes les échelles, y compris aux très petites échelles.
Un sous-ensemble de 4210 stations de mesure du Réseau Historique de la Climatologie US (version 2.5) a été identifié parce que n'ayant pas subi de modifications au cours du temps, ou de déplacement de stations durant la période 1979-2008.
Ces stations ont été classées en se basant sur leur proximité avec des surfaces artificielles, des bâtiments ou d'autres objets du même type qui présentent des masses thermiques non naturelles, en utilisant les principes élaborés par Leroy (2010).
Les stations, en nombre relativement limité, classées dans les catégories qui subissent un impact artificiel minimal, présentent des tendances brutes de température qui sont, en moyenne, d'environ les 2/3 de celles des stations dans les classes qui subissent un plus grand impact artificiel.
Les différences des tendances sont plus importantes pour les températures minimales et sont statistiquement significatives même à l'échelle régionale et pour différents types d'instrumentation et différents degrés d'urbanisation. Les techniques d'homogénéisation utilisées par le Centre National pour l'Information Environnementale (autrefois le NCDC) réduisent ces différences de manière importante mais produisent des tendances qui sont plus en accord avec celles des stations qui subissent un impact artificiel plus important. On ne trouve pas de différences de tendance entre le Cooperative Observer Network et le Climate Reference Network durant la sous-période 2005-2014 où la température est restée relativement stable, ce qui suggère que les différences observés résultent d'un mécanisme physique qui est directement ou indirectement impacté par les changements de température.

En bref, une grande majorité des stations de mesure des températures aux USA (il y en a 1298 dans les états contigus US. C'est le pays le mieux équipé) présente de nombreux défauts pour ce qui concerne l'analyse des tendances historiques tels que le changement de l'environnement ou de l'équipement (asphalte déposé, bâtiments construits, arbres à proximité coupés, stations déplacées et/ou substituées par de nouveaux équipements etc.) révélés par le "projet d'étude des stations de surface" mené par Watts assisté de très nombreux participants.

Les auteurs ont sélectionné 410 stations "sans défaut", selon les critères couramment admis, c'est à dire, plutôt rurales, et qui n'avaient pas subi de modification durant la période historique considérée. Ces 410 stations sont régulièrement distribuées sur la carte des USA.
Le résultat est parlant. Les mesures enregistrées par ces stations montrent un réchauffement nettement inférieur à celui qui est donné par les 1298 stations prises en compte par la NOAA et les autres instituts faisant usage des thermomètres et des algorithmes d'homogénéisation standards.

Voici le graphique comparant les tendances des 410 stations conformes, de classe 1 et 2 (en bleu) sélectionnées avec, d'une part la tendance donnée par les stations non conformes (de classe 3, 4 et 5) en couleur orange et, d'autre part, avec les stations officielles utilisées et ajustées par la NOAA.watts

Le résultat est clair :

Comme on le voit, les stations conformes (classe 1 et 2) donnent une tendance de 0.204°C par décennie, les stations dégradées (classe 3, 4 et 5) donnent 0.319°C par décennie. Les stations ajustées par la NOAA donnent 0.324°C par décennie..


En bref, les résultats officiels de la NOAA indiquent un réchauffement de 0.324/0.204 = 1.6 fois supérieur aux résultats donnés par les stations conformes de classe 1 et 2.

Les auteurs précisent que cette observation doit également probablement s'appliquer au reste de la planète où les stations sont, très fréquemment, en dessous des normes requises.


En résumé, la NOAA, comme les autres institutions, ne sélectionne pas les stations suivant leurs qualités
à l'exception de celles qui sont éliminées parce qu'elles donnent des mesures trop déviantes. Elles se servent de la totalité des données thermométriques et mettent en oeuvre des algorithmes dits "d'homogénéisation" de l'ensemble de ces stations ce qui peut avoir pour effet d'aligner les stations de bonne qualité sur celles qui le sont moins mais qui sont majoritaires.

Ceci explique une phrase du communiqué de presse des auteurs de la communication citée ci-dessus : "Nous pensons que le processus d'homégénéisation de la NOAA/NCDC fait que des stations bien situées sont ajustées à la hausse pour se retrouver dans la masse des stations mal situées."

Ces critiques sur le traitement et l'utilisation des données thermométriques paraissent assez difficiles à réfuter. Néanmoins, il convient d'attendre les réponses des responsables des traitements des données de la NOAA et la parution de l'article soumis par les auteurs. Comme on le voit, si ces critiques sont justifiées, il est extrêmement probable que les marges d'incertitudes de la NOAA, du GISS et du HadCRUT sont, pour le moins, très largement sous estimées, avec une forte tendance à la hausse introduite artificiellement dans les données. Comme je l'ai indiqué ci-dessus et, a contrario, les mesures satellitaires font l'objet de sévères critiques de la part des tenants des mesures thermométriques.

D) Les mesures satellitaires :

Comme le savent les lectrices/teurs de PU, les mesures satellitaires de la température de la basse couche de l'atmosphère en contact avec la planète, émanent de deux institutions qui sont indépendantes et qui sont, de fait, en concurrence (parfois sévère) depuis des années. Il s'agit, d'un part, des mesures dites UAH parce qu'elles proviennent du centre dédié de l'Université de l'Alabama Huntsville (John Christy et Roy Spencer, tous deux inventeurs et initiateurs des méthodes de mesures, tous deux médaillées par la NASA pour "réussite exceptionnelle") et, d'autre part, des mesures dites RSS-MSU, une autre émanation de la NASA.
Ces deux organismes utilisent des satellites différents, des détecteurs différents, des corrections différentes et des algorithmes de traitement des données différents. On pourrait donc s'attendre à ce que leurs résultats diffèrent quelque peu.

rssuah

Il n'en est rien et les mesures de l'UAH (Version 6) et du RSS-MSU sont remarquablement cohérentes entre elles ainsi que le montre ce graphique sur lequel j'ai tracé, en trait bleu épais, les données mensuelles de l'UAH-V6 et en trait jaune mince, celles du RSS-MSU.

En réalité, les mesures sont si proches l'une de l'autre que je n'ai pas trouvé d'autre moyen pour qu'on puisse les distinguer sur le même graphique. Bien entendu, j'ai translaté verticalement le graphe du RSS-MSU de -0,1°C pour tenir compte de la différence des périodes de référence prises en compte par les deux organismes.

On voit que les rares différences entre les deux mesures sont bien inférieures à la somme des incertitudes revendiquées par les deux institutions (soit 0,18°C).
On perçoit nettement, à l'extrémité droite du graphe, la montée en puissance de l'El Niño 2015-2016 mais, de fait, l'année 2015 se classe en troisième position derrière 2010 et 1998.

 

John Christy, l'un des inventeurs/promoteurs des mesures satellitaires de températures de l'atmosphère à différentes altitudes, a profité d'une invitation à témoigner, le 2 Février 2016, devant les U.S. House Committee on Science, Space & Technology (Le comité de la Chambre US pour la Science, l'Espace et la Technologie) pour mettre les choses au point en ce qui concerne la fiabilité des mesures satellitaires. Voici quelques points clefs de sa présentation, mais les lecteurs intéressés pourront tirer profit de la lecture du texte écrit de sa présentation et de la vidéo prise à cette occasion. Le contenu de cette présentation réfute un par un les arguments présentés dans la vidéo des tenants de la thermométrie que j'ai citée plus haut.

En particulier, John Christy montre que les mesures satellitaires UAH V6 (et donc celles du RSS-MSU) sont très proches de celles relevées par les ballons sondes qui sont équipés de thermomètres traditionnels dont les données sont retransmises en permanence au sol par radio. Voici, ci-dessous, le graphe qu'il a présenté à ce sujet. Le mesures des ballons sont représentées en trait continu bleu et les mesures satellitaires en pointillés. (A noter, en passant, que la superposition est si parfaite que Christy aurait mieux fait d'utiliser mon mode de représentation avec des traits bleus épais et des traits minces jaunes). A noter que Christy utilise les moyennes des séries disponibles des mesures par ballons sondes (dites RATPAC, HadAT2, RICH, ROABCORE) christy-ballons

 

Christy ajoute que :

"Je trouve que c'est une stratégie d'une grande hardiesse que de promouvoir activement les résultats théoriques des modèles climatiques tout en attaquant les multiples évidences qui résultent des observations.

Notez qu'aucune des données observationnelles n'est parfaite et qu'un suivi permanent est salutaire mais quand des groupes multiples et indépendants génèrent des données et quand les résultats de deux systèmes totalement indépendants (ballons et satellites) sont très proches l'un de l'autre et sont en désaccord avec les sorties des modèles, on ne peut que se gratter la tête lorsque quelqu'un se décide à lancer une offensive contre les données de l'observation. Pour moi, ceci n'a aucun sens du point de vue scientifique."

 

 

Au cours de son exposé, John Christy attire l'attention de ses auditeurs sur les différences significatives qui existent entre les sorties des modèles climatiques et les observations effectives.

Afin d'échapper à une critique (qu'il explique infondée) de la part des auteurs (Mann, Trenberth, Ben Santer) de la vidéo citée ci-dessus, Christy choisit d'illustrer la divergence évidente qui existe entre les modèles et les observations en situant ces dernières dans la moyenne troposphère, c'est à dire bien au dessus de la surface de la planète. Voici le graphique qu'il a présenté :

midtropo

 

 

 

Christy fait remarquer que le seul modèle qui semble être à peu près en accord avec les observations (le trait fin qui court à travers les valeurs expérimentales) est un modèle publié par les scientifiques Russes sous le nom de INM-CM4.

 

 

 

 

 

En guise d'illustration, Christy a tracé les droites de tendances de la hausse de température (de 1979 à 2015 pour les observations, plus loin pour les modèles) calculées par les modèles d'une part et, d'autre part, vue par les ballons-sondes (moyenne de 4 séries de données) et les satellites (moyenne de 3 séries de données), pour la totalité de la troposphère, c'est à dire la portion de l'atmosphère qui s'étend de la surface jusqu'à environ 15.000 mètres. Voici son graphique

christy-trend

:

"En utilisant la période de 36 années pour la période 1979-2015, Christy trouve une tendance de

+0.079ºC/décennie pour les ballons sondes +0.091 ºC/décennie pour les données satellitaires.

La moyenne des 102 modèles climatiques ICCC CMIP-5, sur la même période donne une tendance de +0.214 ºC/décennie

De manière globale, les modèles surestiment le réchauffement de la masse de l'atmosphère (de la surface à 50000 pieds) d'un facteur 2,5. "

... ce qui devrait quand même poser un sérieux problème aux modélisateurs car comme disait Richard Feynman à ses étudiants à Cornell en 1964 : "Si ça ne colle pas avec les expériences, c'est faux. Et c'est ce simple constat qui est la clef de la science. Cela ne fait aucune différence que la supposition soit géniale ou que l'auteur soit très intelligent ou comment il s'appelle. Si ça ne colle pas avec les expériences, c'est faux. Il n'y a rien à ajouter."

 

seauah

Un peu plus loin au cours de sa déposition, Christy fait remarquer que les "corrections" (dites "Karlisation") plutôt controversées, apportés par Karl et al de la NOAA aux données sur les températures de surface des océans qui ont pour résultat d'effacer "la pause", sont démenties par les observations satellitaires.

Voici le graphique que Christy présente à ce sujet.

Il s'agit d'une représentation, sur différents segments de 10 à 20 ans, des tendances décennales de la température moyenne des océans. En rouge, les tendances vues par la NOAA, résultant de la "Karlisation". En orange, les mêmes tendances vues par le HadCRUT4. En jaune, les tendances vues par les mesures satellitaires qui mesurent la température de l'air à la surface des océans et en bleu les tendances relevées pour la basse atmosphère.
Autant dire que les tendances diffèrent d'un bon facteur 3 à 10 et qu'elles ne sont, parfois, même pas du même signe.

Entre autres, Christy fait remarquer que la tendance quasi nulle du HadCRUT4 de 2001 à 2014 est en assez bon accord avec les mesures UAH et va dans le sens de la "pause" des températures, et se trouve en fort désaccord avec les données "Karlérisées" de la NOAA.

4) Conclusions :

Que les lectrices ou lecteurs me pardonnent de leur avoir infligé un billet que beaucoup trouveront sans doute un peu trop long et, parfois, un peu compliqué. Mais, au point où nous en sommes arrivés et au vu des lourdes conséquences économiques et sociétales envisagées par nos politiques, il est important de fournir quelques détails et de ne pas se contenter de superficiel comme nous l'avons vu lors de la COP21.

A la lecture attentive des articles qui paraissent dans la presse scientifique sous la plume d'auteurs renommés, on constate que la science climatique progresse. Les observations qui sont à la base de la démarche scientifique, s'enrichissent progressivement et, bien heureusement, beaucoup de chercheurs en tiennent compte, quitte à remettre en cause les (supposés) acquis du passé, même récent.
Malheureusement, on observe, en parallèle, que le microcosme médiatico-politique ne suit pas les progrès de la science et ne corrige pas ses discours en conséquence. Il en résulte un gap grandissant entre la réalité du contenu des publications scientifiques et les affirmations de plus en plus "décalées" de nos édiles et de nos médias qui influencent l'opinion.

Les deux premières parties de ce billet montrent que plusieurs idées reçues et répercutées ad infinitum dans les médias et dans les discours politiques, sont erronées ou, du moins sérieusement remises en cause, aussi bien pour ce qui concerne les ouragans/typhons/cyclones que pour les sécheresses et les pluies.

La troisième partie explique que les données résultant des mesures de la température moyenne du globe ne sont pas d'accord entre elles et qu'une année El Nino surtout s'il est particulièrement intense comme celui de cette année 2015, est certainement le plus mauvais choix possible pour ceux qui cherchent à détecter et à se convaincre du caractère anthropique du changement climatique.
Bien plus grave encore, et quels que soient les effets passagers d'un El Niño ou d'une La Niña, on observe que la divergence entre les mesures et les modèles s'accroît à mesure que le temps passe. Comme vous l'avez vu, il existe une sérieuse polémique à ce sujet. De fait, il s'agit d'une question fondamentale à laquelle il faudra bien, un jour, apporter une réponse.
Soit les modèles sont gravement déficients et leurs prévisions sont sans valeur ce qui aurait de lourdes conséquences, soit les mesures des températures satellitaires (y compris du corps même de l'atmosphère) sont erronées ce qui semble peu probable du fait qu'elles sont d'accord entre elles et qu'elles sont confirmées par les multiples ballon-sondes lancés par plusieurs institutions indépendantes.

En écrivant ceci, je ne fais que reprendre les observations de Syukuro Manabe, l'un des pères fondateurs de la théorie de l'effet de serre, qui avait déjà remarqué, en 2011, la divergence entre les mesures satellitaires et les modèles, (pour la haute troposphère tropicale), laquelle s'est aggravée. Il s'en inquiétait déjà en écrivant dans un article publié en 2011 :

"Au vu de l'importance de l'évaluation de l'augmentation du réchauffement de la haute troposphère tropicale vis à vis de la sensibilité climatique et de l'évolution des circulations atmosphériques, il est d'une importance cruciale de comprendre les causes possibles du désaccord entre les modèles et les observations."

En bref, la science progresse comme elle l'a toujours fait - sauf dans le cas d'une rupture fondamentale - par une suite d'erreurs et de corrections. Rien n'est définitivement gravé dans le marbre et l'idée même de "consensus" est étrangère à la démarche scientifique. Par exemple, des expériences en cours cherchent encore de nos jours, à confirmer ou à infirmer la théorie de la relativité générale d'Einstein.

Le Nobel de Physique, Richard Feynman, ne disait-il pas ?

"Nous avons observé qu'il est d'une importance cruciale que, de manière à progresser, nous devons reconnaître notre ignorance et laisser la place au doute. La connaissance scientifique est constituée d'une série de déclarations qui possèdent différents degrés de certitude - certaines ne sont pas sûres, certaines sont presque sûres mais aucune n'est absolument certaine."

Enfin, ceux qui s'alarment de l'hiver doux qui règne actuellement en France devraient prendre connaissance de cette rétrospective historique sur les hivers doux qu'a connus notre pays depuis le 6e siècle (recensés par le CNUM, le Conservatoire Numériques des Arts et Métiers). (h/t Skyfall.fr).
Rien de nouveau sous le soleil, comme vous le verrez.
A noter que, dans le passé, plusieurs "hivers doux" se sont plutôt mal terminés.

Stay tuned !

08 Janvier 2016 : Mythes, légendes et pipeauxcloc13


En bref :

La COP21 achevée, on aurait pu raisonnablement espérer que le déchaînement médiatico-politique qui a littéralement saturé le PAF pendant les mois écoulés, marquerait une pause, ne serait-ce que pour reprendre son souffle.

Il n'en est rien. Les médias persistent à propager des nouvelles aussi alarmantes qu'infondées voire en opposition flagrante avec les connaissances les plus récentes acquises par la recherche scientifique.

Parmi ces dernières, et à titre d'exemple, j'ai choisi, ce mois-ci, d'évoquer 4 mythes ou légendes que certaines agences de presse et certains politiques continuent de colporter, urbi et orbi, et que les médias reprennent sans discernement ni analyse.

1) On nous a affirmé, en cette fin d'année 2015, que le "Pôle Nord n'est plus ce qu'il était".
Il n'en est rien. Le Pôle Nord n'a rien fait d'autre, à la Saint Sylvestre, que ce qu'il a fait fréquemment au cours des décennies écoulées. Encore faut-il connaître les spécificités du climat hivernal en arctique pour le savoir.

2) De même, on entend dire et on lit partout que la pluviométrie a beaucoup changé sur le globe et que les déserts sont plus secs et progressent sur la planète du fait de la diminution des pluies.
Les observations démontrent qu'il n'en est rien et, de surcroît, nous apprennent que les sécheresses étaient bien pires au cours des siècles passés.

3) Tout aussi fréquemment, on nous affirme que l'Antarctique fond, ce qui contribuerait à la hausse du niveau des océans.
Une étude exhaustive récente montre que ce n'est pas le cas et qu'au contraire, le continent antarctique, pris dans sa totalité, renforce sa réserve de glace et contribue plutôt à la baisse du niveau des mers et ceci, depuis fort longtemps.

4) Enfin, les mesures et les observations montrent, qu'entre autre, les îles coralliennes du Pacifique qui sont censées s'engloutir dans les océans (ce qui a servi de prétexte à l'alourdissement des exigences de certains lors de la COP21) ne le font pas et ne feront probablement pas.
Les lecteurs(trices) de PU savent déjà (comme Charles Darwin) comment et pourquoi, mais visiblement, les participants à la COP21 de Paris l'ignoraient.
_____________________________________________________________

Pour commencer, voici une analyse des événements qui se sont déroulés au pôle Nord durant la transition 2015-2016 et qui ont provoqué une floraison d'articles alarmistes de la part d'organes d'information bien mal informés.

1) Le 31 Décembre 2015, c'est la panique : Le pôle Nord est au dessus de 0°C...nous affirment les médias !

Partant d'un communiqué de presse (inepte) de l'AFP, nos médias s'en sont donné à coeur joie :

-My TF1 News (avec AFP) ((31/12) : "La douceur est partout : il fait plus de 0°C au Pôle Nord" (dans le texte : "Le mercure est passé de -37°C à -8°C en deux jours sur une balise située à 300 km du Pôle Nord").
-L'express (31/12) : "Plus de 0 degré: il fait anormalement chaud au Pôle Nord".
-Maxisciences (gentside) (31/12) : "Des températures jamais constatées à cette période de l'année au Pôle Nord".
-Le Figaro (31/12) : "Au Pôle Nord, le thermomètre affiche 20 degrés de plus que les normales de saison".
-20 Minutes(31/12) : "Pôle nord trop chaud"ces températures vont devenir de plus en fréquentes"", sauf que ce n'est pas ce que nous dit le scientifique interrogé. Ce dernier a dit (selon le texte) : "Si ces températures en hiver devenaient plus fréquentes, alors oui on pourrait pointer du doigt le changement climatique".
-Les Echos.fr (31/12) (J-M Gradt d'après l'AFP) : "
Climat : Le pôle Nord n'est plus ce qu'il était".
-
Le Monde (31/12/) (avec l'AFP): "Douceur anormale sur l'Arctique : Plus de 0°C au pôle Nord".
-Etc.

La réalité : Que s'est-il passé à la Saint Sylvestre 2015 ? Le film des événements :

Le Mercredi 30 Décembre, une très forte dépression située au environ de l'Islande a propulsé une masse d'air "chaud" (c'est à dire avec des températures peu négatives ou proches du zéro celsius) vers le pôle Nord.

On a pu suivre, en direct, le déroulement des événements, notamment à l'aide de l'excellent site interactif earth.null qui donne, pour l'ensemble de la planète, des indications assez précises pour les vents, les températures etc. en temps réel. Les températures sont indiquées avec un code de couleur mais il est possible de sélectionner un point précis sur la carte pour connaître les données locales (le petit rond jaune).
Voici une séquence des images qui concernent le pôle Nord et l'Arctique, extraites des cartes de ce site.

Sur les images ci-dessous, la couleur bleue indique des températures négatives mais proche du zéro (typiquement de -10°C à 0°C).
La couleur violette indique des températures plus basses, proches de -27°C.
cloc12a

Comme on le voit sur ces images, reconstruites en temps réel à partir des (rares) données thermométriques et de diverses données disponibles, le 30/12 à minuit, une sorte de coin d'air plus chaud (de couleur bleue), remontant du Sud-Est est venu réchauffer une fraction du pôle Nord. La plus grande partie de l'Arctique (de couleur violette, à près de -27°C en cette saison) n'a pas été affectée par cette rentrée d'air plus chaud. Il s'agit d'un réchauffement localisé.

11 heures plus tard, au matin du 31/12, le triangle bleu (température entre -10°C et 0°) s'était déjà bien résorbé et à minuit du même jour, la quasi totalité de la glace du pôle Nord avait retrouvé une température proche de la normale. Comme on le voit sur la photo de droite, la température normale de -27° était rétablie sur le pôle le 02 Janvier.
Cet événement aussi bref que localisé n'a, en fait duré qu'une seule journée. Il n'est, en effet, pas impossible qu'un thermomètre isolé ait pu enregistrer, très brièvement, une température positive mais cela n'a évidemment aucune conséquence du point de vue climatologique et c'est bien trop bref pour induire une fonte de l'épaisse banquise (épaisseur moyenne 1,3 m) qui prévaut à cette période de l'année. En bref, il ne s'agit que d'un phénomène superficiel, local et de très courte durée. C'est de la météorologie et c'est très courant au pôle Nord en cette période de l'année, comme nous allons le voir.

- Un événements sans précédent, affirment les médias ?
Que nous disent les archives pour les périodes de fin d'année lors des 58 années précédentes ?

On trouve toutes les archives concernant les températures moyennes relevées (et reconstruites selon la norme ERA40) en Arctique, depuis 1958, jour après jour, jusqu'à aujourd'hui, au Nord du 80e parallèle, sur le site danois du DMI. Elles concernent donc la plus grande partie de l'Arctique située autour du pôle Nord.

Sur ces graphiques les températures (en ordonnée) sont indiquées en Kelvin (K). Le 0°C correspondant à 273K et 1K=1°C, il est aisé de calculer la température en degré Celsius par une simple soustraction.
C'est ainsi que l'on voit que la température moyenne en Arctique (au Nord du 80e parallèle) à la fin de l'année est "normalement" (le trait continu vert) d'environ 245-273= -28°C.

Les dates sont indiquées (en abscisse) par le numéro du jour de l'année. cloc11

Ces graphiques sur lesquels le trait horizontal bleu indique la position du 0°C (273K) montrent deux choses importantes concernant les spécificités de la météorologie hivernale en zone arctique :

- Comme on le voit, durant l'été boréal, (entre le 150e jour et le 230e jour de l'année, soit entre début Juin et la mi-Août) ) la température de l'air au dessus de l'Arctique est remarquablement stable et évolue entre 0°C et +2°C. A cette époque, une partie de l'océan arctique reste libre de glace. La température de l'air est stabilisée par la transition de phase eau/glace, ce qui peut s'expliquer aisément de la manière suivante : Si la température de l'air a tendance à augmenter, la chaleur supplémentaire est absorbée parce qu'un peu de glace fond et la température reste constante. Dans le cas inverse, c'est à dire si l'air devient plus froid, une partie de l'eau disponible gèle et la température reste encore constante.

-Par contre, en période hivernale, la quasi totalité de la banquise est gelée et l'effet stabilisant de l'équilibre eau/glace ne joue pratiquement plus aucun rôle. L'épaisse couche de glace constitue plutôt un véritable isolant. Dès lors, la température de l'air située au dessus de la banquise est principalement déterminée par les vents dominants. Il est bien connu que l'Arctique est sujet à de violentes tempêtes ou à des rentrées d'air plus chaud au cours de l'hiver boréal. Dès lors, la température de l'air arctique fluctue énormément au gré de la météorologie, des dépressions environnantes et des rentrées d'air plus "chaud".
C'est ce que montrent ces graphiques dans lesquels on voit clairement que la température moyenne de l'air arctique peut varier fréquemment et temporairement de plusieurs dizaines de degrés en période hivernale.
Le graphique de gauche représente les données de température pour l'année 2015. Il apparaît que "l'événement exceptionnel" qui a fait les gros titres des médias n'a guère fait varier la température moyenne de l'arctique que de 12°C pendant une seule journée (elle a atteint environ -16°C) avec un retour complet à l'équilibre normal (-27°C environ) après moins de deux jours comme on le voit sur les images précédentes et sur les graphiques du DMI.

Contrairement à ce qu'affirment les médias, cet événement n'a rien d'exceptionnel. Il est même très fréquent et il a été surpassé plusieurs fois dans le passé. Par exemple, en 1964, autour de la Noël, la température moyenne de l'air autour du pôle a brusquement augmenté de 21° et a atteint environ -10°C. Des événements du même type, toujours en fin d'année se sont également produits en 1990 et en 2002 comme on le voit sur ces graphiques.
Toujours d'après la même source danoise, on constate qu'il en a été de même en 1959, (variation de 24°C en quelques jours en fin d'année). De même, les années 1984, 1985, 2000 et 2002 ont toutes connu des pics de température plus élevée que 2015 durant les mois de décembre, sans aucun doute, du fait de tempêtes ou de rentrées d'air "chaud" localisées dans l'espace comme dans le temps.

Ainsi, contrairement aux affirmations des médias
qui visiblement n'ont pas pris la peine de se renseigner plus avant sur les spécificités du climat, ou plutôt de la météorologie, en Arctique et ont pris pour argent comptant le contenu d'une dépêche inepte de l'AFP, l'événement de la St Sylvestre 2015, n'a strictement rien d'exceptionnel ni d'alarmant. Il est même très fréquent dans les régions arctiques, en automne et en hiver.

Ceci nous rappelle la panique, tout aussi injustifiée, qui s'était emparée des médias pendant l'été 2012 à propos d'un réchauffement très bref (de deux ou trois jours) de l'air au dessus du Groenland provoquant une fonte de la couche superficielle de la neige/glace comme cela se produit fréquemment en hiver en montagne ce qui verglace les pistes et les paysages enneigés et les rend plus brillants vus sous un soleil rasant.
Cette fonte aussi superficielle que brève résultait, elle aussi d'un phénomène météorologique limité qui a provoqué la remontée brutale d'une pulsation d'air plus chaud dans la zone groenlandaise. Comme le montrent les carottages glaciaires et comme le rappelle (vox clamans in deserto) la scientifique spécialiste interrogée à ce sujet,
ces événements se reproduisent à intervalles plus ou moins réguliers séparés par quelques décennies depuis, au moins... le Ve siècle.

Toujours à propos de la fonte du Groenland (h/t WUWT), et dans le même ordre d'idée, un article vient de paraître dans Nature qui estime la perte cumulée en glace du Groenland depuis 115 ans (depuis 1900).
Cet article a été aussitôt repris par des médias avec un titre accrocheur susceptible d'alarmer les lecteurs, du style : "Le Groenland a perdu 9000 milliards de tonnes de glace en un siècle" ce qui paraît énorme mais ne l'est pas du tout. Comme c'est très souvent le cas,
les médias ne prennent pas la peine de rappeler les ordres de grandeur qui permettent de mettre les chiffres indiqués en perspective.

Le problème est que le Groenland stocke une masse de glace absolument gigantesque d'environ 2.600.000 km3 selon l'USGS (US Géological Survey, page A113). Or 9000 milliards de tonnes (métriques) de glace représentent un volume d'environ 9000 km3 (en assimilant la densité de l'eau avec celle de la glace ce qui donne une précision suffisante dans le cas présent).
Ainsi voit-on que la perte totale en glace du Groenland en 115 ans ne représente qu'environ 0,3% de la masse totale de glace.

C'est évidemment infime
, sans doute situé à l'intérieur des marges d'erreur des mesures et un titre du genre "
Le Groenland a conservé 99,7% de sa masse de glace depuis 115 ans" serait évidemment beaucoup moins accrocheur que le titre choisi par les médias sans doute dans la perspective de la COP21. Ajoutons que même si on prend en compte les plus récentes estimations des pertes annuelles (186Gt/an) et en supposant que ces pertes vont perdurer dans l'avenir, il faudrait quand même environ 16000 ans pour que la glace du Groenland disparaisse complètement, ce qui est d'ailleurs impossible parce que la glace groenlandaise repose, en réalité, sur une sorte de cuvette solide ce qui interdirait, à terme, les fuites des glaciers dans l'océan. D'autre part, comme je l'ai montré dans un billet précédent, les apports en neige/glace de l'inlandsis groenlandais sont plutôt en période de croissance qu'en déclin.

Mais là encore, les médias n'ont pas pris la peine d'aller chercher un peu plus loin que le bout des dépêches de presse avant de (dés)informer leurs lecteurs...

Dans la même veine des mythes récurrents, propagés par les médias et souvent régurgités sans hésitation par les décideurs comme nous l'avons constaté à maintes reprises, voici deux mises au point concernant la question lancinante des déficits de pluies et autres inondations qui s'aggraveraient, nous dit-on. Comme vous allez le voir, il n'en est absolument rien comme nous l'apprennent les recherches les plus récentes qui montrent également que c'était bien pire au cours des siècles passés.

________________________________________________

2) Il pleut plus, il pleut moins, les déserts avancent, les déserts reculent (etc.), et c'est tout de la faute au CO2, nous dit-on.

C'est ce que nous avons pu lire, voir ou entendre, au cours des années passées, dans une multitude de médias.
Une étude éloquente et remarquablement exhaustive par rapport aux études précédentes (à l'échelle locale comme à l'échelle globale), fait le point sur ce sujet. Elle vient de paraître, en Décembre dernier, dans une revue spécialisée de bon aloi sur l'hydrologie. Elle dément carrément les affirmations de l'intitulé. En voici l'en-tête originale et une traduction en français (à droite) :cloc6


Journal d'hydrologie
(531,3, Déc. 2015, pages 1020-1027) (source)
Variations des précipitations annuelles sur les continents terrestres à l'exception de l'Antarctique du XVIIIe siècle à 2013.

Point clefs :

-Nous avons analysé plus d'un million et demi de données de précipitation observés dans 1000 stations et dans 114 pays.

-
Les données couvrent une période beaucoup plus longue que des études contradictoires récentes qui n'ont analysé que quelques décennies de données.

-
Nous ne trouvons aucune différence substantielle pour des stations situées au Nord, sous les tropiques et dans les latitudes australes.

-
Nous ne trouvons aucune différence substantielle pour des stations qui ses trouvent dans des climats secs, modérés et humides.

-Il n'y a pas de changement significatif dans les précipitations sur le globe de 1850 jusqu'à présent..

Les motivations des auteurs qui ont décidé d'entreprendre cette étude remarquablement exhaustive sont clairement explicitées dans l'introduction :

Il est couramment admis que le température du globe a augmenté de près de 1°C durant le siècle dernier (IPPC 2001, 2007, 2013; van Wijngaarden, 2014). La formule de Clausius–Clapeyron montre que la pression de vapeur d'eau à saturation augmente exponentiellement avec la température. Il en découle qu'on peut raisonnablement s'attendre à ce que la pression de la vapeur d'eau atmosphérique augmente en faisant l'hypothèse que l'humidité relative reste inchangée.

Visiblement, les auteurs s'attendaient à trouver que la pluviosité avait augmenté au cours du siècle dernier comme beaucoup le pensaient.
Il n'en est rien et les résultats de leur étude montrent que le raisonnement (très courant mais exagérément simpliste) énoncé ci-dessus, est démenti par les observations En dépit de "la relation de Clausius-Clapeyron", leurs études montrent au contraire qu' "
Il n'y a pas de changement significatif dans les précipitations sur le globe de 1850 à maintenant" et qu'il y a pas de "différence substantielle pour des stations qui se trouvent dans des climats secs, modérés et humides".

Voici une traduction du résumé de cet article :

Résumé : Nous avons étudié les mesures des précipitations effectuées dans près de 1000 stations réparties dans 114 pays. Chaque station dispose d'au moins 100 ans d'observations ce qui fournit une base de données de plus de un million et demi de quantité de précipitations mensuelles. Les données de certaines stations remontent aux années 1700 mais la plupart des données existent depuis les années postérieures à 1850.
Le total des précipitations annuelles n'a été pris en compte que si toutes les données mensuelles, durant une année donnée, sont disponibles. Le pourcentage de la variation de la précipitation annuelle a été tracé par rapport à la période 1961-1990, pour 6 continents, aussi bien pour les stations à différentes latitudes et pour celles qui son sujettes à des totaux annuels de précipitations faibles, modérés ou forts. Nous en avons déduit les tendances des variations des précipitations avec un intervalle de confiance de 95% pour différentes séquences temporelles. La plupart des tendances ne montraient aucun changement clairement établi. Les variations globales dans les précipitations sur les terres continentales, en excluant l'Antarctique, par rapport à la période 1961-1990 ont été estimées
à 1.2 ± 1.7, 2.6 ± 2.5 and 5.4 ± 8.1% par siècle, respectivement pour les périodes 1850–2000, 1900–2000 et 1950–2000.
Une variation de 1% par siècle correspond à une variation de précipitation de 0.09 mm/an.

Conformément aux "Points clefs" mentionnés par les auteurs, on observe que les variations sont bien inférieures à un mm d'eau/an, ce qui est infime et à la limite des marges d'erreurs. En effet - et c'est le moins que l'on puisse dire - les précipitations sur le globe (et par régions) sont d'une remarquable stabilité et ceci depuis 1850.

En conclusion, les auteurs lancent cet avertissement :

Les stations qui enregistrent des précipitations annuelles faibles, modérées et fortes n'ont pas montré de tendances très différentes des précipitations. Ceci montre que ni les déserts ni les jungles ne sont en voie d'expansion ou de rétrécissement du fait de la variation des quantités de précipitation. Il est, dès lors, raisonnable de conclure qu'il faut rester circonspect quand aux affirmations selon lesquelles de grands changements dans les précipitations globales se sont produites au cours de derniers 150 ans.

Ce qui est parfaitement cohérent avec l'absence de tendances des sécheresses enregistrées sur le globe depuis 1982 révélée dans le graphique déjà montré à plusieurs reprises et notamment dans un billet récent sur les événements extrêmes.

Mais que s'est-il passé auparavant ? Que savons nous des sécheresses d'antan ?

Un article, fruit de la collaboration d'un grand nombre d'auteurs bien connus, qui vient d'être publié, le 6 Novembre dernier, par l'AAAS (American Association for the Advancement of Science qui publie également la revue Science) dans la revue "Science Advances" dont voici l'en-tête et le résumé, répond à cette question :

cloc9

Voici une traduction en Français du résumé de cet article dont le titre est :

"Les méga-sécheresses et les pluviosités du Monde Ancien durant notre époque chrétienne " (NdT : "Common era"~ Anno Domini. Ici, en réalité, depuis l'an 1000)

Résumé :
Les projections des modèles climatiques suggèrent un dessèchement largement répandu dans le bassin méditerranéen et une humidification dans la zone fenno-scandinave durant les décennies à venir, ceci étant dû en grande partie au forçage du climat par les gaz à effet de serre. [
NdT : c'est ce que prévoient les modèles mais l'article précédent montre que, pour l'instant, au moins, ce n'est pas le cas]
De manière à situer ces projections ainsi que d'autres sur le Monde Ancien dans une perspective historique basée sur des estimations plus complètes de la variabilité hydroclimatique naturelle, nous avons mis en place l'"Atlas des sécheresses du Monde Ancien" (OWDA)[ NdT = Old World Drougth Atlas] qui est un jeu de cartes, année après année, reconstruites d'après les données des cernes des arbres concernant l'humidité et la sécheresse estivale pour l'Europe et le bassin méditerranéen durant notre ère.
L'OWDA est en accord avec les données historiques au sujet des sécheresses sévères et des périodes humides avec une cohérence spatiale qui n'étaient pas disponibles jusqu'à présent.

De plus, les méga-sécheresses reconstruites pour l'Europe du Nord et du Centre au cours du XIe siècle et de la moitié du XVe siècle vient renforcer d'autres éléments de preuve provenant d'Amérique du Nord et d'Asie que les sécheresses étaient plus sévères, de plus vastes extension et plus prolongées sur les terres de l'hémisphère Nord
avant le XXe siècle, ceci avec une compréhension inadéquate sur les causes. L'OWDA procure de nouvelles données pour la détermination des causes des sécheresses et de l'humidité et attribue la variabilité des climats du passé à la variabilité naturelle interne ou forcée.

cloc10

Voici la figure maîtresse de cet article qui regroupe les différents atlas des sécheresses précédemment disponibles (le NADA (Amérique du Nord) et le MADA (Asie) ) avec l'OWDA (Europe) du présent article, le tout rassemblé sous le sigle de NHDA.

La figure B (en bas) regroupe les évolutions des indices Z (caractérisant les intensités et les extensions) des méga-sécheresses dans les trois zones considérées de l'hémisphère Nord et ceci de l'an mil à l'an 2000.

Comme on peut le constater, les indices Z présentent des évolutions marquées et sensiblement concomitantes pour les trois zones considérées, ce qui signifie que les épisodes de méga-sécheresses du millénaire passé ne sont pas indépendants ou localisés mais qu'ils ont affecté pratiquement en même temps tout l'hémisphère Nord, durant les mêmes périodes. Ce sont donc de vastes événements climatiques dont on ignore les causes, même si les auteurs les attribuent (assez benoîtement) à la"variabilité naturelle" qui se révèle ainsi particulièrement efficace.

 

 

A noter que cette étude rapporte que la période autour des années 1600 fut notamment le siège de fortes sécheresses en Europe (carte OWDA, tiretés rouges) que l'on retrouve, mais dans une moindre mesure, dans les deux autres sous-continents des cartes NADA et MADA. Ceci corrobore les travaux de l'historien Emmanuel Garnier qui écrit dans la présentation de son livre "Plus tard, au beau milieu du fameux Petit âge glaciaire, l'Europe fut même confrontée à de véritables ... vagues de chaleurs doublées de sécheresses mettant en péril la survie des populations."

_______________________________________________________________

Les médias unanimes et aussi, quelques scientifiques, nous ont assuré que l'Antarctique perdait de la glace et que cela contribuait à la hausse du niveau des océans. Cela fait maintenant partie de la croyance populaire et se retrouve dans une multitude de forums de discussion.
Mais est-ce bien vrai ?
C'est ce que nous allons voir maintenant.

3) Contrairement aux affirmations des médias et à la croyance populaire, non seulement l'Antarctique ne fond pas mais sa masse totale de glace augmente... ce qui fait baisser le niveau des océans.

Tout les lecteurs de PU se souviennent que la glace de mer antarctique (la banquise) loin de diminuer est, au contraire, en pleine croissance. Et ceci, au moins, depuis le début de l'êre des observations satellites. Ceci n'est guère contesté. Pourtant, certains (dont le GIEC) ont affirmé que les masses de glace continentale, elles, diminuaient, ce qui contribuait à la hausse du niveau des océans, disait-on.

C'est ainsi que l'on pouvait lire à la page 4 du récent "Résumé Pour les Politiques" (SPM AR5) du GIEC (2013) la phrase suivante :

"Durant la période 1991 à 2011, le Groenland et la calotte de glace antarctique ont perdu de leur masse (indice de confiance élevé), probablement avec un taux accru de 2002 à 2011."

qui est répétée à plusieurs reprises dans la synthèse du rapport complet publié en 2013.

Les mesures plus approfondies publiées tout récemment contredisent ces affirmations du rapport SPM du GIEC. Elles démontrent qu'il n'en est rien pour ce qui concerne l'Antarctique et que c'est même exactement le contraire qui se produit, comme vient de le montrer un article publié au mois de Décembre dernier par des glaciologues réputés de la NASA dans le "Journal of Glaciology" dont voici le fac-simile de l'en-tête intitulée :

"Les gains en masse de la calotte glacière antarctique excèdent les pertes".

cloc8

La NASA a publié un communiqué de presse le 30 Oct. 2015 à ce sujet qui a été repris au mois de Novembre.
la carte de l'Antarctique ci-contre accompagnée de son code des couleurs, met en évidence la complexité du comportement de ce continent pour ce qui concerne le comportement des masses de glaces vis à vis de la fonte ou de l'accroissement.
Il était indispensable d'étudier en détail cette cartographie pour réaliser un bilan complet des pertes et des gains localisés et c'est tout le mérite des glaciologues de la NASA que de l'avoir réalisé.


cloc7

Légende :

"Carte montrant les taux de variation de la masse (NdT : de glace) donné par ICESat 2003-2008 pour l'Antarctique. Les sommes sont valables pour tout l'Antarctique : Antarctique Est (EA, 2-17); intérieur de l'Antarctique Ouest (WA2, 1, 18, 19, et 23); zone côtière de l'Antarctique Ouest (WA1, 20-21); et péninsule antarctique (24-27). Une gigatonne (GT) correspond à un milliard de tonnes métriques ou à 1,1 milliard de tons US.. Crédit: Jay Zwally/Journal of Glaciology."

 

On pourrait penser que le bilan positif de la glace résulte du fait que les chutes de neige sont devenues de plus en plus abondantes. Il n'en est rien. Les chutes de neige n'ont pas augmenté. Elles ont plutôt diminué. En réalité, la neige stockée sur l'énorme continent antarctique s'accumule plus rapidement que les pertes observées dans les glaciers de l'Ouest et de la péninsule, dont le sous-sol est réputé volcanique.

Voici ce que dit le rapport de la NASA à ce sujet :

"Zwally a déclaré qu'alors que les autres scientifiques avaient postulé que les gains en élévation de la zone Est Antarctique étaient dus au récent accroissement de l'accumulation de neige, son équipe avait pris en compte les données météorologiques remontant jusqu'en 1979, pour montrer que les chutes de neige dans la zone Est Antarctique ont, en réalité, diminué de quelques 11 milliards de tonnes par an durant la période ERS comme durant la période ICESat. Ils ont aussi pris en compte les informations sur l'accumulation de neige durant des dizaines de milliers d'années calculées par d'autres scientifiques à partir de carottages glaciaires. Ceci les amené à conclure que la zone Est Antarctique s'épaissit depuis très longtemps."[...]

L'Antarctique gagne en glace et ce n'est pas d'aujourd'hui. Ainsi, toujours tiré du communiqué de presse de la NASA :

"Le supplément de chute de neige qui a commencé il y a 10000 ans, s'est lentement accumulé sur la calotte glaciaire et s'est compacté en glace durant des millénaires, ce qui a épaissi la glace de la zone Est Antarctique et de l'intérieur de la zone Ouest Antarctique d'une moyenne d'environ 0.7 pouces (1.7 centimètres) par an. Ce faible épaississement, soutenu pendant des milliers d'années et répandu sur les vastes espaces de ces zones de l'Antarctique, correspondent à un gain de glace très important - suffisant pour surpasser les pertes dues au glaciers à écoulement rapide dans d'autres parties du continent et ainsi réduire la hausse du niveau marin du globe.

L'équipe de Zwally a calculé que le gain en masse résultant de l'épaississement de la zone Est Antarctique est resté constant de 1992 à 2008 avec +200 milliards de tonnes par an tandis que les pertes en glace dues aux régions côtières de la zone de l'Ouest Antarctique et de la péninsule Antarctique ont augmenté de 65 milliards de tonnes par an.

La bonne nouvelle c'est que l'Antarctique ne contribue pas actuellement à la hausse du niveau des océans. Au contraire, il prélève 0,23mm par an", a dit Zwally."

Ce qui n'empêche pas la plupart des médias francophones de continuer à propager le mythe de la fonte inquiétante de l'Antarctique telle la journaliste qui tient la rubrique environnementale "ma planète" du journal Sud-Ouest, qui nous affirmait doctement, en Juin 2015, que " la fonte de l'Antarctique s'accélère" (et, sans doute pour faire bonne mesure) "elle devient irréversible" ajoutait-t-elle.

De fait, ce qui semble irréversible c'est plutôt l'augmentation de la masse glaciaire de l'Antarctique, laquelle se poursuit depuis près de 10000 ans.

Les lecteurs(trices) avisé(e)s auront probablement remarqué que la baisse du niveau de -23mm/siècle résultant de l'épaississement de l'Antarctique annule presque exactement la hausse des océans due aux pertes du Groenland mentionnées précédemment (environ +25mm/siècle) . En bref, selon les deux article cités ci-dessus, les deux se compensent et le bilan pour la hausse des océans est nul.

____________________________________________

4) Les îles du Pacifique englouties ?

Durant la COP21, on a beaucoup entendu les interventions insistantes, parfois tonitruantes, du ministre des affaires étrangères des Îles Marshall, Tony de Brum. cloc14
(photo ci-contre) qui a joué un rôle primordial lors des dernières négociations de Paris. Ce dernier qui a fédéré les exigences d'une quantité de responsables de pays situés sur des îles, a été qualifié, entre autres, d'"improbable héros de la COP21" par le journal "l'Opinion".

Les îles Marshall
sont situées dans le Pacifique, au Nord Est de l'Australie et au Nord Est de la zone représentée sur la carte ci-dessous. Il s'agit d'un ensemble d'environ un millier d'îles réparties sur une trentaine d'atolls coralliens hébergeant près de 70000 habitants. Ces îles sont, en moyenne, situées à 2m au dessus du niveau de l'océan.
Tony de Brum
a constamment exigé que le seuil de hausse de température (espéré) soit abaissé jusqu'à 1,5°C pour sauver son territoire d'un engloutissement dont il perçoit, dit-il, les prémisses dès à présent et qu'il juge imminent. Ceci lui fut concédé, sans trop de difficultés, dans la rédaction de l'accord final.

cloc1

 

Il existe un organisme officiel basé en Australie qui surveille le niveau des mers notamment autour des principales îles environnantes.Cet organisme, dépendant du BOM (Bureau of Meteorology australien) qui est appelé "Pacific Sea Level Monitoring Project" donne les "Monthly Sea Level and Meteorological Statistics" c'est à dire les relevés mensuels du niveau des mers et des statistiques météorologiques", en particulier autour des îles Marshall et de ses voisines dans l'océan Pacifique.

 

 


Voici les graphiques officielles au sujet de la "hausse" du niveau des mers aux Îles Marshall :

cloc2

Ils montrent les variations du niveau des mers autour des zones indiqués.
Ci-contre, le graphique concernant la zone de Majuro où se trouve la capitale des îles Marshall : Delap-Uliga-Darrit qui héberge quelques 28000 habitants.

La courbe en rouge montre l'évolution du niveau de l'océan pendant les maximas de 1992 à nos jours. La courbe en bleu donne cette évolution pendant les minimas et la courbe verte représente les variations de la moyenne.

Comme on le voit, depuis 1992, c'est à dire depuis 24 ans, le niveau des mers est pratiquement constant à quelques centimètres près. La variation totale est nettement inférieure aux fluctuations observées. Ce graphique montre même une baisse de niveau vers la fin de la période qui est peut-être due à un effet collatéral du puissant El Niño actuel. En effet, celui de 1997-1998 semble avoir provoqué une baisse visible dans ces graphiques.

Bref, on ne voit rien d'alarmant dans tout cela.

 

 

cloc3

 

La situation est sensiblement la même (à l'exception de la baisse de ces deux dernières années) à Funafuti (Tuvalu) souvent revendiquée comme l'archétype des archipels menacés par la montée des eaux.


Tuvalu se trouve au centre de la carte présentée ci-dessus.

 

 

 

 

 

 

 

Tony de Brum a argumenté et obtenu satisfaction pour ses exigences auprès des participants à la COP21 en arguant des projections informatiques des rapports du GIEC sur de la hausse des océans.
Il ne doit sans doute pas consacrer beaucoup de temps à la lecture des graphiques et des articles scientifiques qui concernent spécifiquement les pays situés sur des atolls coralliens dont il est un des ministres. S'il l'avait fait (lui ou ses conseillers), il aurait appris que, du fait de leur nature particulière, les atolls coralliens ne sont pas menacés de submersion comme le montrent de nombreux travaux tels ceux des spécialistes de la question, Paul Kench et ses collègues, que j'ai cités dans des billets précédents.

Leurs travaux, très documentés, ont été repris récemment par la revue Science sous le titre " Le réchauffement pourrait ne pas submerger les îles".
Science rappelle que : "Kench note que les récifs coralliens peuvent croître de 10 à 15mm par an - c'est à dire plus rapidement que la hausse des océans qui est attendue à la fin de ce siècle. [...] Aussi longtemps que les coraux sont en bonne santé et gênèrent un approvisionnement abondant en sable, il n'y a pas de raison qu'une île corallienne ne puisse pas croître et continuer à le faire".

National Geographic semble avoir compris le message. On trouvera ici une explication analogue tirée de Charles Darwin sur ce sujet, publiée en...1869.

En bref, il est démontré (et, en partie, connu depuis Charles Darwin) que la croissance des coraux et l'accrétion des débris coralliens apportés par les vagues sur les atolls contribuent, en permanence, au rehaussement de leur surface et que cet effet est plus rapide que la hausse (prévue) du niveau marin.

Mais comme à la COP21, à l'évidence, il s'agissait,plus de politique que de science, peut-être doit-on plutôt se souvenir de la maxime plaisante de Mark Twain qui disait : "Never let the truth get in the way of a good story." Soit "Ne laissez jamais la vérité se mettre en travers du chemin d'une bonne histoire"...

5) Conclusion :

Tous les articles que je vous ai présentés ci-dessus sont très récents et comme on peut le constater, la science progresse sans désemparer. Le socle des connaissances issues des observations rendues disponibles aux chercheurs s'enrichit en permanence et, comme on le voit, il est fréquent que les analyse plus complètes viennent réfuter les "certitudes" précédentes (comme c'est le cas pour les sécheresses qui devaient "rendre les déserts plus secs" et l'emblématique "fonte" de l'Antarctique... qui, en réalité, ne fond pas mais se renforce).

Malheureusement, il apparaît que les agences de presse officielles (notamment l'AFP), les médias normalement chargés d'informer le public, les cabinets ministériels chargés d'informer les politiques, ne disposent ni des bases ni de l'expérience nécessaires pour prendre en compte le caractère fondamental de la démarche scientifique. Celle-ci procède, en réalité, par une suite d'erreurs et de corrections. Richard Feynman, le prix Nobel de Physique dont la pertinence est unanimement reconnue, ne disait il pas que "Faire de la science, c'est ne pas faire confiance aux experts" ?
Concernant les certitudes en matière de science,
Feynman disait aussi

"Nous avons observé qu'il est d'une importance cruciale que, de manière à progresser, nous devons accepter de reconnaître notre ignorance et laisser la place au doute. Le corpus de la connaissance scientifique est constitué d'un ensemble de propositions présentant différents niveaux de certitudes - il y en a qui sont plutôt incertaines, d'autres qui sont plutôt certaines mais aucune n'est absolument certaine."


Ainsi, le jour où le microcosme médiatico-politique aura enfin compris que les scientifiques, aussi nombreux et unanimes soient-ils - ils se sont souvent trompés collectivement dans le passé - ne sont pas des gourous infaillibles, que rien n'est inscrit dans le marbre et que tout peut être remis en question du jour au lendemain, aurons-nous fait un grand pas en avant. Peut-être alors assisterons-nous à des COPXX qui ne seront pas des désastres scientifiques comme l'a été la COP21 et ne verrons-nous plus nos agences de presse et nos médias faire de la science une véritable caricature.

En complément de mes meilleurs voeux pour 2106 adressés à vous toutes et tous, mes cher(e)s lecteurs(trices), c'est le souhait que je formule pour les années à venir.

Stay tuned !

05 Décembre 2015 : Paris COP21 : Tout ça pour ça ?

En bref : Un article de Björn Lomborg, revu par les pairs et publié dans une revue qui traite de politique à l'échelle du globe ainsi qu'un rapport récent du MIT (Massachusets Institute of Technology) montrent que la totalité des engagements (les INDC) de réduction des émissions de CO2 déposés auprès de l'ONU par tous les pays, en vue de la COP21, ne conduiront qu'à une baisse très faible de la température en 2100 et ceci, même dans les hypothèses les plus optimistes.

Au vu des enseignements apportés par l'échec de la Conférence des Parties n°15 (La COP15) qui s'est tenue à Copenhague en 2009, il a été décidé qu'en préparation de la COP21 à Paris, chaque pays déposerait, au cours des mois précédents cette réunion, une estimation chiffrée de sa propre contribution, à l'échelle nationale, en termes de limitation ou de réduction des émissions de gaz à effet de serre. Ces engagements ou promesses, s'appellent les INDC en langage onusien (INDC : Intended Nationally Determined Contribution). C'est ainsi, qu'après quelques retards et/ou hésitations de la part d'un certain nombre de pays, le Ministre en charge de la COP21, Laurent Fabius annonçait, mercredi dernier, que 185 pays sur 195, couvrant quelque 95% des émissions de gaz à effet de serre, avaient déclaré qu'ils s'engageaient à prendre des mesures pour limiter, voire réduire, les émissions dites polluantes à l'horizon 2025 ou 2030.

J'avais déjà évoqué les INDC mentionnés par Judith Curry lors de son témoignage auprès de la Chambre des Représentants US qui a eu lieu le 15 Avril dernier.
Judith Curry disait que "... je suis préoccupée parce que l'engagement des USA auprès de la Convention Cadre des Nations Unies sur le Changement Climatique (UNFCC) ne fera pratiquement rien pour changer le climat" en avançant l'estimation d'une baisse de la température de seulement 0,03°C à la fin de ce siècle, résultant de la contribution américaine si celle-ci était maintenue sans faille jusqu'en 2100.

Dès lors, nombreux étaient ceux (qui comme moi-même) se demandaient ce qu'il en était pour les contributions des autres pays et, évidemment, pour ce qui concernait l'ensemble du globe. A l'époque de la déposition de Judith Curry, en Avril 2015, le tableau des INDC remis à l'ONU était encore très fragmentaire et il était impossible de faire le calcul complet. Il a fallu attendre le début du mois de Novembre de cette année pour avoir une vue pratiquement globale de la situation.

1) Les résultats du Dr. Björn Lomborg

C'est le statisticien danois Björn Lomborg qui s'est chargé d'effectuer et de publier le travail qui consistait à calculer les conséquences prévisibles sur la température moyenne de la planète en 2100, selon les modèles en cours, des contributions (INDC) de la quasi-totalité des pays du monde, en supposant, bien entendu que celles-ci seraient bien lomborg7 implémentées et, même (dans l'hypothèse optimiste), qu'elles seraient poursuivies, sans faille, jusqu'à la fin du siècle.lomborg8


Qui est Björn Lomborg (image ci-contre) ?

Bjørn Lomborg est un statisticien danois, professeur à la Copenhagen Business School et ancien directeur de l'Environmental Assessment Institute de Copenhague. Ancien membre de Greenpeace, il a acquis une renommée internationale pour son livre "L'Écologiste sceptique" (publié en danois en 1998 puis en anglais sous le titre Skeptical Environmentalist en août 2001, et en français en 2004).(source).

A noter que Lomborg ne remet en cause ni le réchauffement récent de la planète ni les modèles des gaz à effet de serre (qu'il utilise d'ailleurs ci-dessous) tout en estimant leur sensibilité au CO2 exagérée. Il pense qu'il s'agit simplement d'un problème mineur et qu'il y a beaucoup de problèmes plus urgents à traiter tels que, par exemple et entre autres, fournir de l'électricité et de l'eau potable à l'Afrique. Inutile de préciser qu'il n'a plus beaucoup d'amis chez Greenpeace et dans certains cercles universitaires.

Voici le fac-simile de l'article de Björn Lomborg avec son résumé.
Cet article est intitulé :
"Impact des propositions existantes pour le climat".
L'article complet (en pdf) est disponible en accès libre.

lomborg1

Voici une traduction du résumé :

"Résumé : Cet article analyse, en utilisant le modèle climatique standard MAGICC, l'impact en termes de réduction de la température résultant des principales propositions des politiques en matière de climat qui doivent être mises en place en 2030. Même si on suppose, en étant optimiste, que les réductions des émissions sont maintenues durant tout le siècle, les impacts sont, de manière générale, faibles.

L'impact du Clean Power Plan des USA (USCPP) résulterait en une réduction de l'augmentation de la température de 0,013°C vers 2100. La proposition complète des USA pour la COP21 à Paris dite "La contribution envisagée par les états", (INDC) fera baisser la température de 0.031°C. La politique adoptée par l'Union Européenne aura un impact de 0.026°C, l'impact de l'INDC de l'Europe de 0.053°C et l'impact de l''INDC de la Chine sera de 0.048°C.

Toutes les politiques additionnées des Etats-Unis, de la Chine, de l'Union Européenne et du reste du monde réduiront probablement la température de 0.17°C en 2100. Les estimations de ces impacts sont robustes vis à vis des différentes estimations de la sensibilité climatique, du recyclage du carbone et des différents scénarios climatiques.

Les promesses actuelles de la politique climatique n'apporteront qu'une faible contribution à la stabilisation du climat et leurs impacts resteront indétectables pendant de nombreuses décennies."

Qu'est ce que le programme MAGICC utilisé par Björn Lomborg ?

Mis au point par des climatologues contributeurs au GIEC, le logiciel MAGICC est un programme simplifié de modélisation du climat, au sujet duquel Lomborg nous dit que :

"Cet article tire parti du modèle climatique MAGICC qui a été utilisé au cours de la totalité des cinq rapports du GIEC. Il a été co-financé par l'EPA (l'agence de l'environnement américaine). Il fonctionne avec les paramètres standards. Une analyse sur la sensibilité, montre que les différentes hypothèses sur la sensibilité et au sujet du modèle du cycle du carbone ou du scénario ne changent pas de manière appréciable les résultats. Ce papier utilise la même méthodologie de base que Tom Wigley qui a analysé le protocole de Kyoto dans un article de 1998 très fréquemment cité."

On peut, par exemple, vérifier que la dernière version (à l'époque) de MAGICC était mentionnée et utilisée dans le rapport du GIEC AR4 (en 2007). Ce programme est "simplifié" (mais conforme) dans le sens qu'il ne permet le calcul que d'un nombre limité d'observables comme, entre autres, la hausse de température globale en fonction du taux de CO2 atmosphérique.

Le communiqué de presse associé à cet article est intitulé : "Les promesses en matière de climat pour Paris feront baisser les températures mais seulement de 0,05°C en 2100."

A noter que le chiffre indiqué dans ce titre ne prend en compte que les promesses, stricto sensu, (INDC) déposées pour la COP21 à Paris, sans faire l'hypothèse optimiste que les restrictions pourraient être prolongées jusqu'à la fin du siècle (bien que cela ne figure pas nécessairement dans les INDC déposées) comme l'envisage aussi Lomborg.
Voici une traduction des extraits significatifs de ce communiqué de presse (caractères en gras de Lomborg) :

"Le travail de recherche du Dr. Lomborg montre que :

  • L'impact sur le climat de toutes les promesses (INDC) présentées à Paris, est minuscule : Si nous prenons en compte l'impact des promesses (supposées tenues) de chaque nation, pour 2030, la réduction totale de la température sera de 0,048°C (0,086°F) vers 2100.

  • Même si nous supposons que ces promesses seront prolongées pendant encore 70 années, l'impact est encore très faible : Si chaque nation remplit ses promesses en 2030 et continue à le faire fidèlement jusqu'à la fin du siècle et s'il n'y a pas de "fuite" de CO2 de la part des pays non souscripteurs, la totalité des engagements pris à Paris réduira la température du globe de seulement 0,17°C (0,306°F) en 2100. 

  • Les politiques des USA en matière de climat, dans les circonstances les plus optimistes, si elles sont intégralement respectées et poursuivies tout au long du siècle, réduiront la température du globe d'environ 0,031°C (0,057°F) en 2100.

  • Les politiques de l'Europe en matière de climat, dans les circonstances les plus optimistes, si elles sont strictement suivies et poursuivies tout au long du siècle, réduiront la température du globe d'environ 0,053°C (0,096°F) en 2100.

  • Les politiques de la Chine en matière de climat, dans les circonstances les plus optimistes, si elles sont strictement suivies et poursuivies tout au long du siècle, réduiront la température du globe d'environ 0,048°C (0,086°F) en 2100.

  • Les politiques climatiques du reste du monde, dans les circonstances les plus optimistes, si elles sont intégralement respectées et poursuivies tout au long du siècle, réduiront la température du globe d'environ 0,036°C (0,064°F) en 2100.[...]

    lomborg5

"Tableau des changements attendus en 2100 en °C (à gauche) et en degrés Fahrenheit (à droite)" selon les hypothèses "Promesses à Paris" et "Promesses à Paris tenues durant 70 ans".

 

 

 

 

"La variation de la température globale depuis l'ère préindustrielle pour les scénarios suivants :

-Ne rien faire (RCP8.5) (en rouge) (NdT : On continue comme maintenant avec le scénario le plus pessimiste des modèles)

-Seulement avec les promesses INDC apportées à Paris pour la COP21 (en bleu)

-En supposant que les promesses apportées à Paris seront prolongées, sans faille, pendant encore 70 ans (en vert).
(NdT: c'est à dire jusqu'à la fin du siècle, les réductions devant être implémentées à parti de 2030).


Selon les données du logiciel MAGICC."

NdT : En réponse à plusieurs lecteurs, je précise bien que les courbes ci-contre représentent les résultats de modèles informatiques (ici MAGICC). Ce sont des "projections" informatiques et non pas des observations effectives. Comme on le voit, ces modèles sont incapables de reproduire "le plateau" des températures observé depuis une quinzaine d'années. De plus, comme nous l'avons montré à plusieurs reprises, ces modèles surestiment largement la hausse des température observée durant la période récente.

Comme on le voit, ces calculs montrent des impacts ridiculement petits résultant des engagements pris à Paris pour la COP21.
Dès lors, comment se fait-il que les politiques, les médias, les ONG et la responsable de l'ONU (Christiana Figueres) en matière de climat, nous affirment que les promesses faites à Paris nous engagent vers des températures globales à +2.7°C ( ou 3°C) à défaut des +2°C souhaités
(par rapport à l'ère pré-industrielle) pour 2100 ?

Björn Lomborg
répond à cette question dans son communiqué de presse :

"Christiana Figueres a déclaré : "Les engagements des Etats (les INDC) ont la capacité de limiter la hausse de température projetée d'environ 2,7°C en 2100. Ce n'est en aucune manière suffisant mais c'est beaucoup plus faible que les valeurs estimées pour le réchauffement de 4°C, 5°C ou plus envisagées par beaucoup avant la mise en place des INDC."

Le Dr. Lomborg a dit : "Ceci est un représentation totalement fallacieuse des options offertes à la planète. Les 2,7°C proviennent de l'Agence Internationale de l'Energie (IEA) et elle suppose que si les gouvernements font peu à Paris et que, dès 2030, ils s'embarquent dans des réductions incroyablement ambitieuses, nous atteindrions les 2,7°C.

Cette façon de présenter le problème est semblable à celle qui consisterait à dire aux Grecs, lourdement endettés, que le simple remboursement de leurs dettes les plus pressantes les mettra sur une voie facile pour parvenir à résorber leur dette. Ceci est complètement illusoire.

L'organisation de Figueres estime que les promesse faites à Paris réduiront les émissions d'environ 33Gt de CO2 au total. Pour limiter l'augmentation à +2,7°C nous devrions réduire nos émissions d'environ 3000Gt - c'est à dire d'environ 100 fois plus que les engagements proposés à Paris.[...]. Ceci ne relève pas de l'optimisme, c'est un voeu pieux."lomborg6

 

 

NdT: Lomborg illustre ceci par le diagramme ci-contre qui indique les réductions des émissions de CO2 en gigatonnes selon les options de réduction.


La colonne de gauche est sous-titrée "
Promesses faites à Paris" (réduction de 33GT) et celle de droite "réduction requise (3066 GT) pour parvenir à 2,7°C".

2) Le MIT a obtenu et publié sensiblement les mêmes conclusions que Lomborg :

Au vu des chiffres précédents, on pourrait penser (espérer, diront certains) que Lomborg s'est fourvoyé dans ses calculs et que les examinateurs du Journal of Global Policy n'ont pas fait correctement leur travail de vérification, ce qui n'est pas exclu mais qui reste hautement improbable, compte tenu de l'importance et du caractère polémique de ces résultats. Il est, au contraire, pratiquement certain que ce travail a été examiné avec soin et dans ses moindres détails avant que l'autorisation de publier ne soit accordée.
Et de fait, il apparaît que les résultats présentés par Lomborg sont confirmés, à très peu près, par les chercheurs du MIT qui travaillent sur le "Joint Program on the Science and Policy of Global Change". Ces chercheurs ont publié, de manière indépendante, des résultats qui corroborent ceux de Lomborg, comme nous allons le voir. Voici l'en-tête du programme du MIT : lomborg4

 

 

 

 

 

 

 

Dans le rapport du MIT on peut lire ceci (repris à plusieurs reprises et sous d'autres formes dans le texte, comme nous le verrons)

"Une question qui vient à l'esprit est celle-ci : De combien les promesses (INDC) déposées à Paris avant la réunion de la COP21 vont-elles réduire le futur réchauffement, en supposant que notre estimation rend compte d'un accord et de sa mise en oeuvre ? ...La différence entre les lignes rouges et vertes représente la contribution additionnelle des politiques de la COP21 et celle-ci représente environ un amoindrissement du réchauffement de 0,2°C vers la fin du siècle."

Voici des fac-simile d'autres extraits du rapport intitulé "MIT’s Joint Program on Global Change in Energy and Climate Outlook 2015" .

Traduction : lomborg3
(à gauche) : "En supposant que les réductions d'émissions proposées
(NdT : Les INDC) seraient prolongées jusqu'en 2100 mais non amplifiées, on trouve que cela conduit à une réduction du réchauffement d'environ 0,2°C à la fin du siècle, à comparer avec nos estimations, avec les mêmes hypothèses pour Copenhague et Cancun.

(à droite) : "Comme il est mis en lumière dans le résumé des principaux résultats ainsi que dans l'encart N°2, les mesures additionnelles de réduction par les principaux pays émetteurs (basés sur les INDC proposés en avance de la COP21) ont abaissé nos précédentes estimations du réchauffement à venir d'environ 0.2°C."

On peut faire remarquer, comme Judith Curry qui a écrit un billet à ce sujet, qu'une telle variation de 0,2°C restera noyée dans le bruit des fluctuations et des variations naturelles du climat. Judith Curry conclut :

L'article de Lomborg est le premier publié au sujet de la réduction du réchauffement résultant des engagements INDC. J'imagine que nous verrons beaucoup d'autres analyses de ce genre de la part des économistes mais je ne vois pas comment les conclusions de base pourraient changer - Les engagements INDC pris à Paris n'entraîneront qu'une faible limitation du réchauffement vers la fin du XXIe siècle."

Personnellement, je ne serai pas aussi optimiste de Judith Curry. Je vois mal un certain nombre d'économistes particulièrement engagés dans ces affaires, publier ce genre d'observations.. Si les résultats de Lomborg et du MIT sont corrects - et il n'y a aucune de raison de supposer qu'ils ne le soient pas - il est probable qu'ils s'abstiendront et que l'on n'en entendra pas parler comme c'est déjà le cas dans la presse nationale et internationale où la plus grande discrétion est observée à ce sujet... surtout pendant le déroulement de la COP21.

3) Conclusion :
Elle sera brève.

Au vu des engagements volontaires déposés auprès de l'ONU, en vue de la COP21, par la quasi-totalité des pays du monde et pour ce qui concerne "l'atténuation" c'est-à-dire pour la limitation du réchauffement envisagé pour la planète à la fin de ce siècle, la COP21, les efforts remarquables déployés par les organisateurs, par les chefs d'état, par les ministres, par les délégués, par les ONG et, last but not least, par les médias, ainsi que les substantielles dépenses engagées à Paris, ne serviront pratiquement à rien.
Et ceci, même si un accord est obtenu pour que les pays respectent leurs engagements (leurs INDC) et qu'ils continuent de les respecter, sans faillir, jusqu'à la fin du siècle, ce qui est assez improbable au vu des lendemains chaotiques qu'ont subi les accords de Kyoto.

Assez ironiquement, ce sont précisément ces mêmes modèles numériques du climat qui sont à l'origine de l'angoisse irrépressible que semblent éprouver les participants/organisateurs de la COP21 au sujet d'une future hausse des températures, qui le leur disent...

Stay Tuned !

06 Novembre 2015 : Calamités et événements climatiques extrêmes.

Par les temps qui courent, il ne se passe pas une journée sans que nous, lecteurs(trices) et auditeurs(trices), ne soyons abreuvé(e)s de déclarations définitives selon lesquelles les événements catastrophiques liés au climat (les événements climatiques dits extrêmes) se multiplient, en ce moment même. Selon les déclarations de ces "experts", il suffit de jeter un coup d'oeil par la fenêtre (ou sur la télé) pour s'en convaincre et ceux qui n'en sont pas convaincus sont soit aveugles soit de mauvaise foi. En un mot nous vivons les débuts de l'apocalypse. "La maison brûle" comme disait le Président Chirac, "et nous regardons dehors" (attribué à N. Hulot).

C'est ainsi, nous répète-t-on, qu'à l'heure actuelle :

- les typhons/cyclones/ouragans sont plus nombreux et plus puissants que jamais "dans l'histoire". Ils dévastent la planète comme jamais auparavant.
- Les sécheresses dévastatrices se multiplient sur le globe et sont de plus en sévères.
-Les régions sèches le seront plus encore.
-Les inondations, "à répétition" que nous connaissons sont inédites.
-Les tornades sont plus dévastatrices et mortifères que jamais.

-Etc.

Tout cela, bien entendu, entraînera de graves conséquences géopolitiques, des conflits etc., comme nous le promet Nicolas Hulot (source AFP), l'Envoyé Spécial Pour la Protection de la Planète du Président de la République, ce qui a exigé une réflexion prospective poussée au sein de la Défense Nationale. (Note : dans la suite, les caractères engraissés l'ont été par l'auteur de PU).

"Soyons prudents, mais il me semble assez manifeste que le changement climatique et les phénomènes climatiques extrêmes qui se multiplient jouent au minimum un facteur aggravant et parfois déclencheur de conflits", a souligné Nicolas Hulot, envoyé spécial du président français François Hollande pour la protection de la planète.

Tout récemment, le 5/10/2015, après avoir affublé, en bloc, tous les "climato-sceptiques", y compris quelques Académiciens des Sciences, d'un nom d'oiseau que je ne répéterai pas, Nathalie Kosciusko-Morizet nous a doctement assuré que :

"Mais ça n'est pas ça que ça fait, le changement climatique. Ça multiplie ce qu'on appelle “les événements climatiques extrêmes”, c'est-à-dire que là où il y a du désert ça va être toujours plus sec, et là où il y a des problèmes d'ouragan, il va y en avoir toujours plus... On ne peut pas lier un événement climatique extrême au changement climatique, mais on sait que la multiplication lui est liée."

Pour sa part, le Président de la COP21, Laurent Fabius, a déclaré récemment, lors d'une émission sur Eur1 (le 5/10)

...Mais le fait que l'on ait des pluies, des typhons, des événements de plus en plus lourds et de plus en plus nombreux, ça, c'est en lien avec le dérèglement climatique"

L'Agence France-Presse qui n'est pas une débutante dans le domaine, affirme pour sa part, que :

Sous l'effet des gaz à effet de serre issus pour l'essentiel de la combustion d'énergies fossiles, la planète se réchauffe à une vitesse inédite, générant des événements météorologiques extrêmes, la fonte accélérée des glaciers ou encore la montée du niveau des océans.

Jusqu'au Saint Père, le Pape François qui avance, un peu plus prudemment, dans son Encyclique "Laudato si" que :

.."il est en outre difficile de ne pas le [NdT : le réchauffement] mettre en relation avec l’augmentation d’événements météorologiques extrêmes, indépendamment du fait qu’on ne peut pas attribuer une cause scientifiquement déterminable à chaque phénomène particulier."

Etc. Etc.

Les citations du même genre abondent dans tous les médias. Vous en verrez d'autres, du même style, un peu plus bas.

Cependant, et comme vous le savez, à Pensee-Unique.fr, nous sommes plutôt circonspects, surtout quand nombre d'éminents décideurs de la planète nous affirment, haut et fort, que les événements climatiques extrêmes de toute nature se sont multipliés et que si nous ne voyons rien, c'est certainement parce que nous sommes aveugles ou (pire, si nous sommes "climatosceptiques" comme ils disent) que nous ne voulons pas voir.

Alors, nous allons voir.

Nous verrons tout cela, avec quelques détails, à partir des statistiques et des graphiques officiels qui concernent l'évolution temporelle durant ces dernières années ou décennies, de ces fameux événements climatiques extrêmes qui "sont, nous dit-on, de plus en plus forts et de plus en plus nombreux et qui résultent du "dérèglement climatique"".
Dans la suite, nous analyserons l'évolution de la fréquence et de la puissance des typhons/cyclones/ouragans et des tempêtes, celle des sécheresses, celle "des régions désertiques qui devraient devenir plus sèches" et même - pourquoi pas, puisque cela a également été évoqué comme lié au changement climatique - des tremblements de terre et des tsunamis.

A tous ceux qui vous assureront que "vous n'êtes pas climatologues", vous pourrez répondre, comme l'a fait le Prix Nobel de Physique Ivar Giaever lors de récente présentation intitulée "Le réchauffement climatique revisité" à la conférence des prix Nobel à Lindau en Juin 2015, qu'il n'est nul besoin d'être climatologue ni même scientifique, pour lire et comprendre le sens d'un certain nombre de graphiques, tels que ceux qui sont reportés ci-dessous.

In fine, nous rappellerons, une fois encore, les conclusions du dernier rapport du GIEC (le rapport complet, l'AR5 de 2013) de l'ONU, au sujet des "événements extrêmes", en faisant observer que les constats de ce pesant document sont cohérents avec les graphiques que je vais vous présenter.

Enfin, in cauda venenum, nous rappellerons les conclusions d'un travail historique (scientifique) portant sur "les dérangements du temps" durant les cinq derniers siècles et qui montre que l'alarmisme météorologique ou climatique ne date pas d'aujourd'hui. On y voit, surtout, que le climat que l'on prétend désormais "déréglé", n'a, en réalité, jamais été "réglé" et qu'il n'est guère plus "déréglé" de nos jours qu'il ne l'était autrefois.

Nous commençons par nous intéresser au bilan global des catastrophes dites naturelles, toutes causes confondues, au niveau planétaire.
S'agissant de catastrophes de toute nature, à l'échelle du globe, il est bon de se référer aux grandes compagnies d'assurance internationales qui tiennent un compte vigilant des calamités qui affectent notre planète, ceci à des fins de statistique et de prospective. Parmi ces dernières, l'une des plus réputées est la compagnie AON Benfied qui publie, chaque année, un bilan relativement complet des événements catastrophiques et de leurs conséquences qui ont affecté notre planète en s'appuyant sur les données collectées dans les bases de données officielles des meilleures institutions internationales.

1) Bilan global des événements catastrophiques survenues à l'échelle de la planète :

Plusieurs graphiques qui figurent ci-dessous sont tirés du plus récent "AON - 2014 Annual Global Climate and Catastrophe Report" publié en Janvier 2015.

A) Evolution du nombre de catastrophes naturelles, toutes catégories confondues, pour la planète.

extreme4

 

 

 

 

 

 


Ce graphique montre, en quatre couleurs (une pour chaque trimestre), le nombre annuel d'événements catastrophiques qui ont affecté la planète depuis 2004. Comme on le perçoit, il n'y aucune tendance à l'augmentation du nombre des calamités à l'échelle du globe. En réalité, la situation est à peu près stable, aux fluctuations d'une année sur l'autre, près. Il est donc, sans doute, un peu prématuré de nous assurer que l'apocalypse est à nos portes et a déjà frappé.
Dans le document cité, ce graphique est accompagné d'un commentaire qui situe l'année 2014 par rapport à la moyenne des années précédentes en ces termes
:

De nouveau une baisse : Les pertes résultant des catastrophes en 2014 sont en dessous de la moyenne.

Les désastres, au plan global, se sont combinés en 2014 pour causer des pertes économiques de 132 milliards de dollars US, ce qui est de 37% inférieur à la moyenne décennale qui est de 211 milliards de dollars US. Les pertes ont été attribuées à 258 événements distincts à comparer avec la moyenne décennale de 260. Ces désastres ont résulté en une perte, en matière d'assurances, de 39 milliards de dollars US, ce qui est de 38% inférieur à la moyenne décennale de 63 milliards de dollars US. Elle a a été la plus faible perte des assurances depuis 2009.

2014 a été la seconde année consécutive avec des pertes, dues aux catastrophes, inférieures à la normale.

On peut également s'intéresser à l'évolution du
nombre des pertes en vies humaines causées par ces calamités naturelles, selon leur nature, toujours à l'échelle de la planète. Voici ce que nous dit le rapport AON Bienfeld :

B) Bilan global des perte humaines selon les types de calamités :

Le rapport AON nous donne le graphique ci-contre, accompagné de son commentaire traduit dans l'encadré ci-dessous.extreme5

 

"L'année 2014 a vu un déclin des pertes humaines résultant de calamités naturelles par rapport à celles qui ont été enregistrées en 2013. Cette année 2014 a été substantiellement, 89%, moins meurtrière que la moyenne des années 2004-2013 qui est d'environ 76000. Durant les dix dernières années, des événements singuliers majeurs (tels le tremblement de terre à Haïti 2010); en Chine (2008) et en Indonésie (2004) ainsi que le cyclone Nangis au Myanmar (2008) ont biaisé la moyenne annuelle."

Comme on peut le voir, ci-contre, le bilan des pertes humaines n'est pas en hausse mais en baisse.

A titre d'illustration, une étude de la NOAA, publiée récemment, montre que les pertes humaines dues au événements climatiques extrêmes aux USA ont, en 2014, battu un record vieux de 23 ans, en termes de plus faible mortalité enregistrée.

Dans ces conditions, il semble légèrement prématuré de prétendre que nous vivons un "chaos climatique" et que nous en sommes au début de l'apocalypse.
Il est vrai, comme le rappelle le commentaire de AON que ce genre de diagramme, évidemment très sensible aux événements majeurs très mortifères, comme les tremblements de terre, ne permet que difficilement d'établir une valeur moyenne. A noter, en passant, que les événements les plus mortifères sont les tremblements de terre dont le lien avec le réchauffement climatique est, pour le moins hypothétique. Ceci étant dit dans le langage mesuré des scientifiques.

Nous allons voir, ci-dessous, ce qu'il en est de l'évolution du nombre de tremblements de terre (ou des tsunamis qui résultent de tremblements de terre sous-marins) à l'échelle de la planète qui, comme certains nous l'affirment, seraient liés au "changement climatique", sans que l'on comprenne d'ailleurs ni pourquoi et ni comment.

C) Tremblements de terre et tsunamis :

Lors du discours de Manille prononcé le 26 Fév. 2015 qu'on retrouve sur le site du château, le Président de la République française déclarait :

Le GIEC est allé plus loin, en indiquant que si nous ne faisions rien, dans les prochaines années, ce n’est pas un réchauffement de la planète de 2 degrés que nous allons connaître d’ici la fin du siècle, mais de 3, 4, voire 5 degrés. Et avec des conséquences que l’on n’a pas besoin de forcer pour les décrire, nous les connaissons déjà ; tsunamis, tremblements de terre, élévation du niveau de l’eau, atteinte inexorable à la biodiversité …

Le président a repris, tout récemment, le 28 Septembre 2015, les mêmes affirmations devant la 70e Assemblée Générale de l'ONU (compteur 2:05).
Pour sa part, la Ministre de l'Ecologie de l'époque, Nathalie Kosciusko-Morizet (déjà mentionnée dans ce billet avec quelques autres responsables politiques) nous assurait dans le journal "les Echos" du 18 Décembre 2009 (repris sur le site du Ministère) que :

« Les effets ravageurs des excès de CO2 dans l’atmosphère sont déjà là : pas moins de 250 millions de femmes, d’hommes et d’enfants sont frappés chaque année par des tsunamis, des cyclones ou d’autres formes moins soudaines de catastrophes climatiques, notamment la montée des eaux ou la désertification de certaines régions. »

Pour sa part, Michel Barnier, entre autres, ancien Ministre de l'Agriculture, nous affirmait, lors d'un de ses voyages en Chine, que :

On voit bien les conséquences extrêmement graves du réchauffement climatique, ...les tremblements de terre (compteur 1:23).

De même, l'ex-ministre de l'Ecologie, Corinne Lepage, subodorait une relation de cause à effet entre le changement climatique et le tremblement de terre/tsunami qui a frappé le Japon dans la région de Fukushima en 2011...

...19000 morts dus à un tsunami et à un tremblement de terre dont on peut penser que l'importance n'est pas sans lien avec le changement climatique...

Ainsi, puisqu'il semble qu'il faille se résoudre à envisager la possibilité d'un lien (une notion pour le moins novatrice) entre l'activité sismique et le "dérèglement climatique", voyons ce que nous disent les observations soigneusement répertoriées par AON dans son rapport (Figure 26, page 19, au sujet de l'évolution du nombre des tremblements de terre planétaires de faible magnitude M 6 et de forte magnitude M≥7.0. La figure est accompagnée de son commentaire original.
exxtrem1

"Comme on le voit dans la Figure 26 pour les dix dernières années, l'activité totale des tremblements de terre ne montre pas de grandes fluctuations d'une année sur l'autre. Le USGS [NdT: Le Geological Survey US] précise qu'une augmentation substantielle des stations seismographiques et des améliorations continues dans les technologies et dans les communications, ont grandement renforcé la qualité de la collecte des données sur les tremblements de terre. On doit aussi observer que malgré les fluctuations du nombre total des tremblements de terre depuis le début des années 1900, les nombre des tremblements de terre majeurs (M7.0) est resté sensiblement constant d'une année à l'autre."

Comme on le voit, la fréquence et la puissance des tremblements de terre est remarquablement stable et AON nous assure qu'il en est ainsi depuis, au moins, les années 1900. Contrairement à ce qu'affirmait Michel Barnier, le Président et ses collègues, et comme on s'y attend, on ne discerne aucun effet du "changement climatique" sur l'activité tellurique de la planète, sans compter qu'on se demande vraiment comment et pourquoi les mouvements tectoniques ou les convulsions géologiques pourraient être sensibles à une variation de la température aussi minime que celle que nous avons connue.

Les ouragans/cyclones/typhons/tornades/tempêtes sont fréquemment évoqués comme particulièrement révélateurs du "dérèglement climatique" en cours. Voyons cela.

2) Les ouragans/cyclones/typhons à l'échelle de la planète et les tornades aux USA :

Parmi d'autres :

"Le fait que l'on ait des pluies, des typhons, des événements de plus en plus lourds et de plus en plus nombreux, ça, c'est en lien avec le dérèglement climatique" (L. Fabius, Président de la COP21)

A) Les cyclones/typhons/ouragans pour le Globe :

Je rappelle ici que typhon, ouragan et cyclone désignent le même phénomène. Seule la dénomination peut changer selon les régions concernées du globe, mais pas toujours.

Tout d'abord, que nous dit le rapport AON à ce sujet ? Voici quelques graphiques extraits de ce rapport :

extreme6

 

La Figure 17 du rapport qui couvre la dernière décennie pour le nombre (ou la fréquence) des cyclones tropicaux pour le globe - nous verrons plus loin pour une plus longue période - ne montre aucune tendance discernable pour ce qui est des différentes catégories de cyclones identifiées par les carrés colorés situés en haut à droite du graphique.
Les lignes en pointillé indiquent les moyennes correspondantes à la période 1980-2013.

 

 

 

extreme7

S'agissant des pertes humaines et en matériels, celles-ci dépendent évidemment directement du nombre et de la puissance de cyclones qui ont atterri sur les continents ou sur les îles.


Cette figure 18 du rapport récapitule la variation annuelle du nombre des cyclones, selon leur catégorie (1+ et 3+ les plus intenses) qui ont touché terre durant la dernière décennie.

 

Ici encore, on ne discerne aucune tendance à la hausse - en réalité, plutôt à la baisse - du nombre de ces cyclones destructeurs, quelle que soit leur intensité.

Pour ce qui concerne les ouragans observés dans le bassin Atlantique :

extreme8

Cette Figure 19 du rapport AON reprend les mêmes modes d'affichage que les figures précédentes.
Là encore, point de tendance haussière du nombre des ouragans quelle que soit leur puissance (indiquée par les couleurs dans le graphique ci-contre).

 

 

 

 

Le rapport AON donne le même type de représentation pour les cyclones/ouragans/typhons selon les différents bassins océaniques. Pour ne pas surcharger ce billet, je laisse au lecteurs(trices) le soin de prendre connaissance de ces graphiques dans le rapport original. De manière générale, on constate que la fréquence des cyclones, des typhons et des ouragans n'a pas varié depuis 40 ans, pour les petits comme pour les les grands et que la puissance des cyclones/ouragans/typhons (faibles ou forts) n'a pas, non plus, varié au cours des dernières décennies.

Pour remonter un peu plus haut dans le temps et avoir une vision de l'évolution de l'activité des ouragans/cyclones/typhons depuis les années 1970, on peut se reporter au site weatherbell.com qui répertorie scrupuleusement, sous la responsabilité de Ryan Maue, un expert du domaine, la totalité de ces tempêtes qui affectent le globe. Voici deux graphiques qui illustrent les données disponibles, régulièrement mises à jour. extreme18

 

Figure: "Fréquence, pour les quatre dernière décennies, des tempêtes tropicales et des ouragans (sommées sur une année). Les séries du haut représentent le nombre des tempêtes tropicales qui ont atteint le minimum pour être identifiées (vents soutenus maximaux au dessus de 34 noeuds). Le graphe du bas est relatif au nombre d'ouragans (vitesse au dessus de 64 noeuds)." (mis à jour le 31 juillet 2015)."

Comme on le voit, ici encore, il n'y a pas de tendance haussière ou baissière de la fréquence des tempêtes tropicales et des ouragans pour le globe depuis 1971. Tout cela est remarquablement stable depuis des décennies.

 

Le graphe précédent illustrait le taux de répétition de ces calamités à l'échelle du globe.
Mais qu'en est il de l'évolution de la puissance ou de l'intensité de l'activité cyclonique au cours des dernières décennies ?

Comme le savent les lecteurs(trices) de ce site, pour répondre à cette question, on utilise (entre autres) l'indice ACE qui représente l'énergie des cyclones accumulée pendant leur durée de vie. Voici le graphique relatif à l'évolution de l'ACE depuis 1970 pour le globe (en rouge) , pour l'hémisphère Nord (en bleu) et pour l'hémisphère Sud (en vert).

extreme19

 

 

Figure: "Energie cyclonique accumulée, pour les tempêtes tropicales et pour les ouragans, durant les 4 dernières décennies, par année. La saison cyclonique se produit dans l'hémisphère Sud de Janvier à Juillet pour chaque année calendaire. Le graphique est construit de telle façon que la valeur annuelle pour Juillet 2013-Juillet 2014 est positionnée en 2014."

Comme on le voit ici encore, on ne discerne aucune tendance haussière (ni baissière) de l'intensité intégrée de l'activité cyclonique depuis 1970, et ceci dans les deux hémisphères, comme au plan global.

En d'autres termes, les cyclones/ouragans/typhons ne deviennent ni plus intenses, ni plus fréquents sur le globe.

Que nous disent les spécialistes de la question au sujet du lien revendiqué par nos décideurs entre l'activité tempétueuse/cyclonique et le "dérèglement climatique" ?

Voici ce qu'a écrit le GFDL (Geophysical Fluids Dynamics Laboratory), le laboratoire spécialisé sur ces sujets de la NOAA qui n'est jamais parcimonieuse en matière d'alarmisme, dans un tout récent article, daté du 30 septembre 2015 :

Il est prématuré de conclure que les activités humaines - et, en particulier les émissions de gaz à effet de serre qui provoquent le réchauffement climatique - ont déjà eu un impact détectable sur les ouragans atlantiques ou sur l'activité globale en matière de cyclones tropicaux. Ceci étant dit, les activités humaines ont peut-être déjà causé des changements qui ne sont pas encore détectables du fait de la petitesse de ces changements ou des limitations en matière d'observation ou, encore, il s'agit de changements estimés par des modèles avec des incertitudes considérables (dues,par exemple, aux effets des aérosols).

Puis, le GFDL de la NOAA évoquant ses modèles (évidemment non validés) prévoit que l'on verra "probablement" une augmentation de l'activité cyclonique de 2 à 11% en 2100, ce qui est très petit par rapport aux grandes fluctuations naturelles. Même si ces modèles sont vérifiés, ce qui n'est pas assuré, il n'est pas évident que nos descendants percevront une quelconque différence.

On constate ainsi - non sans une certaine admiration - qu'alors que les laboratoires les mieux équipés du monde reconnaissent (conformément au récent rapport du GIEC) être incapables de percevoir la moindre influence humaine sur les calamités cycloniques, notre personnel politico-médiatique, lui, affirme fréquemment, devant micros et caméras, être en mesure de la discerner et va jusqu'à préciser "qu'on le voit bien". A titre personnel, je dois confesser humblement que, comme les chercheurs du GFDL de la NOAA, et bien d'autres, je ne vois strictement rien.

Voici, à présent, l'évolution d'un phénomène catastrophique peu connu en Europe de l'Ouest mais qui est fréquent et peut se révéler très destructeur aux USA qui tiennent un compte scrupuleux des tornades et/ou des événements tempétueux localisés.

B) Les tornades (aux USA) :

Toujours à partir des données techniques du rapport AON, on peut distinguer les tornades les plus intenses de celles qui le sont moins. L'intensité des tornades est classée au moyen d'un indicateur Fx ou EFx. Les encadrés rapportent les commentaires du rapport attachés aux figures.

extrem2

"Depuis 1950 la tendance générale des tornades classées F1/EF1 et au dessus [NdT: les moins intenses] est restée pratiquement plate avec une petite augmentation minimale de 1,3% par an. Des données plus fiables depuis l'avénement de l'ère Döppler en 1990 montre une tendance également plate à 0.2%. En sélectionnant les données pour la dernière décennie,on observe qu'il y a eu une légère décroissance de 1,6% par an."

Autrement dit, les tornades les moins violentes ne sont pas en augmentation. Et, durant cette dernière décennie, elles sont plutôt très légèrement moins fréquentes.

 

La figure suivante indique l'évolution du nombre des tornades de plus forte intensité aux USA. Elle est accompagnée du commentaire figurant dans l'encadré ci-dessous.

extrem3

"Depuis 1950 la tendance des tornades les plus intenses classées F3/EF3 et au dessus, est restée plate. Elle montre une faible décroissance annuelle de 0.8%. Une décroissance annuelle comparable de 1,2% est aussi observée quand on examine des données plus fiables disponibles depuis l'ère du radar Döppler en 1990. Si on sélectionne les données de la dernière décennie, on constate que la tendance est également plate avec une hausse très légère de 0,5%.

De même, on observe une grande stabilité du nombre des tornades les plus intenses depuis 1950. Il n'y a strictement rien d'alarmant de ce côté-là, non plus.

 

L'évolution du bilan annuel des tornades les plus violentes, depuis 1954, aux USA, cette fois-ci, vue par la NOAA :
extreme23

 

 

 

Comme on le voit immédiatement, le nombre des tornades les plus violentes n'a pas augmenté depuis 1954. En réalité et comme on peut l'observer, le nombre des tornades intenses a connu un maximum dans les années 1970 qui sont, comme on le sait, des années relativement fraîches.


Autrement dit, ici encore, rien ne montre que le "dérèglement climatique" aurait augmenté en quoi que ce soit, le nombre et la puissance des tempêtes localisées et des tornades au moins aux USA où elles sont soigneusement répertoriées

 

 

 

 

Voici maintenant plusieurs études intéressantes qui portent sur les sécheresses dont on nous assure qu'elles ont augmenté en sévérité et en extension.

3) Les sécheresses sur la planète :

A) au plan global

Un article publié récemment dans la revue Nature (2014) (en accès libre) fait le point sur cette question.

Son tire est le suivant : "Suivi de la sécheresse intégrée sur tout le globe et système de prédiction"

extreme9

Voici la figure maîtresse de cet article qui donne l'évolution de la fraction de terre émergée de la planète affectée par divers degrés de sécheresses en fonction du temps ( de 1982 à 2012).extreme10

 

 

La légende du graphique que l'on peut lire en dessous de l'échelle des abscisses indique que les ordonnées donnent la fraction des terres émergées qui se trouvent en état de sécheresse (selon les couleurs D0 = anormalement sèche.
D1= sécheresse modérée.
D2= sévère.
D3= extrême.
D4= exceptionnelle.

Le code des couleurs est indiqué en haut à droite sur le graphique.

 

 

Comme on le voit immédiatement, les sécheresses, leur sévérité et les surface affectées n'ont guère évolué sur la planète depuis une bonne trentaine d'années. Tout au plus, peut-on faire remarquer le El Niño de 1998 (particulièrement intense) semble avoir provoqué un accroissement ponctuel de la fraction terrestre affectée par les sécheresses. Compte tenu du fait que nous sommes actuellement en situation d'El Niño presqu'aussi intense, on peut prévoir une augmentation, toute aussi ponctuelle pour cette année 2015. Darwin avait déjà observé, en son temps, cette corrélation à l'échelle locale.
On ne voit rien dans les résultats de cette étude exhaustive qui puisse justifier les affirmations définitives d'une partie du microcosme politico-médiatique qui établit un lien entre les gaz à effet de serre anthropique et les sécheresses qui affectent le globe.

D'autres études scientifiques nous en apprennent un peu plus à ce sujet...

B) Variabilité des sécheresses et de l'humidité :

"Mais ça n'est pas ça que ça fait, le changement climatique. Ça multiplie ce qu'on appelle "les événements climatiques extrêmes". Là où il y a du désert ça va être toujours plus sec"(Nathalie Kosciusko-Morizet).

Là, on reste un peu perplexe parce que les observations scientifiques montrent très exactement le contraire de ce que nous dit notre ancienne Ministre de l'Ecologie comme en témoigne l'article suivant publié dans la très sélective revue GRL. Cet article a étudié la variabilité des sols de la planète vis à vis de la pluviométrie/sécheresse. Voici le fac-simile de l'en-tête de cet article (déjà signalé en 2012) dont le titre est : "Variations de la variabilité de la pluviosité sur les terres du globe."

extreme22

Les points clefs (indiqués par les auteurs en dessous du titre dans le but de permettre un examen rapide du contenu de l'article) sont parfaitement clairs. Les voici

  • Nous rendons compte d'une réduction de la variabilité P et expliquons comment cela s'est produit.
  • La raison pour laquelle il y a une réduction de la variabilité est que le sec devient plus humide et l'humide devient plus sec.
  • Une nouvelle méthode de détection est proposée pour confirmer ces conclusions.

C) La question du Sahel : Le "désert" sahélien devient-il plus sec ?

Non, c'est tout le contraire. De fait, le CO2 se révèle bénéfique pour le Sahel qui devait, nous dit-on, "devenir encore plus sec" mais qui en réalité a reverdi, précisément pendant la période du "dérèglement climatique".
Et, de fait, ce n'est pas seulement le Sahel qui a verdi, c'est la planète toute entière qui l'a fait.

Contrairement à la croyance populaire et les discours alarmistes, le Sahel a reverdi et la pluviosité y est en augmentation depuis les années 80 comme l'explique un article paru tout récemment (le 1er Juin 2015) dans la revue Nature Climate Change (une subdivision de Nature, malheureusement payante). Voici le fac-simile de l'en-tête de cet article intitulé "Rôle dominant du forçage par les gaz à effet de serre dans le retour des pluies au Sahel"

extreme11

 

 

 

 

 

A noter que si l'agence Reuters mentionne cet article, je n'en ai vu aucune mention dans la presse francophone. La figure maîtresse (accompagnée de sa légende) de cet article est révélatrice de la situation.

extreme12

 

"Graphique des données pluviométriques au Sahel pour la moyenne des mois de Juillet à Septembre (JAS) sur les terres situées en 10°–20° N, 20° W–35° E tirées des observations. Les lignes rouges et noires délimitent la période précédente 1964–1993 de la période récente 1996–2010/2011."

 

 

Comme on le voit sur le graphique, la pluviométrie/pluviosité a nettement régressé depuis 1950 jusque dans les années 1980, ce qui a inspiré les plus grandes inquiétudes.
Bien heureusement, la période récente qui va de 1985 à nos jours a vu une augmentation nette des quantités de pluies tombées sur le Sahel qui retrouve à présent une situation proche de celle qu'il a connu dans les années 1910-1920.

On pourrait se dire que le reverdissement du Sahel n'est qu'un phénomène localisé qui ne concerne pas la totalité de la planète. Il n'en est rien. La planète entière greener-earth"verdit" comme le savent tous les chercheurs du domaine qui travaillent à partir des observations satellitaires qui voient ce qui est illustré sur l'image ci-contre, intitulée "Une Terre plus verte" et qui montre l'augmentation évidente de la végétation du globe au cours de la période 1982-2011.


La plupart des auteurs attribuent ces bienfaits à l'augmentation du taux de CO2 dans l'atmosphère, lequel est ainsi loin d'être le "polluant" que les médias/politiques aiment à stigmatiser, sans aucun discernement, alors qu'en réalité, le CO2 est un gaz bénéfique. Il est le vecteur essentiel du cycle du carbone. Le CO2 est le gaz de la vie... et il le montre.

Cette image ci-contre a été présentée et explicitée par deux chercheurs du Department of Earth & Environment de l'université de Boston (USA) lors d'une conférence internationale qui s'est tenue à Avignon, l'année dernière, en 2014.

 

 

Les lecteurs(trices) intéressé(e)s pourront visionner une animation de la NASA issue des mesures toutes récentes (Sept 2014-Sept 2015) de l'évolution du taux de CO2 dans l'atmosphère de la planète, prises par le nouveau satellite OCO-2.
On admirera la remarquable efficacité de la végétation de l'hémisphère Nord qui absorbe le CO2 à la fin du printemps et durant l'été boréal...pour accroître la végétation.

En guise de clin d'oeil et bien que ce billet soit déjà bien long, toujours à propos des sécheresses, je ne résiste pas à la tentation de vous montrer qu'il n'y a pas qu'en Francophonie que les médias/politiques, plus ou moins désinformés, sont carrément démentis par les observations scientifiques.
Pour la petite histoire, la récupération de la dernière sécheresse en Californie (qui en a connu beaucoup) par le Gouverneur de cet état, prête (aussi) à sourire ceux et celles qui suivent la littérature scientifique. Voici :

D) La récente sécheresse en Californie est-elle due au réchauffement climatique ? Le risque de sécheresse y est-il augmenté ou minoré par le réchauffement climatique ?

Le gouverneur Jerry Brown de la Californie a certifié à ses électeurs que la récente et sévère sécheresse qui a frappé son état, résulte du changement climatique
Malheureusement pour sa crédibilité, pendant ce temps-là, les scientifiques ont travaillé et ont démontré très précisément le contraire, comme le montre, sans ambiguïté, une étude qui vient juste d'être publiée par l'American Méteorological Society dans le Journal of Climate (payant) qui est une revue parmi les plus renommées dans le domaine.

exteme17

 

 

Le titre de l'article pose la bonne question : "Est-ce que le changement climatique anthropique a affecté le risque de sécheresse en Californie ?"


La réponse est donnée dans la fin du résumé en des termes, parfaitement clairs. En bref, Le changement climatique n'augmente pas mais, au contraire, diminue les risques de sécheresses en Californie et rien ne permet de lier la sévérité de la sécheresse récente au "dérèglement climatique".

"Ainsi, nos résultats montrent que les effets résultant du changement climatique ont rendu les sécheresses affectant l'agriculture, moins probables et que les impacts sévères actuels ne peuvent pas être causés de manière significative par des changements climatiques à long terme."

Les auteurs arguent que, question sécheresse, la hausse des températures est compensée par l'augmentation de la pluviosité. Ils observent qu'on ne discerne aucune tendance à l'augmentation générale des sécheresses (plutôt l'inverse, en fait) pour l'agriculture.

Parmi les calamités dont on nous assure qu'elles s'accélèrent dangereusement et qu'"on le voit bien", la fonte des glaciers de la planète figure dans le top du classement.
Nous allons voir ce qu'il en est dans la réalité, toujours à partir des résultats d'études scientifiques duement peer-reviewées et publiées dans les grandes revues.

4) Le réchauffement climatique accélère la fonte des glaciers ?

"la planète se réchauffe à une vitesse inédite, générant des événements météorologiques extrêmes, la fonte accélérée des glaciers ou encore la montée du niveau des océans." déclare l'Agence France Presse.

Nous allons partir d'un article (en accès libre, ce qui est rare pour cette revue) qui aborde de manière assez précise cette question et qui est paru dans le journal de l'AMS (la Société Météorologique Américaine), il y a deux ans, en 2013. Cet article, signé par 18 auteurs provenant de différentes institutions, est intitulé "Hausse moyenne du niveau des océans durant le XXe siècle : Le total est-il supérieur à la somme des parties ?"
Les lecteurs attentifs reconnaîtront, parmi les noms des auteurs, ceux de J.A. Church et de N. J. White qui sont de spécialistes renommés du domaine et dont j'avais cité les travaux antérieurs dans la page "océans".

extreme14

 

 

 

 

 

 

Cet article cherche à clore le bilan des diverses contributions à la hausse du niveau des mers. Parmi les nombreux graphiques intéressants qui se trouvent dans cet article, on considère la Fig.2b, représentée ci-dessous, qui concerne plus spécifiquement la fonte des glaciers et sa contribution à la hausse du niveau des mers.

extreme13

FIG. 2. "Evolution temporelle de contribution de la masse des glaciers à la hausse du niveau des océans. (b) Equivalent en hausse du niveau marin de la masse globale des glaciers DMg par rapport à la référence zéro pour la moyenne des années 1986–2005. Les évolutions temporelles pour A, C et M sont les intégrales sur le temps de celles de la Figure (a). Les incertitudes pour A et C ne sont pas indiquées."

Les lettres C, L et M font référence à des travaux antérieurs éventuellement mis à jour.

Dans le résumé de cet article, on peut lire les deux phrases importantes suivantes :

"Le taux de perte en masse des glaciers était supérieur aux estimations précédentes et n'était pas plus petit durant les première moitié du siècle que durant la seconde moitié."

..."Les reconstructions prennent en compte l'observation que la (GMSLR) [NdT = hausse moyenne du niveau marin pour le globe] n'était pas plus grande durant les 50 dernières années que durant la totalité du XXe siècle en dépit de l'augmentation des émissions anthropiques."

En effet, comme on peut l'observer sur le graphique, la contribution de la fonte des glaciers de la planète suit une tendance approximativement linéaire en fonction du temps de 1860 à nos jours, sans indiquer aucune accélération à laquelle on s'attendrait notamment à partir des années 1950 où les émissions de CO2 ont cru de façon très significative. A juste titre, cela a surpris les auteurs de cet article qui l'ont noté par deux fois. extreme15

 

Pour être plus précis, voici, ci-contre, le graphe montrant la croissance des émissions de gaz carbonique anthropique (en million de tonnes de carbone par an) en fonction du temps et selon la nature des sources. Le total des émissions est représenté par la courbe en trait noir.La source de ces données ( 2015) que l'on retrouve partout, est indiquée en bas du graphique.

 

Comme on le voit ici, les émissions de CO2, relativement modérées jusqu'en 1950, n'ont vu une croissance significative qu'à partir de 1950, c'est à dire après la fin de la deuxième guerre mondiale.


Or, la contribution de la fonte des glaciers au niveau de la mer n'a connu aucune accélération depuis cette époque ce qui va à l'encontre des déclarations alarmistes au sujet de la fonte des glaciers de la planète qui résulteraient du "dérèglement climatique anthropique". Au contraire, la contribution à la hausse du niveau des mers due à la fonte des glaciers paraît bien "réglée" au point d'être représentée par une droite de 1860 à nos jours.
extreme16

 

Dans le même ordre d'idées, je rappelle que la hausse des températures (voir ci-contre, à droite, le graphe obtenu à partir des données officielles HadCRUT4) a été identique durant le début du XXe siècle (de 1910 à 1945) et la fin de ce siècle (de 1975 à 2000) ce qui, comme la contribution de la fonte des glaciers au niveau des mers, constitue une "anomalie" pour la théorie en vigueur, sans parler du hiatus ou de la pause des années 1945 à 1970, bien entendu.

 

 

 

 

5) Que nous disait le plus récent rapport du GIEC (AR5, 2013) au sujet des événements climatiques extrêmes ?

J'ai déjà cité à plusieurs reprises des extraits de ce rapport officiel AR5 (Le rapport complet, publié en 2013) du GIEC au sujet de "la multiplication" des événements extrêmes dans les billets précédents.
A défaut de consulter la littérature scientifique récente sur ces sujets, il ne serait, sans doute, pas inutile que notre personnel politico-médiatique en prenne connaissance avant de s'exprimer devant micros et caméras.

Au sujet des ouragans et cyclones tropicaux :

“Les bases de données existantes ne montrent aucune tendance significative dans la fréquence des cyclones tropicaux durant le siècle dernier....Aucune tendance robuste dans le nombre des cyclones tropicaux, des ouragans et des ouragans les plus forts, n'a été identifiée lors des 100 dernières années dans le bassin Nord Atlantique."

Au sujet des inondations :

"En résumé, le manque de preuve persiste en ce qui concerne le signe et la grandeur et/ou la fréquence des inondations à l'échelle globale, ce qui se traduit par un indice de confiance faible."

Au sujet des tempêtes, orages, grêle etc.

"En résumé, il y a une faible confiance dans les tendances observées pour les phénomènes météorologiques violents à petite échelle tels que les grêles, les orages, à cause de l'inhomogénéité des données et de l'inadaptation des systèmes de suivi."

Concernant les sécheresses et les affirmations du rapport précédent AR4 :

"Au vu des études mises à jour, les conclusions de l'AR4 (Le rapport 2007 du GIEC) concernant une augmentation des sécheresses depuis les années 1970, ont été probablement surestimées".
..."Faible confiance dans les projections des variations de la fréquence et la durée des méga-sécheresses.

Concernant les cyclones extra-tropicaux :

"En résumé, la confiance est faible dans des changements à grande échelle de l'intensité des cyclones extra-tropicaux extrêmes depuis 1900."

Autrement dit, selon le GIEC, soit on n'observe aucune tendance, soit on n'est pas en mesure de tirer de conclusions à partir des données existantes.

A noter également - et on ne s'en étonnera pas si on connaît un peu de géophysique - que le GIEC n'évoque pas la question des répercussions éventuelles du changement climatique sur les tremblements de terre et autres tsunamis.
Apparemment, seul(e)s les politiques le font.

6) Conclusion et observations

En conclusion, je conseille à tous les angoissés du climat, à tous les prédicateurs de l'apocalypse qui serait imminente ou déjà sur nous, la lecture de l'excellent livre de l'historien scientifique Emmanuel Garnier, "Les dérangements du temps : 500 ans de chaud et de froid en Europe". Ces dernières années, E. Garnier a travaillé au sein de laboratoires de climatologie. Il sait de quoi il parle. Voici un extrait significatif de la 4-de-couv de son livre.

La certitude qu'ont nos contemporains de vivre un " changement " climatique ne date pas d'aujourd'hui. Tiré d'archives inédites, le présent ouvrage souhaite offrir une autre réalité des fluctuations climatiques et des perceptions que celle que les Européens en ont eue au cours des 500 dernières années. La première constatation concerne le caractère neuf du réchauffement observé depuis 30 ans. La réponse de l'historien est sans appel. Bien avant le Global Warming, nos ancêtres connurent des épisodes parfois très chauds dont l'intensité fit reculer les glaciers alpins à des niveaux inférieurs à ceux d'aujourd'hui. Plus tard, au beau milieu du fameux Petit âge glaciaire, l'Europe fut même confrontée à de véritables... vagues de chaleurs doublées de sécheresses mettant en péril la survie des populations. L'histoire ne serait-elle alors qu'un éternel recommencement. Si la réponse apparaît difficile à formuler en matière de climat, il est en revanche certain que les événements extrêmes qui focalisent tant l'attention de l'opinion publique aujourd'hui faisaient déjà partie du quotidien des sociétés anciennes. La sévérité des catastrophes observées sur cinq siècles démontre qu'elles n'eurent rien à envier à nos désastres récents.

On ne saurait mieux dire que le fameux "dérèglement climatique" ne date pas d'aujourd'hui, ou, plus exactement, que le climat n'a jamais été "réglé". Pas plus aujourd'hui qu'hier ni que demain. Ce qui est peut-être plus inquiétant sur la nature humaine, c'est cette persistance, après bien des siècles d'apprentissage, de la peur que "le ciel nous tombe sur la tête".

Comme vous avez pu le voir dans le cours de ce long billet - sa longueur est en proportion de l'augmentation lancinante de la fréquence des ces multiples assertions infondées sur les "événements climatiques extrêmes" - les observations objectives démentent la quasi totalité des allégations alarmistes qui sont sans doute censées servir à la promotion de la COP21. J'ai bien peur, qu'en réalité, elle ne soient contre-productives. Le public est moins naïf qu'on ne le croit. Il se renseigne et en tire des conclusion, parfois peu flatteuses...

Tout cela pose, bien entendu, la question de la formation initiale et de l'information dont bénéficient nos décideurs. On se demande, entre autres, qui a bien pu persuader plusieurs de nos responsables politiques que les tremblements de terre ou les tsunamis étaient liés au réchauffement climatique ou que les typhons/ouragans/cyclones étaient en hausse sur la planète.
Si on ne peut guère reprocher aux politiques, dont la formation initiale et les occupations quotidiennes sont bien éloignées de la science, leur ignorance dans ces matières, on peut quand même s'interroger sur la capacité des conseillers des cabinets ministériels ou présidentiels à leur fournir des informations sérieuses et étayées.
Cette déficience de l'information fournie à nos décideurs peut aller très loin.
C'est ainsi que le Saint-Père, le Pape François, a publié, dans son Encyclique "Laudato Si", une définition de l'effet de serre que l'on peut, respectueusement, qualifier "d'originale". La voici, tirée d'une version française certifiée de "Laudato si".

"En se concentrant dans l’atmosphère ils [NdT : les gaz à effet de serre] empêchent la chaleur des rayons solaires réfléchis par la terre de se perdre dans l’espace."

Ce qui, sans aller jusqu'à la définition totalement surréaliste de l'effet de serre par Michel Rocard (et d'autres), est faux. En effet, selon les théories en vigueur, on peut dire (très) approximativement, que la chaleur de la terre, (réchauffée par les rayons solaires) est émise (et non pas réfléchie) vers l'espace, sous forme de rayonnement IR, lequel est altéré par les gaz à effet de serre. On ne peut que s'étonner que l'aréopage substantiel dont s'était entouré le Pape, à cette occasion, ait laissé passer cette explication erronée de l'effet de serre.

Je n'ai pas la réponse à ces questions. Les professeurs ont-ils été déficients ou les élèves peu attentifs ou, encore, trop "orientés" ? Nous ne le savons pas.
Comme toujours sur PU, c'est à vous de vous faire votre propre opinion...


Stay Tuned !

7 Octobre 2015 Le point sur le Groenland, sur l'Arctique et sur la température moyenne à la surface du globe.

Les lecteurs(trices) savent bien que par ces temps qui courent - sans doute, COP21 oblige - il est difficile, voire impossible, d'échapper à une avalanche d'informations tronquées, déformées ou carrément erronées sur l'évolution réelle des observables climatiques. Tout cela est répercuté au centuple sur les radios, les télés, les journaux et jusque dans les discours du personnel politique.
En réponse au battage médiatique ambiant et à titre d'exemples parmi bien d'autres, il m'est apparu indispensable de regarder d'un peu plus près les évolutions réelles de l'englacement du Groenland, de la banquise arctique et de l'hémisphère Nord ainsi que de la température moyenne du globe qui, nous dit-on, aurait atteint des sommets très inquiétants, notamment en ce dernier mois d'août

C'est l'objet de ce billet qui sera nécessairement illustré par de nombreux graphiques qui sont, pour leur quasi totalité, mis à la disposition du public (et donc des journalistes) par les organismes officiels. A noter qu'il m'a fallu patienter et attendre la fin des périodes de fonte estivale et la publication définitive des indicateurs pertinents pour rédiger ce billet.

En résumé, en ce début d'automne, les médias ont fait beaucoup d'efforts pour nous assurer que le Groenland avait beaucoup fondu, cette année. Vous allez voir que c'est faux. Il a accumulé plus de neige et de glace qu'auparavant.
De même, on nous affirme que l'Arctique aurait beaucoup fondu durant l'été 2015. Les indicateurs montrent que c'est faux. Bien au contraire, il apparaît que la banquise arctique s'épaissit et se reforme depuis quelques années.
Enfin, les médias vous ont assuré que le mois d'août était "le plus chaud jamais enregistré". C'est, selon les différents instituts, soit carrément faux, soit les écarts enregistrés sont inférieurs aux marges d'incertitudes et ne sont pas significatifs.

1) Le Groenland fond ! (affirment les médias). Non ! C'est tout le contraire.

Comme nous le savons, le Groenland constitue une gigantesque réserve de glace (dont la hauteur peut atteindre les 3km) hors d'eau, qui, si elle fondait, contribuerait massivement à la hausse du niveau des mers. Il fait donc l'objet de toutes les attentions.
Il est impossible de citer ici tous les articles, parus dans les médias, qui ont alerté l'opinion publique sur la "situation alarmante du Groenland" ainsi que sur les conséquences apocalyptiques qui résulteraient de sa fonte massive. Parmi ceux-ci, on peut citer, à titre d'exemple typique, celui du Guardian (UK) paru le 9 août 2015

Durant la période de fonte (rapide mais brève voir ci-dessous), le Guardian (UK), n'hésite pas :
sept2

 

Titre : "Oh, mon Dieu (OMG = Oh My God), les glaces du Groenland fondent rapidement"

En ajoutant que la NASA allait quand même installer 200 stations robot pour en savoir un peu plus et en "oubliant" de préciser que cette fonte "rapide" (mais brève) est survenue avec beaucoup de retard et qu'elle avait été attendue pendant près de deux semaines comme on le voit sur le graphique suivant.
sept8

Par la suite, Le Guardian n'a pas, non plus, jugé utile d'informer ses lecteurs que le regel avait été tout aussi précoce que la fonte avait été retardée et que ce regel était intervenu avec quelques 15 jours d'avance par rapport aux années précédentes comme le montre le graphique ci-contre extrait du site officiel de la Météorologie Danois DMI (DMI : Danish Meteorological Institute). En bref, la période de fonte du Groenland a été étonnamment courte, en cette année 2015 . Ce n'est peut-être pas anodin.

Source du graphique (DMI).

Légende : "Le pourcentage de la superficie totale de la glace où s'est produit la fonte depuis le 1er Janvier jusqu'à aujourd'hui (en bleu). A titre de comparaison, la moyenne pour la période 1990-2013 est indiquée par la courbe en gris foncé. Les variations d'une année sur l'autre pour chaque jour de la saison de fonte sont indiquées par la zone grisée."

 

Les journalistes du Guardian ont également omis de préciser que, cette année, l'accumulation neige/glace a été particulièrement favorable, comme nous allons le voir..

Le graphique suivant, provenant aussi du DMI qui suit de près l'évolution du Groenland, montre l'Acc. SMB (Le budget de la neige accumulée) du premier Septembre 2014 au 31 août 2015. Comme on le voit, durant cette année écoulée, 210 milliards de tonnes de neige (ou d'équivalent en eau) s'est accumulée sur le Groenland au cours de cette année ce qui l'a beaucoup rapproché de la moyenne des 23 années précédentes.
sept7

En ordonnée, le SMB (Surface Mass Balance), le budget de la masse de neige/glace accumulée en Gigatonnes (milliards de tonnes) sur le Groenland à la date indique par l'abscisse

Légende : " Le budget de la masse accumulée en surface du premier Septembre à maintenant (ligne bleue, en Gigatonnes) ainsi que durant la saison 2011-12 (en rouge) qui a connu une fonte très intense durant l'été au Groenland. A titre de comparaison est représentée la courbe moyenne pour la période 1990-2013 (en gris foncé). La même période calendaire valable pour chaque jour aura sa propre valeur pour chacune des 24 années de la période 1990-2014. Ces différences, année après année, sont illustrées par la zone en gris clair. Cependant, pour chaque journée de l'année calendaire.la valeur la plus basse et la valeur la plus haute ont été ignorées."

On voit aussi que depuis le 1er Septembre dernier, l'augmentation de masse accumulée de neige/glace (en bleu) semble, pour l'instant au moins, suivre la trajectoire favorable de l'année Sept 2014-Sept 2015. A noter que la "masse accumulée" (Acc. SMB) ne prend pas en compte les pertes de glace qui se produisent en bordure du continent (vêlage des glaciers, icebergs etc.)
Pour plus de détails et pour situer l'évolution actuelle dans un contexte historique, je renvoie le(la) lecteur(trice) aux différents billets rédigés (2011 et 2012) sur ce sujet, au cours des années précédentes. Entre autres, on y trouvera une étude intéressante qui comparaît des prises de vues aériennes faites en 1933 avec la situation en 2012. Comme on le verra, les différences sont peu perceptibles.

Les lecteurs(rices) qui veulent se faire une idée sur les conditions météorologiques qui règnent, en temps réel, au sommet du Groenland pourront voir cette Webcam (summitcamp) qui visualise, en direct, la base de recherche installée à cet endroit. On a aussi accès (colonne de gauche) à la température et à son évolution, aux vents etc.

2) L'arctique ? C'est la catastrophe, nous répètent les médias... Bien au contraire, ça va dans le bon sens !

Petite histoire des prophéties :
wadhams

Parmi bien d'autres spécialistes, le Professeur Wadhams (de l'Université de Cambridge UK, ci-contre) avait affirmé, en 2007, que leurs modèles prévoyaient que la disparition de la glace arctique en été surviendrait dès 2013, ce qui ne s'est évidemment pas produit.
Pour la petite histoire on peut rappeler qu'Al Gore a cité la prédiction du Professeur Wadhams lors de la remise de son prix Nobel (de la paix). Wadhams a, plus récemment, repoussé ses prévisions apocalyptiques à ... 2020.
A noter, également pour la petite histoire, que ce curieux professeur a déclaré craindre pour sa vie après les décès (accidentels) de trois de ses collègues qui travaillaient également sur l'Arctique. Les enquêtes de police ont pourtant montré que l'un est décédé d'une collision avec un camion alors qu'il se déplaçait en vélo, le second d'une chute dans un escalier et le troisième lors d'un impact de foudre en Ecosse. Plus récemment, le Professeur Wadhams a intenté un procès au propagateur de cette nouvelle (The Times (UK)), l'accusant d'avoir déformé ses propos. Aux dernières nouvelles, l'organisme régulateur de la presse anglaise a débouté les protestations du professeur.

sept19Indépendamment de Wadhams, le Professeur associé (~ maître de conf., ci-contre) ) Maslowski de la Naval Postgraduate School à Monterey (Calif. USA) aboutissait, également en 2007, aux mêmes prévisions que Wadhams, c'est à dire qu'il annonçait la disparition de la glace estivale arctique en 2013 ce qui lui valut une grande célébrité et de nombreuses citations dans les médias. Maslowski ajoutait, à l'époque, que ses prévisions étaient certainement encore "trop optimistes"...Lui aussi a été sévèrement démenti par les faits.

Nous sommes actuellement en automne 2015 et comme le savent tous les lecteurs(trices) de PU, rien de tout cela ne s'est produit et l'évolution de la glace arctique va plutôt dans le bon sens comme nous allons le voir.

Dès lors, on peut se demander sur quelles bases reposaient les prophéties aussi ultra-pessimistes qu'invérifiées de nos deux professeurs anglais et américain.
Pour tenter de comprendre la démarche qui les a conduit à avancer des prophéties aussi pessimistes, il faut de se souvenir qu'en 2007, la surface de la banquise arctique avait sérieusement fondu durant l'été et que celle-ci semblait avoir amorcé ce que certains (dont Marc Serreze, directeur actuel du NCDC) appelaient "The death spiral, la spirale de la mort". Une analyse plus approfondie avait pourtant montré que cette fonte estivale prononcée résultait d'une conjonction météorologique assez particulière (des tempêtes sur l'Arctique au moment où la glace est la plus fragile) assez semblable à celle qui s'est produite en 2012 comme je l'avais documenté dans un billet précédent.

Nos deux professeurs avaient donc, à l'époque, simplement extrapolé le graphique de l'anomalie de glace de mer arctique comme cela est symbolisé par le trait rouge que j'ai superposé au graphique de l'anomalie de la glace de mer de l'hémisphère Nord reporté ci-dessous.
Cependant, comme nous le savons, et tout particulièrement en matière de climatologie, la Nature nous réserve bien des surprises. Pour conserver sa réputation intacte, il vaut mieux rester prudent en matière de prédictions, du moins dans les prédictions à court et moyen terme. Pour les prédictions à plus long terme, 50 ou 100 ans, voire 300 ans pour certains, on peut raisonnablement espérer qu'elle seront oubliées...

a) La superficie ou l'extension des glaces de l'hémisphère Nord : sept17

Voici, ci-contre, le graphique des anomalies de la glace de mer de l'hémisphère Nord (par rapport à la moyenne des années 1979 à 2008) en millions de kilomètres carrés, selon cryosphere (Université de l'Illinois USA) , telle que vous pouvez la suivre dans la page "indicateurs", parmi de nombreux autres graphiques.

A noter, qu'il s'agit ici de l'anomalie (par rapport à la moyenne de la période 1979-2008) et non de la superficie totale de la glace de mer. C'est pour cette raison que l'extrapolation envisagée par les professeurs Wadhams et Maslowski (symbolisée en rouge) ne recoupe pas l'axe des abscisses à l'année 2013, mais bien avant.

La Nature a démenti les prédictions catastrophistes des experts et les années suivantes ont montré que la glace arctique avait plutôt tendance à se stabiliser sur une sorte de plateau qui n'est pas sans rappeler celui de l'anomalie de la température moyenne du globe, plus connu sous le nom de "la pause" et dont il est fréquemment fait mention dans les billets précédents.

Apparemment, ce plateau de l'anomalie de la glace de mer de l'hémisphère Nord aurait commencé vers l'année 2006-2007, c'est à dire, il y a environ 9 ans.

 

 

sept21

Voici, à présent, le graphique (interactif) du NCIDC représentant l'évolution de l'extension de la glace arctique qu cours des années successives. Ce graphique interactif rassemble les données (annotées par mes soins, en bleu) de l'évolution de la superficie de la glace arctique pour les années 2015, 2011 (qui lui ressemble beaucoup, du moins pour l'instant), et 2012 (en tiretés, c'était le minimum minimorum résultant d'une violente tempête survenue en Arctique en août 2012, comme je vous l'avais expliqué). On peut également y observer la marge d'incertitude (à deux sigmas, c'est à dire quand le signal mesuré est égal au double du bruit) représentée par la zone en grisé.

 

 

 

 

 

 

 


En bref, en 2015, contrairement aux prédictions précédentes et comme on le voit, la glace estivale arctique est bien présente et bien loin de disparaître durant la fonte estivale, d'autant plus que son épaisseur son volume ont singulièrement augmenté cette année, par rapport aux années précédentes comme nous le verrons ci-dessous. Ce qui est le signe de l'accumulation de glace pluri-annuelle, en général plus résistante aux futures fontes estivales.

Le Dr David Whitehouse qui est éditeur scientifique au GWPF, consacre une partie de ses travaux à l'analyse des observations climatique. Il a tracé le graphique suivant tiré des données officielles sur l'évolution des minima successifs de l'extension de la glace de l'hémisphère Nord, en indiquant les marges d'erreur revendiquées (ce qui est souhaitable à défaut d'être courant). J'ai illustré son graphique en le complétant d'un rectangle violet qui permet de visualiser les mesures situées dans la marge d'incertitude de la plus récente évaluation (Sept 2015)

sept5

 

 

 

 

 

Comme on peut le voir, et aux incertitudes près, les minima de la superficie de la glace de l'hémisphère Nord n'ont pratiquement pas varié, durant les 9 dernières années. Le raisonnement s'applique tout aussi bien à la glace de mer arctique pour laquelle le graphique est évidemment très peu différent.

Nous avons vu ce qui concerne les superficies de la mer glacée, mais qu'en est-il de l'évolution de l'épaisseur moyenne de la glace arctique ? C'est évidemment un observable important pour estimer l'état de l'englacement de la mer arctique, notamment en été.

b) L'épaisseur de la glace arctique : sept10

Voici un graphique qui retrace l'évolution de l'épaisseur moyenne (en mètre) de la glace arctique selon le Polar Ice Center (PIOMAS)

J'ai complété ce graphique en ajoutant la flèche bleue pour montrer la situation actuelle, sur la courbe en rouge. .

 

Comme le montre ce graphique (l'évolution de cette année est représentée en rouge) l'épaisseur moyenne de la glace arctique durant la période de fonte, a augmenté, en 2015, de près de 30% par rapport aux années 2010 et 2011 et de près de 20% par rapport aux années 2012 et 2013.
Visiblement, la glace arctique s'est épaissie.

 

 

 

 

 

c) Le volume de la glace arctique :

sept11

 

Connaissant la superficie englacée et l'épaisseur moyenne, il est possible d'avoir une idée de l'évolution récente du volume de la glace arctique. L'extrait ci-contre (à partir de 2006 jusqu'à nos jours) d'un graphique de l'évolution de l'anomalie du volume de la glace arctique (PIOMAS) montre clairement que le volume de la glace de mer arctique (en gris) est passé par un minimum en 2011-2012 et a récupéré depuis lors jusqu'à nos jours où on se retrouve, à peu près, dans la situation de 2007-2008.



 

 

 

 

 

 


d) Pour tenter de corroborer/expliquer les observations précédentes, on peut faire remarquer que l'année 2007 correspond au commencement d'un net refroidissement de l'Atlantique Nord,
faisant suite à un réchauffement progressif de 1979 à 2006-2007 comme on le voit sur le graphique ci-dessous qui est tracé à partir des données du NCDC (Le National Océanographic Data Center US).sept20

 

 

Voici, en bleu, la zone de l'Atlantique Nord délimitée par les coordonnées 60-0W et 30-65N qui correspond au graphique suivant.

 

 

 

 

 

Le graphique suivant rapporte l'évolution du contenu thermique des 700 premiers mètres de la zone Nord de l'océan atlantique représentée (en bleu) ci-dessus. Elle est relativement proche de la zone arctique et inclut le Sud du Groenland. sept12

 

 

Le refroidissement marqué de l'Atlantique Nord, depuis 2006-2007 pourrait annoncer une reprise progressive de la glace arctique et groenlandaise dans les années qui viennent.

On peut aussi avancer l'idée que ce refroidissement de l'Atlantique Nord peut aussi augurer de futurs hivers froids pour l'Europe de l'Ouest et pour le Nord du continent américain.

Pour sa part et dans le même ordre d'idée, la climatologue Judith Curry qui est une spécialiste de la dynamique de l'Arctique, fait remarquer que l'AMO ( l'oscillation multidécennale atlantique) pourrait être passée par son maximum et avoir entamé sa descente. Si cela se confirme, cela pourrait avoir les mêmes conséquences pour l'englacement à venir de l'Arctique et du Groenland ainsi que pour les futurs hivers européens (et du Nord de l'Amérique). C'est à dire que nous pourrions nous attendre à une succession d'hivers froids et à une mer arctique moins sensible à la fonte estivale.

Mais comme toujours, restons prudents. Wait and See !

Concernant l'Arctique et comme nous l'avons vu à propos des "prédictions" démenties des Professeurs Wadhams, Maslowski et Serreze (La spirale mortelle), il convient également d'être prudent et de se souvenir que nous ne disposons de mesures satellitaires détaillées que depuis 1979. Ce qui, jusqu'à nos jours, ne nous donne qu'une fenêtre temporelle bien trop étroite sur l'histoire de l'évolution de la glace arctique au cours des décennies passées. Cependant, pour les années précédant 1979, nous disposons de récits de navigateurs des pôles qui ne semblent, hélas, pas retenir l'attention des climatologues contemporains.
A ce propos, je ne résiste pas à la tentation de reproduire ce document que le climatologue Richard Lindzen (du MIT) avait (facétieusement) montré lors d'une présentation au FermiLab en 2010.

Voici le rapport d'une agence nationale américaine :

"L'Océan Arctique se réchauffe, les icebergs se font de plus en plus rares et dans certains endroits les phoques trouvent l'eau trop chaude. Tous les rapports pointent vers un changement radical des conditions climatiques et jusqu'à des températures inconnues jusqu'à présent dans la zone arctique. Des expéditions nous rapportent que pratiquement aucune glace n'a été vue au dessus d'une latitude de 81 degrés 29 minutes. D'énormes masse de glace ont été remplacées par des moraines de terre et des pierres tandis qu'en de nombreux endroits, des glaciers bien connus ont entièrement disparu."

On croirait lire/voir/entendre un média actuel mais c'était un rapport officiel du Weather Bureau US en ... 1922 !

sept1

Bien entendu, tout récemment, les médias n'ont pas hésité à nous resservir l'antienne du "mois d'août le plus chaud de l'histoire" à l'occasion de la publication des données d'un seul institut (La NOAA)... en oubliant tous les autres qui donnent des résultats peu conformes aux attentes.

4) Le mois d'août le plus chaud de tous les mois d'août ?

C'est ce qu'on pu lire, voir et entendre, à l'unisson,sur d'innombrables médias.

Mais que nous disent les bases de données officielles, à ce sujet ?

Comme vous le savez, il y a, d'un côté, les mesures thermométriques et d'un autre côté, les mesures satellitaires. Assez bizarrement, et sans aucune explication, on observe que le désaccord grandit entre ces deux techniques d'évaluation à mesure que le temps passe. Pour la période récente, on observe que les données thermométriques, plus propices aux "ajustements", ont tendance à accentuer sérieusement le réchauffement de la planète alors que les satellites n'en voit pratiquement aucun. Nous reproduirons les données du GISS de la NASA (données thermométriques) et les données des deux organismes antagonistes et concurrents entre eux qui utilisent les mesures données par différentes flottes de satellites (l'UAH et le RSS).

Voici, sous forme de tableau des représentations de l'évolution de la température moyenne du globe et de la basse atmosphère, pour tous les mois d'août depuis 1997, et, selon notre bonne habitude, accompagnées des marges d'incertitudes correspondantes, revendiquées par les différentes institutions.

Voici les graphiques de la température globale des mois d'août successifs ( de 1997 à 2015 inclus) selon les données officielles, de trois principaux instituts (avec les sources correspondantes) :

-Le
GISS (LOTI, thermométriques) de la NASA
-Les mesures satellitaires
RSS
-Les mesures satellitaires
UAH (dernière version V6)


Les données de la NOAA qui ont été sélectionnées par les médias indiquent que la température du mois d'août est de 0,08°C supérieure à celle du mois d'août 2014. Pour ce qui est des données HadCRUT4.4 (parues tout récemment), cette différence est de 0.07°C. Ces très faibles différences sont inférieures aux incertitudes (±0,1°C) revendiquées et donc non significatives.

sept15
sept14 sept13

Comme on le voit, et contrairement aux affirmations médiatiques, les données du GISS de la NASA montrent que le mois d'août 2015 n'a pas été plus chaud que celui de 2014. De manière plus rigoureuse et tenant compte des incertitudes, en réalité, le mois d'Août 2015 est indistinguable des mois d'Août 1998, 2003, 2006, 2010, 2011,2012,2013 et 2014.

Pour ce qui est des mesures satellitaires, comme on le voit, le mois d'août 2015 est loin de battre les records. Pour ces deux organismes, août 1998 a été le mois d'août le plus chaud et le mois d'août 2015 est indistinguable d'une kyrielle de mois d'août dont les marges d'erreur pénètrent dans les rectangles bleus.

En résumé, nous constatons, à partir des graphiques officiels que les journalistes feraient bien de consulter avant de rédiger leurs articles, que ni le Groenland, ni la sept22glace arctique, ni les températures du mois d'août n'inspirent, en cette année 2015, d'inquiétude. Au contraire, l'évolution des observables disponibles montre que l'on peut rester optimiste. S'il est certainement possible que la température globale augmente un peu dans les mois qui viennent du fait du très intense El Niño qui sévit en ce moment dans le Pacifique (ci-contre), il est tout aussi probable que le La Niña qui lui succédera, tôt ou tard, provoquera une baisse équivalente des températures comme il en a toujours été, au moins depuis que nous disposons d'observations fiables.

 

En attendant, chers lecteurs et chers lectrices, restons vigilants et circonspects quant au déferlement médiatico-politique qui accompagne la "mise en condition" du public en vue de la COP21 qui se tiendra à Paris à la fin de ce mois de Novembre et au début de Décembre. Tout cela n'a que très peu à voir avec l'évolution réelle du climat. de notre planète.

Stay Tuned !

PS : La liberté d'expression et l'affaire Philippe Verdier.

28 août 2015 : Analyse statistique de la divergence entre les modèles numériques et les observations.
D'autre part, on constate que la '"sensibilité climatique" au CO2, évaluée dans les publications successives, s'amenuise, année après année, ceci en contradiction flagrante avec l'alarmisme actuel.
...Ce qui ne semble guère préoccuper les médias qui poursuivent leur intense campagne d'"information", comme nous le verrons plus bas.

Comme le savent les lecteurs(trices) de ce site, la quasi-totalité des mesures envisagées par les politiques en matière de climat et notamment celles qui seront discutées lors de la prochaine conférence COP21 à Paris, reposent fondamentalement sur les prédictions des modèles numériques du climat. S'il est exact que la prévision reste l'un des objectifs fondamentaux de la science, encore faut-il s'assurer que ces prévisions sont robustes et fiables avant de prendre des décisions lourdes de conséquences. Ce billet, tout comme nombre de ceux qui le précèdent et qui figurent ci-dessous, montre qu'il est légitime d'avoir quelques sérieux doutes à ce sujet.

Dans le prolongement direct des déclarations (en forme d'avertissements) présentés indépendamment par John Christy et Judith Curry devant les élus des USA que j'ai rapportées dans les billets précédents et qui attiraient, une fois encore, l'attention des décideurs sur la divergence croissante qui existe entre les résultats des modèles numériques du climat et les observations, nous allons rapporter ici une analyse statistique de la robustesse de cette divergence. Cette analyse démontre, entre autres, que la divergence entre les modèles et les observations est une fonction croissante du temps qui passe, qu'elle est tout à fait significative du point de vue statistique et qu'elle en est arrivée au point de remettre sérieusement en question les fondements mêmes des modélisations climatiques sur lesquelles repose l'intense activité politique (et médiatique) que nous connaissons actuellement.

En guise d'introduction pour l'analyse qui suit, on peut se souvenir d'un des graphiques présenté par John Christy lors de son récent exposé devant les représentants US. hcnr8

 

Ce graphe montre une comparaison entre la moyenne des 102 modèles climatiques CMIP-5 (en rouge) pour la moyenne troposphère (globale) et la moyenne des observations correspondantes effectuées par les deux systèmes satellitaires indépendants (et concurrents) RSS-MSU et UAH (qui donnent des résultats très semblables) représentées par les carrés ainsi que la moyenne des 4 séries de résultats obtenus par les ballons-sondes (ronds bleus).

La divergence croissante qui existe entre les modèles et les observations est particulièrement évidente.

A noter que le graphique ci-contre traite de la divergence entre les modèles et les observations de la température de la moyenne troposphère. Pour sa part, l'article traduit ci-dessous concerne la comparaison des résultats des modèles et des observations pour les températures moyennes et globales mesurées à proximité de la surface de notre planète.

 


Je vous propose donc, ci-dessous, une traduction intégrale d'un article rédigé par des climatologues aussi chevronnés que renommés. Les auteurs sont, dans l'ordre, Hans von Storch, Armineh Barkhordarian, Klaus Hasselmann et Eduardo Zorita (affiliations dans la traduction ci-dessous). La longue expertise et la renommée de trois de ces auteurs est attestée par le grand nombre d'articles publiés dans les revues peer-reviewed et le nombre de citations de ces derniers (von Storch : 365 publications, 8497 citations ; Zorita : 222 publications, 4396 citations et Hasselmann : 179 publications, 10339 citations).
Ces auteurs ne peuvent en aucun cas être qualifiés de "climato-sceptiques". Il s'agit tout simplement de climatologues "mainstream" expérimentés qui s'inquiètent de l'inadéquation évidente qui apparaît entre les modèles et les observations. Ils se contentent de constater l'évidence et de proposer des explications plausibles dans le contexte de nos connaissances actuelles.
Je n'ai pas traduit les "Suppléments" qui accompagnent traditionnellement la soumission de ce genre de publication. Les lecteurs(trices) intéressé(e)s pourront en prendre connaissance en cliquant sur le lien que j'indique ci-dessous. J'ai néanmoins créé un lien cliquable sur les tables de ces suppléments quand elles sont référencées dans la traduction de l'article de Hans von Storch et al.
Hormis les inter-titres, les caractères engraissés le sont par PU.

1) L'analyse de la divergence modèles/observations :

Source de l'article (2013)

Les modèles du climat peuvent-ils expliquer la stagnation récente du réchauffement climatique ?
Hans von Storch(1), Armineh Barkhordarian(1), Klaus Hasselmann(2) et Eduardo Zorita(1)


(1) Institute for Coastal Research, Helmholtz-Zentrum Geesthacht, Geesthacht, Germany
(2) Max-Planck-Institute for Meteorology, Hamburg, Germany


Au cours de ces dernières années, il est apparu que l'augmentation de la température moyenne de la couche d'air proche de la surface du globe [NdT : c'est à dire celle dont la température est mesurée par les sondes thermométriques] était nettement plus petite que celle à laquelle beaucoup s'attendaient. Nous cherchons à savoir si ceci peut être expliqué dans le cadre des scénarios numériques actuels du changement climatique. A l'inverse des analyses antérieures qui mettaient en évidence une cohérence entre les modèles et les observations à un niveau de confiance de 5%, nous trouvons que la stagnation persistante durant les quinze années, de 1998 à 2012, n'est plus cohérente avec les projections des modèles même en allant jusqu'au niveau de confiance de 2%.
Parmi les causes possibles de cette divergence,
la sous-estimation de la variabilité naturelle du climat constitue un candidat potentiel mais l'influence de facteurs de forçage externes non pris en compte par les modèles ou une surestimation de la sensibilité climatique des modèles à une augmentation des concentrations de gaz à effet de serre, ne peuvent pas être éliminées. La première cause n'aurait qu'un faible impact sur les attentes à long terme du changement climatique anthropique mais la seconde et, en particulier, la troisième aurait un impact certain. Les estimations du réchauffement climatique observé durant la période récente de quinze années (1998-2012) varient entre 0.0037 °C/an (NCDC)(1) , 0.0041 °C/an (HadCRUT4) (2) et 0.008 °C/an (GISS) (3). Ces valeurs sont significativement plus faibles que le réchauffement moyen de 0.02 °C/an observé durant les trente années précédentes (1970-2000) (4).

Les modèles peuvent-ils expliquer la stagnation du réchauffement climatique ?

Nous comparons la tendance récente du réchauffement climatique observé avec un ensemble de tendances du réchauffement climatique calculé par 23 modèles différentes des Projets d'Inter-Comparaison des Modèles Climatiques (Climate Model Intercomparison Projects) CMIP3(5) et CMIP5(6) (Table S1 dans les Suppléments). Les simulations ont été effectuées pour les deux scénarios A1B (CMIP3) et RCP4.5 (CMIP5) qui sont proches de l'histoire récente des émissions avec une croissance linéaire des émissions au delà de 2012 jusqu'en 2060 (Figure 1).

hvs1

 

Figure 1: Emissions anthropiques de carbone selon les scénarios SRES A1B (en rouge) et RCP4.5 (en bleu) comparée aux émissions anthropiques estimées (Martin Heimann, comm. personnelle).[NdT : Ce qui est conforme aux estimations du GIEC]

 

 

 

 

 

Une comparaison des tendances de l'ensemble des modèles numériques pour différentes séquences temporelles avec une estimation moyenne du réchauffement global (0.0041 °C/an, HadCRUT4) est montrée dans la Figure 2 (Un résumé statistique plus détaillé impliquant les deux autres estimations de la tendance récente est présentée dans la Table S2 des Suppléments).hvs2

 

 

Figure 2. Cohérence entre la tendance récente de la température globale moyenne et les simulations numériques des modèles climatiques. La figure montre la proportion des tendances simulées qui sont inférieures ou égales aux tendances annuelles observées durant la période 1998-2012 selon les données HadCRUT4, Rhadcrut15.= 0.0041 °C/an. L'ensemble des simulations a été calculé pour des séquences qui ne se chevauchent pas pour la période 2001-2060. Les modèles du climat reposent sur les scénarios d'émission RCP4.5 (CMIP5) et A1B (CMIP3). L'inset montre un zoom sur la zone de 0% à 2% .

Note : Rappel sur l'utilisation des percentiles (on dit plutôt "centiles" en français).hvs5

En statistique, le quatre-vingt-quinzième centile est la valeur telle que 95 % des valeurs sont en dessous et 5 % sont au-dessus.
Le graphique ci-contre, à droite, montre que les segments de longueur 12 à 20 ans sont égaux ou en dessous du quantile à 2%. De 15 à 20 ans, le quantile est inférieur à 1% ce qui signifie que plus aucun modèle ne colle avec les observations. Il s'agit de la traduction statistique du fait que les modèles s'écartent des observations à mesure que le temps passe. Et ce ne sont pas les centièmes de degré des années 2013 ou 2014 qui y changeront quoi que ce soit.

 

Pour les segments de 10 ans, 6% (CMIP3) ou 8% (CMIP5) des tendances simulées sont plus petites ou égales aux tendances observées durant la période 1998-2012 - en accord avec les tests positifs antérieurs de cohérence pour la période 1998-2009(7). Cependant, pour les tendances des intervalles de 15 ans qui correspondent aux observations récentes pour la période 1998-2012, seulement 2% parmi les 62 tendances des modèles CMIP5 et moins de 1% des 189 tendances des modèles CMIP3 sont plus faibles ou égales aux tendances observées. Si nous appliquons le test standard de la valeur statistique critique de 5% (8), nous concluons que les projections des modèles sont incohérentes avec les observations récentes du réchauffement climatique durant toute la période 1998- 2012. (Notons cependant que la terminologie du test statistique standard, bien qu'elle soit très généralement utilisée, n'est pas, à strictement parler, appropriée dans ce cas : voir les Suppléments(9)). L'incohérence augmente rapidement avec l'augmentation de la durée de la tendance. La poursuite du taux de réchauffement actuel durant une période de 20 ans et plus tomberait en dehors de toutes les tendances simulées par l'ensemble de tous les modèles climatiques.


Qu'est-ce que ces incohérences impliquent pour ce qui est de l'utilité des projections climatiques pour le changement climatique anthropique ?

Nous sommes en mesure de suggérer trois explications possibles pour les divergences modèles/observations :

1) Les modèles sous-estiment la variabilité interne et naturelle du climat.
2) Les modèles climatiques sont en défaut parce qu'ils n'incluent pas de processus de forçage externe en complément du forçage anthropique, ou,
3) La sensibilité des modèles climatiques vis à vis du forçage externe anthropique est trop élevée.

La première explication est simple et plausible. La variabilité naturelle est la conséquence inévitable pour un système lent (le climat) en interaction avec un système rapide (le temps météorologique)(10). Le forçage d'un système lent par les composantes à basse fréquence (bruit blanc) du système rapide induit un "mouvement Brownien" représenté par un spectre de variance rouge - en accord qualitatif avec les observations.

Cependant, les détails de la réponse dépendent fortement de la dynamique interne du système lent dans les échelles de temps concernées - dans le cas présent, pour des échelles de temps de décennies. On sait depuis longtemps, d'après les rapports successifs du GIEC (4) que les modèles climatiques globaux contemporains n'ont qu'un succès limité dans la simulation de nombre de processus qui vont de la variabilité de la circulation océanique, aux événements ENSO [NdT : La Niña et El Niño], aux régimes des oscillations océans-atmosphère; aux variations de la glace de mer, à sa surface continentale, à la chimie de l'atmosphère et à la biosphère. L'incapacité de simuler la variabilité statistique interne du climat peut avoir été compensée, dans le passé, par l'ajustement des modèles par des forçages externes prescrits tels que les éruptions volcaniques et les aérosols troposphériques.

Ceci expliquerait pourquoi les simulations implémentées avec des forçages historiques des différentes GCM [NdT : modèles globaux du climat] tendent à être très proches et suivent de près les observations enregistrées. Ce "gonflage" artificiel (11) par une variabilité forcée au dépens de la variabilité naturelle imprévisible fonctionne, en réalité et seulement, pour la période d'ajustement et ne fonctionne plus du tout dans la phase post-ajustement, c'est à dire approximativement depuis l'an 2000. Le résultat net d'une telle procédure est une sous-estimation de la variabilité naturelle et une surestimation de la réponse à une variabilité forcée.

De fait, la seconde explication ne peut être exclue dans le contexte de l'ajustement traditionnel des modèles.La stagnation récente pourrait être attribuée à un forçage externe qui n'est pas inclus ou qui ne l'est pas de manière satisfaisante, dans les modèles actuels. Les éruptions volcaniques et l'ensoleillement sont des candidats fréquemment invoqués. Cependant, bien que les deux explications bénéficient de supporters, une augmentation récente de l'activité volcanique n'a pas été rapportée. Les variations de l'ensoleillement ou de l'activité solaire exigent des mécanismes d'amplification qui sont encore assez spéculatifs et qui pourraient contribuer à la diminution récente du réchauffement climatique (12,13).

Enfin, la surestimation par les modèles du réchauffement climatique pour la période 1998-2012 pourrait être en partie corrigée par la sensibilité climatique supposée au forçage radiatif. En principe, les sensibilités climatiques des modèles sont calibrées par un ajustement de la réponse climatique aux variations saisonnières et fonction de la latitude du forçage solaire tout autant que par le changement climatique observé dû à l'augmentation du forçage anthropique tout particulièrement durant le XXe siècle.
Il serait difficile de modifier la calibration des modèles de manière suffisamment significative pour reproduire le ralentissement du récent réchauffement climatique tout en satisfaisant à ces dernières exigences essentielles. Alors que l'ajustement de l'effet des aérosols peut aider à réconcilier la différence entre les observations et les tendances à long terme simulées (14) et, de fait, une étude récente (15) propose que la sensibilité réelle pourrait effectivement se trouver dans la partie la plus basse des modèles climatiques contemporains, une recalibration qui reproduirait la réduction du réchauffement durant les 15 dernières années apparaît difficilement réalisable. On ne sait pas si une recalibration récente des modèles CMIP5 a été entreprise mais les modèles CMIP3 ont été mis en oeuvre avant que la stagnation récente n'ait été détectée.

Nous ne souhaitons pas suggérer laquelle des ces trois possibilités est la plus probable. Nous laissons nos collègues en décider. Il est tout à fait possible que les trois facteurs contribuent dans une certaine mesure. Mais nous espérons que la nécessité de comprendre la stagnation récente du réchauffement climatique provoquera un accroissement des efforts pour parvenir à une simulation plus fiable de la variabilité climatique à l'échelle de décennies et à notre capacité à démêler les contributions relatives de la variabilité forcée (déterministe) de la variabilité interne (stochastique).

References:

1 Smith, T. M., et al. J. Climate, 21, 2283 (2008).
2 Morice, C.P, Kennedy, J.J.Rayner, N.A. & Jones, P.D. J. Geophys. Res. 117, D08101
doi:10.1029/2011JD017187 (2012).
3 Hansen, J., R. Ruedy, Mki. Sato, & Lo, K. Rev. Geophys., 48, RG4004, doi:10.1029/2010RG000345
(2010).
4. Solomon, S. et al. Climate Change, The Physical Science Basis, Camb. Univ. Press (2007).
5 Meehl, G. A., et al. Bull. Am. Meteorol. Soc. 88, 1383 (2007).
6 Taylor, K. E., et al.. Bull. Am. Meteorol. Soc. 93, 485 (2012).
7 Easterling, D.R. & Wehner, M.F. Geophys.Res. Lett. 36 L08706, doi:10.1029/2009GL037810 (2009).
8 Barnett et al., J. Climate 18, 1291 (2005).
9 von Storch, H. & Zwiers, F. Climatic Change 117, 1 (2013).
10 Hasselmann, K. Tellus 31, 473 (1976).
11 von Storch, H.. J. Climate 12 3505 (1999).
12 Meehl G.A., Arblaster, J.M., Matthes, K., Sassi., F. & van Loon, H. Science 325, 1114 (2009).
13 Shindell, D. T., G. Faluvegi, R. L. Miller, G. A. Schmidt, J. E. Hansen & Sun, S.
Geophys. Res. Lett., 33, L24706, doi:10.1029/2006GL027468.(2006).
14 Kiehl, J. T. Geophys. Res. Lett., 34, L22710, doi:10.1029/ 2007GL031383 (2007).
15 Otto, A., et al. Nature Geo. 6, 415 (2013).

2) Sensibilité climatique

On peut compléter les considérations développées par von Storch et al. pour ce qui concerne le point 3) qui concerne l'évolution récente de l'évaluation de la "sensibilité climatique" à un ajout de CO2 dans l'atmosphère. J'ai rapporté, dans cette page, de nombreuses déclarations faites par différents auteurs au sujet de l'amenuisement progressif de ce paramètre fondamental pour les théories en vigueur. Il suffit de rechercher le mot 'sensibilité' dans cette page pour retrouver les nombreuses citations qui en font mention.
Tout récemment, plusieurs investigateurs (dont celui-ci) ont eu l'idée d'illustrer l'évolution des différentes estimations de ce paramètre déterminant pour les théories de l'effet de serre. En bref, ils ont répondu à la question suivante :

"Quelle est la tendance de l'évolution de la sensibilité climatique" dans les publications (peer-reviewed) des climatologues lors de ces quinze dernières années".

hvs7

Le graphique ci-contre a été établi d'après les données collectées par Nic Lewis (billet en trois parties) qui est lui-même l'auteur de plusieurs articles peer-reviewed publiés sur la sensibilité climatique (par ex. celui-ci).

Selon les théories en vigueur, la "sensibilité climatique"correspondant à l'augmentation de la concentration du CO2 dans l'atmosphère est égale à l'élévation de température globale moyenne en °C pour un doublement de la concentration de CO2 dans l'atmosphère.
Ainsi une sensibilité égale à 2 provoquerait une augmentation de température de 2°C, par rapport à la température actuelle si la concentration du CO2 atteignait environ 800 ppm (nous en sommes à 400ppm).

On définit deux types de sensibilités climatiques :

-La sensibilité climatique à l'équilibre (ECS, equilibrium climate sensitivity, points rouges sur le graphique ci-contre) se rapporte au changement de la température du globe (à proximité de la surface) qui résulterait d'un doublement indéfiniment persistant du taux de CO2 dans l'atmosphère.

-La réponse climatique transitoire (TCR : Transient climate response. Les points bleus sur le graphique ci-contre) est définie comme la réponse moyenne de la température moyenne du globe sur une période de 20 années centrée sur le doublement du taux de CO2 dans une simulation numérique avec un taux de CO2 en augmentation de 1% par an.

De manière générale, la TCR est nettement plus faible que l'ECS du fait de l'inertie thermique de la planète et notamment de celle des océans.

La lecture de ce graphique est immédiate. Depuis l'années 2001, les différentes estimations des sensibilités climatiques (TCR et ECS) publiées dans la littérature on été pratiquement divisées par 2 au cours des années passées. C'est à dire que, si l'on s'en tient aux théories en vigueur, l'élévation moyenne de la température de la planète pour un doublement du taux de CO2 (par exemple si l'on passait de 400 à 800 ppm) serait de 1,3°C (pour la TCR) ou 1,7°C (pour l'ECS) par rapport à la situation actuelle, ce qui est très sensiblement moins alarmiste que les modèles du GIEC, (les plus pessimistes sont fréquemment cités dans les médias), qui donnent des sensibilités climatiques proches de 2 (TCR) et 3,5 (ECS). A noter que ce graphique omet l'estimation de Richard Lindzen qui voit une ECS inférieure ou égale à 1.
hvs9


Si l'on fait confiance aux scénarios du GIEC et si l'on estime que nous poursuivrons suivant la voie du scénario actuel proche de l'A1B (on peut difficilement anticiper de nouvelles croissances du type de celle de la Chine et l'utilisation des gaz de schistes a tendance à abaisser les émissions, comme, actuellement, celles des USA), les diagrammes du GIEC (ci-contre) nous indiquent que nous n'atteindrons pas les 700 ppm en l'an 2100 et donc que la hausse des températures sera très inférieure à 2°C.
Dès lors, on peut s'interroger sur le fondement des estimations des +4°C, +5°C, +6°C en 2100, énoncées fréquemment par diverses personnalités dans nos médias, tout particulièrement à l'approche de la COP21.

 

 

A noter, au sujet de l'article de Hans von Storch et de ses collègues que ce dernier a été refusé par la revue Nature, ce qui n'est guère étonnant compte tenu de l'orientation délibérée de cette revue (grise). Sans insister, Von Storch et ses collègues qui n'ont nul besoin d'étoffer leur CV et leur renommée, ont décidé alors de le publier sous la forme que j'ai indiquée. A remarquer également que, s'agissant du point 1 (i.e. "les modèles sous-estiment la variabilité naturelle du climat"), von Storch et ses collègues n'ont pas évoqué frontalement le complément logique de cette possibilité, pourtant déjà relevé par beaucoup, que si la variabilité naturelle permet d'expliquer "la stagnation des températures", il n'y a aucun raison qu'elle ne puisse pas, tout aussi bien, expliquer, au moins en partie, la hausse des températures qui s'est produite durant de la période précédente (1976-1998), sauf à prouver le contraire. Dès lors la remarque des auteurs "La première cause n'aurait qu'un faible impact sur les attentes à long terme du changement climatique anthropique" est prise en défaut.
Inévitablement, si la variabilité naturelle est également responsable (au moins en partie) du réchauffement précédent (il n'y aucune raison de supposer que la variabilité naturelle puisse seulement refroidir mais pas réchauffer), cela conduit inexorablement à une diminution de la sensibilité climatique au CO2 dont il faudrait impérativement tenir compte dans les modèles.

3) Le plus chaud de toute l'histoire (!) :

Peu d'entre nous ont sans doute pu échapper aux titres des multiples coupures de presse qui nous affirmaient, comme, par exemple, Le Figaro, que "Le mois de Juillet 2015 est le plus chaud de toute l'histoire".
On se perd en conjectures sur ce qui constitue le début de '"toute l'histoire" pour l'auteure de cet article mais ce qui est certain c'est qu'elle ne s'est donné aucun mal pour informer ses lecteurs. Par exemple, en répondant aux questions "Qui dit cela ?, Que disent les autres ?", "le plus chaud, mais de combien ? Est-ce significatif compte tenu des incertitudes des mesures ?". Les lecteurs de PU qui en ont vu bien d'autres, ne seront pas étonnés...

Pour notre part, et selon nos bonnes habitudes, nous avons voulu en savoir un peu plus. Voici donc les données officielles, au sujet des mois de Juillet successifs (depuis 1997), publiées par le Goddart Institue (GISS) de la NASA (très proche de la NOAA qui utilise la même base de données thermométriques qui est d'ailleurs la seule existante, à gauche, en bleu sur le graphique suivant) et par l'organisme indépendant RSS- MSU qui mesure, à l'aide de satellites et avec des algorithmes qui lui sont propres, la température de l'atmosphère proche de la surface de la planète ( à droite, en rouge sur le graphique suivant)..

hsv13

Suivant les conventions habituelles, les segments verticaux au dessus et au dessous de chaque point (carré) de mesure indiquent les marges d'incertitudes. Celles-ci sont de ±0.1°C pour la NASA (et le HadCRUT) et de ±0.08°C revendiqués par le RSS-MSU. Les zones en grisé indiquent les zones d'incertitudes centrées sur les dernières mesures publiées du mois de Juillet 2015.

Pour ce qui est des valeurs numériques rapportées par le GISS de la NASA, et comme on le voit sur le graphique, en réalité, la température globale revendiquée pour le mois de Juillet 2015 ne diffère que très très peu de celle des mois de 2011 et que les écarts sont très inférieurs aux marges d'incertitudes.

Selon la NASA, Juillet 2015 a été plus chaud que
Juillet 2011 de +0,01°C (un centième de degré !)
Juillet 2009 de +0,03°C
Juillet 1998 de +0,04°C
Compte tenu des marges d'incertitudes de ±0.1°C, en réalité, le mois de juillet 2015 est quasiment indiscernable de 9 à 12 autres mois de juillet des années précédentes. On peut faire un peu mieux en usant de méthodes statistiques élaborées à l'aide des centiles comme ci-dessus, si on admet que les méthodes d'homégénéisation des stations de mesure des températures sont valides.

Le graphique et les données du RSS-MSU nous racontent une toute autre histoire. La température de l'atmosphère proche de la planète au mois de Juillet 2015 n'a absolument pas battu de records. Les mois de Juillet 1998 et 2010 ont été très significativement plus chauds (environ +0,3°C) que Juillet 2015, comme on le voit sur le graphique. A noter que les données de la dernière version (V6) de l' UAH qui utilisent des satellites et des méthodes différentes du RSS-MSU, sont très proches de ces dernières.

Enfin, on peut avoir une idée des différences des couvertures des méthodes thermométriques (NASA GISS et NOAA) et des méthodes satellitaires (UAH et RSS-MSU) en observant les deux images suivantes :

A gauche, la couverture satellitaire des températures du globe selon l'UAH. La couverture satellitaire est pratiquement complète ( à l'exception de régions très proches des pôles) et sans discontinuité.
A droite, la couverture thermométrique du globe selon le GHCN (la source des données de la NOAA et du GISS de la NASA, ici seulement pour les terres émergées). La couverture thermométrique de la planète est très pauvre. Comme indiqué en bas à droite de l'image, les zones en grisé représentent les zones où il n'y a pas de donnée thermométrique. Les températures des zones en grisé sont alors calculées avec des algorithmes d"'homogénéisation". Autant dire que, dans ces conditions, prétendre à une incertitude de ±0.1°C sur la température moyenne du globe relève de l'exploit. Quant aux écarts de l'ordre du centième de degré revendiqués, ils relèveraient, au mieux, du voeu pieux ou du rêve éveillé.

hvs14hvs15

A noter que l'on voit très bien, sur ces deux images, que le mois de Juillet 2015 a été relativement chaud pour l'Europe du Sud (et, bien sûr, comme on le sait, pour la France). A l'inverse, il a été relativement froid pour le Nord de l'Europe, l'Est des USA, la Chine et le Sud de l'Australie.hvs16

Dans ces conditions, affirmer, comme Le Figaro et beaucoup d'autres, que "Le mois de Juillet 2015 a été le plus chaud de toute l'histoire" équivaut à prétendre départager Usain Bolt (9 s 79/100e au 100m) et Justin Gatlin (9 s 80/100e au 100m), lors du dernier championnat du monde de course sur cent mètres, avec un chronomètre "vintage" gradué en dixièmes de seconde.

Ce serait stupide, me direz-vous. Alors pourquoi les médias publient-ils des articles qui font exactement la même chose ?

S'il s'agit de préparer les esprits pour la COP21 - ce qui est probable - il faudra trouver des arguments autrement plus convaincants pour les lecteurs un tant soit peu informés.

4) Plusieurs collègues scientifiques sont intervenus récemment dans le débat en cours, dans le même sens que ce site. Parmi d'autres, en voici deux exemples :

-Un texte de Philippe de Larminat auteur d'un livre (Changement climatique, identification et projections) novateur que j'avais signalé dans la page des liens, au sujet d'une analyse critique de la théorie de l'effet de serre.
-Une présentation de François Gervais à l'Institut Schiller.

Et enfin, deux annonces (déjà signalées dans la page des liens) ,

-Lancement du "Collectif des Climato-réalistes". " ... Tous ceux, individus ou associations, qui désirent soutenir le Collectif sont les bienvenus. Le Collectif souhaite vivement s’élargir aux sensibilités les plus variées et incarner ainsi cette large frange de la société civile qui, au-delà de tout clivage partisan, ne se reconnaît pas — ou plus — dans les discours alarmistes et culpabilisants sur le climat." (écrire au CCR).
-l'AFCO est une association des "climat-optimistes" fondée par Christian Gérondeau qui a pout but de fédérer tous ceux qui s'inquiètent des conséquences du pessimisme climatique généralisé initié par le GIEC et entretenu par les media, nombre d'ONG et de politiques.

Stay Tuned

18 Juin 2015 : Le climatologue John Christy témoigne devant le Comité sur les Ressources Naturelles de la Chambre des Représentants US au sujet des prises de position de la Maison Blanche.

En bref, le message de Christy est simple :
" Voici ce que nous disent les observations factuelles. Elles contredisent les modèles numériques utilisés par les climatologues et le GIEC ainsi que les affirmations du Conseil de la Maison Blanche sur la Qualité Environnementale."
______________________________

Dans le prolongement du billet précédent qui rapportait les avertissements de Judith Curry, adressés à la Maison Blanche, lors de son récent témoignage auprès de la chambre des représentants US, j'ai choisi de vous présenter le témoignage du climatologue John R. Christy qui a été invité à présenter son point de vue et les résultats de ses observations, toujours à propos des projets de la Maison Blanche, devant un autre comité de la Chambre US, celui des Ressources Naturelles. Il faut observer que les textes de lois américains (des USA) concernant notamment l'environnement (dont le NEPA, le National Environmental Policy Act), précisent que les projets de l'Administration (Présidentielle) doivent nécessairement faire l'objet d'un examen "approfondi" par diverses instances du Congrès de ce pays.

L'original du texte du témoignage de John Christy dont j'ai traduit de larges extraits ci-dessous, est disponible sur ce site officiel.

Un enregistrement vidéo de son exposé est également disponible.
Cet enregistrement vidéo est accompagné de la mention
: "Ajoutée le 22 mai 2015 : Le 13 Mai 2015, le Comité de la Chambre sur les Ressources Naturelles a conduit un audit sur "Le schéma directeur, récemment révisé, du CEQ [NdT : Conseil de la Maison Blanche sur la Qualité Environnementale] de la Maison Blanche sur les émissions de gaz à effet de serre et sur leurs effets sur le changement climatique".
"Le National Environmental Policy Act de 1969 (NEPA) impose que les agences fédérales effectuent "un examen approfondi" sur les conséquences environnementales de leurs actions."

Voici l'en-tête de l'exposé de John Christy devant le comité de la chambre des représentants. christy-hncr9

Avant projet du schéma directeur du Conseil de la Maison Blanche sur la Qualité Environnementale au sujet des Emissions des Gaz à Effet de Serre et de leurs Effets sur le Changement Climatique.

Comité sur les Ressources Naturelles

13 Mai 2015

Témoignage de John Christy

Université de l'Alabama (Huntsville)

Suivi d'un traduction de la quasi-totalité de l'exposé (les caractères engraissés le sont par PU. Les caractères en italique sont de John Christy; de même que les notes placées entre crochets. Celles qui sont indiquées NdT (note du traducteur) sont de PU :

"Je suis John R. Christy. Je suis "Distinguished" Professeur [NdT: titre proche du titre de "Professeur de Classe Exceptionnelle" des universités françaises] des Sciences de l'Atmosphère, Climatologue de l'Etat de l'Alabama et Directeur du Centre des Sciences de la Terre de l'Université de l'Alabama à Huntsville. J'ai exercé les fonctions d'auteur principal, de contributeur et de relecteur pour les rapports du GIEC de l'ONU. J'ai été récompensé par la Médaille de la NASA pour Réussite Scientifique Exceptionnelle et, en 2002, j'ai été élu membre de la Société Météorologique Américaine.

C'est un privilège pour moi d'avoir l'opportunité de vous exposer mon analyse sur l'impact que les réglementations envisagées pourraient avoir sur le système climatique. Mon activité de recherche pourrait être mieux décrite comme l'élaboration de données, à partir de zéro, destinées à faire progresser notre compréhension de ce que fait le climat et pourquoi il le fait. J'ai utilisé les observations traditionnelles de surface aussi bien que les données issues des ballon-sondes et des satellites afin de documenter la question du climat. Nombre de nos données UAH sont utilisées pour tester les hypothèses sur la variabilité et le changement climatiques.

L'impact d'un (ou de plusieurs) projets fédéraux sur le climat : [NdT : Rappelons que John Christy est invité, par les élus, à analyser les conséquences potentielles du schéma directeur de la Maison Blanche en matière de changement climatique dans le cadre du NEPA (Décret sur la Politique Environnementale Nationale)].
[...]
Supposons, par exemple, que les émissions totales des Etats-Unis soient réduites à zéro, aujourd'hui même, le 13 Mai 2015. En d'autres termes et à partir d'aujourd'hui, il n'y aurait plus d'industrie, plus de voitures, plus de services publics, plus personne - c'est à dire que les Etats-Unis cesseraient d'exister à partir d'aujourd'hui. Partant de là, nous allons essayer de répondre à la question posée par le schéma directeur NEPA qui est, fondamentalement, celle-ci : quelle est "l'ampleur du changement climatique dû aux émissions des gaz à effet de serre ?".

[Note : Il semble qu'il existe une confusion à ce sujet . La déclaration NEPA semble requérir le calcul du montant du changement climatique résultant des niveaux d'émission de chaque projet, pris individuellement. Cependant, le schéma directeur du CEQ envisage "les effets potentiels d'une action sur le changement climatique selon les émissions de gaz à effet de serre envisagées". De fait, le schéma directeur du CEQ affirme que, d'une certaine manière, n'importe quelle émission de gaz à effet de serre est connectée à la totalité des conséquences supposées des gaz à effet de serre ajoutés.
C'est ainsi que le schéma directeur tend à affirmer que les émissions constituent un indicateur (un "proxy") pour les impacts négatifs du changement climatique (ce qui, comme nous le montrerons ci-dessous n'a pas été démontré) tout en passant sous silence toute évaluation de l'effet réel résultant des effets individuels.
De fait, il est inconcevable que le schéma directeur ne prenne même pas en compte les conséquences indubitablement positives d'une augmentation des émissions de gaz à effet de serre qui sont tout aussi quantifiables :
1) le prolongement et l'amélioration de la vie humaine au moyen de l'utilisation d'une énergie aisément accessible et,
2) le renforcement de la biosphère (tout particulièrement pour ce qui concerne la végétation utilisée comme aliments par les humains).
]

En utilisant le logiciel dédié du GIEC de l'ONU connu sous le nom de Modèle pour la Détermination du Changement Climatique Induit par les Gaz à Effet de Serre, MAGICC ( Model for the Assessment of Greenhouse-gas Induced Climate Change), un étudiant, Rob Junod, et moi-même avons calculé l'effet de la diminution de la progression des émissions globales avec la contribution des Etats-Unis en partant de la date de ce jour et en progressant vers l'avenir. Nous avons aussi utilisé la valeur de 1,8°C pour la sensibilité climatique à l'équilibre déterminée par les techniques empiriques.

Après 50 ans, l'impact calculé par ce modèle (MAGICC) serait de seulement une baisse de 0,05 à 0,08°C - c'est à dire une quantité plus petite que les fluctuations mensuelles de la température globale. [Ces calculs utilisent les scénarios d'émission A1B-AIM et AIF-MI avec des émissions des Etats-Unis comprises entre 14 et 17% des émissions gobales pour l'année 2015. Il existe des évidences indiquant que la sensibilité climatique serait inférieure à 1,8°C, ce qui abaisserait d'autant les résultats de ces projections.]

Du fait que les modifications des émissions de notre pays tout entier auraient un impact calculé aussi petit sur le climat du globe, il est évident que des projets isolés ou même de secteurs tout entiers de l'économie n'auraient que des impacts imperceptibles. En d'autres termes, il n'existerait aucune preuve, dans l'avenir, qui démontrerait un impact particulier sur le climat résultant des réglementations qui sont proposées. C'est pourquoi ces réglementations n'auront aucune conséquence significative et utiles sur la physique du système climatique - même si l'on est convaincu que les modèles sont utiles pour faire des prédictions.

Que vaut notre connaissance du climat ?

Il est important de comprendre que les projections sur le futur du climat et sur le lien spécifique que l'augmentation du CO2 pourrait avoir sur le climat ne sont, en réalité, définies que comme des hypothèses scientifiques ou comme des affirmations et non pas comme des preuves de ces liens. Les projections qui sont utilisées dans ce but, et dans d'autres buts politiques, sont basées sur les résultats de simulations numériques. Ces modèles sont des programmes complexes d'ordinateur qui tentent de décrire, à l'aide d'équations mathématiques, le plus grand nombre possible des facteurs qui affectent le climat et simulent, de cette manière, l'évolution future du climat. Les équations pour nombre des processus importants ne sont pas exactes mais elles représentent les meilleures approximations disponibles dont les modélisateurs peuvent disposer, au point où nous en sommes.

Un aspect fondamental de la méthode scientifique consiste à observer que si nous affirmons que nous comprenons un système (tel que le système climatique), il en résulte que nous devrions être en mesure de prédire son comportement futur. Si nous sommes dans l'incapacité de réaliser des prédictions correctes cela signifie qu'au moins certains facteurs du système sont mal compris ou, peut-être, manquants. [Note : cependant, le fait de simplement reproduire le comportement d'un système (c'est à dire de reproduire ce que fait le climat), n'offre aucune garantie que la physique fondamentale est correctement prise en compte. En d'autres termes, il est possible d'obtenir une réponse exacte pour de mauvaises raisons, c'est-à-dire que nous pouvons trouver "ce que fait le climat" tout en nous trompant sur les raisons pour lesquelles il le fait.]

Comprenons-nous comment les gaz à effet de serre affectent le climat, c'est à dire le lien qui relie les émissions et les effets climatiques ?

Une approche très fondamentale pour les études climatiques consiste à mesurer la température de la couche atmosphérique appelée la troposphère qui occupe l'espace compris entre la surface de la Terre et une altitude d'environ 50.000 pieds. C'est cette couche qui, d'après les modèles, doit se réchauffer de manière significative à mesure que le taux de CO2 augmente. Ce réchauffement résultant de l'effet du CO2, devrait être, à présent, aisément détectable, selon les modèles. Ceci constitue un bon test de la pertinence de notre compréhension du système climatique parce que, depuis 1979, nous disposons de deux méthodes indépendantes pour suivre l'évolution de cette couche atmosphérique. Nous bénéficions, d'une part, des satellites pour l'observer vue de dessus et d'autres part de ballons équipés de thermomètres et lâchés depuis la surface.


J'ai eu accès aux 102 résultats des simulations numériques des températures de l'atmosphère CMIP-5 rcp4.5 (représentatifs des trajectoires des variations de concentration) pour la couche troposphérique. J'ai reproduit les températures correspondantes, données par les modèles, pour effectuer une comparaison pertinente, entre éléments semblables [NdT : "apples-to-apples" en anglais], avec les observations des ballons-sondes et des satellites. Ces modèles ont été développés au sein de multiples institutions réparties sur tout le globe et ont été utilisés pour le rapport AR5 du GIEC (2013).

christy-hcnr1


Ci-dessus : Variations de la température moyenne de la moyenne troposphère globale (lissées sur 5 ans) pour 32 modèles représentant 102 simulations distinctes (représentées par des lignes continues). Les cercles (ballons) et les carrés (satellites) rendent compte des observations.
[NdT : La ligne épaisse de couleur rouge représente la moyenne des 102 modèles CMIP5 regroupés en 32 sous-ensembles).


Les informations contenues dans cette figure apportent une preuve évidente que les modèles ont une forte tendance à surchauffer l'atmosphère par rapport aux observations factuelles. En moyenne, les modèles réchauffent l'atmosphère globale avec un taux trois fois supérieur à ce qui se produit dans la réalité. Si nous faisions usage de la méthode scientifique, nous en conclurions que les modèles ne représentent pas correctement au moins certains des processus importants qui régissent le climat parce qu'ils ont été incapables de "prédire" ce qui s'est produit. En d'autres termes, ces modèles échouent au simple test destiné à nous dire "ce qui s'est réellement produit" et, en conséquence, ne seraient pas capables de nous apporter une réponse digne de confiance de ce qui "pourrait se passer" dans le futur et pourquoi. En tant que tels, ils seraient hautement problématiques pour déterminer une politique qui devrait reposer sur une compréhension tout à fait digne de confiance sur la manière dont fonctionne le système climatique.

Il existe une autre mesure apparentée qui utilise également la température de l'atmosphère mais qui, dans les modèles, montre une réponse encore plus importante que celles de la moyenne globale représentée ci-dessus. De fait, cette mesure fournit un test encore plus critique sur l'évaluation de la manière dont les modèles prennent plus spécifiquement en compte les gaz à effet de serre. Les modèles nous disent que l'atmosphère tropicale se réchauffe intensément en réponse à l'ajout de gaz à effet de serre - plus encore que la température moyenne globale de l'atmosphère.

christy-hcnr1b


Ci-dessus : Variations de la température moyenne de la moyenne troposphère tropicale (lissée sur 5 ans) pour 32 modèles représentant 102 simulations distinctes (lignes pointillés). Les cercles (ballons) et les carrés (satellites) rendent compte des observations.


La comparaison dans la zone des tropiques ci-dessus, met en évidence une divergence encore plus importante entre les modèles et les observations, avec des modèles qui, en moyenne, réchauffent cette région de l'atmosphère quatre fois plus que la réalité. Un tel résultat renforce l'idée que les modèles ont encore beaucoup de progrès à accomplir avant que nous puissions leur faire confiance pour fournir des informations sur ce que le climat fera dans le futur ou, même, sur les raisons pour lesquelles il le fera.

Pour ce qui nous concerne aujourd'hui, les estimations au sujet de la façon dont le climat pourrait être affecté par les réductions des émissions résultant de l'arrêt des projets, seraient abusives et dénuées de fiabilité. Il est évident que les émissions de gaz à effet de serre ne peuvent être utilisées comme un indicateur [NdT : proxy] pour un changement climatique envisagé du fait que notre capacité à démontrer comment les gaz à effet de serre influent sur le climat déjà observé est tellement défaillante.

christy-hcnr8

Note : Au cours des questions-réponses qui ont suivi son exposé, John Christy a montré un graphe encore plus explicite.

Le voici, ci-contre. Ce graphe montre une comparaison entre la moyenne des 102 modèles climatiques CMIP-5 (en rouge) pour la troposphère (globale) et la moyenne des observations correspondantes pour les deux systèmes satellitaires (Christy fait sans doute allusion aux deux institutions indépendantes RSS-MSU et UAH qui donnent des résultats très semblables) (les carrés) ainsi que la moyenne des 4 séries de résultats obtenus par les ballons-sondes (points bleus).

La divergence entre les modèles et les observations est particulièrement évidente. Ce graphe a été repris à de très nombreuses reprises dans la presse et les blogs anglo et germanophones.


Impacts supposés des changements climatiques anthropiques mentionnés dans le schéma directeur du Conseil de la Maison Blanche sur la Qualité Environnementale
(CEQ).


Comme il est écrit dans le paragraphe entre crochets ci-dessus [NdT : non rapporté ici], le schéma directeur du Conseil de la Maison Blanche sur la Qualité Environnementale tente d'établir un lien entre chaque émission de gaz à effet de serre avec tous les impacts supposés de ces émissions ce qui, comme je l'ai mentionné plus haut, apparaît incohérent avec le National Environmental Policy Act (NEPA). En d'autre termes, il est allégué que le CO2 est un indicateur (proxy) pour tous les changements climatiques dus aux activités humaines. En réalité, ces impacts revendiqués ne sont même pas corroborés de manière consistante par les observations factuelles.
Selon Le Conseil de la Maison Blanche sur la Qualité Environnementale
"des événements déjà observées de nos jours et projetés pour le futur incluent des vagues de chaleur plus intenses et plus fréquentes, des feux de forêts plus intenses, une qualité de l'air dégradée, de fortes pluies et des inondations plus sévères, des sécheresses en augmentation, un accroissement de la montée des eaux, des tempêtes plus intenses, des dégâts causés aux ressources hydriques, des dégâts causés à l'agriculture, à la vie sauvage et aux écosystèmes." (Section II.B pp 6-8.)

Un simple examen de ces changements climatiques revendiqués comme "déjà observés de nos jours" montrent que le Conseil de la Maison Blanche sur la Qualité Environnementale n'a pas, à l'évidence, tenu compte des données répertoriées de l'observation. Je vais donner ici plusieurs exemples qui montrent que ces affirmations sont des présentations tendancieuses.


Pour ce qui concerne les vagues de chaleur
, voici ci-dessous, le nombre des journées où la température a été supérieure ou égale à 100°F [NdT : environ 38°C], observées aux Etats-Unis et rassemblées dans une série fiable de données collectées par les stations de mesures météorologiques. Non seulement il est évident que le nombre des jours de forte chaleur n'a pas augmenté mais il est aussi intéressant de constater que, durant les années les plus récentes, nous avons assisté à une pénurie relative de ces périodes de forte chaleur.
christy-hcnr2


Ci-dessus : Moyenne par station de la fraction des journées durant chaque année qui ont atteint ou dépassé 100°F dans 982 stations de la base de données USHCN (NOAA/NCEL, préparée par JR Christy). Une valeur de 0,03 est équivalent à une moyenne de 11 jours par an avec des mesures supérieures à 99°F sur les 982 stations qui couvrent la totalité du territoire.


Les feux de forêts et de végétation
sont documentés pour les Etats-Unis. Les observations suivantes montrent qu'il n'y a pas eu de changement dans la fréquence des incendies. Les superficies affectées (non illustrées ici) montrent également peu de changement.
christy-hcnr3

Ci-dessus: Nombre des incendies de forêt et de végétation aux USA. Tandis que la gestion de ces événements a évolué, le nombre a évolué en parallèle mais le nombre de ces événements est resté constant depuis 1985.

christy-hcnr4


Ci-dessus : Nombre des feux de forêts par an aux USA depuis 1965.

Ces deux figures démontrent que la fréquence des incendies n'a pas augmenté aux USA durant les dernières décennies écoulées.
On peut, tout aussi bien, examiner, à l'aide des données observationnelles, la validité de l'affirmation selon laquelle les sécheresses et les inondations auraient augmenté.

christy-hcnr5
Ci-dessus : Fraction des surfaces, pour le globe, des zones à cinq niveaux de sécheresse de 1982 à 2012. La sécheresse est indiquée en classement des centiles avec D0 < 30, D1 < 20, D2 < 10, D3 < 5 and D4 < 2 centile de la disponibilité moyenne d'humidité (Hao et al. 2014)

christy-hcnr6


Ci-dessus : Fraction des surfaces des états contigus des USA [NdT : "Conterminous" désigne tous les états adjacents des USA donc sauf l'Alaska et Hawaï] en conditions très humides (en bleu) ou très sèches (en rouge). NOAA/NCEI.


Ces deux graphiques démontrent que les conditions d'humidité n'ont montré aucune tendance à la décroissance (en cas de plus de sécheresse) ou de croissance (en cas de pluies de plus grande extension).

Ce genre d'informations ne sont que rarement consultées quand il est simplement plus profitable de proférer des affirmations insubstanciées selon lesquelles les extrêmes d'humidité, c'est à dire les sécheresses et les inondations (qui ont toujours eu lieu) deviennent, de quelque manière, de plus en plus extrêmes. Sur des périodes de temps plus courtes et dans certains endroits, il apparaît que les précipitations intenses tendent à s'aggraver. Ceci n'est pas un phénomène universel et il n'a pas été établi que de telles variations peuvent résulter des modifications de la concentration des gaz à effet de serre, comme je l'ai montré si-dessus, parce les projections des modèles sont incapables de reproduire les plus simples des mesures.

christy-hcnr6

Ci-dessus : Production globale de céréales de 1961 à 2012. (Organisation pour l'alimentation et l'agriculture de l'ONU) [NdT : Wheat = blé, Rice = Riz, Coarse grains = céréales secondaires]


Trouver la documentation au sujet de la production qui apparaît en croissance ininterrompue, des céréales est une chose aisée. On se perd en conjecture au sujet de l'allégation du CEQ [NdT : Le Conseil de la Maison Blanche sur la Qualité Environnementale] selon lequel le changement climatique anthropique aurait créé des "dommages pour l'agriculture" du fait qu'en observant la hausse globale de la production qui semble s'accélérer, on supposerait plutôt qu'il n'y a pas eu de "dommage" durant la période de croissance des gaz à effet de serre.

Au vu des observations rapportées dans les exemples cités ci-dessus, il est évident qu'il apparaît difficile de supporter les affirmations au sujet d'une détérioration de la situation résultant du changement climatique anthropique ou, plus généralement, de soutenir que n'importe quel changement pourrait être directement lié à l'accroissement du CO2. Ceci est également à mettre en relation avec la pertinence des modèles climatiques mentionnée plus haut. Il est clair que les modèles climatiques sont loin de répondre aux attentes pour rendre compte de plusieurs questions très fondamentales relatives à la variabilité climatique parce qu'ils sont dans l'incapacité de reproduire "ce qui s'est produit" en ce qui concerne la température globale et, de ce fait, ils sont dans l'incapacité d'expliquer "pourquoi' les choses se sont passées ainsi. De ce fait, il est prématuré d'affirmer que nous connaissons les causes des changements d'une série de mesures exotiques de la météorologie telles que l'intensité des pluies sur des périodes limitées lesquelles ne sont même pas explicitement générées dans les sorties des modèles numériques.

En résumé, les informations présentées ci-dessus, montrent que le blocage de projets spécifiques ou même l'arrêt de secteurs tout entiers de l'économie dans les secteurs énergétiques n'auront aucun impact sur le système climatique du globe. De plus, les informations rappelées plus haut indiquent que la compréhension scientifique (c'est à dire les modèles du climat) sur la manière dont les gaz à effet de serre affectent le climat sont défaillants du fait qu'il n'existe pas de lien quantifié et établi entre la croissance des émissions et les changements spécifiques du climat non plus qu'avec les événements météorologiques extrêmes."

Conclusion :

Le texte de l'allocution de John Christy est destiné à un auditoire de décideurs politiques spécialisés dans la question des ressources naturelles. De ce fait, Christy présente un panorama nettement plus restreint et plus spécifique que celui de Judith Curry (présenté ci-dessous).

A l'évidence, le point saillant du témoignage de John Christy concerne la divergence observée entre les mesures de l'évolution des températures de l'atmosphère (la troposphère) et les projections/scénarios des modèles. Selon Christy qui rappelons-le est un (sinon le) spécialiste de ce genre de mesures par satellites et ballons-sondes, la stratosphère se réchauffe environ 3 fois (au niveau du globe) et 4 fois (sous les tropiques) moins que prévu par les modèles les plus récents.
De fait, il ne s'agit pas là d'un détail, mais bien d'un point crucial c'est à dire de l'échec apparent d'un test exigeant et incontournable des modèles de l'effet de serre et des rétroactions prises en compte par la communauté des modélisateurs en climatologie. En effet, les théories de l'évolution de l'effet de serre censé provoquer un réchauffement climatique anthropique trouvent leur source dans la physique de l'atmosphère à des altitudes et dans les zones de la troposphère testées par Christy.

Les questions qu'un observateur indépendant peut se poser sont alors les suivantes :

1- Les mesures satellitaires de John Christy (et Roy Spencer) pourraient être erronées ?
Ceci est très peu probable parce que ces mesures satellitaires sont confirmées par des mesures totalement indépendantes fournies par les ballons-sondes. D'autre part, et comme on le sait, il existe deux organismes totalement indépendants (RSS-MSU et UAH) qui mesurent les températures de l'atmosphère par satellites. Les méthodes et les satellites utilisées sont différents pour ces deux organismes et elles donnent des résultats sensiblement concordants.

2- Les températures relevées à la surface de la planète qui servent de référence pour les facteurs x3 et x4 pourraient être biaisées et le réchauffement de la surface serait largement surestimé par les mesures thermométriques traditionnelles utilisées par le GISS (NASA), la NOAA et le HadCRUT (UK) ?
Ceci n'est pas totalement exclu car il n'existe, en réalité, qu'un seul jeu d'instruments de mesure répartis sur la surface de la planète et le plus souvent mal adaptés au but poursuivi. D'autre part, la mesure de la température "moyenne" de la planète avec la précision requise est une tâche très difficile compte tenu du grand nombre de "corrections" à apporter aux résultats bruts de lecture des thermomètres. Enfin , on observe une divergence croissante entre les mesures satellitaires de la basse atmosphère et les mesures "Terrestres", qui est devenue particulièrement apparente au cours des derniers mois écoulés. Dans cette hypothèse, il est inutile de préciser que les mises en garde "ne pas dépasser les +2°C" énoncées et répétées par les décideurs n'aurait, ipso facto, plus aucun sens.

3- Les modèles numériques climatiques reposeraient sur une compréhension de la physique du climat défaillante ?
Ceci n'est pas exclu non plus, compte-tenu de la complexité de la problématique du climat et des nombreuses inconnues qui restent encore à élucider (tels que les nuages, l'impact des oscillations océaniques, entre autres) et du nombre d'hypothèses peu ou non validées qui sous-tendent la mise en équations du système climatique.
Dans ce cas, au vu des mesures présentées par John Christy, il est évident qu'il serait impossible d'accorder la moindre confiance aux prédictions/scénarios climatiques envisagés pour la fin du siècle. En particulier, le fameux objectif à atteindre, revendiqué par les politiques d'une limitation à 2°C du réchauffement n'a évidemment plus aucune signification.

Il est donc crucial de résoudre le problème soulevé par John Christy et rapporté dans ce billet : Qui est dans l'erreur ?
Les mesures dans l'atmosphère, les mesures thermométriques à la surface, les modèles des prédictions/scénarios numériques utilisés par le GIEC ? Où est l'erreur ?

Il peut paraître curieux que, connaissant ces observations, la communauté des climatologues et notamment celle qui participe aux rapports du GIEC ne s'en soit guère préoccupé. D'autant plus, que le Professeur Syukuro Manabe qui est considéré comme le "père fondateur" des modélisations de l'effet de serre, avait publié un article, il y a quatre ans, en 2011, dans lequel il s'inquiétait, lui aussi, de la divergence entre les modèles et les observations dans l'atmosphère (tropicale).

J'avais signalé son article à l'époque :

"Au sujet du réchauffement de la haute troposphère tropicale : Les modèles comparés aux observations"
"On the warming in the tropical upper troposphere: Models versus observations"
Qiang Fu, Syukuro Manabe, and Celeste M. Johanson

GEOPHYSICAL RESEARCH LETTERS, VOL. 38, L15704, doi:10.1029/2011GL048101, 2011
publié le 4 Août 2011.


Cet article de 2011 montrait une divergence analogue à celle qui se poursuit encore de nos jours, quatre ans après, et qui est présentée, avec des résultats complétés et améliorés par John Christy. Le résumé et le corpus de l'article de Manabe et de ses collègues s'achevaient par cet avertissement que j'ai déjà cité :

[...]"Au vu de l'importance de l'évaluation de l'augmentation du réchauffement de la haute troposphère tropicale vis à vis de la sensibilité climatique et de l'évolution des circulations atmosphériques, il est d'une importance fondamentale de comprendre les causes possibles du désaccord entre les modèles et les observations."

Dans ces conditions et compte tenu du désaccord persistant entre les observations et les modèles de l'atmosphère, laquelle se trouve au coeur de notre compréhension de la physique du climat, il peut paraître, pour le moins, imprudent et hasardeux de tirer, à partir de modèles éventuellement invalidés, des plans sur l'avenir du climat de notre planète pour les futures décennies.

C'est pourtant ce que la communauté internationale est invitée à faire au cours des mois à venir.

Stay tuned !

16 Mai 2015 : La climatologue Judith Curry met en garde la chambre des représentants curry2015 US au sujet de la politique climatique du Président Obama.

Ce mois-ci, j'ai choisi de vous présenter une traduction de l'essentiel de la déclaration de la climatologue Judith Curry auprès de la Chambre des Représentants US (l'équivalent de la Chambre des Députés française) au sujet des engagements pris par le Président Obama auprès de l'ONU (sans consultation préalable du congrès US), prononcée lors de sa séance du 15 Avril 2015. L'original de cette déclaration est ici.

En effet, ce texte qui émane d'une professionnelle chevronnée et reconnue dans le domaine de la climatologie, résume parfaitement et de manière aisément accessible, notamment pour un personnel politique non spécialiste de ces questions, l'essentiel des anomalies ou/et des incertitudes qui affectent actuellement "l'épineuse question" du "changement climatique" (que Judith Curry qualifie volontiers de "wicked problem", un problème pernicieux).

De fait, la déposition de Judith Curry me semble emblématique des informations qui pourraient être utilement communiquées à nos propres responsables politiques et notamment à ceux qui se sont engagés dans le processus d'organisation de la COP21 qui se tiendra à Paris en cette fin d'année.

Vous retrouverez ici, clairement résumés par la plume de Judith Curry, un certain nombre des constats factuels sur l'évolution des températures, sur celle des glaces polaires, sur les divergences entre les modèles et les observations, sur l'exagération de la sensibilité climatique au CO2, sur le prise en compte croissante de la variatibilité naturelle, longtemps négligée, et plus généralement sur l'état de la science climatique que j'ai fréquemment évoqués au cours de mes précédents billets.

Les caractères engraissés dans la traduction du texte de Judith Curry (cadre bleu-vert) sont le fait de PU. Ils sont destinés à attirer l'attention sur des points clefs. Hormis les sous-titres en caractères gras, le texte original en est dépourvu.

Voici une traduction de l'en-tête de la déposition de Judith Curry.

DECLARATION PRESENTEE DEVANT LE COMITE POUR LA SCIENCE, L'ESPACE ET LA TECHNOLOGIE DE LA CHAMBRE DES REPRESENTANTS DES ETATS-UNIS D'AMERIQUE

Audit sur
"L'engagement du Président des Etats-Unis auprès de l'ONU sur le Climat "

15 Avril 2015

Judith A. Curry
Institut de Technologie de Géorgie

Judith Curry a fait précéder le texte de sa déclaration par le bref résumé que voici :

"Les points principaux :

La recherche et les données récentes vont dans le sens de l'importance de la variabilité naturelle du climat. Ils remettent en question la conclusion que les humains sont la cause principale du changement climatique récent.

• La suspension du réchauffement climatique depuis 1998.
• Les estimations à la baisse de la sensibilité du climat au dioxyde de carbone.
• Les modèles climatiques prédisent beaucoup plus de réchauffement que celui qui a été observé au début de ce XXIe siècle.

Nous (NdT : La communauté des climatologues, le GIEC etc.) avons fait plusieurs choix qui posent problème quant à la définition de la situation du changement climatique et aux remèdes à y apporter.


• La définition d'un changement climatique "dangereux" est ambiguë et suppose l'existence de points de basculement catastrophiques qui sont considérés comme très peu, ou extrêmement peu, probables au cours du XXIe siècle.

Les efforts poursuivis dans le but d'établir un lien entre les catastrophes résultant des extrêmes climatiques avec le réchauffement climatique causé par l'homme, sont trompeurs et ne sont pas supportés par les observations.

• Le changement climatique est un problème épineux qui est mal adapté à une solution de "commandement et de contrôle".

Il a été estimé que l'engagement des USA (INDC, Intended Nationally Determined Contribution) d'une réduction de 28% des émissions, réduirait de 0,03°C le réchauffement en 2100 (NdT : soit une baisse de quelques millièmes de degré pour des mesures équivalentes prises par la France).

Le caractère inadapté des politiques engagées qui reposent sur le Principe de Précaution laissent totalement sans solution les conséquences réelles du changement climatique et des événements météorologiques extrêmes (que ceux-ci résultent de la variabilité naturelle ou soient causés par l'humanité) :

• Nous devrions élargir le cadre de pensée pour la politique climatique et nous devrions fournir aux décideurs un choix plus vaste d'options lorsqu'il s'agit de gérer les risques liés au changement climatique.

• Des solutions pragmatiques reposant sur des efforts pour accélérer l'innovation en matière d'énergie, pour accroître notre résilience aux événements météorologiques extrêmes et pour poursuivre des mesures effectives de réduction de la pollution, ont des justifications indépendantes de leurs bénéfices en terme d'atténuation du changement climatique et d'adaptation."

Voici de larges extraits de la déposition de Judith Curry.
Je n'ai pas inclus les nombreuses références/citations qui documentent le texte initial et qu'on pourra retrouver dans l'original..


"Je remercie le Président et le Comité pour me donner l'opportunité d'apporter mon témoignage, aujourd'hui, au sujet de "L'engagement du Président auprès de l'ONU sur le climat". Je suis Professeur et ancienne Présidente de l'Ecole des Sciences de l'Atmosphère et de la Terre du Georgia Institute of Technology. En tant que climatologue, j'ai consacré 30 années à la poursuite de recherches sur une quantité de sujets qui incluent les processus de rétroaction de l'Arctique, sur le rôle des nuages et des aérosols sur le système climatique et sur l'impact du changement climatique sur les caractéristiques des cyclones tropicaux. En tant que Présidente du Réseau des Prévisions Climatiques LLCC, j'ai eu l'occasion de travailler avec les décideurs sur les questions d'attribution des impacts climatiques, de développer des stratégies d'adaptation au climat et de mettre en oeuvre des stratégies de prévision climatique sub-saisonnière dans le but de définir une politique et une tactique d'adaptation.

Je suis de plus en plus inquiète de constater que, tout à la fois, la question du changement climatique et ses solutions ont été envisagées de manière exagérément simplistes.
Ma recherche sur la compréhension de la dynamique de l'incertitude à l'interface de la politique du changement climatique m'a conduit à me questionner sur le fait de savoir si ces dynamiques fonctionnent de manière saine aussi bien pour la science que pour le processus politique.

Il en résulte que je suis préoccupée parce que l'engagement des USA (INDC : Intended Nationally Determined Contribution, la contribution envisagée à l'échelle nationale) auprès de la Convention Cadre des Nations Unies sur le Changement Climatique (UNFCC) ne fera pratiquement rien pour changer le climat et que les USA et les autres nations resteront vulnérables face aux surprises climatiques et aux événements météorologiques extrêmes.

Mon témoignage se concentre sur les points suivants qui sont essentiels pour l'engagement des USA (INDC).

• L'affaiblissement des éléments de preuves supportant la notion d'un changement climatique dangereux et d'origine anthropique.
• Le challenge de la réponse au changement climatique.
• L'élargissement des options pour répondre au changement climatique.

Un affaiblissement des preuves supportant la notion d'un changement climatique dangereux et d'origine anthropique.

Les scientifiques sont d'accord sur le fait que les températures de surface ont augmenté depuis 1880, que les humains ont ajoutés du dioxyde de carbone dans l'atmosphère et que le dioxyde de carbone et les autres gaz à effet de serre ont un effet réchauffant sur la planète. Cependant, il existe un désaccord considérable sur les questions qui ont le plus d'importance du point de vue des conséquences :

• Sur la question de savoir si le réchauffement constaté depuis 1950 a été dominé par des causes anthropiques.
• De combien la planète va-t-elle se réchauffer au cours du XXIe siècle ?
• Sur la question de savoir si le réchauffement est "dangereux".


Le point crucial dans le débat au sujet du changement climatique est de savoir dans quelle mesure le récent (et futur) réchauffement résulte des émissions anthropiques de gaz à effet de serre par rapport à la variabilité naturelle du climat
- c'est à dire les variations causées par le soleil, les éruptions volcaniques et la circulation océanique à grande échelle. Ma contribution devant le Comité pour l'Environnement et les Travaux Publics du Sénat en 2014, faisait remarquer que le support à la thèse du changement climatique anthropique dangereux était en retrait dans le document du GIEC de 2013 (GIEC AR5 WGI) par rapport au document du GIEC (AR4) publié en 2007.

Je présente ici un résumé des observations et des travaux récents qui vont dans le sens de la variabilité naturelle et qui remettent en question les conclusions du GIEC
que les humains sont la cause principale du changement climatique récent. L'implication, en matière de politique, de ces considérations sont que si les humains ne sont pas la cause dominante du changement climatique, les tentatives pour modifier le climat en réduisant les émissions de gaz à effet de serre n'auront que peu d'impact sur le changement climatique futur.

Le hiatus du réchauffement climatique :

Le rapport AR5 du GIEC note un ralentissement du réchauffement de la surface depuis 1998 :

Le taux de réchauffement durant les 15 dernières années (1998-2012) est de 0.05 [de –0.05 à +0.15] °C par décennie, ce qui est inférieur au taux calculé depuis 1951 qui est 0.12 [de 0.08 à 0.14] °C par décennie.
[...]
Les médias ont promu l'idée que 2014 était 'l'année la plus chaude" des données historiques, mais, étant données les incertitudes, 2014 était statistiquement indiscernable de 2010 et 2005. Les données du HadCRU qui sont peut-être les plus réalistes du point de vue des incertitudes, ont montré que 2014 se classait parmi les dix années les plus chaudes qui ont toutes eu lieu depuis 1998. Bien que la dernière décennie ait été la plus chaude de l'histoire, les données pour l'année la plus chaude ne font que prolonger le plateau du réchauffement.

Ainsi, constations nous que nous n'avons pas observé de hausse de température depuis 1998 alors que cette période a connu une augmentation égale à 25% du total des émissions de CO2 anthropiques.

Ce hiatus contredit les conclusions du rapport AR4 (2007) du GIEC qui avait prévu un réchauffement avec un taux de 0.2°C par décennie au début du XXIe siècle. Un grand nombre d'articles scientifiques ont mis en lumière l'importance de la variabilité naturelle associée avec la circulation dans les océans Pacifique et Atlantique dont on pense, à présent, qu'ils sont la cause principale du hiatus. Si le hiatus récent du réchauffement résulte de la variabilité naturelle, alors ceci pose la question de savoir dans quelle mesure le réchauffement qui s'est produit entre 1975 et 1998 peut être, lui aussi, expliqué par la variabilité naturelle du climat.

Le rapport AR5 du GIEC reconnaît le rôle important joué par la variabilité naturelle dans le comportement des variations des banquises polaires et dans les variations à l'échelle multidécennale. Néanmoins, le rapport AR5 du GIEC a conclu que : "

Il est très probable que la banquise arctique continuera à diminuer et s'amincira tout au long de l'année au cours du XXIe siècle. Il est aussi probable que l'océan arctique deviendra presque libre de glace en Septembre avant le milieu du siècle (confiance moyenne)

Voici les observations satellites de la variabilité des banquises (Ndt : Arctique à gauche, Antarctique à droite) jusqu'à la fin 2014.

seaice2015


En 2013 et 2014, la banquise arctique a récupéré depuis les minimas estivaux observés dans la période 2007-2012.

Il est remarquables que le volume de la glace arctique (une métrique qui combine l'extension horizontale et l'épaisseur de glace) montre une augmentation continue depuis 2012.
Durant l'année 2014, la glace antarctique a établi un record maximum hivernal. Un article récent de Swart et al. insiste sur le fait que la variabilité naturelle interne du climat peut masquer ou augmenter les pertes de glaces d'origine anthropique sur des échelles temporelles qui se prolongent sur des décennies voire sur un siècle. Un nouvel article de Zhang clarifie la question des fluctuations naturelles qui influent sur les pertes de la banquise arctique - la chaleur transportée par l'Atlantique et le Pacifique et la structure des vents au dessus de l'Arctique poussent la glace de mer en dehors de la partie centrale de l'Arctique où elle fond dans l'Atlantique Nord. En particulier,
le refroidissement récent des hautes latitudes de l'Atlantique Nord est associé avec la récupération actuelle de la mer glacée dans le secteur Atlantique.

Il est évident qu'il se passe beaucoup de choses au sujet de la variabilité des banquises arctique et antarctique et ceci ne peut être expliqué directement, ou même indirectement, par le réchauffement dû aux gaz anthropiques à effet de serre. Les modèles climatiques ne simulent pas correctement le transport de chaleur dans les océans, non plus que ses variations. Les scientifiques ne sont pas d'accord sur les raisons de l'augmentation de l'extension de la banquise antarctique et la question clef qui consiste à savoir si le réchauffement anthropique en est la cause principale, demeure sans réponse.

Sensibilité

Le réchauffement causé par l'homme dépend non seulement de l'augmentation des gaz à effet de serre mais aussi de la "sensibilité" du climat à cette augmentation.
La sensibilité climatique est définie par l'augmentation de la température de surface qui résulte d'un doublement de la concentration de l'atmosphère en dioxyde de carbone. Si la sensibilité climatique est élevée nous pouvons nous attendre à un réchauffement substantiel au cours du siècle à venir si les émissions continuent à augmenter. Si la sensibilité climatique est faible, le réchauffement à venir sera substantiellement plus faible.
La définition la plus adaptée de la sensibilité climatique est le changement de température de surface en 70 ans si la concentration en dioxyde de carbone est doublée. Ceci est connu sous le nom de " réponse transitoire du climat".
Le rapport AR4 du GIEC (2007) a conclu que la réponse transitoire du climat est très probablement supérieure à 1°C et très improbablement supérieure à 3°C. Le rapport AR5 du GIEC (2013) a conclu que la réponse transitoire du climat se situe probablement [ probabilités 17 à 83%] dans le domaine de 1°C à 2,5°C.

L'année dernière, Nicholas Lewis et moi avons publié un article qui montrait que la réponse transitoire du climat se trouvait probablement dans le domaine de 1.05°C à 1,8°C. A partir d'une approche observationnelle du bilan énergétique, nos calculs utilisaient les mêmes données sur les variations de l'équilibre énergétique de la planète soumise aux changements dus aux gaz à effet de serre, aux aérosols et aux autres pilotes du changement climatique utilisés dans le rapport AR5 du GIEC. Notre domaine pour la réponse transitoire du climat est plus resserré avec des limites hautes beaucoup plus basses que celles qui ont été rapportés par le rapport AR5 du GIEC.
Des résultats de recherche récents suggèrent des valeurs encore plus faibles pour la réponse transitoire du climat. La plus grande incertitude dans ces estimations provient des effets des petites particules d'aérosols contenues dans l'atmosphère, lesquelles induisent un refroidissement du climat (qui compense en partie le réchauffement dû aux gaz à effet de serre). Un article récent de Stevens trouve une limite inférieure pour l'impact des aérosols sur le climat qui est sensiblement plus faible que celui qui est postulé dans le rapport AR5 du GIEC. Nicholas Lewis a repris les calculs en utilisant les estimations de l'impact des aérosols en accord avec cet article (NdT : cad de Stevens). Le domaine probable d'évolution de la réponse transitoire du climat est alors de 1.05 à 1.45°C. Ceci contredit les estimations de la plupart des modèles climatiques dont la réponse transitoire est supérieure à 1,8°C. Les recherches se poursuivent pour valider les méthodes utilisées pour estimer la sensibilité climatique. Cependant, l'estimation à la baisse de l'effet du refroidissement dû aux aérosols conduit inévitablement à des réductions de la limite haute de la sensibilité climatique.

Les modèles du climat indiquent-ils trop de réchauffement ?


Ces récentes estimations de la sensibilité climatique combinées avec le ralentissement ou le "hiatus" du réchauffement depuis 1998, viennent s'ajouter aux éléments de preuve croissants que les modèles du climat ont tendance à "surchauffer" la planète.
Les projections à moyen terme des modèles climatiques sont indiquées ci-dessous, en comparaison avec les observations de la température du globe jusqu'à la fin 2014. RCP2015

 

Les températures globales observées, en particulier depuis 2011, sont plus basses ou juste à la limite inférieure de l'enveloppe (probabilité de 5 à 95%) des modélisations climatiques CMIP5. De manière générale, la tendance des simulations numériques est considérablement plus forte que la tendance observée depuis plus de 15 ans.

Remarquez que la zone hachurée semble être une concession au "hiatus". Le GIEC cite "le jugement des experts" comme justification pour abaisser les projections (indiquées par la zone hachurée en rouge) pour prendre en compte l'hypertrophie apparente de la sensibilité par les modèles.


Au vu des projections des modèles climatiques, la probabilité que le hiatus se prolonge au delà de 20 ans est infiniment petite.
Le hiatus du réchauffement combiné avec les résultats de recherche qui montrent que les sensibilités des modèles climatiques sont trop élevées, pose de sérieuses questions quant à la pertinence des projections climatiques pour le XXIe siècle pour servir de base à la prise de décisions politiques. Ainsi :

• Les modèles climatiques sont-ils trop sensibles au forçage des gaz à effet de serre ?
• La prise en compte de la variabilité naturelle par les modèles est-elle inadéquate ?
• Le projections des modèles climatiques pour le XXIe siècle sont-elles exagérées dans le sens du réchauffement ?


Quid du climat du 21e siècle ?

La question la plus préoccupante est de savoir comment le climat va évoluer durant le 21e siècle.
Il y a deux point de vue distincts en réponse à cette question. RCP22015

Le premier point de vue est celui exprimé par le GIEC lequel projette un réchauffement continu tout au long du 21e siècle dont il s'attend à ce qu'il dépasse le seuil "dangereux" d'un réchauffement de 2°C dès 2040. La figure ci-contre qui provient du Résumé pour les Décideurs (SPM) du rapport AR5 du GIEC montre les projections climatiques pour le 21e siècle selon les modèles RCP8.5 qui prennent en compte une progression des émissions de gaz à effet de serre dans l'hypothèse où le comportement actuel reste inchangé.


L'autre point de vue insiste sur la variabilité naturelle.

• Notre compréhension des régimes de circulation des océans Atlantique et Pacifique (hypothèse de l'onde de stade) suggère que
le "hiatus" se poursuivra pendant, au moins, encore une décennie et peut-être jusque dans les années 2030. La banquise arctique regagnera en extension au cours des deux prochaines décennies.

• Les modèles climatiques sont trop sensibles au forçage anthropique.
Le réchauffement du 21e siècle se trouvera dans l'extrémité basse des projections du GIEC (ou même, peut-être, en dessous).

• Les variations du soleil et les éruptions volcaniques représentent un joker. Des scientifiques russes avancent l'idée qu'il y a eu un Grand Maximum Solaire qui est survenu en 2000 et que nous pouvons nous attendre à un Grand Minimum Solaire (qui contribuerait au refroidissement) vers 2060.

• Et enfin, nous ne pouvons écarter la possibilité de surprises imprévues. Le hiatus du réchauffement survenu au début du 21e siècle a été une surprise imprévue.

L'avenir nous dira lequel de ces deux points de vue est correct.

Résumé :

Le changement climatique anthropique est une théorie dont le mécanisme de base est bien compris mais dont l'amplitude est hautement incertaine. Nous savons que le climat évolue naturellement sur des échelles de temps allant de décennies aux siècles mais nous n'avons pas d'explication pour un grand nombre de variations répertoriées au cours de l'histoire ou vues dans les données paléo-climatiques. Ces dernières incluent le réchauffement de 1910 à 1940, le refroidissement de la moitié du 20e siècle et les hiatus observé au début du 21e siècle. Les désaccords au sujet du changement climatique résultent de l'incertitude reconnue au sujet de la variabilité naturelle du climat.

Les projections des modélisations du climat pour le 21e siècle voient leur crédibilité s'amenuiser à cause de :

• L'échec des modélisations dans la prédiction du hiatus du réchauffement de la surface au début du XXe siècle.
• L'incapacité de simuler l'organisation et le timing des oscillations océaniques multidécennales.
• L'absence de la prise en compte des variations solaires futures et des effets indirects du soleil sur le climat.
• L'apparente exagération de la sensibilité vis à vis de l'augmentation des gaz à effet de serre.

Ainsi, comment le climat du 21e siècle va-t-il évoluer ?

Outre le manque de confiance dans les projections des modèles climatiques qui se focalisent principalement sur l'impact de l'augmentation des gaz à effet de serre, notre connaissance est insuffisante pour être capable de projeter les effets des variations du soleil, les conséquences des éruptions volcaniques futures et des variations décennales et centennales de la circulation des profondeurs océaniques.
Nous ne pouvons pas éliminer la possibilité d'une continuation du hiatus ou même d'un refroidissement à venir durant une partie du 21e siècle.
Nous ne pouvons pas prévoir, avec la moindre certitude, comment les variations solaires, les éruptions volcaniques, les circulations océaniques et l'influence humaine vont interagir pour déterminer l'évolution du climat durant le 21e siècle et les scientifiques ne sont pas d'accord sur lequel de ces facteurs dominera les autres.

[...]

Le changement climatique est-il dangereux ?

La question cruciale pour ce qui est du changement climatiques est celle-ci : Le réchauffement climatique est-il dangereux ?
La convention internationale de l'ONU, l'UNFCC (1992) affirme que son objectif est de parvenir à " la stabilisation de la concentration des gaz à effet de serre à un niveau qui éviterait une interférence anthropique dangereuse avec le système climatique".

Les troisième et quatrième rapports du GIEC font état de "raisons d'inquiétude". Ce n'est qu'en 2010 qu'une clarification au sujet du mot "dangereux" a été apportée par les négociateurs internationaux de l'ONU. En 2010 les gouvernements sont tombés d'accord sur le fait que les émissions doivent être réduites de manière à ce que l'augmentation de la température du globe soit limitée à 2°C. La cible des 2°C est demeurée le point central des accords internationaux et des négociations bien que cette définition reste controversée et soit actuellement remise en question.

La justification originale de la cible des 2°C repose sur l'idée que des "points de basculement", - c'est à dire des transitions abruptes et non linéaires vers une état différent - pourraient se produire si ce seuil était franchi avec des conséquences qui seraient grandement non maîtrisables et hors de notre contrôle.
Le rapport AR5 du GIEC a envisagé la possibilité d'un certain nombre de points de basculement incluant la disparition de calottes glaciaires, l'effondrement de l'AMOC ( NdT : dont fait partie le Gulf Stream) et le relâchage du carbone par le pergélisol.
Chacun de ces scénarios catastrophiques a été analysé par le GIEC (table 12.4) et ils se sont vus attribuer des qualificatifs de "très improbable" et "exceptionnellement improbable" ou bénéficient d'une faible confiance. Le seul point de basculement que les GIEC considère comme probable pour le 21e siècle est la disparition de la glace arctique en été (qui se reforme en hiver quoiqu'il arrive). [...]

En dépit de cela, le seuil de 2°C est utilisé dans un but politique pour motiver sur l'urgence à agir pour limiter les émissions de CO2.
Lors d'un récent sommet climatique de l'ONU, le secrétaire général
Ban-Ki-Moon a averti que " En l'absence de réductions significatives des émissions de tous les pays et dans des secteurs clefs, la fenêtre d'opportunité pour rester dans la limite des 2°C ( de réchauffement) sera fermée pour toujours." En réalité, cette fenêtre d'opportunité pourrait rester ouverte beaucoup plus longtemps encore. Les valeurs plus faibles de la sensibilité climatique trouvées par Lewis et Curry et par d'autres études récentes impliquent que l'on s'attend à ce que le réchauffement climatique anthropique ne dépassera pas la limite "dangereuse" des 2°C au cours du 21e siècle. Un taux d'augmentation plus faible du réchauffement signifie qu'il est moins urgent d'éliminer les émissions de gaz à effet de serre et que l'on dispose de plus de temps pour trouver des solutions acceptables du point de vue économique pour décarboner l'économie. Cela procure aussi plus de flexibilité pour réviser nos politiques au fur et à mesure que de nouvelles informations deviendront disponibles. [...]

Une cascade d'informations biaisées

Le changement climatique peut exacerber les problèmes environnementaux qui résultent de la surpopulation, de l'utilisation mal programmée des sols et de la sur-exploitation des ressources naturelles. Cependant il est très difficile de séparer les impacts des variations climatiques anthropiques de ceux qui résultent des variations naturelles du climat et des autres impacts sociétaux.

Il n'en reste pas moins que le changement climatique est devenu l'objet d'un grand plaidoyer selon lequel les variations anthropiques du climat sont devenues la cause dominante des problèmes sociétaux.
Tout ce qui tourne mal et y compris jusqu'à des problèmes qui existaient auparavant, renforce la conviction qu'il n'y a qu'une seule chose que nous puissions faire pour résoudre le problème du changement climatique, c'est d'arrêter de brûler des combustibles fossiles. Ce grand plaidoyer est trompeur parce qu'il nous persuade que si nous résolvions la question du changement climatique la situation des autres problèmes serait alors résolue.

Les politiciens, les activistes et les journalistes ont mis en place un système de cascade d'informations biaisées et alarmantes quant au changement climatique anthropique
dans le but de renforcer un agenda politique dont l'objectif est de réduire les émissions des carburants fossiles.

Une cascade d'informations est un processus qui s'amplifie de lui-même pour participer à la mise en place d'une croyance qui déclenche une réaction en chaîne auto-entretenue à l'image de la constitution d'une foule ou de la formation d'une boule de neige qui dévale une pente : Plus un danger retient l'attention, plus le public s'en inquiète, ce qui conduit à une amplification de la couverture médiatique et, donc, de l'alarme.
Du fait que la lente augmentation des températures ne semble pas alarmante, ceux qui mettent en place ces processus mettent en avant l'idée que les événements météorologiques extrêmes et les impacts sur le santé résultent du changement climatique anthropique et que l'avenir est encore plus sombre si nous n'agissons pas rapidement pour refroidir la planète en réduisant les émissions des carburants fossile.

Une déconstruction de la cascade d'informations est impérative si nous voulons éviter de voir notre raisonnement biaisé et si nous voulons améliorer notre compréhension des véritables risques encourus du fait du changement climatique :


• L'origine de cette cascade se trouve dans
le traité de l'UNFCC (NdT : La Convention Cadre des Nations Unies sur le Changement Climatique) de 1992 qui était destiné à éviter le changement climatique anthropique dangereux au moyen de la stabilisation des émissions de CO2. Il est remarquable que ce n'est qu'en 1995 que le second rapport du GIEC a identifié une influence humaine "discernable" sur le climat du globe. Il est donc évident que le "char" de la politique" a précédé le "cheval" de la science.

• Par la suite l'
UNFCC a modifié la définition du changement climatique pour se référer à un changement climatique qui est attribué directement ou indirectement à l'activité humaine. Ceci a conduit à la perception que tous les changements climatiques sont dus à l'homme.

• La hausse du niveau des océans et les événements météorologiques extrêmes tels que les ouragans, les sécheresses et les vagues de chaleur résultent du changement climatique dont on suppose, de facto, qu'il est causé par les hommes.


• Les impacts sur la santé humaine, les risques pour la sécurité nationale etc. qui sont exacerbés par les événements météorologiques extrêmes sont alors fallacieusement attribués à des causes liées au changement climatique anthropique.

Le point clef de cette cascade est le lien suggéré entre le changement climatique anthropique et les événements météorologiques extrêmes.


En 2012, le GIEC a publié un Rapport Spécial sur la Gestion des Événements Extrêmes et des Désastres pour la Promotion de l'Adaptation au Changement Climatique (Rapport SREX).
Ce rapport a accordé une confiance basse à moyenne pour une tendance des sécheresses dans plusieurs régions du monde et une confiance élevée pour les vagues de chaleur en Australie. Il n'y a aucune tendance pour ce qui est des ouragans et des feux de forêts. L'attribution de quelque tendance que ce soit pour les événements météorologiques extrêmes ne peut être effectuée avec quelque degré de confiance que ce soit.
Pour ce qui concerne la perception (et les statistiques sur les dommages) selon laquelle les événements météorologiques extrêmes deviendraient plus fréquents, il y a plusieurs facteurs à prendre en compte.
Le premier est la vulnérabilité croissante et l'exposition associées avec une concentration croissante de la richesse dans les zones côtières et dans d'autres régions naturellement exposées aux désastres.
Le second facteur résulte de la variabilité naturelle. Nombre d'événements météorologiques extrêmes ont été attribués à la variabilité naturelle du climat. Aux Etats-Unis, les événements météorologiques extrêmes (e.g. les sécheresses, les vagues de chaleur et les ouragans) ont été notablement pires durant les années 1930 et 1950.

La cascade des informations sur le changement climatique décrit comme une apocalypse, obère notre capacité à raisonner rationnellement sur la manière dont nous devrions répondre au changement climatique et agit en rétrécissant les points de vue et les options politiques sur lesquels nous pourrions converger pour ce qui concerne la santé publique, les désastres météorologiques et la sécurité nationale.

Devrons nous être surpris si la réduction des émissions de CO2 n'améliore aucun de ces problèmes ?
"
[...]


Dans la suite de son exposé que vous pourrez retrouver dans le texte original, Judith Curry évoque, avec quelques détails, l'utilisation du Principe de Précaution dans les cas où demeurent un grand nombre d'inconnues aussi bien sur la définition du problème que sur l'évaluation des risques ("le réchauffement climatiques est un problème pervers") que dans l'évaluation des conséquences des mesures adoptées. Plus spécifiquement pour ce qui concerne les engagements du Président Obama auprès de l'ONU (l'INDC), Judith Curry précise que :

"Le Principe de Précaution - plus de regrets que de sécurité ?

L'
UNFCC a formulé le problème du changement climatique et sa solution dans des contextes irréductibles du globe et du Principe de Précaution avec une solution qui reste focalisée dans la réduction globale des émissions de gaz à effet de serre.

Chaque pays est, à titre individuel, chargé de soumettre son INDC (ses intentions) à l'UNFCC. Les Etats-Unis
(NdT : cad l'administration du Président Obama sans consultation préalable du congrès US) poursuivent le but de réduire leurs émissions de 28% en dessous de celles de 2005 et ceci avant 2025. En dehors de toute considération sur la faisabilité et sur les coûts résultants, il a été estimé par le modèle MAGICC de l'EPA ( l'Agence US pour la Protection de l'Environnement directement placée sous la responsabilité de la Maison Blanche) que cet engagement réduirait le réchauffement de 0,03°C en 2100. Lorsque l'on combine cet engagement avec celui des autres nations, seule une petite fraction du réchauffement futur projeté sera limitée par ces engagements. Si les modèles climatiques surestiment vraiment le réchauffement, la quantité du réchauffement qui serait éliminée serait encore plus petite.

Même si les émissions tombaient immédiatement à zéro et s'il faut en croire les projections des modèles climatiques, l'impact sur le climat ne serait pas décelable avant la seconde moitié du 21e siècle. On ne sait pas exactement ce que les INDC (les engagements) espèrent réaliser.

Les politiques de l'UNFCC et le Principe de Précaution nous ont placés entre le marteau et l'enclume. C'est une situation dans laquelle
les politiques qui sont proposées, avec leurs coûts extensifs et leur faisabilité problématique, sont inadéquates pour réaliser une brèche significative et un ralentissement du réchauffement attendu. Et les conséquences sociétales réelles du changement climatique ainsi que les événements météorologiques extrêmes (qu'ils résultent de l'action humaine ou de la variabilité naturelle) restent largement irrésolus." [...]

Après avoir évoqué les difficultés et les dangers auxquels s'expose la société en voulant, à tout prix, prendre des mesures définitives pour résoudre un problème entaché d'aussi grandes incertitudes ("Stratégies de prise de décision en présence de profondes incertitudes"), Judith Curry suggère, comme alternative au Principe de Précaution, d'adopter une politique de "Pragmatisme Climatique" qui consiste essentiellement à favoriser l'innovation, la résilience (aux événements météorologiques extrêmes) et la poursuite des efforts pour réduire la pollution.
Voici sa conclusion finale qui, comme il se doit, s'adresse directement aux représentants US :

"Conclusion

Il y a des raisons de se soucier du changement climatique. Cependant, répondre efficacement aux menaces potentielles résultant d'un réchauffement climatique est rendu très difficile du fait des graves incertitudes qui pèsent sur les risques qui résultent à la fois du problème lui-même et des solutions envisagées.
L'incertitude est une épée à deux tranchants. Les conséquences du climat futur pourraient être meilleures ou plus mauvaises que ce qu'on envisage actuellement.
Cependant, les résultats de recherche récents ont affûté la lame de l'épée dans le sens d'impacts moindres du fait du changement climatique d'origine anthropique et d'une plus grande infaisabilité politique et économique des réductions significatives des émissions de CO2.

C'est pour cette raison que je m'inquiète que l'engagement (INDC) proposé par les USA pour traiter les problèmes envisagés liés au changement climatique ne fera pratiquement rien pour modifier le climat et que les USA, comme les autres nations, demeureront vulnérables aux surprises climatiques et aux événements météorologiques extrêmes.

La structuration de la question du changement climatique par le GIEC de l'UNPCCC et le choix effectué, dès le départ, d'une politique déterminée, ont marginalisé les recherches sur les questions plus générales qui concernent la variabilité naturelle, et obéré l'adoption d'une palette plus étendue d'options politiques.
Le caractère épineux de la question du changement climatique ouvre de grandes opportunités de désaccord parmi les gens raisonnables et intelligents. On peut défendre l'idée que le principal problème de la politique climatique a été de réduire les discours et les options politiques à un éventail de possibilités excessivement réduit.
C'est en ouvrant le cadre de raisonnement sur la politique et sur ses relations avec les autres problèmes sociétaux que l'on pourra développer un éventail d'options politiques plus aisées à mettre en oeuvre, ce qui pourrait procurer aux décideurs politiques un choix plus vaste d'options pour le traitement des risques liés au changement climatique."

Le CV complet (et impressionnant) de Judith Curry est disponible sur le site du Tech. Institute de Géorgie. Voici comment elle est brièvement présentée au Représentants US :

"Le Docteur Judith Curry est Professeur et ex-Directrice de l'Ecole des Sciences de l'Atmosphère et de la Terre de l'Institut de Technologie de Géorgie. Elle est Présidente du Réseau des Applications des Prévisions Météorologiques (CFAN). Le Dr Curry a reçu son diplôme de doctorat es Sciences de l'Atmosphère à l'Université de Chicago en 1982. Avant de rejoindre la faculté Tech. de Géorgie elle a occupé des postes académiques à l'Université du Colorado, à l'Université de Pensylvanie et à celle de Purdue. La recherche du Dr. Curry porte sur toute une série de sujets en relation avec le climat. Ses recherches actuelles portent sur les interactions atmosphère/océans, sur les processus de rétroaction associés aux nuages et aux mers glacées ainsi que sur la dynamique climatique des ouragans. Elle est une personnalité publique reconnue pour les questions qui traitent de l'intégrité dans le domaine de la climatologie et elle est propriétaire du weblog Climate Etc. judithcurry.com. Le Dr Curry a récemment participé au NASA Advisory Council Earth Science Subcommittee, au DOE Biological and Environmental Research Advisory Committee, au National Academies Climate Research Committee and the Space Studies Board et au NOAA Climate Working Group. Le Dr Curry est membre élu de l'American Meteorological Society, de l'American Association for the Advancement of Science, et de l'American Geophysical Union."

Depuis plusieurs années, et après avoir été pendant un temps et autrefois, considérée comme la "Grande Prêtresse du Réchauffement Climatique" (Sic), Judith Curry a très sérieusement révisé ses positions, essentiellement au vu des observations objectives qui se sont accumulées au cours des années passées.
Elle fait désormais partie, aux côtés d'autres climatologues chevronnés comme Richard Lindzen, John Christy, Roy Spencer, Lennard Bengtsson et bien d'autres fréquemment cités dans ces colonnes et, entre autres, dans une page dédiée de ce site, des scientifiques qui tirent la sonnette d'alarme et s'inquiètent sérieusement des graves conséquences que pourraient avoir des politiques aussi inadaptées qu'inutiles, engagées sur des bases scientifiques qu'ils estiment manifestement hasardeuses.

Dans ces conditions, ne serait-il pas souhaitable que le témoignage et la mise en garde du Professeur Judith Curry, énoncés le mois dernier devant les parlementaires US, bénéficient également de l'écoute de nos propres parlementaires et de nos décideurs ?
icanthearyou

Ne serait-ce que parce que, selon le vieil adage, "qui n'entend qu'une cloche n'entend qu'un son"...

Jugez-en vous-mêmes...

Stay tuned !

MAJ 01/06/15 : Vidéo Youtube du témoignage de Judith Curry devant la chambre des représentants US.

11 Avril 2015 : Catastrophisme en série : Vanuatu, le cyclone Pam et autres événements climatiques.

En fin 2013, comme je vous l'avais raconté, le typhon Haiyan qui avait frappé une partie des Philippines (notamment la ville de Tacloban), avait fait l'objet d'une campagne de presse tonitruante de la part de médias un peu trop empressés pour effectuer quelques travaux de recherche. Notamment il avait été affirmé que "Le typhon Haiyan, le plus destructeur recensé dans l'histoire, pourrait être le précurseur de tempêtes tropicales de plus en plus violentes et de plus en plus fréquentes, sous l'influence du réchauffement climatique" (Médiapart), alors qu'Haiyan ne se classe même pas dans la liste des 36 tempêtes tropicales les plus meurtrières documentées à ce jour.

Ce constat que chacun peut faire à partir des données disponibles n'a pas dissuadé une éminente délégation française d'aller récemment prêcher la "bonne parole" ( i. e. "nous allons lutter contre le changement climatique pour vous sauver") aux malheureux habitants de
Tacloban qui se souvenaient, sans aucun doute, que leurs parents, grands-parents ou arrière grands-parents leur avaient parlé des énormes dégâts, causés de tout temps par ces calamités climatiques, et des pertes humaines, encore plus considérables, provoquées par un autre typhon qui avait déjà frappé, pratiquement au même endroit (Tacloban) en 1912, c'est à dire près de cent ans plus tôt, à l'époque où il n'était nullement question de "changement climatique anthropique ". Et de fait, 1912 (c'est à dire, deux ans après la grande crue de la Seine) se révèle être une des années les plus froides du XXe siècle.

Dans le même esprit que celui de l'enquête que nous avions effectuée au sujet du typhon Haiyan, nous allons passer en revue les données réelles et officielles qui concernent le cyclone Pam qui est survenu, cette fois-ci, dans la zone du Pacifique Sud qui inclut l'Australie, la Nouvelle Zélande ainsi qu'un certain nombre d'îles telles que Vanuatu fréquemment affectés par ces calamités climatiques. La tempête Haiyan, elle, faisait partie de la longue cohorte des typhons qui sévissent fréquemment dans la région du Nord-Ouest du Pacifique.
Nous indiquerons quelques données factuelles avérées sur
Pam puis nous rappellerons les conclusions du GIEC, inscrites dans son dernier rapport AR5, concernant l'évolution de l'activité cyclonique dans la zone de Vanuatu, ainsi que les tendances sur la fréquence et la violence des cyclones dans cette région rapportées par les organismes dédiés.

Ce billet est divisé en deux parties. La première (1) rapporte quelques unes des nombreuses réactions qu'a suscité la survenue du cyclone Pam aussi bien à l'échelle de la France qu'à celle de l'Europe et à celle d'autres organisations internationales comme l'ONU ou la Banque Mondiale. La seconde partie (2) rassemble un certain nombre de données factuelles dont la plupart sont mises à la disposition du public par les organismes officiels dédiés. La comparaison de ces éléments met en évidence une méconnaissance impardonnable (au mieux) ou délibérée (au pire) des conclusions des scientifiques et des observations factuelles.

1) Quelques déclarations officielles ou médiatiques au sujet du cyclone Pam :

A) En France

14 Mars : Sur le site du ministère des Affaires Etrangères français, on lit : "On sait que 70% des catastrophes dites naturelles sont liées au dérèglement climatique. Le cyclone Pam constitue un nouveau cri d’alarme pour que la communauté internationale prenne ses responsabilités."
Lors de son discours à Sendaï (conférence des Nations unies sur la prévention des catastrophes naturelles), le Ministre français des Affaires Etrangères a affirmé qu' "Aujourd’hui, on estime en effet que plus de 70% des catastrophes dites naturelles sont liées au dérèglement climatique.

Note : Voilà un chiffre (70%, plus loin 87%) qui a dû faire tiquer nombre de spécialistes qui savent très bien que les études scientifiques (notamment celles relevées par le GIEC) sont actuellement incapables de tirer la moindre conclusion de ce type sur les événements climatiques extrêmes qui surviennent sur la planète, année après année, décennie après décennie et ceci depuis des éons, avec ou sans "dérèglement" climatique.

Dans une tribune intitulée "
Ne cédons pas au catastrophisme climatique", publiée par le journal Libération, Bruno Tertrais, maître de recherche à la Fondation pour La Recherche Stratégique, FRS, a épinglé ce détournement hasardeux qui, compte tenu de ses multiples répétitions par des voies officielles, semble relever des "éléments de langage " chers au gouvernement. Voici un extrait de cette tribune :

"Dans une contribution récente (Libération, 17 mars), la secrétaire d’Etat chargée du Développement, et de la Francophonie, affirme que «87% des catastrophes climatiques ont un lien avec le réchauffement de la planète». Cette affirmation est doublement fausse, et elle est malheureusement révélatrice d’un certain catastrophisme climatique. Pour l’appuyer, Mme Girardin cite «les dernières données du Bureau des Nations unies pour la réduction des risques». Or, ce n’est pas ce que dit cette institution, qui affirme seulement que 87% des catastrophes naturelles (et non pas «climatiques») seraient «liées au climat» (et non pas «liées au réchauffement de la planète»).

Mais qu’appelle-t-on alors les catastrophes «liées au climat» ? L’ONU s’appuie sur les statistiques annuelles produites par l’Université de Louvain et la compagnie de réassurance Munich Re. Et l’on comprend alors mieux d’où vient ce chiffre de 87% : il s’agit du total des événements «météorologiques» (ouragans, tempêtes), ou «hydrologiques» (inondations), ou encore «climatologiques» proprement dits (températures extrêmes, sécheresses, feux de forêt). Aucun lien avec le réchauffement planétaire."

Toujours dans le même esprit, sur le site de Ministère des Affaires Etrangères, et à propos du cyclone Pam, on peut également lire ceci :

"Cette tragédie (NdT : le cyclone Pam) souligne une nouvelle fois le danger que font courir à la planète les phénomènes météorologiques extrêmes, aggravés par les dérèglements climatiques."..."Cette catastrophe renforce encore la détermination de la France à trouver un accord ambitieux lors de la conférence sur le climat qu’elle présidera en décembre à Paris."

Le Président du Vanuatu n'est pas en reste dans ce domaine. Très sûr de lui, il a affirmé à la conférence de l'ONU à Sendaï (13-15 Mars) que :

"Le changement climatique a contribué au désastre au Vanuatu. Nous assistons à la montée du niveau de la mer, à la modification des schémas météorologiques, toutes ces choses se produisent partout. Cette année, nous avons eu plus de pluie que les années précédentes"


Le président de Vanuatu, Baldwin Lonsdale, déclare , entre autres, qu'il "assiste à la montée du niveau des mers à Vanuatu".
J'ai eu la curiosité d'aller voir ce qui justifiait les inquiétudes du Président en allant rechercher les mesures de la hausse du niveau des mers autour de
Vanuatu publiées par le BOM (Le Bureau australien de la Météorologie) qui fait autorité dans ces matières. slrvanuatu

Voici, ci-dessus, un extrait de la Figure 13 du rapport du BOM au sujet de la "hausse" du niveau des mers à Vanuatu (et dans d'autres sites) depuis 1992 jusqu'en Août 2014. L'échelle verticale est graduée en mètres. Les fluctuations sont de l'ordre de la dizaine de cm et on ne discerne aucune tendance à la hausse du niveau marin. Tout au plus perçoit-on que le niveau aurait plutôt tendance à baisser depuis 2008.

Bien entendu, la presse française a repris l'antienne gouvernementale. C'est ainsi que parmi beaucoup d'autres et dans le même esprit, "Le Monde" titre : "Vanuatu, symbole de l'urgence climatique."

Le JDD du 15 Mars semble un peu mieux renseigné. Il titre : "Cyclone Pam : naissance et mort d'un monstre. Le réchauffement climatique n’entraîne pas de multiplication des cyclones, mais pourrait augmenter leur puissance." Le "pourrait" fait allusion à certaines projections d'ordinateur (donc délicates et non avérées) pour les années 2050..

Pour sa part, le journal 20 mn est très affirmatif : "Le changement climatique a "contribué" à la puissance dévastatrice du cyclone."

Comme on s'y attend, la radio n'est pas en reste. Entre autres, France info consulte un chercheur du CNRS en se posant la question suivante "Cyclone Pam : le réchauffement climatique en partie responsable ? ". Le chercheur interrogé, Robert Vautard du CNRS, répond factuellement ce que savent tous les scientifiques qui s'intéressent à ces questions :

"il est impossible de dire qu'un événement ponctuel est le résultat du changement climatique d'origine humaine qui se juge sur  des décennies. Et notamment parce que la question des cyclones est tout à fait délicate".

En effet, certaines théories avancent l'idée que le changement climatique "devrait" atténuer le différentiel de température pôles-équateur ce qui "devrait" contribuer à un ralentissement de l'activité cyclonique. Mais d'autres font valoir que le taux d'humidité "devrait" augmenter provoquant un effet de sens opposé. Du point de vue des scénarios prévisibles par les ordinateurs, c'est, en effet, "une question tout à fait délicate". Compte tenu des dimensions de la maille des simulations numériques, il est actuellement impossible de modéliser l'amorçage et le développement d'une perturbation turbulente localisée telle qu'un cyclone ou un ouragan ou un typhon (le nom dépendant de la région considérée).
Bref, dans la réalité objective, on ne sait pas. Même si certains, souvent placés devant les caméras, avancent des hypothèses qui vont dans le sens de la doxa catastrophiste du style "Pam est cohérent avec ce que nous attendons."
Le problème est que Pam est également cohérent avec le déroulement naturel des événements cycloniques qui se produisent fréquemment dans ces régions comme nous allons le voir ci-dessous.

Les propos mesurés du chercheur CNRS interrogé à ce sujet n'empêche pas France Info, dans la même page, se basant sur un reportage de Philippe Reltien, de titrer que "Vanuatu est un cas d'école pour la conférence climat le COP21 à Paris".

B) L'Europe : Euractiv.

En contradiction flagrante (comme nous le verrons), entre autres, avec les conclusions des derniers rapports du GIEC (AR5 et rapport spécialisé SREX sur les événements extrêmes), se référant aux affirmations d'une ONG écologiste, Oxfam France, et à l'occasion de la récente "Négociation Internationale sur la Réduction des Risques Naturels" qui a eu lieu à Sendaï à la mi-Mars, Euractiv qui représente le réseau d'information de l'Europe, affirme (caractères engraissé par PU) :

"Les négociations internationales sur la réduction des risques naturels ont abouti à un accord décevant au Japon le 18 mars, malgré le drame de Vanuatu. Un mauvais signal pour les négociations climatiques.

Rappelée à l’ordre par le cyclone Pam qui a dévasté l’archipel du Vanuatu dans la nuit du 13 au 14 mars, la communauté internationale n’a pas pour autant réussi à trouver un accord ambitieux sur la réduction des catastrophes naturelles.

Rassemblées à Sendaï au Japon du 14 au 18 mars, les délégations des 186 nations devaient s’accorder sur un nouveau cadre pour la période 2015-2030 portant sur la réduction des risques naturels.  Les nouvelles orientations et objectifs devaient prendre le relais du Cadre d’action de Hyogo (2005-2015), qui arrivait à échéance."
[...]

"Catastrophes naturelles en hausse

Pourtant, le constat est unanime : la fréquence et l’intensité des catastrophes naturelles augmentent avec le réchauffement climatique.

Depuis 1980, les données disponibles montrent une augmentation de 233 % des catastrophes liées au climat. Les sécheresses, inondations, cyclones et incendies, entre autres, sont devenues à la fois plus fréquentes et plus intenses rappelle Oxfam France."

« Les catastrophes devenant plus courantes et plus fréquentes sous l’effet des dérèglements du climat, la ‘prévention du pire’ doit occuper une place centrale dans le développement » a déclaré Jim Yong Kim, président du Groupe de la Banque mondiale."

A noter que les affirmations d'Oxfam et du Président du groupe de la banque mondiale selon lesquelles "les catastrophes deviennent plus courantes et plus fréquentes sous l'effet des "dérèglements du climat" sont également en contradiction formelles avec des articles scientifiques récents publiés sur cette question comme je l'avais rappelé dans le billet du 1er Février. Elles sont également démenties pour ce qui concerne plus spécifiquement les cyclones, notamment (mais pas seulement) dans la région de Vanuatu, comme nous le verrons ci-dessous.

C) L'ONU qui est l'un des responsables du GIEC n'hésite pas à utiliser le cyclone Pam pour faire avancer la cause de la COP21 (Paris) tout en contredisant la plupart des experts spécialistes de cette question, jusqu'aux rapports de l'organisme dont il est responsable, le GIEC.
Voici un extrait du texte qui figure sur le site dédié de l'UNFCC (Convention Cadre des Nations Unies pour le Changement Climatique)
dont la secrétaire générale est Christiana Figueres.

"La dévastation de la semaine dernière qui a frappé l'Etat de Vanuatu constitué de petites îles, du fait du cyclone Pam, a jeté une lumière crue sur les conséquences humaines des menaces que fait peser le changement climatique et les désastres apportées au développement durable."

En dépit des affirmations d'un scientifique renommé en matières de cyclones/ouragans/typhons, le professeur Kerry du MIT qui a écrit que

"La période d'environ 30 années pour laquelle nous disposons de mesures satellitaires fiables (pour les cyclones tropicaux) est trop courte pour que nous puissions éliminer l'influence de la variabilité naturelle."

Comme nous le verrons ci-dessous, Pam, tout comme les autres cyclones tropicaux (tels que Haiyan aux Philippines) enregistrés jusqu'à maintenant, ne sort part du domaine des occurrences naturelles ou de la normalité. Les études scientifiques et les analyses statistiques montrent qu'on ne dispose pas de données suffisantes pour discerner une tendance significative qui pourrait être attribuée au changement climatique. C'est, en d'autres termes, à peu près ce qu'avait dit le chercheur Vautard.

2) Le cyclone Pam : Les données officielles.

A) Le nombre des victimes :

Le bilan officiel des pertes humaines a été dressé le par le Bureau de Coordination des Affaires Humanitaires de l'ONU (OCHA) qui, après avoir annoncé 44 décès (et, certains médias, plusieurs douzaines) a finalement révisé son bilan à la baisse avec un total de 11 morts le 22 Mars (Vanuatu recense 270000 habitants).
C'est certes un bilan regrettable mais que l'on peut considérer comme mineur, s'agissant, comme certains l'ont affirmé, d'une "monstruosité climatique".
Au vu des chiffres qui vont suivre, on peut effectivement s'étonner de la remarquable résilience des habitants de ces contrées, car, en effet, Pam a été un cyclone particulièrement violent, sans être exceptionnel comme nous le verrons, pour cette zone du Pacifique.

Le journal Le Monde nous explique comment les populations de ces îles se protègent des cyclones, très fréquents dans cette région :

"Selon le scientifique, les savoirs traditionnels ancestraux des communautés mélanésiennes ont eux aussi joué un rôle positif dans la limitation du nombre de victimes. Les nakamals, abris communautaires en végétaux où les gens se réunissent pour boire le kava, boisson emblématique du Pacifique confectionnée avec les racines macérées d’une plante du même nom, ont sans doute sauvé de nombreuses vies. « Ces lieux sont des refuges en cas de cyclone. Les poteaux de la structure sont fortement enfoncés dans le sol, les murs et la toiture sont très bas, l’intérieur est ventilé. Les nakamals ont une architecture adaptée aux cyclones », poursuit Sylvain Todman.[...] "Avec six volcans actifs, une quinzaine de volcans dormants, et des risques sismiques, cycloniques et de tsunamis majeurs, Vanuatu est le territoire le plus exposé aux aléas naturels de la planète", selon le World Risk Report 2014.

De fait, les habitants des contrées fréquemment ravagées par des cyclones/ouragans/typhons se sont adaptés à ces aléas climatiques et autres. De même, les toits des habitations de l'île de la Réunion sont fréquemment surélevés, ménageant ainsi un espace libre par rapport aux murs des habitations. De plus, les habitants de la Réunion ont, peu à peu, remplacé beaucoup d'arbres trop fragiles qui ne résistaient pas au renversement brutal du sens du vent avant et après le passage de l'oeil du cyclone, par des arbres d'origine australienne, particulièrement élastiques et très utiles qui peuvent, sans dommage être sollicités dans les deux sens : les filaos. Il est manifestement plus utile de développer des techniques d'adaptation que de prétendre modifier le cours du développement des tempêtes tropicales qui existaient bien avant le "dérèglement climatique".

B) Les vitesse des vents et l'énergie accumulée de Pam :


pamspeedVoici l'évolution de la vitesse des vents soutenus pendant une minute du cyclone Pam, pour la période considérée, selon différentes estimations des satellites et du graphe ci-contre de la NOAA, en fonction de la date.

Des données exhaustives sur le cyclone Pam se trouvent sur ce lien (NOAA-RAMMB-CIRA)

sh172015 est l'indicatif officiel du cyclone Pam.

Comme on peut le constater, la dispersion des résultats des mesures des vitesses de vents est relativement importante (de l'ordre de ± 30 km/h).
Si on prend la vitesse (l'Intensité Estimée pendant une minute) on trouve que le maximum (environ 145 noeuds soit 268 km/h) a été atteint le 13 Mars vers minuit, c'est à dire, assez précisément, à l'heure du passage du cyclone sur Port Vila, la capitale comme nous allons le voir. C'est une circonstance particulièrement malheureuse et relativement exceptionnelle.

A noter que je n'ai pas trouvé de mention officielle de vitesses de vent de 300 km/h, voire de 350 km/h, comme l'ont rapporté la plupart des médias (qui n'indiquent jamais leurs sources).

Pour mémoire, L'Energie Accumulée de Pam ( l'indice ACE, Accumulated Cyclone Energy) a été de 31,2. A titre de comparaison, celle de Haiyan était de 37.

C) La (malheureuse) trajectoire de Pam et une rétrospective des cyclones de classe 5 dans la région de Vanuatu depuis 1970 :

pam-trajectCe graphique, établi après le passage de Pam, montre un fait qui est assez généralement ignoré :
Les vents les plus destructeurs se produisent non pas dans l'oeil du cyclone (où les vents sont faibles ou nuls) mais à proximité de celui-ci dans un couloir de quelques dizaines de km. A mesure que l'on s'éloigne de l'oeil du cyclone, les dégâts occasionnés et la vitesse des vents diminuent.

Comme on peut le voir sur ce graphique,
Port Vila, la capitale, s'est trouvé, dans la nuit du 13 Mars, dans la zone située en bordure de la zone la plus destructrice, alors que les vents étaient à leur maximum. Les petites îles beaucoup moins peuplées de Erromango et de Tanna ont subi le même sort au cours de la journée du 14 Mars.

 

 

 

 

 

Voici une statistique révélatrice de la violence de l'activité cyclonique à proximité de Vanuatu tirée du site Weather Undergroound (du Dr. Jeff Masters qui est un spécialiste bien connu des pamtrack5tempêtes, notamment tropicales. JM n'utilise que les bases de données officielles). Il s'agit des trajectoires de tous les cyclones de classe 5 (les plus violents dont fait partie Pam) dans la région de Vanuatu.

La statistique ci-contre sur les cyclones de catégorie 5 qui ont affecté cette région a été établie avant que la trajectoire de Pam ne soit connue. Les prédictions connues, à l'époque, sur la trajectoire de Pam sont indiquées par la zone de couleur marron.

"Figure 3. Trajectoire de tous les cyclones de catégorie 5 qui se sont produit dans le Pacifique Sud (à l'Est de 133°E) depuis le début des enregistrements satellitaires (1970).

Pam n'est que l'une des dix tempêtes de catégorie 5 qui ont été enregistrés sur ce bassin depuis 1970.

 

 

 

Les cyclones les plus puissants d'après les données du Joint Typhoon Warning Center dans cette zone sont Zoe (2002/2003) and Monica (2006), qui ont connu les vents les plus rapides avec des vitesse de 180 mph (NdT : 289 km/h, soutenus pendant une minute. Ils se classent donc devant les 268 km/h de Pam, encore qu'au vu des incertitudes sur les mesures, on peut être circonspect).
(merci à Phil Klotzbach de la Colorado State University pour cette statistique) Image credit: Michael Lowry, TWC."

Il y a eu, dans cette zone du Pacifique Sud, environ 5 cyclones de catégorie 5 en 45 ans , c'est à dire, en moyenne, un cyclone de catégorie 5 comme Pam tous les neuf ans pour cette région. Nous verrons plus bas que la fréquence de ces événements extrêmes ne montre aucun signe d'augmentation, ce qui est conforme aux graphiques du GIEC. La distribution temporelle des cyclones de catégorie 5 dans cette région est très loin d'être uniforme. Ainsi, les années 2003, 2004 ont été marquée pas une activité cyclonique bien supérieure à celle des années récentes.

Du point de vue des cyclones qui ont été actifs dans toute la zone Pacifique Sud et du point de vue de la vitesse des vents, selon la NOAA, Pam se classe également derrière Orson et Monica qui ont frappé la côte australienne en 1989 et 2006 avec des vitesses de vents de 180 mph (289 km/h), ainsi que derrière Zoé (également 180 mph) qui a aussi affecté la région de Vanuatu (entre autres) en 2002.
Les organismes de mesure ne sont pas d'accord pour ce qui est de la dépression (896, 899, 900 mbar ?) atteinte par Pam, mais les observations concordent pour affirmer que cette pression minimale qui n'est pas exceptionnelle et a été très brièvement atteinte alors que la vitesse des vents avait déjà régressé. A titre de comparaison, Zoe qui a affecté la même zone en 2002 avait atteint 890 mbar.

D) Le GIEC, dans son récent rapport (complet) AR5 (WGI, chap. 14, Fig. 14-17) , évoque, entre autres à l'aide de graphiques, l'activité cyclonique dans la zone du Pacifique Sud où se trouve Vanuatu :

ipcc-chapt14-cyclones

Ci-contre, la Figure 14-17 du rapport AR5 du GIEC.

 

 

 

 

 

Ce graphique, dont j'ai agrandi la partie qui concerne les statistiques sur l'activité cyclonique de la zone Pacifique Sud, se lit de la manière suivante (comme indiqué dans le cartouche situé à droite).

Les rectangles en bleu clair indiquent les marges d'incertitudes. Le trait épais de couleur bleu, la valeur médiane.

Les chiffres romains indiqués dans l'agrandissement ci-contre, en regard des rectangles bleus, sont relatifs à :

I : Fréquence des cyclones, toutes catégories confondues.
II : Cyclones de catégories 4 et 5, les plus puissants.
III : Durée de vie de l'intensité (de la vitesse des vents) maximale.
IV : Taux de précipitations.

Ainsi, le GIEC observe que, dans la zone considérée, la fréquence des cyclones (toutes catégories confondues) a tendance à diminuer, que la durée de vie de l'intensité maximale n'a pas subi de variation et que les précipitations ont augmenté d'environ 10% et qu'il leur est impossible de se prononcer pour ce qui est de l'évolution des cyclones de classe 4 et 5. (insf. d. signifie données insuffisantes).
Ce qui est plutôt fâcheux en comparaison des nombreuses affirmations péremptoires rappelées ci-dessus et qui est conforme avec les déclarations des scientifiques interrogés.

 

 

 

 

 

 

Voici maintenant deux graphiques globalement cohérents avec le rapport du GIEC. Le premier provient du Bureau de Météorologie australien (BOM) , l'autre de son équivalent néo-zélandais (Met-service)). Ils montrent l'évolution du nombre des cyclones classés en différentes catégories selon leur puissance, toujours dans la même zone Pacifique Sud. On notera au passage que le nombre moyen des cyclones qui sévissent dans ces régions, chaque année est de l'ordre de la dizaine. Bien heureusement, la plupart ne touchent pas terre.
pam-australie

Ci-contre : Activité cyclonique, depuis 1969, dans le Pacifique Sud aux environs de l'Australie, selon le Bureau australien de la Météorologie, (le BOM).

Nous avons vu que des cyclones tels que Pam ne sont pas exceptionnels dans le Pacifique Sud, même si Pam fait partie de la liste des quelques 4 ou 5 cyclones les plus intenses recensés depuis les débuts de l'ère satellitaire dans cette zone, il est loin d'en être le plus violent.

Comme on le voit immédiatement, le nombre total des cyclones dans cette région évolue plutôt à la baisse, c'est à dire qu'ils deviennent moins fréquents. Les cyclones de moindre intensité sont représentés en jaune-orange.
Les cyclones les plus sévères (catégorie 4 et 5, en rouge foncé) ne sont pas, non plus, plus fréquents que lors des décennies précédentes.

 

pamstat

Selon le Service Météorologique de Nouvelle Zélande.

Ce graphique indique le nombre des cyclones (toute la zone Pacifique Sud) en fonctions de leur classe 1, 2, 3 et 4-5, avec des colorations de plus en plus foncées à mesure que l'indice de la classe augmente.

Comme on le voit, ici encore, le nombre total des cyclones n'est pas en hausse et les cyclones les plus intenses (cat. 4 et 5) ne sont pas plus fréquents qu'au cours des décennies passés.

Aussi bien le rapport GIEC que les observations rapportés par les organismes compétents australiens et néo-zélandais contredisent la quasi totalité des déclarations de l'UNFCC et autres responsables politiques et/ou médias à ce sujet.

 

 

 

Voici, de manière plus générale, en guise de rappel au sujet des événements climatiques extrêmes, des extraits du dernier rapport scientifique du GIEC (l'AR5) publié en 2013. (source) (déjà cité ici) (Détails supplémentaires dans ce billet).

Au sujet des ouragans et cyclones tropicaux :
“Les bases de données existantes ne montrent aucune tendance significative dans la fréquence des cyclones tropicaux durant le siècle dernier....Aucune tendance robuste dans le nombre des cyclones tropicaux, des ouragans et des ouragans les plus forts, n'a été identifiée lors des 100 dernières années dans le bassin Nord Atlantique."

Au sujet des inondations :
"En résumé, le manque de preuve persiste en ce qui concerne le signe et la grandeur et/ou la fréquence des inondations à l'échelle globale, ce qui se traduit par un indice de confiance faible."

Au sujet des tempêtes, orages, grêle etc.
"En résumé, il y a une faible confiance dans les tendances observées pour les phénomènes météorologiques violents à petite échelle tels que les grêles, les orages, à cause de l'inhomogénéité des données et de l'inadaptation des systèmes de suivi."

Concernant les sécheresses et les affirmations du rapport précédent AR4 :
"Au vu des études mises à jour, les conclusions de l'AR4 (Le rapport 2007 du GIEC) concernant une augmentation des sécheresses depuis les années 1970, ont été probablement surestimées".

Concernant les cyclones extra-tropicaux :
"En résumé, la confiance est faible dans des changements à grande échelle de l'intensité des cyclones extra-tropicaux extrêmes depuis 1900."

En bref, faute de données objectives, pour beaucoup de ces événements climatiques (météorologiques) extrêmes, le GIEC ne peut pas se prononcer ou, lorsque les observations existent, on ne voit pas de tendance statistiquement significative qui puisse permettre d'incriminer le "changement climatique".

En conclusion, on peut se demander légitimement quelle est l'utilité des volumineux rapports que le GIEC publie périodiquement depuis plus de 20 ans ainsi que celle des nombreux graphiques établis et rendus accessibles par les différents organismes officiels financés par les états et chargés du suivi des calamités climatiques.Il apparaît évident que ni les responsables des grands ministères, ni les organismes d'information européenne, ni la banque mondiale, ni l'UNFCC de l'ONU, ni les rédacteurs des dépêches des médias, ne se donnent la peine de les consulter et de s'y référer avant de rédiger leurs communiqués.

Compte tenu du nombre et de la qualité des acteurs impliqués, il est difficile d'imaginer qu'il s'agirait d'incompétence ou de légèreté. On doit malheureusement en conclure qu'il est probable que des objectifs politiques ont pris le pas sur les observations scientifiques et sur l'impérieuse nécessité d'informer correctement le grand public. Il apparaît que les tragédies causées par le cyclone Pam, tout comme celles du typhon Haiyan, ont pu être récupérées à des fins politiques dans la perspective de la promotion de la conférence mondiale, dite COP21, qui se tiendra à Paris à la fin de cette année.

Si c'était le cas, doit-on rappeler, une fois encore, que la fin ne justifie pas les moyens ?

Stay Tuned !

PS : De nombreux lecteurs me font remarquer que la plupart des déclarations impliquant Pam, mériterait l'attribution d'un bonnet d'âne comme PU le pratiquait autrefois. Compte-tenu de l'approche de la COP21, il serait sans doute bon que je réapprovisionne ma collection de ces prestigieux couvre-chefs en passant une grosse commande chez mon fournisseur. D'autre part, la mise en place d'un climathon hebdomadaire sur Skyfall permet de distinguer quelques uns des plus brillants candidats.

8 Mars 2015 : Les cycles climatique sont de retour et, cette fois-ci, sous la plume d'auteurs proches du GIEC.

Comme on pouvait s'y attendre, la divergence croissante et de plus en plus évidente, entre les modèles numériques qui extrapolaient, pour le présent et le futur, le réchauffement observé durant la période 1976-1997 et les observations objectives qui montrent une stagnation (un "plateau") de la température moyenne de la surface du globe depuis quelques 15 à 18 ans (selon les auteurs), a suscité un certain nombre d'interrogations, de débats et de tentatives d'explications. Parmi ces dernières, la prise en compte de la variabilité naturelle du climat via les oscillations océaniques multidécennales dont la période est d'environ 65 ans, ne pouvait que ressurgir.

Dans le passé, plusieurs auteurs avaient déjà fait observer et analysé le caractère plus ou moins cyclique des variations de la température du globe durant les dernières décennies. S'agissant d'oscillations liées à la variabilité interne ou naturelle du climat, leurs travaux avaient été délaissés ou ignorés dans les rapports successifs du GIEC dont la mission première consistait explicitement à rechercher et analyser les causes et les conséquences d'un réchauffement d'origine externe, c'est à dire anthropique.

Ce qui est nouveau et qui justifie la publication de ce billet, c'est que les oscillations océaniques multidécennales sont maintenant prises en compte pour expliquer "le plateau" (ou 'la pause" ou le "hiatus" selon les auteurs) par des auteurs proches du GIEC. Parmi ces derniers, emblématique entre tous, figure Michael Mann, l'un des principaux participants du GIEC et l'inventeur de la "crosse de hockey" dont les travaux ont fait les beaux jours des rapports du GIEC et défrayé la chronique (voir les Climategate I et II), comme le savent tous les lecteurs fidèles de ce site.

En guise d'introduction, voici un bref rappel illustré des indices classiques caractérisant les oscillations océaniques les plus usitées :

Rappels : Les indices des oscillations océaniques

Voici deux graphiques, concernant les principales oscillations océaniques, extraits de Climate4you qui est un site qui tient à jour une multitude d'indicateurs du climat, géré par le Professeur Ole Humlum. amopdo

 

 

Ci contre, voici un graphique montrant les variations de l'indice de l'AMO (l'Oscillation Multidécennale atlantique) tirées des bases de données de l'ESRL (NOAA).

La période d'oscillation de cet indice est d'environ 65 ans. Au vu de ce graphique nous sommes actuellement en phase positive et proches du maximum de la valeur de cet indice. Il est probable que cet indice décroîtra dans les années à venir.

 

 

 

Voici, tirés des bases de données de l'Université de Washington (JISAO en collaboration avec la NOAA) les variations de l'indice PDO ( Oscillation Décennale Pacifique). Comme vous le voyez, la période de cette oscillation est d'environ 60-65 ans.

Nous nous trouvons actuellement en phase négative (c'est à dire plus froide) de cet indice. Cette situation devrait perdurer pendant plus d'une décennie.

 

 

 

On ne connaît pas, actuellement, les mécanismes sous-jacents de ces oscillations multidécennales, pas plus que l'on comprend le fonctionnement interne de la NAO (l'Oscillation Atlantique Nord) dont il sera question ci-dessous. Ce que l'on sait, par contre, c'est que ces oscillations océaniques ne sont pas indépendantes. Elles sont liées entre elles par ce que l'on appelle des "téléconnexions" et le jeu relativement complexe de ces interactions a été étudié, notamment par Tsonis et al (repris plus récemment par Judith Curry et Marcia Wyatt) sous l'image d'ondes de stade, (la "ola") que j'avais évoquées dans un billet précédent.

2) Michael Mann et ses collègues expliquent ce qu'ils appellent "la fausse pause"
à l'aide des oscillations océaniques multidécennales.

dans un article récent publié dans la revue Science

mann2015a

Dont voici le résumé original suivi d'une traduction en français.

mann2015b

Résumé : Le ralentissement récent du réchauffement climatique a remis en question la fiabilité des projections des futurs changements de température par les modèles climatiques et ceci a conduit à un débat véhément sur la question de savoir si ce ralentissement résulte d'une variabilité interne d'origine naturelle ou bien à des forçages externes au système climatique de la Terre. Dans le but de répondre à ces questions, nous avons utilisé une approche semi-empirique qui combine les observations climatiques et des simulations numériques destinées à obtenir une estimation de la variabilité multidécennale interne atlantique et pacifique (notées respectivement par "AMO" et "PMO"). En utilisant cette méthode, on trouve que l'AMO et la PMO expliquent une grande fraction de la variabilité interne des températures moyennes de l'hémisphère Nord. On observe que la compétition entre un pic positif modeste de l'AMO avec une tendance substantiellement négative de la PMO, résulte en un ralentissement ou à "une fausse pause" du réchauffement de la dernière décennie.

Le résumé de l'article de Mann et de ses collègues est suffisamment explicite pour qu'il ne soit pas nécessaire de rentrer dans les détails de l'article qui ne comporte que quelques graphiques explicatifs.

On pourra observer, qu'en effet, et comme vous pouvez le voir sur les graphiques de Ole Humlum rapportés ci-dessus, nous sommes effectivement, depuis 1998, dans une phase descendante (qualifiée de "tendance substantiellement négative" par Mann et al.) de la température de l'océan pacifique et dans une période ascendante (que Mann et al. qualifient de "pic positif modeste") de l'indice AMO de l'océan atlantique, durant la même période.

Cependant et si on admet à présent que ces variations naturelles ont été capables d'annihiler le réchauffement anthropique depuis plus d'une décennie et demie, en provoquant "la pause", la question de savoir si les mêmes causes (c'est à dire les oscillations océaniques naturelles) n'étaient pas également responsables de la hausse des températures observée durant la période 1975-1997, devient inconfortable. De fait, comme nous le verrons plus loin et comme l'ont analysé d'autres auteurs, la conjonction des oscillations océaniques peut fort bien également expliquer le réchauffement précédent qui a été très généralement attribué à l'influence anthropique.

Assez curieusement, Michael Mann et ses coauteurs n'abordent pas cette question fondamentale qui vient pourtant immédiatement à l'esprit...

C'est ce que fait remarquer le climatologue Roy Spencer dans un billet récent au sujet de cet article de Mann et al. :

"L'objet de ce billet est de rappeler au lecteur une chose que j'avais déjà signalée auparavant : Dans la mesure où une variation de la circulation océanique a annihilé le réchauffement anthropique durant les 15+ dernières années, une variation opposée a probablement augmenté le réchauffement durant la période allant des années 1970 aux années 1990.
Vous ne pouvez pas avoir l'un sans l'autre. Les fluctuations naturelles de la circulation océanique verticale sont cycliques. Vous ne pouvez pas attribuer le hiatus du réchauffement à des forçages naturels sans, également, prendre en compte le rôle des forçages naturels qui ont été responsables de la période de réchauffement précédent.
Au mieux, cela révèle un biais dans le raisonnement et, au pire, c'est incohérent du point de vue de la logique."

L'article que je présente ci-dessous ne souffre pas de cette critique puisque les auteurs reconstruisent, à partir de la variabilité naturelle, l'évolution de la température (hindcast) durant la période précédant la "pause". La reconstruction est remarquable. Comme on s'y attend, les auteurs en déduisent que la température devrait baisser légèrement au moins jusqu'en 2027.

3) Reconstruction et prédiction de la température de l'Hémisphère Nord à partir des oscillations multidécennales des indicateurs océaniques :

Le deuxième article publié par Jianping Li et al. (Une collaboration sino-américaine, en lecture libre) fait intervenir l'Oscillation Nord Atlantique (la NAO) et l'AMO dans l'évolution de la température de l'hémisphère Nord. Cet article, publié dans la revue renommée et réputée proche des thèses du GIEC, Geophysical Research Letters, est intitulé :
"Implication de la NAO pour une prédiction de la variabilité multidécennale de la température moyenne de l'hémisphère Nord.".

grl1

 

 

 

 

 

 

 

 

 

 

Abstract :  The twentieth century Northern Hemisphere mean surface temperature (NHT) is characterized by a multidecadal warming-cooling-warming pattern followed by a flat trend since about 2000 (recent warming hiatus). Here we demonstrate that the North Atlantic Oscillation (NAO) is implicated as a useful predictor of NHT multidecadal variability. Observational analysis shows that the NAO leads both the detrended NHT and oceanic Atlantic Multidecadal Oscillation (AMO) by 15–20 years. Theoretical analysis illuminates that the NAO precedes NHT multidecadal variability through its delayed effect on the AMO due to the large thermal inertia associated with slow oceanic processes. An NAO-based linear model is therefore established to predict the NHT, which gives an excellent hindcast for NHT in 1971–2011 with the recent flat trend well predicted. NHT in 2012–2027 is predicted to fall slightly over the next decades, due to the recent NAO decadal weakening that temporarily offsets the anthropogenically induced warming.

Soit, en français,

Résumé : La température moyenne de l'hémisphère Nord durant le XXe siècle (NHT) est caractérisée par une tendance multidécennale de réchauffement-refroidissement-réchauffement suivie par une tendance plate depuis environ l'année 2000 (le récent hiatus du réchauffement). Dans cet article nous démontrons que l'Oscillation Nord Atlantique (NAO) est impliquée en tant qu'instrument utile pour la prédiction de la variabilité multidécennale de la NHT. L'analyse résultant des observations montre que la NAO précède aussi bien la tendance de la NHT (sans sa tendance à long terme) que celle de l'Oscillation Atlantique Multidécennale (AMO) d'environ 15 à 20 ans. Une analyse théorique met en lumière le fait que la NAO précède la variabilité multidécennale de la NHT via son action retardée sur l'AMO, ceci étant dû à la grande inertie thermique associée aux processus océaniques lents.
Un modèle linéaire basé sur la NAO est ainsi élaboré afin de prédire la NHT.
Celui-ci donne lieu à une excellente rétro-prédiction pour la NHT durant la période 1971-2011 ainsi qu'à une bonne prédiction de de la tendance plate. On prédit que La NHT durant la période 2012-2027 baissera légèrement durant les prochaines décennies, ceci résultant de l'affaiblissement décennal de la NAO qui compense temporairement le réchauffement anthropique.

La NAO, L'oscillation Nord Atlantique (voir description par la NOAA) est caractérisée par un indice dont les variations de 1990 à 2011 sont représentées en bleu sur le graphique (b) ci-dessous. La NAO consiste en un dipôle Nord-Sud des anomalies avec un pôle situé au dessus de l'Islande et l'autre, de signe opposé, couvrant les latitudes centrales de l'Atlantique Nord entre 35 et 40 degrés. La phase positive de la NAO rend compte de pressions inférieures la normale au dessus des hautes latitudes de l'Atlantique Nord et des pressions supérieures à la normale au dessus du centre de l'Atlantique Nord, entre l'Est des USA et l'Europe de l'Ouest. La phase négative reflète l'opposé. Il apparaît que la NAO et la température de l'hémisphère Nord montrent une variabilité multidécennale prononcée avec un retard (la NHT étant en retard sur la NAO) d'environ 10 à 20 ans. Un calcul plus précis des corrélations montre que le retard est proche de 16 ans. Les auteurs écrivent que :

"Ces résultats suggèrent que la moyenne annuelle de la NAO précède la DNHT [NdT: la NHT à laquelle on a retiré la tendance à long terme. Le D est pour "detrended" en anglais] et qu'elle peut ainsi être considérée comme un précurseur de la variabilité multidécennale de la DNHT."

Voici un graphique tiré de l'article qui montre les covariations de l'AMO et de la DNHT ainsi que leur décalage (leur retard) par rapport aux variations de la NAO.

Li1

Légende de la Fig. 1 (b)

Indices de la NHT, NAO, et AMO de 1900 à 2011.

La moyenne glissante sur 11 ans de la DNHT (en rouge), de la NAO (en bleu) et de l'AMO (en vert).
Les zones en grisé rose indiquent les incertitudes à deux sigma dans les figures 1a et 1b pour les indices NHT des données HadCRUT4, estimées en utilisant les 100 réalisations [Kennedy et al., 2011b]. Les lignes verticales vertes de la figure 1b montrent les domaines d'incertitudes ) deux sigma des séries de données de l'AMO pour les données HadSST3.

 

Li2

Le graphique ci-contre de la Figure 4(a) illustre la reconstruction de la variation de la température moyenne de l'hémisphère Nord à partir de la prise en compte des oscillations AMO et NAO. Il représente ce que l'on appelle des "hindcasts" (des rétro-prédictions), c'est à dire des reconstructions des variations passées.

Comme on peut le constater, les différents "hindcasts" (1976) et (1996) et les résultats des modèles reproduisent assez fidèlement les variations effectivement observées (courbe en rouge).

Il s'agit d'un test crucial destiné à montrer qu'une modélisation est capable de reconstituer correctement les variations observées dans le passé.
Un test "hindcast" positif, procure, bien entendu, une confiance raisonnable dans le "forecasts", c'est à dire dans les prévisions pour le futur.

 

La figure 4(b) traite des projections pour le futur (les forecasts) obtenues à partir des modèles adaptés et vérifiés par les "hindcasts" précédents (Fig 4(a)).
Comme on peut l'observer, l'utilisation de cette modélisation conduit à la prédiction d'une stagnation ou d'une légère baisse de la température de l'hémisphère Nord durant les années prochaines, jusqu'en 2027 (disent les auteurs).
Ce résultat n'est pas étonnant car, si on suit le raisonnement des auteurs, on constate (voir la Figure 4a, ci-dessus) que le précurseur (la NAO en bleu) de la NHT a amorcé une baisse marquée depuis les années 90.

 

 

La conclusion de Li et al. est explicite :

"Cet article démontre que la NAO est un prédicteur utile de la température de l'hémisphère Nord permettant une prédiction avancée de près de deux décennies Le signal NAO précède la température de l'hémisphère Nord et l'AMO d'environ 16 ans et la variabilité multidécennale de la température de l'hémisphère Nord peut-être très bien expliquée et modélisée à partir du signal de NAO.
On a élaboré un modèle linéaire basé sur la NAO qui prédit la température de l'hémisphère Nord ainsi que les rétro-prédictions de la NHT durant la période 1971-2011. Celui-ci apparaît en bon accord avec les observations. Du fait de l'affaiblissement récent de la NAO qui annihile temporairement les effets du réchauffement anthropique, nous prédisons une faible baisse de la température de l'hémisphère Nord durant la période 2012-2027."[...]

[14] Bien que l'origine des variations multidécennales de la NAO demeurent encore obscures [Cohen and Barlow, 2005], les résultats que nous présentons ici apportent des éléments de preuve convaincants que la variabilité multidécennale de la NAO contribue de manière significative à la variabilité multidécennale de la température de l'hémisphère Nord. Ils mettent aussi en lumière le fait que la compréhension et une meilleure modélisation de la variabilité multidécennale de la NAO est essentielle pour l'interprétation et les futures projections des changements climatiques de l'hémisphère Nord à une échelle multidécennale."

Que voyons-nous si nous comparons les prédictions de Li et al avec les modèles les plus récents utilisés dans les rapports du GIEC ? spencer-li

.
Le fond du graphique (ci-dessous) est tiré d'un billet récent de Roy Spencer qui comparait la variation de température globale observée (par le HadCRUT4, en vert) avec la moyenne des 90 modèles CMIP5 utilisés par les modélisateurs (en rouge) et mettait ainsi en évidence les profondes divergences qui existent entre les modèles et les observations.

royspencer-

J'ai prolongé les observations de température des bases de données HadCRUT4 utilisées par Spencer avec les prédictions du modèle de l'article de Li et al (qui ne concerne que l'hémisphère Nord lequel s'est nettement plus réchauffé que l'hémisphère Sud. Les données sont remises à l'échelle, bien entendu) mentionnées ci-dessus.

Si les prévisions de Li et al se vérifient et comme on peut le voir sur ce graphique, la divergence entre les modèles CMIP5-et les observations qui est déjà très apparente de nos jours, ira en s'aggravant, ce qui, inévitablement, provoquera une remise en question fondamentale des modèles qui devront, au moins, prendre en compte les oscillations multidécennales et ceci dans les deux sens. C'est à dire celles qui provoquent un réchauffement comme celles qui provoquent un refroidissement. Sans aucun doute, ceci conduira à une sérieuse atténuation de la sensibilité du climat à l'ajout de CO2 et donc à des prévisions beaucoup plus optimistes.

3) Les précurseurs :

Comme je vous l'ai dit, ces considérations sur les oscillations multidécennales avancées à présent dans des revues de premier plan comme Sciences et Geophys. Res. Lett. sous la plume de participants au GIEC, ne sont pas nouvelles. Dans le passé, plusieurs publications qui parvenaient sensiblement aux mêmes conclusions avaient pointé le caractère oscillatoire de la température du globe en le rattachant, à l'occasion, aux oscillations océaniques. Parmi ceux -ci, on peut citer les travaux de Mazarella, Scafetta, Tsonis et al, Curry et al et bien d'autres dont j'ai évoqué les publications au cours des années passées.

andre4

Parmi les rares chercheurs proches du GIEC, qui se sont, dans le passé, ouvertement interrogés sur l'importance de la variabilité naturelle du climat, Mojib Latif (de l'Institut Leibniz des Sciences Marines de l'Université de Kiehl en Allemagne) avait, dès 2009, évoqué ce qu'il appelle les influences internes (naturelles) par rapport aux influences externes, sous entendu anthropiques.

Révélatrice de l'ambiance qui régnait, à cette époque, au sein de la communauté des climatologues proches du GIEC au sujet de la variabilité naturelle considérée alors comme taboue, est une observation prononcée lors de sa présentation au cours de la 3e Conférence Mondiale sur le Climat (le WCC-3, placé sous l'égide de l'ONU et l'Organisation Météorologique Mondiale (L'OMM)). Mojib Latif avait dit :

"Je ne suis pas un des sceptiques du climat, cependant, nous devons nous poser les questions dérangeantes nous-mêmes, sinon d'autres le feront."

Tout en présentant la diapositive (originale, avec les annotations en rouge de Latif) ci-contre, accompagnée de la question :

"A combien se montait la contribution de la variabilité naturelle décennale interne au réchauffement observé durant les dernières décennies ?"

C'est une excellente question, semble-t-il très dérangeante pour le GIEC, qui ne resurgira que quelques 6 ans plus tard, en 2015, sous la contrainte des évidences, et dont auraient dû s'inspirer Michael Mann et ses collègues en rédigeant l'article présenté ci-dessus.

De fait, le graphique présenté par
Mojib Latif met en évidence une augmentation moyenne modérée (le trait rouge, environ +0,6°C/100 ans) de la température globale à laquelle est superposée une oscillation interne (donc non anthropique) approximativement sinusoïdale.
Ce graphique présente une grande ressemblance avec le dessin suivant de
Syun Ichi Akasofu (le fondateur et l'ancien directeur du Centre International de Recherche sur l'Arctique (Alaska Fairbanks)) que j'ai déjà évoqué dans ce site. En 2010, Akasofu a rédigé un article complet à l'appui de son analyse (Natural Science, 2, 1211-1224. doi: 10.4236/ns.2010.211149).
Voici le dessin d'
Akasofu (2009-2010) :
akasofured

A l'intérieur du rectangle jaune qui couvre les années 1880-2000, on retrouve un graphique proche de celui de Latif.
Le point rouge accompagné de la flèche rouge indique la situation à l'époque (2010) de la rédaction de l'article.

Sur la partie droite de ce graphique, Akasofu a rappelé les deux causes du réchauffement observé, selon lui . D'une part des oscillation multidécennales et d'autre part, le réchauffement linéaire (environ +0.5°C/100ans) résultant de la sortie du petit âge glaciaire précédent qui s'est terminé dans les années 1860.

Le croquis d'Akasofu illustre aussi le fait que les modélisations du GIEC prolongent l'arche montante de l'oscillation multidécennale (alors que ces modélisations ne prennent pas en compte les oscillations océaniques (!)) tandis que, toujours selon Akasofu, la température va poursuivre sa trajectoire résultant de la sortie du petit âge glaciaire accompagnée des oscillations multidécennales de périodes 65 ans environ, avec un refroidissement dans les décennies à venir.

La conclusion du résumé de l'article d'Akasofu résume son point de vue :

"Ces variations (NdT : les oscillations multidécennales et la sortie du petit âge glaciaire) sont d'origine naturelle et, afin de de déterminer la contribution de l'effet de serre anthropique, il est indispensable de les identifier de manière correcte et précise et de les soustraire."

Parmi les précurseurs un peu plus anciens, il faut aussi évoquer, entre autres, les travaux de deux chercheurs russes Klyashtorin et Lyubushin qui ont publié, en 2003, une étude purement statistique (c'est à dire sans aucune hypothèse sur les causes physiques), intitulée : " Au sujet de la cohérence entre les dynamiques de la consommation de carburant de la planète et l'anomalie de la température globale". J'avais évoqué leur article dans un billet de 2008 qui reprenait un certain nombre d'autres analyses purement statistiques des évolutions des anomalies de la température du globe. klyashtorin6

 

 


A titre d'illustration, j'ai superposé le graphique principal de Klyashtorin et Lyubushin qui s'arrête en 2002 (les hachures indiquant les prévisions faites à l'époque) avec le graphique actualisé des variations de températures selon les données mensuelles publiées par le HadCRUT 4.3 (les plus récentes, jusqu'en Décembre 2014 inclus) (Graphique en rouge, translaté vers le bas pour une meilleure lecture).

Comme on peut l'observer, l'analyse statistique de Klyashtorin et Lyubushin semble toujours pertinente, quelques 12 ans plus tard.

 

 

 

 

 

schlesinger2

Toujours en remontant dans le passé, on trouve les travaux des premiers précurseurs, Schlesinger et Ramankutty qui avaient fait paraître dans la revue Nature en 1994, un article intitulé "Une oscillation du système climatique du globe de période 65-70 ans".

Cet article contenait notamment le graphique reproduit ci-contre qui montre l'oscillation de l'anomalie de température ("detrended", c'est à dire à laquelle on a retiré la tendance sous-jacente de 0.5°C/100 ans) avec la période indiquée, en fonction de l'année. A noter que dans cet article précurseur, les auteurs faisaient déjà le lien avec l'oscillation Nord Atlantique.

Compte tenu du fait que les connaissances de l'époque se limitaient à l'année 1993, on peut considérer que c'était une bonne intuition. De fait, comme nous l'avons vu, les 22 années qui ont suivi ont confirmé sa validité.

Quelques années plus tard, en 2000, Schlesinger (cette fois-ci avec Andronova) a persisté et signé. Ces auteurs ont publié un article intitulé : "Causes des variations de la température du globe durant les XIXe et XXe siècles".
(GEOPHYSICAL RESEARCH LETTERS, VOL. 27, NO. 14, PAGES 2137-2140 2000)

La conclusion d'Andronova et Schlesinger y était explicite :

Quel est le facteur résiduel responsable du réchauffement de 1904 à 1944 et du refroidissement qui a suivi de 1944 à 1976 ? Une explication possible pour ceci a été donnée par Schlesinger and Ramankutty [1994] comme résultant de l'oscillation de température de l'Océan Nord Atlantique et des régions voisines avec une périodicité de 65-70 ans. Une autre explication possible est l'absence d'un forçage climatique [Hansen et al. 1997].
Il en résulte qu'il est prudent de ne pas s'attendre à un réchauffement continu, année après année, dans un futur proche et ce faisant, d'atténuer nos inquiétudes au sujet du réchauffement climatique s'il advenait qu'un refroidissement climatique global se manifestait de nouveau.

Ces articles ont été superbement délaissés/ignorés par le GIEC, de même que l'avertissement qui figure dans la conclusion d'Andronova et Schlesinger. Certains auteurs, proches du GIEC, ont même été jusqu'à qualifier leurs auteurs de "cyclo-maniaques".
Il est d'autant plus amusant de constater que les même arguments avancés par Schlesinger, ainsi que par tous leurs successeurs, longtemps méprisés, voire ridiculisés, soient maintenant repris, plus de 20 ans plus tard, par des piliers du GIEC tel Michael Mann qui les utilise pour expliquer ce qui contredit les modèles et ce qu'il appelle "la fausse pause"...
Ainsi va la science !
oceanfr

Ceci ne pouvait échapper à Josh qui est un dessinateur qui ne perd jamais une occasion de se moquer des climatologues proches du GIEC. Suite à la parution de l'article de Mann et al (évoqué ci-dessus), il a dessiné le petit cartoon ci-contre que j'ai francisé pour vous.


Bien entendu, le "Nous vous l'avions bien dit", tout en bas, fait allusion aux prédécesseurs, cités plus haut, de cette "découverte".

De fait, une partie non négligeable de la communauté scientifique (Judith Curry entre autres ainsi que Hubert Lamb, le créateur du CRU de l'Université d'East Anglia, avant son décès) ont déploré l'abandon a priori de l'étude approfondie des variations naturelles du climat qu'il aurait fallu envisager avant de s'intéresser aux éventuelles perturbations anthropiques.

Du moins, c'est ainsi que la science aurait progressé si l'on n'avait pas créé le GIEC et si la science n'avait pas été politisée à outrance depuis lors. Il apparaît que la climatologie se retrouve désormais plutôt embarrassée au point de faire machine arrière, allant jusqu'à "retrouver" ce qui avait été observé quelques 20 années auparavant.

 

Visiblement, the science is "not settled" (la science du changement climatique n'est PAS comprise) et ceux qui vous affirment qu'elle l'est, ne suivent pas la littérature scientifique sur ces sujets. Dans d'autres circonstances et dans d'autres domaines de la science, ce ne serait pas si grave...

Stay tuned !

 

ANNONCE : ----------------------------------------------------------

climat-optimistesL'AFCO est l'association des "climat-optimistes" fondée par Christian Gérondeau et destinée à fédérer tous ceux qui s'inquiètent des conséquences du pessimisme, voire du catastrophisme climatique généralisé initié par le GIEC, entretenu par les média, nombre d'ONG et les politiques.
Inscription en ligne.

 

1 Février 2015 : Hyperbole, exagérations, extrapolations hasardeuses, ça suffit ! Revenons à la science, soyons sceptiques !
nous dit un article retentissant publié par un groupe de chercheurs en biologie marine. Leur article, publié dans la revue BioScience, a fait l'objet d'un rapport dans la revue Nature.

Les lecteurs(trices) de PU savent bien que ce site n'a jamais hésité à pointer du doigt quelques-unes des innombrables erreurs ou exagérations dont les politiques, les médias (et, malheureusement, aussi, quelques scientifiques) nous abreuvent à longueur d'année au sujet des soi-disant "calamités" qui nous attendent dans les années à venir quand, selon eux, elles ne se sont pas déjà produites.

Comme vous vous en doutez, l'auteur de ce site est donc particulièrement heureux que des chercheurs activement impliqués dans ces affaires tirent, d'eux-mêmes, la sonnette d'alarme. D'autant plus qu'ils ne comptent pas en rester là.

Peut-être est-il encore temps de revenir à la démarche scientifique authentique, mesurée et prudente, comme ils le suggèrent ?

Ne nous y trompons pas. Bien que rédigé dans le langage mesuré des publications scientifiques, l'article dont je vais vous parler, paru dans une revue renommée et repris dans Nature, constitue une attaque particulièrement sévère contre le comportement des médias et aussi, de certains scientifiques.

De fait, et comme ils l'écrivent eux-mêmes, les 8 chercheurs, auteurs de l'article décrit ci-dessous, prennent de gros risques en dénonçant ainsi un certain nombre d'exagérations et d'extrapolations hasardeuses de la part de leurs collègues et des médias. Tous ceux qui s'y sont essayés jusqu'à présent, aussi expérimentés soient-ils (par exemple Lennart Bengtsson, Richard Tol, Daniel Botkin, Judith Curry, Garth Paltridge et bien d'autres comme Richard Lindzen) ont fait l'objet d'attaques venimeuses de la part de presque tous les médias et de plusieurs de leurs confrères comme j'ai souvent eu l'occasion de vous le rapporter.

Les articles qui suivent concernent la biologie des océans mais il est clair que les observations et les conclusions de ces chercheurs s'appliquent tout aussi bien aux autres domaines de la "science climatique". Introduisons le sujet en commençant par l'article de Nature qui résume l'article original que je présenterai plus bas.

1) L'article de Nature (édition du 14 Janvier 2015)

Voici son intitulé :

oversold
Dont voici une traduction :

NATURE| NEWS

On en fait trop avec les "calamités" océaniques, disent des chercheurs

Une équipe de chercheurs appelle à plus de scepticisme en matière de recherche sur les océans.

Daniel Cressey

Cet article de Nature est disponible en lecture libre sur le site de cette revue. Sa référence est doi:10.1038/nature.2015.16714
Voici une traduction de larges extraits. Les caractères engraissés le sont par PU comme d'ailleurs pour toutes les citations inscrites dans les rectangles jaunes.

"On décrit souvent les océans de la planète comme étant au bord de la catastrophe. Mais bien que certains de ces défis soient bien réels, d'autres ont été très largement exagérés, affirment des chercheurs dans un article de revue. L'équipe de recherche écrit que les journaux et les médias ont succombé à un mode de "pensée unique" (NdT : en anglais "groupthink") qui peut porter atteinte à la crédibilité des sciences de l'océan.

Carlos Duarte, un biologiste des océans de l'Université de Western Australia à Perth et ses collègues écrivent que les dépêches médiatiques pessimistes au sujet de questions relatives aux océans telles que les espèces invasives et la disparition des coraux, ne reposent pas toujours sur des observations authentiques. Ce ne sont pas seulement les journalistes qu'il faut blâmer, disent-ils. La communauté des chercheurs sur les océans "n'est peut-être pas demeurée suffisamment sceptique" sur ces sujets.

"Il y a de nombreuses discussions en aparté des colloques scientifiques, à propos des excès des prophéties apocalyptiques qui figurent dans nos rapports sur la santé des océans, et cet article est peut-être le premier à révéler ces inquiétudes en dehors de la sphère privée des discussions entre pairs." dit Duarte. "Il s'agit d'un mouvement silencieux parce qu'il existe une forte pression exercée à l'encontre de ceux qui exprimeraient ouvertement ces inquiétudes, de telle sorte que mes coauteurs et moi-même nous attendons-nous à ce que notre article provoque des réactions significatives à notre encontre."

Dans leur article de revue publié le 31 Décembre dans BioScience, Duarte et ses collègues ont analysé les catastrophes annoncées qui concernent la surpêche, l'éclosion des méduses, les espèces invasives et l'impact de l'acidification des océans sur des organismes tels que les coraux. Dans certains cas, disent-ils, il y a de forts éléments de preuve indiquant qu'il existe de fortes perturbations à l'échelle du globe - la surpêche en étant le meilleur exemple. Mais pour d'autres sujets qui ont retenu l'attention des scientifiques et des média, les éléments de preuve sont équivoques et de faible valeur. Dans ces catégories, Duarte inclut l'éclosion des méduses à l'échelle globale et les problèmes résultant des espèces invasives.

La course au gros titres

L'équipe de Duarte a passé en revue un certain nombre de rapports et d'articles scientifiques. Il les met en opposition avec d'autres articles qui sembleraient saper le discours catastrophique.

Parmi les "titrages excessifs des médias" est cité celui de CNN "Surpêche et mauvaise protection des océans les conduisent au bord d'un effondrement catastrophique". Duarte a dit aussi à Nature que son propre article : "La dévastation des côtes provoque une explosion du nombre des méduses" tombait aussi dans le piège des "prêcheurs d'apocalypse".

Un autre exemple est le déclin des espèces qui fabriquent des coquilles calciques, lequel est attribué à l'acidification des océans due au dioxyde de carbone dissous dans les océans. En 2013, le journal The Seattle Times a déclaré que ce problème "contribuait à pousser les océans vers une déstructuration qui menace de brouiller la vie marine à une échelle presque trop grande pour qu'on puisse l'imaginer."

Mais les auteurs de l'article de BioScience disent que cette question souffre d'importantes incertitudes. Beaucoup d'expériences reposent sur les "scénarios du pire", disent-ils et les affirmations selon lesquelles les organismes calciques sont déjà en déclin peuvent relever non pas des émissions de carbone mais d'autres processus océaniques.

Bien qu'il soit parfois affirmé que les éclosions de méduses augmentent dans le monde entier, l'article de Duarte dit qu'il n'y a eu aucune tentative pour quantifier l'augmentation globale avant 2012 de telle façon que les affirmations sont extrapolées à partir d'un nombre limité de situations.

L'hyperbole dans ces matières est dangereuse, nous dit l'équipe de chercheurs, parce que le public peut finir par s'endurcir et abandonner l'idée de sauver les océans s'il pense qu'ils sont parvenus à un stade au delà de la rédemption.

Duarte est actuellement occupé a rassembler un groupe de chercheurs qui pensent comme lui afin d'auditer les affirmations sur les désastres océaniques en analysant les éléments de preuve de manière critique. Ceci éliminerait les affirmations basées sur des éléments de preuve contestables et donnerait quelque espoir à la société que les océans peuvent être sauvés.

Tout en pointant du doigt aussi bien les journalistes que les scientifiques, l'équipe de Duarte place le blâme pour l'exagération sur quelques journaux scientifiques, y compris sur la revue Nature. "L'appétit des médias pour des titres ronflants peut influencer le contenu des meilleures revues scientifiques". (Note de Nature : Les news et les commentaires de Nature sont totalement indépendants de son équipe éditoriale)". [...]

Suivent quelques commentaires plus ou moins amènes (comme les auteurs s'y attendaient) de deux chercheurs explicitement visés par l'article de Duarte et al.

Que nous dit l'article original de Duarte (Winthrop Professeur à l'Université de Western Australia ) et de ses sept collègues ?

2) L'article original de Duarte et al : Bioimage

biosc

 

 

Accès libre : BioScience Advance Access publié le 31 Décembre 2014. (Article de revue).

L'article est sobrement intitulé :

"Ré examen des calamités océaniques"

La liste des auteurs :

CARLOS M. DUARTE, ROBINSON W. FULWEILER, CATHERINE E. LOVELOCK, PAULINA MARTINETTO,
MEGAN I. SAUNDERS, JOHN M. PANDOLFI, STEFAN GELCICH, AND SCOTT W. NIXON

Résumé : La prolifération d'un certain nombre de perturbations qui affectent les océans conduit à une inquiétude croissante selon laquelle l'état des océans est compromis ce qui induit un pessimisme sociétal. Les calamités océaniques sont des perturbations qui induisent des changements des écosystèmes océaniques ayant de profonds impacts et qui sont très répandus ou qui se produisent à l'échelle du globe.
Cependant, un examen des calamités océaniques dans le but de s'assurer qu'elles peuvent, en toute confiance, relever de causes humaines et opérer sur de grandes étendues ou à l'échelle du globe, montre que certains de ces problèmes ne répondent pas à ces critères ou que les éléments de preuve sont équivoques.
Un certain nombre de distorsions internes ou externes à la communauté scientifique, contribue à accréditer la perception de calamités océaniques et ceci en l'absence d'éléments de preuve solides.
L'organisation d'un audit sur les calamités océaniques peut conduire à un diagnostic plus précis sur l'état des océans ce qui peut aider à identifier les problèmes les plus pressants dont on doit s'occuper pour conserver des océans en bonne santé.

Nixon

L'article commence par une citation de Scott Nixon (ci-contre) qui est un appel au scepticisme raisonné et dont devraient s'inspirer tous les chercheurs. Scott W. Nixon , membre de l'Académie des Sciences, était un éminent et très respecté chercheur en biologie marine, décédé en 2012. A noter que Scott Nixon, bien que décédé, est également cité comme l'un des auteurs de l'article ne serait-ce que parce qu'il est l'auteur de la citation reproduite en tête de l'article. Il s'agit d'une pratique assez courante destinée à honorer, à titre posthume, une personnalité dont on est bien certain qu'il était d'accord avec les termes de l'article, ce qui laisse supposer que les considérations avancées par ses auteurs ne datent pas d'aujourd'hui :

"La science est une entreprise à caractère sociétal. Nous communiquons au moyen de la littérature scientifique et nous devons ne rien faire qui puisse porter atteinte à l'intégrité de cette communication. Aussi bien en émettant qu'en recevant de l'information, nous devons demeurer sceptiques. (Scott W. Nixon)."

Dans le chapitre introductif, les auteurs écrivent que :

[...]"On attend des scientifiques qu'ils restent sceptiques, se posent des questions, doutent ou réservent leurs jugements jusqu'à ce que des éléments de preuves suffisants deviennent disponibles pour qu'ils puissent tirer des conclusions relevant d'un scepticisme rationnel. Ce scepticisme repose sur des dispositions sociétales telles que le système de revue par les pairs destiné à assurer une analyse critique des affirmations relevant du domaine scientifique (Merton 1979). Cependant, on perçoit que le scepticisme scientifique a été abandonné ou s'est relâché dans de nombreux domaines. Ceci a permis à des opinions, à des croyances et à des adhésions tenaces à certaines théories, de jouer un rôle essentiel en faveur de croyances reposant sur des interprétations qui ne sont pas étayées par des preuves (Loehle 1987)".[...]

Duarte et ses collègues citent, dans la Table I de leur article, quelques exemples marquants de gros titres de la grande presse anglophone, insubstanciés et largement exagérés. Les auteurs font référence à cette Table I de la manière suivante :

"En réalité, les dépêches récentes des médias sur la question des océans, ne laissent que peu de place à l'optimisme. Mais une analyse de quelques unes des calamités rapportées dans les médias catastrophistes (par ex. Table I) montre parfois de graves déconnexions avec les observations factuelles. Par exemple, il n'existe aucune preuve que l'acidification des océans a fait disparaître les prédateurs des méduses non plus que les méduses ont pris possession des océans. Les prédictions que l'algue tueuse, la Caulerpa Taxifolia, allait dévaster l'écosystème méditerranéen ne se sont pas réalisées malgré les affirmations contraires des médias (Table I)."

Voici la Table I, avec sa légende.

"Table I : Exemples de titrages médiatique excessifs annonçant la disparition d'écosystèmes marins résultant de calamités océaniques :excessive"

 

 

 

 

 

 

 

 

 

 

A la lecture des deuxième ("le tueur silencieux") et troisième titres ("le monstre vert") de cette table I, les lecteurs séniors se souviendront sans doute de la panique suscitée, en 1984, par la couverture médiatique tonitruante qui avait accompagné "l'invasion des algues tueuses", la Caulerpa Taxifolia, une espèce invasive tropicale qui commençait effectivement à se répandre en Méditerranée à la suite (pensait-t-on) d'une relâchage malencontreux provenant d'un aquarium de Monaco.

De fait, l'invasion n'a pas eu lieu comme l'a démontré, entre autres, un article paru en 2003 (Mar. Ecol. Prog. Ser., 263: 75- 82) et, en 2011, un article du Monde rappelait que cette algue indésirable (notamment, disait-on, pour les posidonies) avait pratiquement disparu des zones auparavant déclarées colonisées, sans d'ailleurs que l'on sache très bien pourquoi. La lutte (inopérante) contre cette "algue tueuse" avait mobilisé, à l'époque, énormément d'efforts et des moyens considérables. Tout cela en pure perte.
Les autres titres, y compris sur l'"acidification" des océans tueuse de planctons producteurs d'oxygène, l'éclosion globale des méduses, ou la disparition des poissons sont également exagérément alarmistes et ne reposent sur aucune étude avérée, selon les 8 biologistes cosignataires de l'article.

Duarte et ses collègues pointent également du doigt une des "légéretés" assez fréquemment rencontrée dans le domaine des publications en science climatique où un grand nombre de travaux s'efforcent d'analyser l'évolution d'un phénomène au cours du temps.

"Pour quelques unes de ces calamités océaniques, il est possible que nous n'en soyons encore qu'au tout premier stade de la découverte. Cependant et même pour ces cas-là, les compte-rendus devraient se plier aux exigences des pratiques solides de la science et devraient éviter de tomber dans les pièges classiques comme de ne pas prendre en compte de la multiplication des moyens d'observations quand on rapporte sur la progression d'un phénomène au cours du temps. (par exemple, Fig. 1)"

Voici la Figure 1 de l'article (accompagnée de sa légende) dont les inserts (a) et (b) sont presqu'à la limite de la caricature :

habs

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Légende de la Figure 1 :
(a) Cartes des zones observées des éclosions d'algues mortifères (HABs) au cours du temps utilisées pour avancer l'idée que les HABS se répandent sur tout le globe. Source : reproduit avec la permission de Anderson et ses collègues (2012).
(b) La tendance temporelle du nombre des sites côtiers où on a observé des hypoxies
(NdT : déficit en oxygène) sévères afin de promouvoir l'idée d'une augmentation globale de l'hypoxie. Source : reproduit avec les permission de Vaquer-Sunyer et Duarte (2008).
(c) L'évolution au cours du temps de l'indice standardisé des méduses qui résume les variations de l'abondance sur des sites océaniques où les observations à long terme sont disponibles. Reproduit avec la permission de Condon et ses collègues (2013).

Comme on peut l'observer, les graphiques (a) et (b) montrent une prolifération des sites infectés par les éclosions d'algues mortifères, les HABS (a) (les taches orange) ou souffrant d'un manque d'oxygénation (b). De fait, ces graphiques, présentés tels quels, n'ont aucune valeur scientifique car il est évident que depuis les années 1970, le nombre des sites de mesure a considérablement augmenté. Une analyse solide aurait tenu compte de la prolifération des sites de mesure au cours du temps. En termes techniques cela s'appelle "normaliser" ou "renormaliser" les observations. J'en dirai quelques mots ci-dessous à partir d'un exemple précis.
Le graphique "normalisé" (ou "standardisé") suivant (c) ne montre aucune augmentation significative du nombre des éclosions de méduses, du moins pour les quelques sites localisés où les mesures ont été effectuées et de fait, comme le disent Duarte et al, on est encore très loin de savoir ce qu'il en est pour le globe tout entier.

Duarte et ses collègues dissertent en profondeur sur les biais ou les distorsions qui affectent les publications scientifiques. Il s'agit là d'accusations relativement graves que ceux qui pratiquent ou ont pratiqué la recherche scientifique auront cependant du mal à démentir. Il les résument de la manière suivante :

"Nous sommes de l'avis qu'il existe des mécanismes sous-jacents aussi bien à l'intérieur de la dynamique sociétale du processus de recherche qu'à l'extérieur de la communauté scientifique qui tendent à perpétuer la perception de l'existence de calamités océaniques même quand les preuves sont équivoques ou fragiles.
L'enchaînement des mécanismes internes au processus de la recherche scientifique qui peuvent opérer pour perpétuer la perception de l'existence de calamités impliquent des composantes de la recherche telles que les biais observationnels et les falsifications
(NdT : des données) ; les composantes propres au processus de publication telles que les biais dans la rédaction des publications ainsi que les composantes propres à l'usage de la littérature telles que les biais dans le choix des citations et leur détournement, de même que d'autres biais tels que le biais de confirmation (NdT : C'est à dire que l'on cherche absolument à démontrer ce dont on est convaincu à l'avance) et l'obstination théorique (NdT : C'est à dire l'obstination à adhérer à une théorie préférée même en présence d'évidences du contraire)."

De mon point de vue, le fameux syndrome du "publish or perish" ("publier ou disparaître") (et à présent du "soyez médiatique") ainsi que la comptabilité irréfléchie par les autorités du nombre des articles publiés et des citations afin d'attribuer les financements, participent à la prolifération d'articles de valeur discutable qui affectent pratiquement tous les chercheurs de la planète.

Duarte et al. ont fait allusion aux dangers typiques de la sur-exploitation de résultats qui "oublient" de normaliser les mesures. Voici, à l'inverse, les résultats d'une analyse sérieuse qui concerne ce que les médias appelleraient les "désastres causés par le réchauffement climatique".
Comme vous allez le voir, la "normalisation" permet de remettre les choses à l'endroit...tout en conduisant à des résultats exacts mais certainement "peu médiatiques" par les temps qui courent.

3) L'indispensable normalisation des observations :

Comme le rappellent
Duarte et al, c'est une faute inadmissible (mais fréquente) que de ne pas prendre en compte l'évolution de la totalité des facteurs (prolifération des moyens d'observations, amélioration et substitutions des méthodes de mesure, changement des situations) pour étudier l'évolution d'un phénomène au cours du temps.
A titre d'exemple de comportement scientifiquement correct, voici les résultats d'une étude publiée récemment (Juillet 2014) dans une revue scientifique renommée mais qui n'a pas (à ma connaissance) bénéficié de la moindre couverture médiatique, comme on pouvait s'y attendre compte tenu de la doxa actuelle.

Au sujet de la relation entre l'impact des désastres météorologiques, la vulnérabilité et le changement climatique.

Hans Visser & Arthur C. Petersen & Willem Ligtvoet

Climatic Change (2014) 125:461–477
DOI 10.1007/s10584-014-1179-z
Article en accès libre.

Le résumé de cet article explicite la démarche suivie par les auteurs :

"Les désastres tels que les inondations, les tempêtes, les vagues de chaleur et les sécheresses peuvent avoir d'énormes implications pour la santé, l'environnement et le développement économique. Dans cet article nous cherchons à savoir comment le changement climatique a pu influer sur l'impact des désastres météorologiques. Ce problème n'est pas évident parce que les conséquences des désastres ne dépendent pas seulement des événements climatiques ou météorologiques - Il y a d'autres facteurs tels que l'augmentation de la population et de sa richesse ainsi que des variations de sa vulnérabilité. Nous avons normalisé l'impact des désastres, nous avons analysé les évolutions des données observationnelles et nous les avons comparées avec les tendances des événements extrêmes, des événements climatiques et de la vulnérabilité.[...]

Les résultats de cette étude qui tient compte de l'ensemble des paramètres du problème, sont édifiants. On peut les résumer sous la forme de deux graphiques extraits de l'article.

ecohum

Ci-contre, les figures 3 et 4 de l'article cité.

En haut, l'évolution des pertes économiques normalisées au cours des 30 dernières années pour les pays de l'OCDE, les pays du BRIICS, le reste du reste du monde ainsi que le résultat pour le globe.


 

 




En bas, le
pertes humaines normalisées durant la même période.

 

 

 

 

 

D'où, dans la conclusion de l'article :

"[...]Les tendances des données normalisées montrent une stabilité des pertes dans la plupart des cas (Figs. 2, 3 and 4). C'est un résultat cohérent avec les résultats rapportés dans Bouwer (2011a) et dans ses références citées, dans Neumayer et Barthel (2011) ainsi que dans le raport GIEC-SREX (2012) (NdT : Un rapport du GIEC spécialement dédié aux événements météorologiques extrêmes).
L'absence de tendance de l'impact normalisé des désastres apparaît très cohérent avec l'absence de tendance observée dans les événements climatiques extrêmes."


Comme affirmé par les auteurs de cet article, leurs résultats recoupent les observations précédentes faites par d'autres équipes ce qui renforce la confiance que l'on peut accorder à leurs conclusions. En bref, on n'observe aucune tendance à l'aggravation des impacts aussi bien économiques qu'en terme de pertes humaines, dus aux événements climatiques extrêmes, qui ne soient expliqués par des facteurs internes (évolution de la population, de leur richesse et de leur vulnérabilité).

C'est, à peu près, exactement le contraire de ce que l'on peut lire ou voir actuellement dans les médias et entendre dans les discours de nos responsables politiques (et autres), quand ce n'est pas dans les déclarations des responsables des compagnies d'assurance.

Au mieux, ils ne doivent pas lire la littérature scientifique...
_____________________________________________________________________________

Les biais catastrophistes (Duarte et al disent "gloom and doom") médiatico-scientifiques dénoncés par Duarte et ses collègues sont à mettre en relation avec ce qu'avait écrit, en 1989, Stephen Schneider (décédé en 2010) (APS News, page 5) qui fut l'un des grands promoteurs de l'alarmisme climatique (caractères engraissés par PU) :

"Ainsi devons nous présenter des scénarios effrayants, proférer des affirmations simplistes et catastrophiques sans prêter attention aux doutes que nous pourrions avoir. Cette "contrainte éthique à deux versants" à laquelle nous sommes fréquemment confrontés, ne peut pas être résolue par une quelconque formule. Chacun d'entre nous doit décider quel est le bon équilibre à trouver entre l'efficacité et l'honnêteté. J'espère que ce sera les deux."

Pour un chercheur comme moi, une telle affirmation reste très choquante. Comme je l'ai déjà écrit en 2006, le devoir du chercheur est de faire progresser les connaissances, quelles que soient les conclusions de ses travaux et de les dire telles qu'elles sont tout en précisant les domaines d'incertitude. Mettre en balance l'honnêteté de la recherche scientifique et l'"efficacité", c'est faire de la politique, pas de la science.

Visiblement, les huit chercheurs coauteurs de l'article cité en début de ce billet, ont choisi de faire pencher la balance dans le sens de l'honnêteté et de la rigueur scientifique, sans nul doute au détriment de l'impact médiatique immédiat et probablement aussi des financements à venir pour leurs projets et, sans doute aussi, du futur de leur carrière. C'est un remarquable (et encore rare) exemple de courage et d'abnégation.

En outre, je ne suis pas certain que leur comportement intègre se fasse au détriment de l'efficacité. Bien au contraire. En effet, la confiance généralement accordée aux scientifiques qui travaillent dans ces domaines, comme dans les autres, est primordiale. Lui porter atteinte, "proférer des affirmations simplistes et catastrophiques sans prêter attention aux doutes que nous pourrions avoir" sera sans nul doute et in fine, contreproductif.

"Nous communiquons au moyen de la littérature scientifique et nous devons ne rien faire qui puisse porter atteinte à l'intégrité de cette communication. Aussi bien en émettant qu'en recevant de l'information, nous devons demeurer sceptiques." disait Scott Nixon.

Sages paroles !

Stay tuned !

19 Décembre 2014 : 2014, l'année la plus chaude ?
media2

Que les lecteurs(trices) me pardonnent en cette fin d'année et à l'approche des fêtes de Noël, pour ce billet qui peut paraître un peu rébarbatif parce qu'on parle chiffres mais, tout comme moi, vous avez tous lu et entendu, répété ad infinitum par la totalité des médias, en général sous le forme de gros titres, que l'année 2014 était, devrait ou pourrait être, ou encore serait, la plus chaude de tous les temps, du millénaire ou du siècle, ou, plus raisonnablement, depuis que les mesures ont commencé, etc.

D'après ce que j'ai pu voir et entendre, et assez bizarrement, aucun des reporters qui couvrent ces sujets ne semble s'être préoccupé de répondre à quelques questions qui viennent immédiatement à l'esprit des lecteurs un peu curieux et éduqués :

Si l'année 2014 est en passe d'être "la plus chaude", de combien de degrés s'agit-il ?
Le réchauffement proclamé pour l'année 2014 est-il significatif par rapport à la marge d'incertitude qui affecte ces mesures de température ?
Quid, exactement, de la situation de 2014 comparée aux précédentes années les plus chaudes 1998, 2005 et 2010 ?


Visiblement, ces questions n'intéressent pas les médias qui rapportent sur ces affaires climatiques.
Et les lecteurs/auditeurs qui aimeraient être réellement informés restent sur leur faim. On n'en saura pas plus.
Du moins par voie de presse, de radio ou de télé...
Heureusement, il nous reste Internet.

Pourtant, comme vous allez le voir, les réponses à toutes ces questions sont édifiantes. Et ceci à plus d'un titre et, notamment, sur la manière dont l'information sur les affaires climatiques est actuellement délivrée au grand public francophone par la totalité des médias.

A l'origine des très nombreux articles de presse, radio, télé etc. portant sur la température de l'année 2014, "l'année la plus chaude", se trouve un communiqué de presse de l'OMM (L'organisation Météorologique Mondiale, une émanation de l'ONU). Ce communiqué de presse a été diffusé urbi et orbi, peu avant la réunion COP20 organisée par l'ONU à Lima (dont on connaît à présent le résultat peu reluisant). En voici des extraits significatifs :

"Si Novembre et Décembre maintiennent la même tendance, alors 2014 sera probablement l'année la plus chaude enregistrée, devant 2010, 2005 et 1998. Ceci confirme la tendance sous-jacente à long terme au réchauffement. Il est important de noter que les différences entre les classements des années les plus chaudes sont des affaires de seulement quelques centièmes de degré et que des données d'institutions différentes peuvent montrer des classements légèrement différents".[...]

Un peu plus loin dans ce même communiqué.

“ L'information provisoire pour 2014 signifie que 14 des 15 années les plus chaudes se sont toutes produites au cours du XXIe siècle" a dit le secrétaire général de l'OMM, Michel Jarraud. "Il n'y a pas de pause dans le réchauffement climatique".

Il n'y a pas de pause dans le réchauffement climatique, nous affirme le Secrétaire Général de l'OMM ?
plateau1a
On se demande dès lors pourquoi le dernier rapport AR5 du GIEC inclut une discussion détaillée (Box 9.2 du WGI) sur ce qu'il appelle le "hiatus" des températures d'ailleurs magnifiquement illustré par le le petit histogramme du GIEC ci-contre et qu' un nombre conséquent d'articles qui paraissent, en ce moment même, dans la littérature scientifique cherchent justement à expliquer les causes de cette pause ou hiatus... qui n'existe pas selon Michel Jarraud.

Note : Les lecteurs attentifs remarqueront que les incertitudes qui affectent les tendances (en °C/par décennie) sont notablement inférieures aux incertitudes qui affectent les mesures des températures annuelles que nous allons voir ci-dessous. En effet, l'incertitude sur la pente d'une interpolation linéaire est bien inférieure à celle qui affecte chacun des points interpolés.

Dans la suite, nous allons voir tout cela en détail, avec précision et à l'aide de données objectives.
La question est évidemment celle à laquelle personne n'a répondu ou ne semble avoir envie de répondre :
"En quoi ou de combien, l'année 2014 diffère-t-elle des précédentes" ?

Pour cela, nous allons être contraints de nous plonger dans les bases de données officielles utilisées, notamment, par le GIEC ainsi que dans les données des observations satellitaires. De plus, nous allons également nous interroger sur les domaines d'incertitudes qui affectent les mesures de température du globe, ce que personne ne semble avoir fait dans le petit monde politico-médiatique auquel appartient visiblement l'OMM. Puis, nous tracerons les graphiques correspondants et établirons les tableaux des différences des températures moyennes entre l'année 2014 (jusqu'à présent, c'est à dire en Décembre) et les années précédentes.

Et nous verrons ce qu'il en est exactement.

1) Les bases de données.

Afin d'éliminer tout soupçon de manipulation des données, voici les adresses officielles des bases de données que j'ai utilisées pour tracer les graphiques que vous trouverez ci-dessous. Les deux premières, ou leurs succédanés, sont fréquemment utilisées par les contributeurs du GIEC. Les deux dernières qui sont relatives aux mesures satellitaires de températures n'ont toujours pas reçu les faveurs du GIEC.
Chacun pourra ainsi aisément vérifier l'exactitude des graphes et des données sur les moyennes que j'indique ci-dessous, en utilisant, soit un tableur-grapheur courant tel qu'Excel ou encore, comme je l'ai fait, Origin de Microcal qui est un logiciel à usage professionnel à destination des scientifiques. Cependant, il faut être conscient que les données thermométriques sont parfois modifiées (y compris rétroactivement et longtemps après) par les opérateurs des institutions, peut-être pour tenir compte de résultats non encore parvenus au moment de la mise en ligne. Ceci ne se produit qu'exceptionnellement pour les données satellitaires.

Bases de données mensuelles officielles disponibles Période de référence
NCDC (NOAA) Global : Source des données. Jan. 1901- Déc. 2000

GISTEMP¨LOTI (NASA) Global (Land-Ocean Temperature Index) : Source des données.

Jan. 1951- Déc.1980

RSS-MSU (Satellites -Global de 70.0S à 82.5N) : Source des données.

Jan. 1979 à Déc 1998

UAH : (Université de l'Alabama, Satellites- Global): Source des données. Jan 1981 à Déc. 2010 (recommandé par l'OMM)

On observera que je n'ai pas pris en compte, cette fois-ci, les données HadCRUT4 du Hadley Center comme je le fais d'habitude. La raison tient à ce que les séries de données du Hadley pour 2014 sont encore incomplètes par rapport à celles du NCDC (National Climatic Data Center-NOAA), du GISS (Goddard Institute for Space Science-NASA), du RSS-MSU (ou AMSU à présent) et de l'Université de l'Alabama (UAH- Spencer et Christy) qui, toutes les quatre, incluent maintenant le mois de Novembre 2014. Compte tenu du fait que le Hadley Center, le NCDC et le GISS utilisent (avec des traitements légèrement différents) la même base de données thermométrique GHCN, il est à prévoir que les données du Hadley ne différeront que très peu des deux autres, comme elles le font d'habitude.

A noter également que la prise en compte de la période de référence ne change évidemment pas le classement des années en fonction de leur température moyenne, ni leurs différences relatives. Cette différence des périodes de référence utilisées par les différentes institutions se traduit simplement par une translation verticale de l'ensemble des données dans les graphiques suivants, ce qui équivaut à un changement d'origine sur l'axe des ordonnées. Les valeurs des moyennes des anomalies rapportées par les différents instituts sont d'autant plus importantes que la période de référence est plus éloignée dans le temps comme cela est nettement apparent dans la série des graphes ci-dessous.
Quoiqu'il en soit, j'ai utilisé, dans la suite, les données officielles affichées dans les sites dont je donne les adresses, et évidemment, sans aucune modification.

2) Les incertitudes sur les mesures de température

Il n'est pas toujours facile de se faire une idée précise sur ces affaires d'incertitudes. Cependant, un article récent (2012) a fait le point sur cette question délicate, du moins pour les mesures dites HadCRUT du Hadley Center (UK). Le voici. Sa version .pdf est en accès libre.

(Quantifying uncertainties in global and regional temperature change using an ensemble of observational estimates: the HadCRUT4 data set
Colin P. Morice, John J. Kennedy, Nick A. Rayner and Phil D. Jones., JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 117, D08101, doi:10.1029/2011JD017187, 2012).

Cette étude prend en considération les différentes incertitudes (biais, erreurs sur les mesures, échantillonnage et problèmes de couverture du globe par les thermomètres) qui affectent les résultats des anomalies de température publiés par le Hadley Center. Il est évident que cette analyse concerne également, et à très peu près, toutes les autres bases de données (GISS, NCDC etc.) qui, toutes, utilisent la même base de données thermométriques, le GHCN.

Voici un fac-similé de la Figure 7 de cet article, accompagné de sa légende. Je l'ai complété (partie gauche et flèche) en zoomant sur la portion du graphique autour des années 50, afin de mettre en évidence les incertitudes analysées dans l'article et clairement visibles dans cette Figure 7.

Les incertitudes (à 95% de confiance) sont d'environ ± 0,1°C qui semblent se réduire à ~ ± 0.09°C pour les années récentes.

On retrouve ces mêmes domaines d'incertitudes pour les séries moyennées sur une année dans les 3e et 4e graphiques de la Fig. 6 du même article. Une prise en compte plus fine des incertitudes devrait, si possible, faire intervenir les écarts types, les percentiles etc. Cependant, cette prise en compte des incertitudes est largement suffisante pour le but que nous poursuivons ici.

incertitude

 

 

Figure 7 - "Comparaison entre les anomalies de la température moyenne globale de 1850 à 2010 (en °C, par rapport à la moyenne des années 1961-1990) pour la moyenne du HadCRUT4 (en rouge) et pour le HadCRUT3 (en bleu). Les intervalles à 95% de confiance sont représentés par les zones hachurées."

 

 

 

 

 

Les mesures satellitaires de la température de la basse atmosphère (la troposphère), en contact direct avec le sol de la planète, dites TLT (Temperature Lower Troposphere) sont également affectées par d'autres types d'incertitudes qui ont fait l'objet d'études attentives. Par contre, elles sont notamment exemptes des problèmes d'UHI (l'effet de chaleur des îlots urbains en expansion ce qui tend à faire monter les températures autour des thermomètres) ainsi que des questions de TOBS (Time of observation, Moment de la prise de mesure) etc. Elle bénéficient évidemment d'une couverture continue, quasi complète et instantanée de la planète sauf pour une zone limitée située à proximité des pôles.
Les erreurs qui affectent les mesures TLT qu'il s'agisse de RSS-MSU ou UAH qui utilisent des trains de satellites différents, dépendent, entre autres facteurs, de l'incidence des faisceaux de mesure et de la longitude. Un article de Carls Mears qui est le responsable des mesures RSS-MSU a fait le point sur ces questions.

On trouvera sous ce lien du RSS-MSU (-AMSU) les données détaillées (en format .nc) concernant les incertitudes affectant des séries de mesures prises pendant l'année 2014. Dans la suite et dans un souci de simplification, j'ai utilisé les mêmes barres d'erreurs de ± 0,09°C pour les mesures satellites que pour les mesures terrestres, ce qui ne change d'ailleurs pas grand chose au constat global.
A noter que, si on prend en compte les différentes périodes de référence utilisées par ces deux organismes, on observe que les données TLT de l'Université de l'Alabama (UAH) ne diffèrent que rarement de celles du RSS-MSU de plus d'un dixième de degré.
Par contre et comme je l'ai montré dans le billet précédent, ces deux dernières peuvent différer de quelques 0,4°C des données des mesures thermométriques telles que GISS-LOTI comme elles l'ont notamment fait au cours des derniers mois écoulés (en tenant compte des différentes périodes de référence), ce qui est évidemment considérable par rapport au réchauffement revendiqué (par rapport aux périodes de référence) qui n'est que d'environ 0,6 à 0,7°C comme on le voit sur les graphiques suivants.

Voici donc les graphiques tracés à partir des données relevées dans les sources indiquées. Je donne aussi un tableau comparatif des moyennes annuelles des données rapportées par les différents instituts. Comme vous le constaterez et au vu des très faibles écarts observés, on est contraint de travailler avec des décimales (ridicules) qui n'ont évidemment aucun sens du point de vue de la mesure mais qui en ont lorsque l'on calcule, avec précision, des différences. Ceci afin d'éviter de cumuler les erreurs d'arrondi.

3) Les graphiques et les données des anomalies de température :

Tous les graphiques de ce billet sont superposables entre eux. Ils ont été tracés avec les mêmes échelles des abscisses et des ordonnées.
Ils sont présentés sous forme de colonnes dont la hauteur indique la température moyenne de l'année considérée.
A la différence des nombreux graphiques de ce type que l'on peut trouver dans la littérature, les nôtres indiquent les marges d'incertitudes sous la forme de barres verticales de couleur noire. C'est une pratique courante, sinon obligatoire, dans tous les domaines de la science : Toute mesure doit être accompagnée de sa marge d'incertitude sauf à perdre sa signification.

NCDCannual
GISS-LOTI-annual

A) Les mesures "thermométriques"

-Le National Climatic Data Center de la NOAA (ci-contre)

Le tableau ci-dessous indique les différences calculées entre les moyennes annuelles des années "les plus chaudes" de la période 1998-2014.

Année X Temp. Moyenne °C Différence 2014-X
1998 0,63083 0,046 °C
2005 0,645 0,031 °C
2010 0,65083 0,026 °C
2014 0,67636 0 °C

Autrement dit, selon cette institution (le NCDC de la NOAA) "l'année la plus chaude" (de tous les temps comme disent certains), en moyenne, à la surface du globe, aurait été :

plus chaude que l'année 2010 d'environ 3 centièmes de degré.
plus chaude que l'année 2005 d'environ 3 centièmes de degré.
plus chaude que l'année 1998 d'environ 5 centièmes de degré.


-Le Goddard Institute de la NASA (ci-contre) :

Année X Temp. Moyenne °C Différence 2014-X
1998 0,60917 0,058 °C
2005 0,65 0,017 °C
2010 0,6575 0,01 °C
2014 0,66727 0 °C

Autrement dit, selon cette institution (le GISS de la NASA) "l'année la plus chaude" ("de tous les temps"), en moyenne à la surface du globe, aurait été :

plus chaude que l'année 2010 d'environ UN centième de degré.
plus chaude que l'année 2005 d'environ 2 centièmes de degré.
plus chaude que l'année 1998 d'environ 6 centièmes de degré.

Autant dire que ces différences d'un, de deux, de trois ou même de 6 centièmes de degré sont, en réalité, imperceptibles et n'ont aucune signification dans une collection de résultats de mesures qui sont déterminés à plus ou moins un dixième de degré près.

En réalité, l'anomalie de température de l'années 2014 est donc parfaitement indistinguable de celle des années 1998, 2005, 2010, ainsi d'ailleurs, en toute rigueur, que de toutes les années dont les marges d'incertitudes (trait vertical noir) interceptent les zones en grisé. C'est à dire au moins de toutes les années depuis 1997, sauf les années plus froides 1997, 1999 et 2000 pour le GISS-LOTI et 1999 et 2000 pour le NCDC-NOAA.

De fait, on ne saurait mieux illustrer le fait que le globe se trouve, encore et toujours, sur un plateau de température, et ceci au moins, depuis 1998. Le responsable de l'OMM (déjà épinglé dans le passé pour d'autres déclarations du même type) le reconnaît implicitement lui-même (mais le renie dans une déclaration qui contredit la première partie de sa phrase) en déclarant que :

" Il est important de noter que les différences dans les classements des années les plus chaudes sont seulement une affaire de quelques centièmes de degré et que différents jeux de données peuvent donner des classements différents"..[ et plus loin ] "Il n'y a pas de pause dans le réchauffement climatique".

En effet, si "les classements des années les plus chaudes sont seulement une affaire de quelques centièmes de degré" (ce qui est exact - mention d'ailleurs "négligée" ou "oubliée" par la quasi-totalité des reportages médiatiques), alors que personne n'est capable de mesurer l'évolution de l'anomalie de température avec cette précision, ceci signifie que ces années sont indistinguables entre elles et que la seconde partie de la phrase de Michel Jarraud : "Il n'y a pas de pause dans le réchauffement climatique" n'a pas de sens. Au contraire, ces années "record" qui s'étalent d'un bout à l'autre d'une période de 16 années sont indistinguables entre elles et on se trouve donc sur une "pause" ou un "hiatus" comme le dit le GIEC.

A noter, en passant, que même si les observations futures venaient à confirmer les modèles utilisés par le GIEC qui projettent une progression d'environ +0,2°C/décennie - ce dont on est très loin, on est plutôt proche de 0,04°C/décennie depuis 16 ans - il faudrait environ 5 ans de hausse continuelle pour que la hausse des températures moyennes devienne significative, c'est à dire supérieure à l'incertitude d'un dixième de degré.

B) Que nous disent les mesures satellitaires RSS-MSU et UAH ?

rss-msu
UAH-annual

 

Comme on le voit immédiatement, les mesures satellitaires RSS-MSU de la température moyenne globale de la basse troposphère, en contact direct avec la planète, ne montrent rien de particulier pour ce qui concerne l'année 2014.

2014 n'est pas une année "record".

2014, l'année "la plus chaude" selon l'OMM a, en réalité, été dépassée à de multiples reprises depuis 1998 selon les données satellitaires.

Je n'ai pas perdu de temps à calculer les différences de températures entre les "années record".

C'est inutile. Le résultat est évident au vu de ce graphique.

 

 

 

Pour ce qui est des mesures de l'Université de l'Alabama, UAH :

L'année 2014 n'est pas et ne sera probablement pas non plus l'année la plus chaude pour les mesures satellitaires UAH comme on peut le constater sur le graphique ci-contre et comme le déclare un des responsables (Roy Spencer) de ces mesures satellitaires.

 

Ces graphiques se passent de commentaires.

 

 

 

 

 

 

Plus intéressante est la comparaison des prédictions/scénarios des modèles du GIEC avec les mesures effectives de température, en les complétant par les données pour l'année 2014 dont nous disposons actuellement.

4) Quid de l'année 2014 quant à la divergence modèles/observations ?

Il est évident que ce ne sont pas des variations de l'anomalie de température de l'ordre du pour cent de °C pour 2014 qui pourraient modifier, en quoi que ce soit, le plateau qui se poursuit depuis 1998 et la divergence modèles/observations, sauf à l'aggraver, comme on peut le voir sur les deux graphiques suivants.


sod7a

 

 

Ci-contre, le graphique présenté par le GIEC dans la version au second ordre du rapport AR4 en 2013, mis à jour en le complétant avec ce que nous savons des mesures thermométriques (NCDC et GISTEMP LOTI) pour l'année 2014 (Décembre exclu).

Comme vous le voyez, l'ajout de l'année 2014 n'améliore en rien la divergence évidente entre les modèles(en couleur) et les observations (en noir). A l'évidence, les modélisations numériques "surchauffent" la surface de la planète.

 

 

Pour sa part, Steve McIntyre, le pourfendeur pointilleux et tenace de la fameuse crosse de hockey de Michel Mann, a superposé les dernières projections du modèle CMIP RCP 4.5 avec les données disponibles du HadCRUT4. Voici, ci-dessous, le résultat de cette superposition.

Deux des pics négatifs que l'on peut observer dans la courbe noire simulée et dans son intervalle de confiance à 95% (en grisé) correspondent aux éruptions volcaniques des années 1982 ( El Chichon) et 1991 (Pinatubo) dont les refroidissements simulés induits sont d'ailleurs nettement plus visibles dans les simulations que dans les observations.

mcintyre

 


Figure 1. "Moyenne des ensembles de modèles CMIP RCP4.5 (en noir) et 5-95% enveloppe en percentile en gris comparée aux mesures HadCRUT4 (en rouge). En tirets bleu, la projection du plateau/ralentissement de 1997-2014 jusqu'en 2030. En tirets rouge, une projection qui rattraperait la moyenne des modèles CMIP5 RCP4.5 vers 2030."

A noter que, pour des raisons de commodité, Steve McIntyre a utilisé les données RCP4.5 dont le scénario d'émission est inférieur à celui qui s'est produit dans la réalité. S'il avait utilisé le RCP8.5, plus proche de la réalité du point de vue des émissions, la divergence aurait été encore plus importante.

 

 

 

Steve McIntyre détourne ironiquement le mantra de Michel Jarraud de l'OMM au sujet des températures, dans un billet - non moins ironiquement - intitulé

"Désaccord "sans précédent" avec les modèles": (caractères engraissés par PU)

... La divergence entre la surchauffe prévue par les modèles et les températures de surface en 2014 a été la quatrième dans l'histoire des mesures et 5 des plus grandes divergences entre les modèles et les observations se sont produites durant les 6 dernières années.

5) Compléments et conclusion :

Parmi beaucoup d'autres, le journaliste scientifique David Whitehouse ne mâche pas ses mots quant au communiqué de presse de l'OMM, non plus d'ailleurs qu'au sujet du communiqué de presse du Met Office UK. Voici ce que David Whitehouse écrit à ce sujet, (caractères engraissés par PU), dans un billet intitulé "La surchauffe du reportage médiatique" dans lequel il cite des extraits du communiqué de presse de l'Office Météorologique UK.

0.01 +/- 0.1 

"Nulle part, dans le communiqué de presse de l'OMM, il n'est fait mention des erreurs dans la mesure de la température moyenne de la surface du globe. L'erreur est de +/- 0,1°C. Ainsi 2014 est de 0.01 +/- 0.1 °C plus chaude que 2010. Appuyer ses conclusions sur une telle mesure est ridicule.

[...] L'Office Météorologique (le Met Office) du Royaume Uni a publié ses prévisions pour 2014. Ils disent que la température moyenne du globe de Janvier à Octobre, en se basant sur les données HadCRUT4 (compilées par l'Office de Météorologie et le Centre de Recherche Climatique de l'Université d'East Anglia), est de 0.57 °C (+/- 0.1) au dessus de la moyenne à long terme (1961-1990). Ils disent que ceci est cohérent avec les affirmations de l'Organisation Météorologique Mondiale (OMM) "avec encore deux mois de données à ajouter, le chiffre pourrait changer mais, à l'heure actuelle", 2014 est juste au dessus du précédent record de 0.56°C établi en 2010 ( NdT : Soit une augmentation de un centième de °C !) dans les données globales qui remontent à 1850. La valeur finale pour cette année sera très proche de l'estimation centrale de 0,57°C de la prévision du Met Office pour 2014 effectuée à la fin de l'année dernière."

La fin du communiqué de presse du Met Office adopte un ton plus raisonnable. Colin Morice [NdT: qui est l'un des auteurs de l'article que j'ai donné plus haut en référence], un climatologue du Met Office dit : "Les années record ou proches des records sont intéressantes mais le classement des années les unes par rapport aux autres doit être traité avec une certaine prudence parce que les incertitudes dans les données sont plus grandes que les différences entre les années record. Nous pouvons dire que cette année complétera la série des températures proches des records que nous avons vues durant la dernière décennie."

On ne saurait mieux dire que Colin Morice qui exprime exactement ce que j'ai montré dans ce billet. Les années "records" sont indistinguables entre elles et, a fortiori, l'année 2014.

Pour sa part et parmi d'autres, la climatologue Judith Curry a consacré à ce sujet un billet intitulé
"Le travesti (ou le déguisement) de "l'année la plus chaude"

Elle rejoint évidemment les observations précédentes. Voici quelques extraits de son billet :

[...] "Eh bien, classer 1998, 2005, 2010 et 2014 comme "les années les plus chaudes" apparaît tout à fait cohérent avec un plateau de température depuis 1998.

[...]Même si 2014 maintient son statut parmi le top 4 des années les plus chaudes en quoi cela impacte-t-il l'affaire de "la pause" ? [...]La véritable question est relative à la divergence croissante qui existe entre les projections des modèles et les observations de la température de surface.[...] Mettre à jour le diagramme pour y inclure l'année 2014 ne fera qu'augmenter la divergence entre les modèles et les observations parce que les modèles montrent un réchauffement inexorable.[...]  .

Alors que le rapport de l'OMM [NdT : qui est un organisme de l'ONU] n'était pas déraisonnable, leur communiqué de presse constitue une tentative évidente pour influencer les délibérations à Lima, dans le sens de l'alarmisme."

preuvechauffe

 

 

Et Judith Curry conclut son billet avec ce petit cartoon ironique que j'ai francisé :

 

 

En conclusion :

Les médias ont fait beaucoup de bruit pour rien.

On peut comprendre que la totalité de la presse nationale s'efforce d'épauler les efforts du gouvernement qui a décidé (fort imprudemment, à mon avis) de faire du COP21 à Paris-Le Bourget, en 2015, un succès.

Mais ceci a été fait sans aucune investigation, au détriment de la complétude et de l'exactitude de l'information communiquée au grand public. L'information délivrée sur cette question a été systématiquement tronquée voire dissimulée au public et ceci, manifestement, dans un but politique.
Dans ce domaine, comme dans les autres, la fin ne justifie pas les moyens.
Les médias traditionnels y perdent en crédibilité ce qui n'arrange pas leurs affaires face à la concurrence d'Internet qui attire, à présent, de plus en plus de lecteurs. On comprend pourquoi.

Il est non moins inquiétant qu'un organisme mondial comme l'OMM de l'ONU, supposé paré de tous les attributs de la science, publie des communiqués de presse de cette nature. Là encore, si on peut comprendre que l'OMM et son secrétaire général soient contraints de s'inscrire dans le cadre de la politique de l'ONU, s'agissant de science et d'observations objectives, les non-dits, l'ellipse et l'hyperbole ne sont pas admissibles.

On comprend également la situation délicate dans laquelle se trouve le Met Office UK qui, lui aussi, pour des raisons évidentes, se voit contraint de s'inscrire dans le cadre de la politique gouvernementale de son pays. Mais, à sa décharge et à la différence de l'OMM, on observe que son communiqué de presse inclut volens nolens et à la fin du texte, les observations du climatologue Colin Morice du Met Office qui semble être le seul à informer correctement le grand public.


Hélas, c'est un bien triste constat sur la manière dont les médias informent le grand public, en cette fin d'année 2014. sapin
______________________________________________________________________________

Joyeux Noël et meilleurs vœux pour 2015, à toutes et à tous,
... sur un globe qui ne s'est toujours pas réchauffé de manière mesurable depuis, au moins, 1998 et tout particulièrement durant l'année 2014.

Prenez des forces, reposez vous bien. Nous en aurons besoin. Sans aucun doute, à l'approche du COP21 à Paris, l'année médiatique 2015 sera "la plus chaude"...

Stay tuned !
__________________________________________

Addendum du 18 Janvier 2015 : La NASA et la NOAA viennent de publier leurs données pour le mois de décembre 2014; Les conclusions sont inchangées.

Comme promis, voici les mises à jour pour les températures moyennes globales pour 2014, incluant le mois de Décembre, selon le GISS-LOTI, le NCDC, UAH et RSS.
Je reprends la mise en forme précédente en actualisant les tableaux. Les corrections à apporter par l'introduction des données du mois de décembre sont de l'ordre de quelques millièmes de degré (!),ce qui peut affecter les arrondis.

-Le National Climatic Data Center de la NOAA (ci-contre)

Le tableau ci-dessous indique les différences calculées entre les moyennes annuelles des années "les plus chaudes" de la période 1998-2014.

Année X Temp. Moyenne °C Différence 2014-X
1998 0,63083 0,058 °C
2005 0,645 0,044 °C
2010 0,65083 0,038 °C
2014 0,6892 0 °C

Autrement dit, selon cette institution (le NCDC de la NOAA) "l'année la plus chaude" (de tous les temps comme disent certains), en moyenne, à la surface du globe, aurait été :

plus chaude que l'année 2010 d'environ 4 centièmes de degré.
plus chaude que l'année 2005 d'environ 4 centièmes de degré.
plus chaude que l'année 1998 d'environ 6 centièmes de degré.


-Le Goddard Institute de la NASA (ci-contre) :

Année X Temp. Moyenne °C Différence 2014-X
1998 0,60917 0,066 °C
2005 0,65 0,025 °C
2010 0,6575 0,0175 °C
2014 0,675 0 °C

Autrement dit, selon cette institution (le GISS de la NASA) "l'année la plus chaude" ("de tous les temps"), en moyenne à la surface du globe, aurait été

plus chaude que l'année 2010 d'environ UN à DEUX centièmes de degré.
plus chaude que l'année 2005 d'environ 2 à 3 centièmes de degré.
plus chaude que l'année 1998 d'environ 6 à 7 centièmes de degré.

Autrement dit, encore et en tenant compte des erreurs d'arrondis, la prise en compte du mois de décembre introduit, dans les mesures des températures moyennes annuelles de surface, une augmentation de 0 à 1 centième de degré par rapport aux données précédentes.

Autant dire que ces différences d'un, de deux, de trois, ou même de 7 centièmes de degré sont, en réalité, imperceptibles et n'ont aucune signification dans une collection de résultats de mesures qui sont déterminés à plus ou moins un dixième de degré près, c'est à dire avec une marge d'erreur totale d'environ 0,2°C.

En réalité, l'anomalie de température de l'années 2014 est donc parfaitement indistinguable de celle des années 1998, 2005, 2010, ainsi d'ailleurs, en toute rigueur, que de toutes les années dont les marges d'incertitudes (trait vertical noir) interceptent les zones en grisé dans les graphiques ci-dessus. C'est à dire, au moins, de toutes les années depuis 1997, sauf les années plus froides 1997, 1999 et 2000 pour le GISS-LOTI et 1999 et 2000 pour le NCDC-NOAA. On ne saurait mieux illustrer le fait que nous sommes actuellement sur un plateau de température qui se poursuit depuis, au moins, 17 ans.

Pour sa part, BEST, l'organisme de l'Université de Berkeley (USA) indépendant qui affirme avoir réduit les marges d'incertitudes à ± 0,05°C (!) enfonce le clou. BEST déclare que (caractères engraissés par PU) :

Le domaine d'incertitude que nous avons atteint est remarquablement réduit (0,05°C avec une confiance de 95%). Ceci a été obtenu en partie par l'introduction de données à partir de 30000 stations de température et par l'utilisation de méthodes d'optimisation statistique. Mais même dans ces conditions, l'année la plus chaude n'a pas pu être distinguée.
Bien entendu, ceci indique que la température moyenne de la Terre n'a que très peu changé durant la dernière décennie.

On ne peut mieux dire que le réchauffement climatique fait "la pause". (Voir, sur le même sujet, le billet de Judith Curry).

Pour ce qui est des mesures satellitaires UAH comme RSS-MSU, les variations des températures moyennes globales annuelles dues à la prise en compte du mois de décembre ne sont que d'environ 0,003 °C qui sont évidemment imperceptibles sur les graphiques rapportés ci-dessus. Ces graphiques demeurent donc inchangés. Ils montrent que la température moyenne de la basse atmosphère durant l'année 2014 ne présente aucun caractère particulier par rapport aux années précédentes.
Ainsi que l'ont montré les analyses précédentes, on observe que la divergence entre les mesures satellitaires et les mesures thermométriques s'accroît d'année en année. Il s'agit là d'un problème qu'il faudra bien résoudre un jour ou l'autre.

Note : Des experts en métrologie ou, plus couramment, des chercheurs habitués à la pratique de diverses mesures en physique et en thermique, s'étonnent que des institutions se déclarent capables d'évaluer des variations de la température moyenne globale de l'ordre de quelques centièmes de degré, d'un objet aussi vaste, hétérogène et convectif qu'une couche d'air plus ou moins confinée, répartie sur toute la surface de toute la planète...

Pour ma part, je me suis contenté de reproduire ici les résultats communiqués par ces différentes institutions avec les marges d'erreurs retenues, sans porter de jugement.
_______________________________________________________________________________________________________________________________

Mise à jour du 18 Janvier 2015 : Des éclaircissement sur les incertitudes et les probabilités.

Bien entendu, de nombreux scientifiques/journalistes scientifiques (anglophones) qui sont au courant des incertitudes qui affectent les mesures de température se sont émus, tout comme moi, des affirmations péremptoires répercutées par tous les médias selon laquelle "l'année 2014 est la plus chaude etc."

L'un de ces journalistes scientifiques, (David Rose UK), a demandé (sur Twitter) des explications, à ce sujet, directement à Gavin Schmidt. Schmidt est le successeur de James Hansen notamment en tant que responsable de ces mesures au GISS de la NASA. Celui-ci lui a répondu que la présentation orale à la presse des données de température incluait effectivement une estimation des différentes probabilités qui tenaient compte des marges d'incertitudes.
Voici le tableau inclus dans le tweet de Gavin Schmidt :

nasanoaa

Ce tableau est intitulé "Le classement des années records est sensible à la méthodologie et à la couverture"


Il indique, entre autres, que le probabilité que 2014 soit "l'année la plus chaude" est d'environ 48% (un peu mois d'une chance sur deux) pour la NOAA et d'environ 38% (un peu plus d'une chance sur trois) pour la NASA.

 

 

 

 

Sous le titre "Le calcul des probabilités pour le classement de l'année 2014" la NOAA explique la dialectique utilisée pour déterminer les probabilités indiquées ci-contre et donne quelques compléments :

"En utilisant la méthode de Monte-carlo (Arguez et al, 2013), le NCDC a pris en compte l'incertitude connue pour la température annuelle des terres et des océans du globe pour la détermination du classement de l'année 2014. En tenant compte de l'incertitude et en supposant que toutes les années (1880-2014) dans les séries de données sont indépendantes, les chances de 2014 d'être :

  • L'année la plus chaude : 48.0%
  • Une des cinq années les plus chaudes : 90.4%
  • Une des dix années les plus chaudes : 99.2%
  • Une des vingt années les plus chaudes : 100.0%
  • Plus chaude que la moyenne du XXe siècle : 100.0%
  • Plus chaude que la moyenne des années 1981-2010 : 100.0%"

Si, maintenant, on se rapporte aux éléments de langage rappelés (ci-dessous) par la NOAA, donnant une définition précise des fameux "probable", "improbable", "très probable", etc. on trouve que les probabilités indiquées dans le communiqué de presse présenté par Gavin Schmidt tombent dans la catégorie "more unlikely than likely" (plus improbable que probable, ce qui est justifié par le fait que les probabilités sont inférieures à 0,5 soit 50%) aussi bien pour le NCDC de la NOAA que pour le GISS de la NASA.


likely
Autrement dit, se conformant aux conventions tabulées (ci-contre) par la NOAA (et le GIEC) (h/t WUWT, Motl) dans le même billet de la NOAA, tous les médias auraient dû intituler leurs articles par la phrase suivante :

"Il est plus improbable que probable que l'année 2014 a été l'année la plus chaude"

Ou bien, du moins pour la NOAA, "il est très probable (90%<90,4 <99%) que l'année 2014 est l'une des cinq années les plus chaudes" ou encore, " il est presque certain (99,2%>99%)) que l'année 2014 est l'une des dix années les plus chaudes", et encore, "il est certain (100%) que l'année 2014 est l'un des 20 années les plus chaudes".

.. Ce qui aurait été exact mais aurait fait désordre par rapport au mantra ambiant dans la perspective de la conférence Climat COP21 à Paris.


C'est pourtant ce qu'auraient fait des journalistes bien renseignés et soucieux d'exactitude et de précision quand il s'agit d'informer leurs lecteurs. Il faut bien reconnaître que les NOAA/NASA ont omis (on se demande bien pourquoi ...) d'évoquer les probabilités dans le communiqué de presse distribué aux médias. Les médias sérieux auraient dû remonter jusqu'à la source de la présentation (en particulier, sur le site de la NOAA indiqué) faite à la presse.
___________________________________________________________________________________________________________

Maj du 27/01/2015 : Les seules données manquantes, celles du HadCRUT4 britannnique, viennent juste d'être publiées. Celles-ci sont commentées par le Met Office de la manière suivante (texte engraissé par PU) :

“Les données HADCRUT4 (compilées par le Met Office (UK) et le Centre de Recherche sur le Climat de l'Université d'East Anglia) montrent que l'année dernière a été de 0,56°C (±0.1C) au dessus de la moyenne à long terme des années (1961-1990). En principe ceci classe 2014 comme la co-détentrice du record de chaleur avec 2010 mais les domaines d'incertitude indiquent qu'il n'est pas possible de dire de manière définitive laquelle parmi plusieurs années récentes a été la plus chaude."

Voilà qui est honnête et conforme à ce que nous avons dit plus haut. A noter que l'agence de presse US, l'AP (Associated Press), a tempéré ses premières déclarations en évoquant également les incertitudes des mesures. Dommage qu'ils ne l'aient pas fait avant et que d'autres n'aient pas suivi son exemple !
____________________________________________________________________________________________________________

Stay Tuned ! Le prochain billet paraîtra sous peu...

17 Novembre 2014 : Climat : Où en est-on ? Y a-t-il des raisons de s'inquiéter ?

Nombreux sont les lecteurs qui m'ont alerté récemment au sujet du déchaînement politico-médiatique catastrophiste qui se développe de nos jours en francophonie (mais pas nécessairement ailleurs), à propos du climat. Beaucoup prévoient que la préparation de la réunion COP21 de l'ONU qui doit se tenir à Paris en fin 2015 est l'occasion de lancer une campagne orchestrée destinée à persuader nos compatriotes (réticents) que "la fin du monde est pour bientôt" si nous ne faisons pas ce que certains voudraient que nous fassions.
Il est vrai que les occasions n'ont pas manqué, récemment, d'en rajouter une couche, telles la publication du dernier Rapport de Synthèse du GIEC (qui n'est rien d'autre qu'une approximation a-scientifique du Résumé pour les Décideurs de l'AR5 qui n'était lui-même qu'une caricature du rapport scientifique complet AR5, comme beaucoup d'autres scientifiques l'ont dit avant moi ainsi que je l'ai relaté dans les billets précédents), telles les réunions répétées des responsables du GIEC ou des politiques lors de divers sommets, toujours planétaires, etc.
Tout cela peut sembler très inquiétant et cela l'est surtout pour les quidams qui ne se plongent jamais dans les courbes, les données et les graphiques publiés par les instituts dédiés ou dans les revues scientifiques, comme la plupart de nos contemporains.

Mais, au fait, y a-t-il vraiment des raisons objectives de s'inquiéter au sujet du climat de la planète ? Et si oui, à quel sujet ?

C'est ce que nous allons voir dans ce billet, à partir des mesures objectives et en nous appuyant, parfois, sur le dernier Rapport Scientifique Complet du GIEC, l'AR5, qu'aucun de nos décideurs inquiets, ou de nos communiquants alarmistes, ne semble avoir lu avant de forger leur opinion... et celle des autres.

Nous allons donc passer en revue les évolutions, jusqu'à présent et successivement, des glaces des pôles, de la température du globe, de la hausse du niveau des mers, des événements météorologiques, dits "extrêmes" à la lumière des indicateurs officiels et des articles scientifiques parus récemment.

Et nous verrons s'il y a lieu de s'inquiéter comme "on" nous assure qu'il convient de le faire...

1) La glace des pôles :

1.A) Pôle Nord : L'océan arctique.

arcticdmi2014

 

Il s'agit de l'évolution de l'extension de la surface de la mer arctique qui contient au moins 15% de glace, ce qui est le critère généralement retenu et notamment par le GIEC d'après l'Institut Danois DMI.
La variation de l'extension de la surface glacée relative à l'année 2014 est représentée par le gros trait noir.

Comme on peut l'observer, lors du minimum d'extension, observé vers le 10 septembre, c'est à dire au moment du maximum de la fonte, l'extension de la surface glacée de l'arctique de cette année est supérieure à celle des années 2010, 2011, 2012, 2013, et aussi 2007 et 2008 qui ne figurent pas sur ce graphique.

D'autre part, le graphique de l'organisme japonais IARC-JAXA montre qu'actuellement, l'extension de la glace arctique est assez proche de l'extension moyenne des années 2000.

 

 

 

 

L'évolution positive de l'englacement de l'océan arctique durant ces dernières années est également clairement visible sur le graphique suivant qui provient de Cryosphere (Université de l'Illinois, Urbana-Champaign, Polar Research Group), pour tout ce qui est en trait noir.
arctic2014a

J'ai superposé à ce graphique deux interpolations-extrapolations possibles (L'une de couleur rouge, l'autre de couleur bleue.) afin d'illustrer les deux points de vue qui s'affrontent quant au futur proche de l'évolution de la glace arctique.

La courbe en rouge représente le point de vue pessimiste tel qu'on peut le lire sous la plume de chercheurs engagés avec le GIEC, tel Marc Serreze du NSIDC qui parle de "spirale mortelle", ou encore, d'Al Gore qui, lui, avait carrément prédit la disparition de la glace arctique en déclarant, lors de la cérémonie de la remise de son prix Nobel de la Paix (conjointement avec le GIEC), en 2007 que : "La calotte glaciaire est en chute libre. Elle pourrait avoir disparu, en été, dans près de 7 ans".
Comme on le voit, c'était faux.

La courbe en bleu illustre le point de vue des chercheurs qui, se rapportant aux oscillations des indices des températures océaniques (et plus précisément de l'AMO), pensent que la mer glacée arctique pourrait s'épaissir et résister de mieux en mieux à la fonte de l'été dans les années qui viennent (tels, par exemple Judith Curry).

De fait, personne ne connaît avec certitude la réponse à cette question, même si les observations actuelles vont plutôt dans le sens de la courbe en bleu.

"Time will tell" comme disent les américains des USA, c'est à dire, "l'avenir nous le dira"... Cependant, il existe un autre indicateur qui va dans le sens des optimistes. Il s'agit de l'observation de l'évolution du volume de la glace arctique et non plus seulement de son extension.

Voyons ce qu'il en est.

Evolution récente du volume de la glace arctique :piomas2014

Le graphe ci-contre (établi d'après les bases de données de PIOMAS (Polar Science Center)) indique l'évolution du volume de la glace arctique au cours des mois de Septembre successifs qui sont les mois durant lesquels l'extension de cette glace de l'arctique atteint son minimum,

Comme on le voit, le volume de la glace arctique en septembre a diminué jusqu'en 2012 puis est reparti à la hausse durant les deux dernières années. Le volume de la glace arctique durant le mois de Septembre 2014 est un peu inférieur à celui observé en 2008 mais il est supérieur à celui de tous les autres mois de Septembre depuis 2007 (inclus).

A noter que, bien que l'extension minimale de la glace arctique soit, en 2014 assez proche de celle observée en 2013, son volume et donc, son épaisseur, a sensiblement augmenté en 2014 ce qui laisse présager une meilleure résistance lors de la prochaine fonte, en été 2015.
Bien entendu, ceci va à l'encontre de la fameuse prédiction de la "spiral death", la "spirale mortelle" pronostiquée par les tenants du GIEC qui extrapolaient le graphe indiquant la décroissance de la surface glacée arctique comme cela est indiqué par le trait rouge que j'ai reporté sur le graphe ci-dessus.

Enfin, et c'est d'une grande importance dans cette discussion, on sait que les anomalies de température en Arctique dans les années 1920-1930 étaient assez semblabes à ce qu'elles sont aujourd'hui, ce dont on ne peut certes pas rendre responsables les émissions anthropiques de CO2. Voici ce qui est écrit dans le dernier rapport (c'est à dire dans le rapport scientifique complet et non pas dans le Résumé pour les Politiques (SPM), ni dans le récent "rapport de synthèse") du GIEC, l'AR5 (publié en 2013) (cité par Judith Curry) :

“Les anomalies de la température en Arctique dans les années 1930 étaient apparemment aussi importantes que celles des années 1990 et des années 2000. Il y a encore de nombreuses discussions au sujet des causes profondes qui sont à l'origine des anomalies de température dans l'Arctique dans les années 1920 et dans les années 1930." - GIEC AR5 Chapitre 10

J'ai évoqué plusieurs fois cette question dans cette page (Chylek, Tsonis etc.).
A ce sujet,
Richard Lindzen, souvent cité dans ce site, aime présenter la diapositive ci-contre, lors de ses conférences traitant de la glace arctique :fermin90

Le texte date de ...1922. Il est issu du "US Weather Bureau", l'organisme officiel de la météorologie de l'époque. En voici une traduction :

"L'Océan Arctique se réchauffe, les icebergs se font de plus en plus rares et dans certains endroits les phoques trouvent l'eau trop chaude. Tous les rapports pointent vers un changement radical des conditions climatiques et jusqu'à des températures inconnues jusqu'à présent dans la zone arctique. Des expéditions nous rapportent que pratiquement aucune glace n'a été vue au dessus d'une latitude de 81 degrés 29 minutes. D'énormes masse de glace ont été remplacées par des moraines de terre et des pierres tandis qu'en de nombreux endroits, des glaciers bien connus ont entièrement disparu."

On croirait lire la presse actuelle...Dès lors, d'aucuns pourraient penser qu'il serait sans doute utile, sinon indispensable, de trouver une explication rationnelle pour la fonte intense de l'Arctique survenue dans les années 1920 et les années 1930, attestée par le GIEC dans son dernier rapport, ainsi que le regel qui s'en est ensuivi, avant d'incriminer les activités humaines pour la période actuelle.
Assez bizarrement, ce n'est pas l'option qui a été choisie par la communauté des climatologues, bien que le GIEC avoue clairement sa perplexité au sujet du réchauffement arctique des années 1920-1940.

Examinons, à présent, ce qu'il en est de la banquise à l'autre bout du monde : La banquise antarctique.

1.B) La banquise antarctique :antar2014

 

Source : Cryosphere (Université de l'Illinois)

L'évolution de la surface (extent) de la banquise antarctique est représentée en jaune.

Comme on le voit, la banquise antarctique a battu, cette année encore, le record absolu d'extension depuis le début des mesures répertoriées.

A noter que cette extension a été nettement au dessus de la moyenne durant la quasi totalité de l'année, même pendant l'été austral.

 

 

 

 

antar2014a

 

 

 

Ce record d'extension reflète une tendance générale qui se poursuit au moins depuis les années 1990, ainsi qu'on peut le voir sur le graphique des données mensuelles ci-contre, tiré de la même source (Cryosphere de l'Université de l'Illinois).

 

 

 

 

 

 

 

 

 

 

La progression de l'englacement de la banquise antarctique peut réserver des surprises aux "touristes des pôles" comme ceux (des journalistes, des Chokalskiscientifiques, des touristes et une politique) qui s'étaient joyeusement embarqués en fin Novembre 2013 à bord de l'Akademik Chokalski et qui se sont retrouvés piégés à Noël, loin du continent, dans la banquise antarctique en plein été austral (photo ci-contre). Il a fallu mobiliser, à plusieurs reprises, de gros moyens pour les sortir de ce mauvais pas.
De même, il est évident que la progression de la superficie de la banquise antarctique et le dégel tardif posent aussi de sérieux problèmes pour le ravitaillement des bases antarctiques par voie maritime ne serait-ce qu'en raccourcissant sérieusement la période d'accès au continent.


1.C) La surface des glaces des mers polaires : Glace arctique + banquise antarctique (Cryosphere)

 

globalseaice2014

Comme on peut le voir, au cours des deux dernières années, c'est à dire en 2013 et 2014, l'extension des surfaces glacées du globe a rejoint ou est repassée au dessus de la "normale", c'est à dire au dessus de la moyenne des années 1979-2008.

 

 

 

 

 

 

 

 

 

Ainsi et au vu de l'évolution actuelle des observations, il n'y a aucune raison objective de prêcher l'alarmisme en ce qui concerne l'extension des glaces des deux mers polaires. Bien au contraire.

2) La température moyenne de la surface du globe :

gistemp-rss-2014

Voici les représentations des données mensuelles données par deux organismes représentatifs des mesures thermométriques (ici le GISS de la NASA) et des mesures satellitaires (ici, le RSS-MSU), depuis 1997 jusqu'au mois d'octobre de cette année.

Comme chacun le sait, il s'agit ici d'une représentation de ce que d'aucuns nomment "le plateau" des températures qui se prolonge depuis au moins 17 ans et d'autres qui supposent que les températures vont remonter, "le hiatus".

Les bases de données utilisées ici sont les bases "officielles" de ces deux organismes telles que je les ai indiquées dans des billets précédents.

Comme on le voit et comme on s'y attend étant donné le très faible incrément temporel par rapport à l'année dernière, au vu des graphes des températures mensuelles et compte tenu des fluctuations, il ne se passe rien de particulier en 2014 par rapport à 2013 ni par rapport aux années précédentes du millenium.

 

 

Nous avons pourtant tous entendu et lu dans les médias que "les mois d'août ou(et) de Septembre était les plus chauds depuis le début des relevés" ainsi que d'autres affirmations du même genre, pratiquement jamais sourcées. Si c'est exact, cela ne l'est que pour les instituts qui utilisent les mesures thermométriques qui dérivent d'ailleurs, toutes, d'une seule base de données appelée GHCN (Global Historical Climatology Network) (voir ci-dessous). Les données satellitaires indépendantes entre elles, que ce soient celles de l'UAH (Université de l'Alabama, Hunstville) ou celles de l'organisme RSS-MSU qui n'utilisent pas les mêmes satellites, concourent pour indiquer que les températures du globe des mois d'Août, Septembre etc. ne figurent pas en haut du classement des températures. Autrement dit, nous avons affaire à trois systèmes de mesures réellement indépendants, deux satellitaires et un thermométrique.
Ceci mérite quelques explications.

giss-rss

2.A) Divergences entre les différentes institutions

On peut observer une divergence croissante, au cours du temps, entre les données thermométriques (GISS-NASA, NOAA) et les mesures satellitaires (ici le RSS-MSU, UAH).

Voici, ci-contre, un zoom sur les divergences observées entre les mesures thermométriques et les mesures satellitaires dans les années 2013 et 2014.

On peut s'étonner de cette divergence sachant qu'elle atteint parfois les 0,3°C (ce qui représente près de la moitié du réchauffement observé au XXe siècle) si on se souvient que les organismes responsables de ces mesures estiment que les incertitudes sont de l'ordre de 0,05°C (soit 5 centièmes de degrés pour la surface du globe (!)).
Les divergences observées étant largement supérieures aux incertitudes cumulées, on peut se dire que soit l'une des deux mesures est fausse, soit les deux.

Mais qu'en est-il de la base des données thermométriques ?

2.B) La base GHCN des données des mesures thermométriques :

GHSNlandonly

Le site de la National Oceanic and Atmospheric Administration, la NOAA donne une représentation des anomalies de température pour le mois de Septembre 2014, (ici, seulement les terres émergées) réparties sur le globe et illustrées selon le code des couleurs indiqué en dessous de la figure, selon les données thermométriques tabulées par le GHCN comme indiqué.

1) La taille des petits carrés donne une indication sur les méthodes d'homogénéisation adoptées par le GHCN et ses utilisateurs. Ainsi observe-t-on que ces carrés dans lesquels la température est supposée varier de la même manière, sont d'une taille approximativement égale à la moitié de la France ce qui présuppose que les anomalies de température affecteraient, de la même manière, des portions distantes de quelques 500 km.

2) Comme cela est indiqué, en petits caractères, à droite et en bas de ce document, les parties en grisé représentent les "données manquantes" dans l'établissement de la base de données du globe.
Si, dans le cas présent, on n'est guère surpris de constater que le continent antarctique ne comporte que quelques rares thermomètres, on s'étonne de la
très faible couverture thermométrique de l'Afrique, de l'Amérique du Sud, de l'Alaska, du Groenland, de la Sibérie etc. bref, d'une portion très importante de la surface des continents de la planète.
Dans ces conditions, on peut s'étonner, une fois encore, que les organismes qui se basent sur cette base de données, affirment que leurs évaluations pour la température moyenne de la surface du globe, pris dans sa totalité,
sont obtenues avec une incertitude de 5 centièmes de degré.

A titre d'information et à titre d'exemple, il apparaît que le mois de Septembre 2014 n'est, en réalité, que le septième mois de septembre le plus chaud pour l'UAH (satellite), le neuvième pour le RSS-MSU (satellite) et le premier pour la NOAA (ou la NASA qui utilisent la même base GHCN). Autrement dit, deux mesures indépendantes entre elles sur trois, contredisent la troisième et ce, bien au delà des marges d'erreur proclamées.

En bref, il n'y a toujours pas de quoi s'alarmer à ce sujet. Au contraire, le "plateau" est plutôt rassurant.
Mais, qu'en est-il de la situation pour ce qui concerne la hausse moyenne du niveau des océans du globe ? Il s'agit d'un autre observable important, souvent mentionné dans les médias, comme particulièrement inquiétant.

3) La hausse du niveau des océans à l'échelle du globe

Le graphe (en bleu) a été tracé à partir des données de l'Université du Colorado par le Prof Humlum. Ce dernier a effectué une analyse polynomiale d'ordre deux de la série des données fournies par cette université. Les résulats de son analyse sont représentés sur son graphe par une courbe en trait pointillés bleus et un petit cartouche de même couleur. 4youmslr

 

 

Anomalie globale du niveau moyen des océans en mm de 1993 à Mars 2014.

 

 

 

 

 

 

 

 


Comme on peut l'observer le "best fit" polynomial quadratique obtenu par
Humlum a un indice de confiance de 93%. Il comporte un faible terme quadratique négatif (cartouche du graphique) ce qui m'a incité à chercher à le mettre en évidence en superposant une droite (en point-tirets rouge) sur son tracé (superposition de de 1993 à 2003) en pointillés bleus.
Comme on le voit, le terme quadratique négatif représente une diminution tout à fait perceptible de la vitesse de hausse des océans ce qui est en accord avec un certain nombre d'observations indépendantes publiées récemment.
Ceci qui est en accord avec plusieurs publications et contraire aux affirmations alarmistes généralement répandues
selon lesquelles la hausse du niveau des océans s'accélérerait.
Il n'en est rien. Au contraire, la hausse ralentit depuis quelques années, ce qui est d'ailleurs cohérent avec la stagnation de la température globale de la planète.

Comme on le constate, les observations concernant aussi bien l'évolution de la température moyenne du globe que le regel des banquises arctique et antarctique et le ralentissement de la hausse du niveau des mers, incitent plutôt à l'optimisme qu'au pessimisme.

Mais voyons maintenant, ce qui concerne un sujet d'inquiétude récemment devenu réellement invasif : Les événements climatiques (météorologiques) extrêmes. Deviennent-ils plus fréquents ou plus violents comme on l'entend dire fréquemment ?

4) Les événements climatiques extrêmes :

4.A) Les cyclones/ouragans/typhons

Evolution de l'indice ACI (Energie cyclonique accumulée) des Cyclones/ouragans/typhons à l'échelle du globe.
Comme je l'ai déjà mentionné auparavant l'indice ACI constitue une évaluation compacte de l'intensité et de la fréquence de l'activité cyclonique. Il existe d'autres indices légèrement différents qui conduisent sensiblement aux même résultats.

maue2014

Contrairement aux déclarations apocalyptiques que l'on peut lire à ce sujet dans les médias, ni la fréquence, ni la violence des ouragans/cyclones/typhons n'ont augmenté durant les dernières décennies.

Une explication scientifique pour cette (nouvelle) divergence entre les modèles et les observations vient d'ailleurs d'être exposée par James Kossin dans le Bulletin of the American Meteorological Society (Validating Atmospheric Reanalysis Data Using Tropical Cyclones as Thermometers by James P. Kossin, published in Bulletin of the American Meteorological Society DOI:/10.1175/BAMS-D-14-00180.1).
En bref, il s'agirait d'une migration vers les pôles de ces instabilités atmosphériques qui sont donc ainsi apaisées par les températures plus froides, ce que les modèles ne prenaient pas en compte. (Voir l'analyse de cet article).

Ainsi n'y a t-il aucune raison objective d'anticiper une augmentation de la fréquence et de la violence des ouragans/cyclones/typhons pour les années à venir et les prochaines décennies.

4.B) Les tornades (aux USA). tornade2014

Comme chacun sait, les tornades sont des événements météorologiques extrêmes relativement localisés qui peuvent être d'une extrême violence (avec des vents de près de 400km/h). On les rencontre principalement aux Etats-Unis, le long d'une ligne que l'on appelle la "tornado alley", "l'allée des tornades" où les habitants se sont aménagé tout un système de protections et d'abris qui leur permettent de sauver leurs vies, à défaut des constructions.
L'évolution de l'intensité et de la fréquence des tornades états-uniennes a fréquemment été citée comme étant un bon indicateur de la "dégradation climatique", étant entendu que le "réchauffement climatique" "devrait" conduire à une intensification de ces phénomènes aussi extrêmes que dangereux.

 

 

tornado0

Ce n'est pas du tout ce que nous disent les mesures. De fait, celles-ci nous disent, à peu de chose près, le contraire.

Voici, ci-contre, un graphique dressé par le NOAA américaine qui montre le développement du nombre des tornades observées au cours de l'année et ceci depuis l'année 2005 jusqu'en 2014 (998 tornades observées au moment de l'établissement du graphique).


Comme on le voit, par exemple, les années 2013 et 2014 figurent toutes deux parmi les années les moins affectées par les tornades pour cette période et on n'observe pas de croissance de la fréquence de ces phénomènes à mesure que le temps passe.

 

 

 


Les tornades que l'on subit aux USA, bénéficient d'un système de classement qui les rangent, suivant leur potentiel de destruction, dans plusieurs catégories nommées EF-1 (les plus violentes), EF-2 etc. par ordre décroissant de puissance destructrice.

tornado1

Voici l'évolution du nombre des tornades US de catégorie EF-1 (les plus destructrices) auxquelles on ajoute celles qui sont encore pires, en fonction des années écoulées, en partant de 1971 jusqu'en 2013.

Comme on le voit, le nombre des tornades les plus violentes aux USA n'a pas augmenté au cours des dernières décennies. D'après le trait rouge tracé par l'organisme qui a publié ces données, ce nombre a même diminué, en moyenne, au cours de cette période.

On pourrait examiner la suite des graphiques qui analysent l'évolution temporelle des tornades de violence moindre (le EF-2 etc.). Je ne les ai pas reportés ici pour ne pas allonger exagérément ce billet. Il suffit de savoir qu'aucun de ces graphiques ne montre une augmentation du nombre de ces tornades au cours des décennies écoulées.


Il faut donc en conclure qu'il n'y a pas, non plus, lieu de s'inquiéter à ce sujet : Les tornades sont de phénomènes naturels dont la violence et la fréquence ont plutôt tendance à décroître depuis les années 70.

4.C) L'enneigement de la planète.

On ne peut certainement pas affirmer que les chutes de neige, ou leur absence, puissent être considérées comme des "événements climatiques extrêmes". Néanmoins et compte tenu des conséquences économiques délétères que pourrait entraîner l'affaiblissement ou la disparition de l'enneigement, certains semblent les considérer comme tels.
wintersnow2014

Ainsi, voici ce qu'écrivait le journaliste spécialisé du journal anglais The Independent (Le 20 Mars 2000), sous le titre "Il apparaît que les chutes de neige ne sont plus qu'une chose des temps passés".Comme on le voit ci-contre, sur un graphique donnant la superficie enneigée du globe en hiver depuis 1967, publié par le Rutgers University Snow Lab, l'hiver 1999-2000 avait été particulièrement pauvre en neige, à l'échelle du globe comme au Royaume Uni.

"Cependant, le réchauffement jusqu'à présent se manifeste plus durant les hivers qui sont moins froids plutôt que durant les étés beaucoup plus chauds. Selon le Dr. David Viner qui est un chercheur confirmé de l'Unité de Recherche sur le Climat (CRU) de l'Université d'East Anglia [NdT : le QG du célèbre Climategate], dans quelques années les chutes de neige en hiver deviendront "un événement rare et excitant"

"En définitive, les enfants ne sauront plus ce qu'est la neige" dit-il".

Il apparaît que les années suivantes, peut-être à l'exception de l'année 2007, ont connu des enneigements hivernaux particulièrement abondants. Les enfants d'aujourd'hui savent toujours ce qu'est la neige et le Dr. David Viner du CRU de l'UEA est encore fréquemment cité pour cette prédiction aussi alarmiste qu'aventureuse.

snowoctober2014

Pour rester dans l'actualité, voici, ci-contre, l'évolution de la surface enneigée du globe de l'hémisphère Nord pour chaque mois d'octobre depuis 1968 (à l'exception de l'année 1969 pour lesquelles il n'existe pas de données (ND)). Il s'agit de 'l"anomalie" c'est à dire de la variation de la superficie enneigée (en millions de km carrés) du globe constatée par rapport à une moyenne choisie à l'avance.


Comme on le voit immédiatement, le mois d'Octobre 2014, c'est à dire le mois dernier qui est pourtant réputé "chaud" par les instituts utilisant les mesures thermométriques, a connu un enneigement particulièrement abondant.
De fait, ce mois d'Octobre 2014 se situe en troisième position, pour l'étendue de l'enneigement, depuis 1968, derrière les mois d'octobre 1977 et 2003.

Donc, là encore, pas de raison de s'inquiéter de l'évolution de l'enneigement hivernal et automnal de la planète, même s'il est vrai que l'enneigement printanier tend à diminuer à l'échelle du globe, ce qui reflète probablement la (faible) hausse des températures que nous avons connues depuis les années 80.

4.D) Les sécheresses à l'échelle mondiale

C'est un sujet très important qui conditionne l'existence de milliards d'êtres vivants sur la planète, via l'accès à l'eau et à la nourriture. Beaucoup affirment, sans preuve, que les sécheresses augmentent globalement du fait du "réchauffement climatique anthropique".

Il existe pourtant un grand nombre d'articles scientifiques rassurants à ce sujet dont plusieurs montrent, au contraire, que nous assistons à un "reverdissement" de la planète dû, sans doute, à la proportion croissante de CO2 dans notre atmosphère. J'avais évoqué cette question dans un billet précédent.
Au sujet de l'évolution des sécheresses, la revue Nature vient précisément de faire paraître un article révélateur à ce sujet. Il ne va pas dans le sens de l'alarmisme. Au contraire.

Voici le graphe principal extrait de cet article publié dans Nature (accès libre). Il est intitulé : "Global integrated drought monitoring and prediction system" soit "Système de suivi intégral des sécheresses à l'échelle du globe et de prédiction."

Ci-contre le graphique qui donne la fraction du globe affectée par les sécheresses depuis le mois de Juin 1982 jusqu'au mois de Juillet 2012.

drought2014

 

 

 

 

 

 

 

 

 



Le code des couleurs utilisé est indiqué dans la légende de la Figure 5 ci-dessus : "Fraction des continents du globe en situation D0 (anormalement sec), D1 (modéré), D2 (sévère), D3 (extrême) et D4 (exceptionnel) (Les données sont les Indices Standardisés des Précipitations tirés de MERRA-Land)."

Comme on le voit, qu'il s'agisse des zones "anormalement sèches", "sécheresses modérées", "extrêmes" ou "exceptionnelles", il n'y a pas de variation significative de la fraction du globe affectée, au moins, au cours des trois dernières décennies.

Ceci est cohérent avec ce que l'on trouve dans le dernier rapport (scientifique) du GIEC au sujet des fortes sécheresses :

Variation de la composante du système climatique

Potentiellement
brutal (Définition AR5)

Irréversibilité si le forçage est renversé

Probabilité envisagée dans le changement au XXIe siècle des scénarios considérés

Sécheresses de longues durées

Oui

Réversible de quelques années à des décennies

Faible confiance dans les projections des variations de la fréquence et la durée des méga-sécheresses.


Autrement dit, les scientifiques du GIEC ne se prononcent pas. Ils n'ont tout simplement pas assez de données pour juger d'une quelconque tendance. Et le graphe précédent, récemment publié, donc après la rédaction du rapport AR5 du GIEC, ne va certainement pas donner du grain à moudre aux alarmistes des sécheresses.

4.E) Que nous disait le dernier rapport scientifique du GIEC (AR5 -2013) au sujet des événements extrêmes ?

Voici, de manière plus générale, au sujet des événements climatiques extrêmes, des extraits du dernier rapport scientifique du GIEC (l'AR5) publié en 2013. (source) (déjà cité ici).

Au sujet des ouragans et cyclones tropicaux :

“Les bases de données existantes ne montrent aucune tendance significative dans la fréquence des cyclones tropicaux durant le siècle dernier....Aucune tendance robuste dans le nombre des cyclones tropicaux, des ouragans et des ouragans les plus forts, n'a été identifiée lors des 100 dernières années dans le bassin Nord Atlantique."

Au sujet des inondations :

"En résumé, le manque de preuve persiste en ce qui concerne le signe et la grandeur et/ou la fréquence des inondations à l'échelle globale, ce qui se traduit par un indice de confiance faible."

Au sujet des tempêtes, orages, grêle etc.

"En résumé, il y a une faible confiance dans les tendances observées pour les phénomènes météorologiques violents à petite échelle tels que les grêles, les orages, à cause de l'inhomogénéité des données et de l'inadaptation des systèmes de suivi."

Concernant les sécheresses et les affirmations du rapport précédent AR4 :

"Au vu des études mises à jour, les conclusions de l'AR4 (Le rapport 2007 du GIEC) concernant une augmentation des sécheresses depuis les années 1970, ont été probablement surestimées".

Concernant les cyclones extra-tropicaux :

"En résumé, la confiance est faible dans des changements à grande échelle de l'intensité des cyclones extra-tropicaux extrêmes depuis 1900."

Assez curieusement, il semble que les médias et les décideurs savent ce que les chercheurs qui contribuent au rapports du GIEC ne savent pas. Malheureusement, le personnel politique au sens large tout comme la "grande presse" et les autres médias ne semblent pas s'être donné la peine de lire, en profondeur, le contenu du dernier rapport scientifique complet du GIEC (qui date de l'année dernière), dont quelques conclusions sont rapportées ci-dessus.

Il est sans doute utile de rappeler ce qu'a déclaré récemment l'éminent climatologue, Lennart Bengtsson (fréquemment cité dans les billets précédents), à ce sujet :
bengtsson2

"Ce qui est encore plus inquiétant c'est la tendance qui consiste à donner au public l'impression que les événements météorologiques deviennent plus extrêmes et que ceci est déjà en cours. A l'exception d'une possible augmentation des précipitations et d'une possible intensification des ouragans tropicaux qui n'ont pas encore été observés, il n'y a aucune indication de l'augmentation d'événements météorologiques extrêmes dans les simulations des modèles et encore moins dans les observations actuelles."

5) Conclusions :

En partant des données officielles, nous avons successivement passé en revue l'état actuel des observations qui concernent :

- l'évolution des mers glacées au pôle Sud et au pôle Nord,
- l'évolution de la température moyenne à la surface du globe,
- la hausse du niveau des mers,
- l'évolution des tempêtes extrêmes comme les tornades aux USA, les typhons et les ouragans à l'échelle du globe,
- les questions d'enneigement, des tempêtes diverses et des sécheresses,

ainsi que les conclusions du contenu du dernier rapport scientifique AR5 (2013) du GIEC au sujet des événements climatique extrêmes.

Ces observations sont indubitablement rassurantes. Nous ne voyons strictement rien dans tout cela qui justifie le déchaînement médiatico-politique catastrophiste (francophone) auquel nous assistons en ce moment.
Au contraire, toutes ces évolutions climatiques restent dans le cadre des évolutions naturelles observées dans le passé et pour un certain nombre d'entre elles, personne n'est encore capable de se prononcer.

Ainsi, rien n'est observé dans la situations actuelle qui puisse susciter l'inquiétude. Il est possible, cependant, que certains justifient leur anxiété en se référant aux prévisions/scénarios des modélisations informatiques du climat.

L'inquiétude serait-elle alors justifiée par les modèles des prévisions/scénarios du GIEC ?
On pourrait le comprendre si les modèles numériques du climat avaient systématiquement démontré leur pertinence lors de leur confrontation avec les observations objectives. Ce n'est pas le cas.
Voici trois exemples parmi d'autres dont certains ont déjà été mentionnés dans les billets précédents, au cours des mois et des années passées.

  1. Modélisation de la température moyenne de la surface du globe. plateau1a
    Je rappelle ici le graphe qui figure dans le rapport AR5 (complet) (Chapitre 9, page 162, Box 9.2 Fig. 1a) du Rapport scientifique complet du GIEC AR5. Ce graphe confronte le résultat des mesures de températures thermométriques HadCRUT4 avec les prévisions/scénarios du GIEC.


    Comme on peut le voir immédiatement, les plupart des modèles du GIEC (ici les CMIP5) avaient prévu une hausse de la température moyenne du globe de 0,2°C (ou plus) par décennie).
    Les mesures du HadRUT4 montrent que la hausse, durant la période considérée ("le plateau") n' a été que de 0,04°C par décennie, c'est à dire 4 fois plus petite. Encore que, compte tenu de la précision réelle des mesures, cette hausse de température doit être statistiquement peu ou non significative.
    Autrement dit,
    les modèles ont été incapables de prédire l'existence du plateau de température qui a d'ailleurs toujours cours en ce moment. Les modèles surestiment manifestement le réchauffement de la planète, d'un facteur au moins égal à 5 pour ce millénaire..

  2. Modélisation de l'évolution de l'extension de la banquise antarctiqueantar-ar5

    Comme nous l'avons vu, l'extension de la banquise antarctique augmente d'année en année et ceci depuis au moins les années 90. Elle a battu son record d'extension (depuis 1979, le début des mesures satellitaires) cette année comme elle l'avait déjà battu l'année dernière.
    Que nous disent les scénarios climatiques à ce sujet ?

    Voici, ci-contre, la Figure chap 12, page 1088, Figure 28d du rapport scientifique (complet) AR5 (2013) du GIEC (Groupe de travail I).

    Comme on le voit, tous les modèles du GIEC (toutes les couleurs y compris le noir, sauf le vert) prévoient globalement une diminution de l'extension maximale de la banquise antarctique au mois de septembre.
    Ceci est contraire aux observations (ici, en vert) qui , comme nous l'avons vu, montrent une augmentation constante de cette extension.

    Il est vrai que les marges d'erreurs énormes qui affectent ces modélisations, ici représentées par les zones ombrées, permettent au GIEC d'affirmer que celles-ci sont "cohérentes" avec les observations. Il faudra peut-être attendre encore quelques années pour que ces modèles soient (enfin) déclarés inopérants par le GIEC, c'est à dire que la courbe expérimentale sorte des zones ombrées, si cela est possible.

  3. Modélisation de la température de la moyenne troposphère tropicale.

De manière un peu ironique, un de mes collègues (le physicien Howard Hayden) s'est amusé à superposer les affirmations successives des différents rapports du GIEC quant à leurs certitudes, sur un graphique de Roy Spencer et John Christy qui mettait en évidence les divergences modèles/observations pour la température prévue par les modèles et la température mesurée dans la moyenne troposphère tropicale. Il s'agit, comme chacun le sait, d'un point critique pour tester la validité des modèles climatiques. Voici ce graphique (en partie francisé) :

tropospencer

Les carrés/cercles bleus représentent les résultats des mesures in situ obtenues par une multitude de ballons sondes et de nombreux satellites.
Les courbes "bruitées" en trait fin représentent les résultats des calculs des 73 modèles en cours. Le gros trait noir représente la moyenne des résultats de ces modèles (si tant est que la "moyenne de modèles" ait une quelconque signification statistique).

La divergence croissante entre les prévisions/scénarios des modèles avec les observations est évidente. Là encore, les modèles surestiment - et de beaucoup - le réchauffement de la moyenne troposphère tropicale.

Les étiquettes rectangulaires indiquent les degrés de confiance revendiqués dans les rapports successifs du GIEC.

Comme on le voit, la "confiance" du GIEC dans ses prévisions/prédictions/scénarios s'accroît au fur et à mesure que les modèles s'écartent des observations.

Je rappelle les dates de la parution des rapports successifs du GIEC, indiqués sur le graphique par les flèches rouges.

FAR 1990, SAR 1995, TAR 2001,AR4 2007, AR5 2013.

 

 

Tant que les modélisations informatiques n'auront pas résolu leurs (graves) problèmes de divergence avec les observations, il est, sans doute, pour le moins prématuré d'anticiper l'avenir de la planète dans l'état actuel de nos connaissances et de mettre en place des mesures contraignantes qui peuvent s'avérer lourdes de conséquences.

Ainsi, dans l'état actuel des choses, nous ne voyons rien, ni dans les observations objectives ni dans les modèles manifestement pris en défaut qui puisse affecter le bien-être futur de nos enfants et de nos petits enfants (fréquemment invoqué dans les médias et jusques et y compris dans les déclarations politiques les plus officielles) qui, sans doute, dans quelques années, s'ils n'ont pas eux-mêmes sombré dans le pessimisme généralisé, s'interrogeront (ou s'amuseront), au sujet de l'étrange psychose collective qui s'est emparée d'une proportion notable des dirigeants et des communicants de notre planète en ce début du XXIe siècle.

Time will tell.

Stay Tuned !


 

16 Octobre 2014: "La science du climat n'est pas établie"...

C'est ce que déclare, en substance, un physicien renommé, Steve Koonin (ci-contre), dans une lettre ouverte publiée dans un journal US à grand tirage. Koonin a, entre autres, été récemment Sous-Secrétaire dkoonin'Etat à la Science et à l'Energie dans l'administration Obama. Il a dirigé une enquête approfondie sur la science du climat au nom de la Société de Physique Américaine (l'APS).

Ainsi, Steve Koonin rejoint la lignée des Lennart Bengtsson, Richard Tol, Daniel Botkin, Judith Curry, Garth Paltridge et bien d'autres, que l'on ne saurait qualifier de "climato-sceptiques" et qui ont, longtemps eux-mêmes, défendu, sinon participé à la rédaction des attendus et des conclusions des rapports successifs du GIEC mais qui ont, plus ou moins récemment, exprimé leur scepticisme quant aux certitudes affirmées par cet organisme de l'ONU.

Steve. E Koonin a publié un op-ed (ou une lettre ouverte) dans le Wall Street Journal du 19 Septembre 2014. Voici le fac-simile de l'en-tête de cet article accompagné de la traduction de cet en-tête..

 

 

 

WSJKoonin

La science du Climat n'est pas établie.
Nous sommes très loin de posséder les connaissances requises pour mener une bonne politique en matière de climat, écrit le scientifique éminent Steven E. Koonin.

Par STEVE KOONIN

En guise de préambule à la lecture de l'article de Koonin, il est sans doute utile de situer le contexte dans lequel intervient la publication de cette lettre ouverte.

1) La Société de Physique Américaine (l'American Physical Society) (APS) et Steve Koonin.

Petit aperçu historique sur les prises de positions de l'APS sur les affaires climatiques.
Note : Cette section, un peu spécialisée, explique l'historique des démarches qui ont conduit à la nomination de Steven Koonin à la présidence d'un groupe de l'APS chargé de mener une enquête sur l'état de la science climatique. Les lecteurs non intéressés pourront sauter directement à la traduction de la lettre ouverte de Koonin.

-En 2007, sans aucune consultation préalable auprès de ses quelques 50.000 membres, le bureau de l'APS a publié un communiqué dans lequel il exprimait son (celui du bureau) point de vue sur le "réchauffement climatique "(nommé ainsi à l'époque, à présent qualifié de "changement climatique") en déclarant notamment que la science climatique était "irréfutable".
S'ensuivit une longue liste de récriminations, de protestations voire de démissions bruyantes de la part de plusieurs piliers de la société comme j'ai eu l'occasion de vous relater au cours des dernières années. Ainsi :

-En Juillet 2008, j'avais été contraint (à regret, parce que je suis membre de l'APS depuis des décennies) d'attribuer un bonnet d'âne au bureau de l'APS pour ses réactions pour le moins incohérentes suite à la déclaration de Jeffrey J. Marque qui était alors l'éditeur des Newsletters de "Physics and Society" de l'APS. Compte tenu des désaccords au sein de l'APS dont il était un témoin privilégié, J. J. Marque avait décidé d'ouvrir un débat sur le réchauffement climatique dans les colonnes de son forum. Pour ouvrir ce débat et comme il est d'usage, Jeffrey Marque avait écrit un paragraphe d'introduction dont voici une traduction :

"Il existe une proportion considérable de gens, dans la communauté scientifique, qui sont en désaccord avec les conclusions du GIEC qui affirme que le CO2 anthropique est, très probablement, le principal responsable du réchauffement climatique qui s'est produit depuis la Révolution Industrielle. Comme la justesse ou la fausseté de cette conclusion a d'immenses implications pour l'action politique et l'avenir de notre biosphère, nous avons pensé qu'il était pertinent d'ouvrir un débat dans les pages de Physics and Society " (source).

Suite à des récriminations insistantes, le bureau de l'APS a décidé, en 2010, de publier un commentaire explicatif de la déclaration de 2007 tout en prenant du recul, notamment par rapport à une adjectif ("incontrovertible" soit "irréfutable") qui y figurait et auquel beaucoup ont reproché son caractère peu scientifique. En effet, très peu de choses, s'il en existe, sont "irréfutables" en matière de science.

-En 2012, quelques corrections mineures ont été apportées à ce commentaire. A noter que le commentaire publié en 2010 avait été précédé d'une consultation des membres de l'APS sous la forme d'un questionnaire succinct. A ma connaissance, les résultats et l'analyse des résultats de ce sondage n'ont pas été publiés mais il est clairement apparent, comme le montre la lecture des différents documents dans l'ordre chronologique que la déclaration (péremptoire) de 2007 a été sérieusement remise en cause et que l'évolution des déclarations a été clairement dans le sens de la prudence. On peut penser que le sondage mis en place par l'APS dans le courant de l'année 2010 faisait ressortir une forte demande allant dans ce sens, dont les responsables ont dû tenir compte.

-En 2013, Le POPA de l'APS, c'est à dire le Comité Chargé des Affaires Publiques de l'APS, a décidé de mettre sur pied un groupe d'enquête (nommé "The American Physical Society’s (APS) Climate Change Statement Review (CCSR)") sur les fondements de la science du climat, c'est à dire sur les connaissances qui relèvent essentiellement de la physique et donc du groupe I du GIEC. Le but déclaré de ce groupe d'enquête vise à réviser (si nécessaire) la très contestée prise de position officielle de l'APS, énoncée sans consultation des membres en 2007. Le groupe d'enquête - le CCSR - mandaté par l'APS comprenait les personnalités suivantes : Steven Koonin (président), Phillip Coyle, Scott Kemp, Tim Meyer, Robert Rosner et Susan Seestrom.
L'ordre de la mission pris en charge par ce groupe d'enquête est disponible en ligne. Il s'agissait, principalement, d'organiser une séance de travail à laquelle étaient invités un certain nombre de climatologues reconnus afin de faire le point sur l'état des connaissances en matière de sciences fondamentales du climat, dans le but d'éclairer le POPA et le bureau de l'APS dans leur prise de position officielle sur le "changement climatique". Les participants invités se sont vus proposer un cadre de discussion sous la forme d'un questionnaire (lui aussi disponible sur le site de l'APS). Ce document de 14 pages regroupe, de manière pertinente (de l'avis de Judith Curry et du mien), un grand nombre de questions qui ont été souvent évoquées sur ce site. La lecture de ce questionnaire donne un aperçu significatif sur le niveau approfondi des connaissance de ses rédacteurs physiciens.

Les bios des experts qui ont participé à la séance de travail organisé par l'APS sont également disponibles sur le site de l'APS. La transcription complète de la séance de travail (AMERICAN PHYSICAL SOCIETY CLIMATE CHANGE STATEMENT REVIEW WORKSHOP) tenue sous l'égide de l'APS et sous la direction de S. Koonin est disponible (pdf, 573 pages) sur le site de l'APS.

Un CV abrégé de
Steven Koonin est disponible sur le site de l'American Institute of Physics. La page qui le concerne sur le site du Département de l'Energie US (DOE) donne plus de détails. Entre autres fonctions, Steven Koonin a été professeur de physique théorique au Caltech pendant près de 20 ans. A noter que Steven Koonin a la réputation de ne pas hésiter à dire ce qu'il pense. Il s'est notamment illustré, en 1989, lors d'une sévère dénonciation de la célèbre "fusion froide" de Pons and Fleischmann.

2) La lettre ouverte de Steve Koonin dans le Wall Street Journal

Je donne ci-dessous une traduction intégrale* de l'article de Koonin publié dans le WSJ. Ceux qui voudront savoir d'où Steven Koonin tire un certain nombre de ses affirmations peuvent lire sa version initiale qui inclut les références des sources que le journal n'a pas repris mais qui figurent dans son article original. A noter que nombre de ses affirmations font référence au contenu du dernier rapport (scientifique, complet) AR5 du GIEC.
Les caractères engraissés ci-dessous le sont par l'auteur de PU. Ils ne le sont pas dans l'article original du WSJ.

"L'idée selon laquelle la "Science du Climat est établie" a envahi les discussions populaires et politiques actuelles. Malheureusement, cette affirmation est trompeuse. Elle n'a servi qu'à dénaturer les débats publics et politiques au sujet des questions relatives à l'énergie, aux émissions de gaz à effet de serre et à l'environnement. Elle a aussi réduit à néant les discussions scientifiques et politiques que nous devons avoir au sujet du climat du futur.

Ma formation de base comme physicien spécialiste en modélisation numérique - avec une carrière de 40 années passées dans la recherche scientifique, dans le conseil et la gestion dans des départements gouvernementaux, dans des activités académiques ou dans le secteur privé - m'ont permis d'acquérir une perspective détaillée et une vue générale de la science climatique. Une série de discussions approfondies, durant l'année écoulée, avec des climatologues éminents (NdT: Koonin fait ici clairement allusion à l'enquête dont il a la charge pour l'American Physical Society) m'ont apporté une perception encore meilleure sur ce que nous savons et sur ce que nous ne savons pas au sujet du climat. J'en suis arrivé au point de porter une appréciation sur le redoutable défi posé lorsqu'il s'agit de répondre aux questions qui intéressent les décideurs politiques et le public.

La question scientifique cruciale pour la politique n'est pas de savoir si le climat change ou non. C'est une affaire avérée. Le climat a toujours changé et le fera toujours. Les bases de données historiques et géologiques montre l'occurrence de changements climatiques majeurs, parfois sur des durées aussi brèves que quelques décennies. Nous savons, par exemple, que, durant le XXe siècle, la température moyenne de la surface de la Terre a augmenté de 1,4 degré Fahrenheit.(NdT : environ 0,8°C)

Il ne s'agit pas non plus de répondre à la question fondamentale de savoir si les humains influent sur le climat. Ce n'est pas un canular. Il y a peu de doute dans les communautés scientifiques que l'augmentation continuelle des gaz à effet de serre dans l'atmosphère, ceci étant grandement dû aux émission de dioxyde de carbone résultant de l'usage conventionnel des carburants fossiles, influe sur le climat. Il y a aussi peu de doute que le dioxyde de carbone persistera dans l'atmosphère pendant plusieurs siècles. De nos jours, l'impact de l'activité humaine semble être comparable à la variabilité intrinsèque naturelle du système climatique lui-même.

En revanche, la question cruciale et non résolue pour la politique est la suivante : "Comment le climat va-t-il évoluer du fait des influences naturelles et anthropiques au cours du prochain siècle ?". Les réponses à cette question aussi bien au niveau régional que global, tout comme à des questions aussi difficiles concernant les conséquences sur les écosystèmes et sur les activités humaines, devraient nous aider à déterminer nos choix en matière d'énergie et d'infrastructures.

Mais -là est le noeud du problème - ces questions sont les plus difficiles à résoudre. Elles représentent un défi fondamental pour ce que la science peut nous dire au sujet des climats du futur.

Même si les influences anthropiques pouvaient avoir des conséquences sérieuses pour le climat, elle sont physiquement minimes par rapport au système climatique pris dans son ensemble. Par exemple, vers le milieu du XXIe siècle, on s'attend à ce que les contributions humaines au dioxyde de carbone présent dans l'atmosphère fassent directement évoluer l'effet de serre naturel de seulement 1 ou 2%. (NdT : Pour cette observation, Koonin donne les références AR5 WG1 Figure 2.11 et AR5 Figure SPM 4.). Du fait que le système climatique est, par lui-même, hautement variable, la petitesse de cette fraction revient à placer très haut la barre qu'il faut atteindre pour donner confiance dans les projections des conséquences des influences humaines.

Un second défi auquel est confrontée notre "connaissance" du climat du futur réside dans notre piètre compréhension des océans. Les océans qui évoluent pendant des décennies et des siècles renferment l'essentiel de la chaleur du climat et influent fortement sur l'atmosphère. Malheureusement, des observations complètes et précises sur les océans ne sont disponibles que depuis les dernières décennies ; Ainsi, les bases de données fiables sont encore beaucoup trop limitées pour pouvoir comprendre, de manière satisfaisante, comment les océans vont évoluer et comment cela va affecter le climat.

Un troisième défi fondamental relève des rétroactions qui sont capables d'amplifier fortement ou d'anihiler la réponse du climat aux influences humaines ou naturelles. Une rétroaction importante dont on pense qu'elle multiplierait pas deux l'effet direct du dioxyde de carbone provient de la vapeur d'eau, des nuages et de la température.
Mais les rétroactions sont incertaines. Elle dépendent de détails des processus tels que l'évaporation et le flux radiatif à travers les nuages. Elles ne peuvent pas être déterminées avec certitude à partir des lois fondamentales de la physique et de la chimie, de telle manière qu'elles doivent être testées par des observations précises et détaillées qui, dans de nombreux cas, ne sont pas encore disponibles.

Au delà des défis posés par les observations, il y a ceux qui sont posés par les modélisations informatiques complexes qui sont utilisées pour prédire le climat du futur. Ces gros programmes tentent de décrire la dynamique et les interactions des diverses composantes du système climatique - l'atmosphère, les océans, les continents, les glaces ainsi que la biosphère des être vivants. Alors que quelques éléments des modèles reposent sur des lois physiques bien testées, d'autres parties impliquent des estimations qui résultent d'informations imposées par des considérations techniques. La modélisation informatique des systèmes complexes est autant un art qu'une activité scientifique.

A titre d'exemple, les modèles du climat du globe décrivent la Terre sur une grille qui est actuellement limitée par les capacités des ordinateurs à une résolution qui n'est pas meilleure que 60 miles (Ndt : environ 100 km) (La distance du centre de New York à Washington DC est ainsi représentée par 4 cellules de grille). Mais des processus tels que la formation des nuages, les turbulences et la pluie, tous apparaissent sur des échelles beaucoup plus petites. Ainsi, ces processus déterminants n'apparaissent dans les modèles que sous la forme de paramètres ajustables qui spécifient, par exemple, comment la couverture nuageuse moyenne dépend de la température moyenne et de l'humidité sur une case de la grille. Dans un modèle donné, il y a ainsi des douzaines de telles suppositions qui doivent être ajustées ("tunées" dit-on dans le jargon des modélisateurs) afin de reproduire à la fois les observations actuelles et des données historiques mal connues.

Nous entendons souvent dire qu'il existe un "consensus scientifique" au sujet du changement climatique. Mais, pour ce qui est des modélisations informatiques, il n'existe pas de consensus utile au niveau des détails qui seraient pertinents pour nous assurer de l'influence de l'activité humaine. Depuis 1990, le Groupe Intergouvernemental pour l'Etude du Climat de l'ONU (Le GIEC) a mis en place une révision périodique de l'état de la science climatique. Chaque rapport successif émis par cette organisme, avec la contribution de milliers de scientifiques du monde entier, en est arrivé à être perçu comme représentant l'état de l'art en matière de science climatique au moment de sa parution.

Pour ce qui est du dernier rapport du GIEC (Septembre 2013), son Groupe de Travail N°1 qui se consacre aux sciences physiques, utilise une collection de quelques 55 modèles différents. Bien que la plupart de ces modèles soient ajustés pour reproduire les grandes caractéristiques du climat de la Terre, les différences marquées dans leurs détails et dans les projections, mettent en évidence toutes les limitations dont je viens de parler.

Par exemple :

Les modèles diffèrent dans leurs description de la température moyenne de la surface du globe durant le dernier siècle par un facteur supérieur à 3 pour le réchauffement total enregistré durant cette période. De tels désaccords sont aussi présents dans de nombreux autres paramètres fondamentaux du climat, y compris pour ce qui est de la pluviométrie qui est déterminante pour l'équilibre énergétique de l'atmosphère. Il en résulte que ces modèles conduisent à une très grande dispersion des descriptions du fonctionnement interne du climat. Du fait que les modèles sont si largement en désaccord, il n'y en a guère plus d'un seul qui puisse être correct.

Bien que la température moyenne de la surface de la Terre ait augmenté rapidement de 0,9 degrés Fahrenheit ( NdT : environ 0,5°C) pendant le dernier quart du XXe siècle, celle-ci a augmenté beaucoup plus lentement durant les 16 dernières années alors que la contribution de l'humanité au dioxyde de carbone de l'atmosphère a augmenté de quelques 25%. Ce fait surprenant démontre, à l'évidence, que les influences naturelles et la variabilité sont suffisamment puissantes pour contrebalancer le réchauffement actuel résultant de l'activité humaine.

De fait, il est bien connu que les modèles ont échoué à représenter ce ralentissement de la montée de la température. On a avancé plusieurs douzaines d'explications différentes pour expliquer cet échec, la variabilité océanique étant sans doute un acteur de premier plan. Mais, dans l'ensemble, cet épisode persiste à mettre en lumière les limites de nos modélisations.

Les modèles donnent une description approximative de la diminution de la surface de la banquise arctique observée durant les deux dernières décennies mais ils échouent à décrire une augmentation comparable de la banquise antarctique qui se trouve maintenant avoir atteint des records d'extension.

Les modèles prédisent que la basse atmosphère au dessus des tropiques absorbera une grande partie de la chaleur correspondant au réchauffement de l'atmosphère. Mais ce "hotspot" n'a pas été observé de manière crédible ce qui jette un doute sur notre compréhension de la rétroaction déterminante de la vapeur d'eau sur la température.

Même si l'influence humaine était beaucoup plus faible dans le passé, les modèles ne rendent pas compte du fait qu'il y a 70 ans, le taux de montée global des océans était aussi important que celui que nous observons de nos jours - environ un pied par siècle.

Un test crucial de nos connaissances en matière de rétroactions est la sensibilité climatique - c'est à dire le réchauffement induit par un doublement hypothétique de la concentration en dioxyde de carbone. La meilleure estimation actuelle de la sensibilité (entre 2,7 degré Fahrenheit et 8,1 degré Fahrenheit) (NdT : respectivement environ 1,6°C et 4,5°C) n'est ni différente ni plus assurée qu'elle ne l'était il y a trente ans. Et ceci en dépit des efforts titanesques en recherche qui ont coûté des milliards de dollars.

Ces questions, et beaucoup d'autres demeurées ouvertes, sont, en fait, mentionnées dans les rapports scientifiques complets du GIEC bien qu'une lecture attentive et informée soit quelquefois indispensable pour parvenir à les dénicher. Il ne s'agit pas là de "problèmes mineurs" qui devraient être "éclaircis" par les recherches à venir. Il s'agit bien là de déficiences qui érodent la confiance dans les projections des modèles numériques. Les efforts pour venir à bout de ces problèmes devraient figurer parmi les premières priorités de la recherche climatique.

En revanche , une lecture par les organes officiels et par le public du seul "Résumé Pour les Décideurs" (SPM) du GIEC ne permettrait pas d'avoir une bonne perception des implications de ces déficiences. Il s'agit de défis fondamentaux à l'encontre de notre compréhension des impacts humains sur le climat et ils ne devraient pas être dissimulés au nom du mantra "la science du climat est établie".

Alors que les deux décennies écoulées ont vu des progrès en science climatique, ce domaine de recherche n'est pas encore assez mûr pour répondre aux questions difficiles et importantes qui sont posées. L'état de la question, manifestement immature, met en lumière ce qui devrait être évident : la compréhension du climat, au niveau requis pour déterminer l'importance de l'influence humaine, est un problème vraiment très très difficile.

Dans l'avenir, nous pouvons et nous devrions prendre les mesures afin de rendre les projections du climat plus utiles. Un effort international pour mettre en place un système global d'observation du climat générerait une collection de données d'observation plus précise, s'enrichissant sans cesse à mesure que le temps passe. De même, des calculateurs de puissance croissante peuvent permettre de parvenir à une meilleure compréhension des incertitudes inhérentes aux modèles. On pourra utiliser des pas de grilles plus fins incluant des descriptions plus sophistiquées des processus qui y prennent corps. Il est urgent de faire des progrès dans cette science car nous pourrions être pris au dépourvu si notre compréhension ne s'améliore pas aussi rapidement que le changement climatique lui-même n'évolue.

Une transparence rigoureuse serait aussi un progrès souhaitable, tout particulièrement du fait de l'importance de la politique et des décisions qui sont en jeu. Ceci pourrait être mis en place par des analyses périodiques et indépendantes de la part d'une "équipe rouge" (NdT : La mise en place de "red teams", d'"équipes rouges" est une pratique courante aux USA. Elle permet d'informer les décideurs en leur apportant des points de vue alternatifs sur une variété de question délicates. Cette idée a déjà été suggérée à plusieurs reprises par les "climatosceptiques"... sans aucun résultat.) qui mettent à l'épreuve et discutent les projections en se focalisant sur leurs déficiences et sur leurs incertitudes ; ce serait certainement la meilleure chose à faire pour ce qui est de la méthode scientifique. Mais du fait que le climat change de manière naturelle sur des décennies, il faudra encore de nombreuses années pour obtenir les données nécessaires pour isoler, de manière crédible, et pour quantifier les effets de l'influence humaine.

Les décideurs et le public souhaiteraient sans doute vivre dans le confort que procurent les certitudes dans la science climatique. Mais je redoute que la promulgation intransigeante de l'idée que la science "est comprise" (ou est un "canular") n'obère et ne fige les efforts scientifiques retardant ainsi les progrès dans ces questions importantes. L'incertitude est un des premiers moteurs et une des premières motivations de la science et elle doit être confrontée frontalement. Elle ne doit pas être confinée à des conversations feutrées dans des apartés lors des conférences académiques.

Les choix sociétaux, dans les prochaines années, reposeront nécessairement sur des connaissances incertaines sur les climats du futur. Cette incertitude ne doit pas nécessairement être une excuse pour l'inaction. Il y a une prudence bien justifiée pour accélérer notre développement dans les technologies à basses émissions (NdT : Koonin a dirigé un groupe sur les énergies renouvelables chez BP) et pour prendre des mesures à la fois économiques et efficaces du point de vue énergétique.

Mais les stratégies vis à vis du climat, au delà des efforts "sans regrets", impliquent des coûts, des risques et des questions d'efficacité de telle manière que des facteurs non scientifiques rentrent en ligne de compte pour les décisions. Elles mettent en jeu notre degré de tolérance vis à vis des risques ainsi que les priorités que nous attribuons au développement économique, à la réduction de la pauvreté, à la qualité de l'environnement et à l'équité intergénérationnelle et géographique.

Des individus et des pays peuvent légitimement être en désaccord sur ces questions, de telle manière que la discussion ne devrait pas porter sur la "croyance" ou sur la "négation" de la science. En dépit des affirmations de la part de nombreuses sociétés scientifiques, la communauté scientifique ne peut prétendre à aucune expertise particulière en ce qui concerne les objectifs et les valeurs les plus profondes de l'humanité. Ce sont les sphères politiques et diplomatiques qui sont le mieux adaptées pour ce débat et pour la solution de ces questions. Les distorsions dans la présentation de l'état actuel de la science du climat ne sont d'aucune utilité pour la progression de ces efforts.

Toute discussion sérieuse au sujet du changement climatique doit commencer par la reconnaissance non seulement des certitudes mais aussi des incertitudes, tout particulièrement s'agissant des projections du futur. La reconnaissance de ces limites, plutôt que leur ignorance, conduira à une discussion plus sobre et, en définitive, plus productive sur le changement climatique et les politiques qui lui sont associées. Agir différemment rend un très mauvais service à la climatologie elle-même.

Le Dr. Koonin a été sous-secrétaire d'Etat pour la Science et le Département de l'Energie durant le premier mandat du Président Obama. il est actuellement directeur du "Center for Urban Science and Progress" à l'Université de New-York. Dans le passé, il a été professeur de physique théorique et recteur au Caltech ainsi que directeur scientifique de BP où son travail était consacré aux énergies renouvelables et aux énergies à bas carbone."


*Skyfall.fr en a publié une autre traduction sur son site.

3) Quelques réactions

Comme on s'en doute, compte tenu du parcours remarquable de Steve Koonin, de sa notoriété et des fonctions importantes qu'il a exercées au sein de l'administration Obama, la publication de cette sorte de "coming out" dans le Wall Street Journal a généré un buzz important dans la presse anglophone. A l'heure où j'écris ces lignes, le nombre des commentaires qui font suite à l'article de Koonin sur le WSJ s'élève à 2938 (!).
Bien que
Koonin ne remette pas en cause les fondamentaux de la doxa en vigueur en se retranchant, pour ce faire, derrière le "consensus" scientifique, son article constitue une très sérieuse remise en question des affirmations des supporters du GIEC, des politiques et de la totalité des médias (francophones). Comme on s'y attend et compte tenu des enjeux, cette lettre ouverte (cet op-ed) a suscité des réponses peu amènes de la part des ténors et des promoteurs bien connus de "la science du GIEC" (tels Pierrehumbert et Ben Santer-Thomas Stocker, entre autres).

Pourtant, Koonin se contente de pointer quelques-unes des divergences modèles/observations (visibles par tous et mentionnées maintes fois dans ce site au cours des années passées) et de conclure, comme le ferait (ou le fera), sans doute, tout physicien indépendant qui se serait donné la peine de se pencher attentivement sur cette question, que la science sur cette affaire est très loin d'être conclusive.
Ceci ne devrait pas surprendre car comme on le sait, la physique est fille des mathématiques. A ce titre, elle place très haut la barre de la rigueur en matière de sciences et s'accomode mal des hypothèses plus ou moins hasardeuses ou invérifiées.

La revue Physicstoday (publiée par l'American Institute of Physics), très populaire chez les physiciens et dont on connaît la ligne éditoriale conforme à la doxa en vigueur, n'a, semble-t-il, pas pu éviter (ce qui lui est d'ailleurs reproché par quelques commentateurs) de rapporter sur cette lettre ouverte de Steven Koonin.

C'est ainsi que l'un de ses éditeurs, Steven Corneliussen, reprend des extraits des déclarations de Steven Koonin, avec un titre et un sous-titre qui ont manifestement provoqué la colère des promoteurs de "la cause". Ce à quoi Corneliussen a répondu qu'il n'a fait que son devoir de journaliste scientifique.
Voici le fac-simile de l'en-tête de cet article accompagné de sa traduction :

physicstoday

Le physicien Steve Koonin remet en cause (ou discrédite) le consensus des climatologues.

Dans un long commentaire publié dans le Wall Street Journal, le vétéran leader en technoscience déclare que la science n'est pas avérée.
Par Steven T. Corneliussen, Septembre 2014."

Ainsi et compte tenu de la notoriété de Physicstoday dans le petit monde de la physique internationale, on peut penser que la grande majorité des physiciens sont désormais informés des prises de position de Steve Koonin.

4) Le rétropédalage continue : La sensibilité climatique au CO2 s'amenuise au point de jeter un grand doute sur la nécessité ou l'urgence affirmée des politiques entreprises par différents pays (comme, en premier chef, la France)..

Comme je vous l'ai dit, on constate qu'un nombre croissant de scientifiques consciencieux qui s'attachent notamment à comparer les prévisions/projections/scénarios des modèles climatiques en vigueur avec les observations factuelles et qui constatent des divergences croissantes et multiples, entre les modèles et les faits, prennent actuellement du recul par rapport à la doxa en vigueur. curry3

 

Peu après la publication de l'article de Koonin, Le Wall Street Journal a demandé un "op-ed" à Judith Curry suite à la publication de son dernier article dans le "Climate Dynamics " dans lequel, avec Nicholas Lewis et à partir des observations objectives, les auteurs montrent que la sensibilité du climat aux ajouts de CO2 est bien moindre que celle qui est rapportée dans les rapports successifs du GIEC.

 


Voici le fac-simile de l'en-tête de l'article de Judith Curry dans le WSJ accompagné de sa traduction.

WSJcurry

La fonte statistique du réchauffement climatique
Des évidences croissantes suggèrent que les hypothèses de base du changement climatique sont fausses : Le compte n'y est pas.

Par JUDITH CURRY
"Lors du dernier sommet des Nations Unies sur le climat, le Secrétaire Général Ban Ki-Moon, a averti qu'"En l'absence de diminutions significatives des émissions par tous les pays et dans les secteurs clefs, la fenêtre d'opportunité qui permettrait de confiner le réchauffement à moins de deux degrés, va bientôt définitivement se refermer". En réalité, cette fenêtre d'opportunité pourrait rester encore ouverte pendant un bon moment. Un nombre croissant d'éléments de preuve suggère que le climat est moins sensible aux émissions de dioxyde de carbone que ne le supposent, en général, les politiques - et que la nécessité de réduire ces émissions est moins urgente."


Le texte complet de cet article de Judith Curry dans le WSJ était, pendant un temps, réservé aux abonnés de ce journal. Judith Curry en propose une version complète sur son blog Climate Etc.

5) Perspectives

De manière générale et à la lecture de la littérature qui paraît, à jet continu, sur ces sujets, on observe actuellement une augmentation du nombre des désaccords, voire de défections par rapport à la ligne du GIEC. Du strict point de vue scientifique, on constate également l'intervention de plus en plus fréquente, jusqu'à devenir quasi omniprésente, de la mention à la variabilité naturelle intrinsèque désormais souvent estimée être d'une amplitude (au moins) équivalente aux effets anthropiques, comme le rappelle Koonin. C'était loin d'être le cas, il y a quelques années, ou la variabilité naturelle n'était quasiment jamais mentionnée. Il est clair qu'il s'agit là d'une tendance lourde qu'il convient de suivre avec attention.
Comme je l'ai souvent noté dans les lignes de ce site, on revient ainsi, peu à peu, à ce qui aurait dû, dès le début, être la démarche scientifique normale : il faut expliquer les mécanismes de la variabilité naturelle du climat avant de tenter de discerner une éventuelle influence humaine.

La question qui reste posée est de savoir quel sera le délai nécessaire pour que cette évolution importante de la tendance de la recherche scientifique dans ce domaine parvienne aux oreilles de nos médias et de nos politiques, notamment (mais pas seulement) francophones. Comme nous avons eu l'occasion de l'apprendre, dans le passé et parfois à nos dépens, l'inertie du système politico-médiatique peut être excessivement grande.

Enfin, la lettre ouverte de Koonin pourrait indiquer un possible infléchissement des prises de position de l'APS par rapport au statu quo ante, ce qui constituerait une grande première dans le microcosme des grandes sociétés savantes.

Car il faut savoir que les universités et autres centres de recherche financés par l'argent public bénéficient grandement des subsides gouvernementaux attribués à ces recherches sur le climat, par le biais de l'"overhead" (c'est le mot qui est aussi fréquemment utilisé dans les universités françaises).
L'"overhead" (i.e. le prélèvement pour les frais généraux) qui peut se monter à quelques 60% (aux USA mais nettement moins en France) des contrats de recherche obtenus par les chercheurs, tombe dans l'escarcelle des universités. Ainsi, il est évident qu'il n'est pas dans l'intérêt bien compris des responsables des universités de s'opposer à la doxa gouvernementale en vigueur. Or, le plus souvent, ce sont ces mêmes responsables qui constituent le gros des dirigeants des sociétés savantes comme l'APS.
Ainsi peut-on comprendre qu'il faudrait vraiment beaucoup de vertu aux responsables de l'APS pour qu'ils emboîtent le pas de Steven Koonin et des autres contestataires physiciens. On ne tue pas facilement la poule aux oeufs d'or quand on gère le budget d'une université mais, en revanche, il serait suicidaire d'engager une société savante comme l'APS dans une voie sans issue contredite par les faits et les observations scientifiques.

Cruel dilemme !
A mon avis, compte tenu des incertitudes, il est assez probable que le bureau de l'APS choisira une voie nettement plus neutre que par le passé : la voie de la prudence. Et il est fort possible, également, que d'autres sociétes savantes suivront cet exemple.

Nous verrons...

Stay tuned !

 

14 Septembre 2014 : Les dessous du GIEC vus par ses experts. D'autres scientifiques subissent foudre et censure de la part de leurs collègues.

Ce billet comporte trois parties distinctes. D'une part, il rapporte les propos tenus notamment devant les élus US par plusieurs scientifiques éminents et participants actifs au GIEC qui ont brisé l'omerta et ont parlé ouvertement et en termes particulièrement critiques du contenu des rapports et du processus interne au GIEC.
Par ailleurs, peut-être motivés par "
l'affaire Bengtsson" que je vous ai relatée dans mon précédent billet, d'autres chercheurs se sont récemment élevés contre les comportements autoritaires (c'est un euphémisme) de la communauté des climatologues.
Enfin, et cela va dans le bon sens, la revue Science se pose (enfin) de bonnes questions au sujet de l'engloutissement supposé programmé des îles coralliennes...

A la différence de la plupart des démocraties francophones qui n'invitent que très rarement, un ou deux scientifiques (toujours les mêmes et de préférence de l'establishment) à exposer les résultats des travaux qui pourraient avoir des conséquences politiques, les élus des démocraties anglophones et tout particulièrement des USA et du Royaume Uni, organisent fréquemment des sessions d'information sur une grande diversité de sujets scientifiques ou techniques auxquels ils invitent à témoigner un grand nombre de scientifiques présentant divers points de vue et reconnus pour leur expertise.
C'est dans ce cadre que le "Comité pour la Science, l'Espace et la Technologie" de la Chambre des Représentants US a organisé, le 29 Mai dernier, une session plénière d'information dite " Full Committee Hearing - Examining the UN Intergovernmental Panel on Climate Change Process", c'est à dire une réunion d'information pour examiner le fonctionnement et le processus du GIEC. Lors de cette session, quatre scientifiques étaient invités (Tol, Oppenheimer, Botkin et Pielke Sr).

Dans la suite, je donne des traductions de différents articles/déclarations de deux de ces scientifiques (Tol et Botkin) en respectant l'enrichissement (caractères majuscules, engraissés, en italique etc.) typographique telle qu'il figure dans leurs différents témoignages écrits. Le texte complet (en anglais) des quatre témoignages rédigés par les auteurs est disponible sur le site du Comité de la Chambre US.

1) Les rapports du GIEC (groupes II et III) : Beaucoup de biais, de contre-vérités et un fonctionnement problématique voire inquiétant.

A) Richard Tol tol1

Richard Tol (photo ci-contre) se présente ainsi :

"Je m'appelle Richard Tol. Je suis professeur d'économie à l'Université du Sussex et Vrije Universiteit Amsterdam. Je suis un chercheur associé au Tinbergen Institute et CESifo. Je suis classé parmi les Top 100 économistes au monde par IDEAS/RePEc1 et je figure parmi les 25 climatologues les plus cités selon Google Scholar. Je suis éditeur de Energy Economics qui est un des meilleurs journaux du domaine [...] J'ai participé au GIEC depuis 1994 où j'ai rempli différentes fonctions dans les trois groupes de travail. Plus récemment, j'ai été l'auteur principal-animateur du chapitre sur l'économie du groupe de travail II."

Autant dire que Richard Tol est un des pivots du GIEC. Son témoignage est notamment disponible sur ce site (en anglais). On y trouvera les nombreuses citations, mentionnées par Tol dans sa déposition originale à l'appui de ses affirmations.

Notamment, Richard Tol a refusé de co-signer le Résumé pour les Décideurs de l'AR5 du GIEC qu'il jugeait trop alarmiste.

Il s'en explique de cette manière :

"Ce biais alarmiste m'a poussé à retirer mon nom du Résumé Pour les Décideurs (NdT le SPM) en Septembre 2013. Mes points de vue sur les impacts du changement climatique sont bien connus. J'appréciais le premier brouillon du Résumé dont l'un des points clefs était que les pires impacts du changement climatique étaient des symptômes d'une mauvaise gestion et du sous-développement. Il n'était tout simplement pas crédible que je signe la version finale du Résumé avec son exagération des risques. Malheureusement, les nouvelles annonçant mon retrait ont fait la une des médias en Mars 2014, procurant ainsi une excuse à la presse pour se focaliser sur les gens impliqués plutôt que sur les déficits structuraux du GIEC."

Au cours de sa déposition devant les Représentants US, Richard Tol donne quelques explications supplémentaires,

"Les chercheurs qui, poussés par la curiosité, poursuivent leurs travaux sur le changement climatique mais qui trouvent des choses moins alarmantes, sont ignorés. A moins qu'ils ne deviennent célèbres et, dans ce cas, ils sont harcelés et discrédités. Le harcèlement dont a fait l'objet Lennart Bengtsson en est un exemple récent. Bengtsson est un monsieur sympathique de 79 ans. Il a remporté de nombreux prix au cours d'une longue et éminente carrière en météorologie et en climatologie. Il a récemment rejoint une association (NdT en anglais "Charity" : i.e. association sans but lucratif) et s'est vu contraint de démissionner deux semaines plus tard. En tant que conseiller il n'a jamais été responsable de quoi que ce soit qu'ait fait cette association et a fortiori de ce qui s'est passé avant qu'il n'y adhère. Pour cela, il a été insulté par ses pairs. Un professeur de l'Université du Texas A&M a même suggéré qu'il était sénile. Bizarrement, la "communauté" climatique n'a pas ouvert la bouche quand l'un des leurs a été élu au Parti Vert. Elle n'a pas non plus protesté contre les liens étroits qui existent entre les auteurs du GIEC avec le Fonds de Défense de l'Environnement, avec les Amis de la Terre, Greenpeace ou le World Wildlife Fund for Nature (NdT : le WWF). D'autres météorologues éminents qui ont reçu le même traitement que Bengtsson étaient – Curry, Lindzen, Pielke Sr., Pielke Jr qui ont été également maltraités, simplement pour être restés fidèles à la littérature scientifique, telle qu'elle est compilée par le GIEC - qu'il n'y a pas d'évidence statistique que les impacts des désastres naturels aient augmenté du fait du changement climatique. J'ai eu, moi aussi, droit à ma part d'insultes. L'équipe de direction de la London School of Economics ainsi que le Guardian, maintenant et fréquemment, répandent des mensonges à mon sujet et au sujet de mon travail.

[...]

Ce biais de sélection (Ndt : le "cherry-picking") est évident dans le cinquième rapport (AR5) du groupe II. Le Résumé pour les Décideurs (SPM) évoque les rendements des récoltes, mais omet le plus important de tout - l'évolution des technologies - qui a fait progresser les rendements de l'agriculture, depuis des temps immémoriaux. Ainsi, il montre les impacts du changement climatique sur l'agriculture en supposant que les agriculteurs n'ajusteront pas leurs pratiques au gré des circonstances - Les impacts beaucoup moins dramatiques, après adaptation, sont dissimulés au sein du rapport principal. Il montre que les pays les plus vulnérables devraient payer quelques 10% de leur revenu annuel pour la protection des côtes mais omet de dire qu'un pays moyen paierait moins de un dixième de 1% - de nouveau le chiffre le plus bas, le plus pertinent, est enterré dans le rapport. Il insiste sur les effets sur la santé du fait du stress dû à la chaleur mais minimise les impacts sur la santé du stress dû au froid - bien que ce dernier chiffre soit probablement numériquement plus important.

[...]

Les premiers articles au sujet de la hausse du niveau des océans, au sujet de l'agriculture, de la santé, des courants océaniques et des calottes glaciaires étaient carrément en contradiction avec les articles plus récents qui sont beaucoup mieux documentés. Mais le GIEC a choisi de ne pas attendre ces articles ultérieurs.

[...]

...Je pense que ces contretemps reflètent le biais des auteurs. Il s'ensuit que le GIEC devrait analyser les orientations de ces auteurs ainsi que leurs performances en recherche et devrait s'assurer que, dans le futur, ils seront plus représentatifs de leurs pairs.

[...]

Un rapport, peu fréquemment publié, devrait faire un grand boum - et une équipe ambitieuse sera portée à faire un plus gros boum que la fois précédente. C'est pire que nous le pensions. Nous allons tous mourir et la mort sera encore plus horrible que nous le pensions il y a 6 ans. Le lancement d'un gros rapport, d'un seul trait, implique aussi que les auteurs vont rentrer en compétition pour que leur chapitre soit le plus terrifiant."

Richard Tol ouvre quelques pistes pour remédier au défauts structurels du GIEC. Entre autres, une restructuration complète du GIEC qu'il faut impérativement et définitivement mettre à l'abri des influences politiques. De ce point de vue, il est plus optimiste que la climatologue Judy Curry qui estime que les problème du GIEC sont irrémédiables.

"Ce sont les gouvernements qui nomment les chercheurs pour le GIEC - mais nous devons clairement dire que ce sont souvent les agences environnementales qui gèrent les nominations. Les pays utilisent différentes méthodes mais il est rare qu'une agence gouvernementale avec des objectifs purement scientifiques prenne le dessus pour ce qui concerne les affaires avec le GIEC. Il en résulte que certains chercheurs sont promus au dépens de leurs collègues plus qualifiés. D'autres personnels compétents sont exclus parce que leurs points de vue ne cadrent pas avec ceux de leurs gouvernements. Certains auteurs n'ont pas les qualifications adéquates ni les degrés d'expertise nécessaires mais sont nommés uniquement sur la base de leur tissu relationnel.

[...]

Tous les auteurs du GIEC ne sont pas nés égaux. Certains occupent des positions de pouvoir dans des chapitres clefs, d'autres occupent des positions subalternes dans des chapitres sans conséquences. Dans le passé, le GIEC a été expert dans l'art de mettre certains auteurs dérangeants dans des situations où ils ne pouvaient pas nuire à la cause.

Ceci doit cesser.

[...]

(NdT : Dans la conclusion )

Ce qu'il nous faut c'est une organisation qui n'est soumise à aucun gouvernement ou à aucun parti afin d'ancrer la politique climatique dans la réalité telle que nous la comprenons. "

Ces constats nous rappellent, presque mot pour mot, ceux qui avaient été énoncés, il y a 9 ans, par un spécialiste mondial des maladies transmises par les insectes, le Professeur Paul Reiter de l'Institut Pasteur, lequel, outré par ces pratiques délétères, avait démissionné du GIEC (Voir ce billet de 2010). Reiter témoignait ainsi devant la chambre des Lords UK dès 2005 :

"A mon avis, le GIEC a rendu un mauvais service à la société en se reposant sur des "experts" qui ont une connaissance minimale ou nulle du sujet et en les autorisant à prononcer des jugements qui font autorité mais qui ne relèvent pas de la science avérée.

Il apparaît donc que, 9 ans plus tard, malgré de nombreuses critiques, les problèmes structurels du GIEC n'ont guère été résolus. Il semble même qu'ils aient empiré.
Cela n'a pas échappé au Professeur D. Botkin qui a également témoigné devant la Chambre des Représentants US, lors de la même session. Comme vous allez le voir, ce dernier n'a pas non plus mâché ses mots devant les représentants US.

B) Daniel Botkin (photo ci-contre)
botkin2
"Daniel B. Botkin (bio) est un écologiste mondialement réputé. Il est Professeur (émérite) au Département d'Ecologie, de l'Evolution et de Biologie Marine de l'université de Santa Barbara (Californie). Il est également Président du Centre pour l'Etude de l'Environnement qui fournit des analyses indépendantes, basées sur la science, des problèmes environnementaux complexes pour le XXIè siècle. Le New York Times a écrit que son livre "Harmonies discordantes : Une nouvelle écologie pour le XXIè siècle" était considéré par de nombreux écologistes comme le texte classique du mouvement environnemental. Son livre sur la Science de l'Environnement qui en est maintenant à sa sixième ré-édition a été qualifié de meilleur livre académique de l'année 2004 par l'Association des Auteurs de Livres Académiques et d'Enseignement (US)."

Daniel Botkin est donc est un véritable écologiste (ce mot pris dans son acception "scientifique de l'environnement") particulièrement confirmé et reconnu comme tel et c'est à ce titre qu'il a été invité à témoigner devants les représentants US.

Voici une traduction de plusieurs extraits du témoignage du Professeur Daniel B. Botkin. Les caractères engraissés et en majuscule sont de Botkin et figurent tels quels dans le texte officiel.

Voici son introduction :

"Dès 1968, j'ai publié des résultats de recherche au sujet de la possibilité d'un réchauffement climatique anthropique et sur ses implications potentielles pour les individus et la biodiversité. J'ai consacré ma carrière à essayer d'aider à la protection de notre environnement et de la grande diversité de ses espèces. Ce faisant, j'ai toujours cherché à conserver une attitude objective, honnête du point de vue intellectuel, en usant d'une approche rigoureuse dans la ligne de la meilleure tradition de la démarche scientifique. De ce fait, j'ai été consterné et déçu au cours des dernières années parce que ce sujet a été transformé en un débat politique et idéologique. J'ai des collègues qui sont des deux côtés du débat et qui pensent que nous devrions travailler ensemble comme des scientifiques plutôt que de nous diviser sur des "positions" préconçues et basées sur des émotions.

J'ai été expert relecteur pour, à la fois, le GIEC et le Rapport sur le Climat de la Maison Blanche et je veux vous dire d'emblée que nous avons traversé une période de réchauffement causé par plusieurs facteurs.
Cependant, de mon point de vue, ceci n'est pas inhabituel et, en opposition avec les analyses de ces deux rapports, ces changements environnementaux ne sont ni apocalyptiques, ni irréversibles

J'espère que mon témoignage devant vous contribuera à générer une approche plus calme, plus rationnelle sur des questions qui ne traitent pas seulement du changement climatique mais aussi d'autres questions environnementales essentielles.
Le rapport du GIEC de 2014 ne s'inscrit pas dans ce genre de discussion rationnelle que nous devrions avoir.
J'aimerais vous expliquer pourquoi."

Botkin passe ensuite en revue un certain nombre d'"anomalies" qu'il a relevées dans les textes du rapport complet et, surtout, dans le Résumé pour les Décideurs (SPM) qui décidément fait l'objet de critiques sévères, comme nous le verrons dans la suite. En voici quelques extraits qui donnent le ton de la déposition de Botkin.

"Mon plus gros souci est que les deux rapports présentent un grand nombre de conclusions spéculatives et parfois incomplètes, enrobées dans un langage qui leur donne plus d'allure scientifique qu'ils ne le méritent. En d'autres termes, les rapports "ont l'apparence du scientifique" plutôt que d'être basés sur des faits clairement établis ou admettant leur absence de preuve. Les faits avérés au sujet de l'environnement global sont moins nombreux que l'homme de la rue ne le pense généralement."

[...]

IL Y A UNE SUPPOSITION IMPLICITE [NdT : dans le dernier rapport du GIEC] QUE LA NATURE EST DANS UN ETAT D'EQUILIBRE ET QUE TOUS LES CHANGEMENTS SONT NEGATIFS ET INDESIRABLES pour toute vie y compris pour les individus. Ceci est à l'opposé de la réalité : L'environnement a toujours changé. Les êtres vivants ont eu à s'adapter à ces changements et beaucoup d'entre eux ont besoin de ces changements. Le rapport du GIEC fait un usage répétitif des termes "changements irréversibles". La disparition d'une espèce est irréversible mais très peu d'autres choses sont irréversibles en matière d'environnement. L'étude du passé le confirme. Les glaciers ont avancé et reculé de manière répétitive. Le passage du Nord Ouest de l'Amérique du Nord a disparu puis est réapparu.La température moyenne a de beaucoup excédé celle du présent et celle qui est prédite, puis elle a décliné pour augmenter de nouveau.

[NdT : Le rapport] DONNE L'IMPRESSION QUE LES ETRES VIVANTS SONT FRAGILES ET IMMUABLES, incapables de faire face aux changements. C'est le contraire de la vérité. La vie est persistante, adaptable, ajustable. En particulier, le rapport du GIEC pour les décideurs [NdT : le résumé SPM] répète l'affirmation que l'on trouvait dans les précédents rapports du GIEC qu'une grande fraction des espèces risque de disparaître. Une montagne d'observations contredit cette affirmation Les modèles qui font ces prévisions reposent sur des hypothèses erronées qui conduisent à une surestimation des risques d'extinction Ainsi, il est remarquable que peu d'espèces aient disparu durant les 2,5 millions d'années passées qui englobent plusieurs périodes glaciaires et chaudes

[...]

QUELQUES-UNES DES CONCLUSIONS DU RAPPORT SONT A L'OPPOSE DE CELLES DES ARTICLES CITES COMME VENANT A L'APPUI DE LEURS CONCLUSIONS.
Par exemple, le Rapport du GIEC sur les Ecosystèmes Terrestres affirme que "7 des 19 sous-populations des ours polaires sont en déclin numérique"
citant à l'appui pour cette affirmation un article de Vongraven et Richardson. Mais ces auteurs disent au contraire que "le déclin est une illusion".
De plus, le Rapport sur le Climat de la Maison Blanche inclut un tableau qui rassemble les 30 différents effets écologiques résultant du changement climatique, ce qui constitue une liste impressionnante des impacts. Cependant, j'ai passé en revue les études qui sont citées à l'appui de ce tableau et je n'en ai pas trouvé une seule, parmi ces trente, qui soit étayée par des études légitimes d'impact du réchauffement climatique anthropique ou par des observations directes.


PLUSIEURS CONCLUSIONS SONT EN CONTRADICTION OU SONT IGNORANTES DES MEILLEURES OBSERVATIONS STATISTIQUEMENT VALIDEES. Par exemple, le Rapport du GIEC sur les Ecosystèmes Terrestres affirme que "les écosystèmes terrestres et d'eau douce ont séquestré environ un quart du dioxyde de carbone émis par les activités humaines durant les trois dernières décennies (avec un haut degré de confiance). Etant à l'origine des premières estimations, statistiquement validées, du stockage et de l'assimilation du carbone pour des grandes portions de la surface terrestre, je peux vous affirmer que l'estimation de l'assimilation du carbone par la végétation utilisée par le GIEC n'est pas statistiquement valide. Elle surestime le stockage du carbone et l'assimilation par un facteur aussi grand que 300%.

LE RAPPORT DU GIEC UTILISE L'EXPRESSION "CHANGEMENT CLIMATIQUE" AVEC DEUX ACCEPTIONS : NATUREL ET ANTHROPIQUE. Cette distinction n'est pas faite dans le texte qui, de ce fait, prête à confusion. Si l'affirmation est relative au changement climatique naturel, alors il s'agit d'un truisme c'est à dire à une chose connue et éprouvée de tous temps. Si l'affirmation est exprimée dans le concept de changement anthropique, alors les données disponibles ne confirment pas les affirmations. "

[etc.]

Je recommande la lecture du texte complet aux lecteurs(trices) anglophones. Il dresse un panorama assez complet des problèmes inhérents aux différents rapports du GIEC déjà dénoncés par d'autres auteurs et, tout particulièrement, s'agissant du Résumé Pour les Décideurs (SPM). Robert Stavin, un autre membre pivot du GIEC s'est ému des distorsions non scientifiques apportées durant la phase de finalisation du SPM. Il décrit, avec quelques détails, comment les choses se passent au GIEC, "derrière les rideaux" (behind the curtain, expression américaine).

C) Robert N Stavin : Les dessous des Résumé pour les Décideurs SPM du GIEC stavin

R. N Stavin (photo ci-contre) est le titulaire de la chaire Albert Pratt et Professeur de Gestion et de Management ainsi que Directeur du Programme d'Economie Environnementale de l'Université d'Harvard et Président du Groupe de recherche de l'Université sur l'Environnement et les Ressources Naturelles.
Il est, et a été, un participant particulièrement actif à la rédaction (auteur principal et coordinateur) des rapports successifs du GIEC.
Robert Stavin a publié, le 25 avril 2014, une lettre ouverte critiquant sévèrement les exigences multiples et autoritaires des représentants politiques des gouvernements de différents pays lors de la rédaction finale du Rapport SPM (Le Résumé destiné aux décideurs) du récent rapport (groupe III) du GIEC. Stavin y dénonce notamment de nombreux conflits d'intérêt qui ont, selon lui, gravement dénaturé ce rapport dans un sens alarmiste.

Voici une traduction de quelques extraits significatifs de cet lettre ouverte, largement citée par les médias anglophones et totalement ignorée par les médias francophones, tout comme les deux témoignages précédents, d'ailleurs. Cette lettre ouverte est intitulée :
"Le processus d'approbation du rapport du GIEC par les gouvernements est-il détraqué ?"

Dans l'introduction de sa lettre, Stavin indique que nombre de ses collègues participants au GIEC ont été choqué par le comportement des représentants gouvernementaux des différents pays qui siégeaient à Berlin durant la phase d'approbation finale du résumé pour les décideurs, le SPM.
Stavin note ironiquement que :

"Plusieurs des CLAs [NdT Les coordinateurs des auteurs principaux] présents avec moi à Berlin ont déclaré qu'étant donné la nature et le résultat de la semaine [NdT: La semaine durant laquelle le rapport final SPM a été approuvé par les politiques], le document final devrait probablement être renommé "Le Résumé PAR les politiques" plutôt que "Le Résume POUR les politiques"."

Stavin explique :

"Pendant le déroulement des délibérations du groupe de contact qui a duré deux heures, il est apparu clairement que la seule solution pour que les représentants des gouvernements approuvent le texte du Résumé SPM5.2 consistait essentiellement à retirer tout le texte considéré comme "controversé" (c'est à dire la partie du texte qui déplaisait à un quelconque représentant des gouvernements) ce qui a résulté dans la suppression de 75% du texte, y compris pratiquement toutes les explications et les exemples qui se trouvaient en dessous des titres en gras. Dans plus d'une occasion, des exemples spécifiques ou des phrases ont été retirées suivant la volonté de seulement un ou deux pays, parce que, selon les règles du GIEC, le désaccord d'un seul pays est une raison suffisante pour stopper tout le processus à moins et jusqu'à ce que le pays se déclare satisfait."

Stavin donne quelques détails, en termes mesurés :

"Les motivations générales pour les révisions demandées par les gouvernements - de la part de la plupart (mais pas toutes) des délégations - sont apparues clairement durant les sessions plénières. Ces motivations ont été explicitées dans les "groupes de contact" qui se réunissent, par petits groupes, derrière des portes closes, avec les auteurs principaux au sujet de questions particulièrement épineuses du SPM. Lors des réunions des groupes de contact, les représentants des gouvernements ont oeuvré pour supprimer des parties de texte qui pourraient être défavorables à leurs pays durant leurs négociations sous les auspices de l'UNFCC (la Convention Cadre de l'ONU sur le Changement Climatique).

Je comprends bien que les représentants gouvernementaux ont cherché à se conformer à leurs obligations vis à vis de leurs gouvernements en défendant les intérêts de leurs propres pays mais, dans certains cas, ceci a posé des problèmes pour ce qui est de l'intégrité scientifique du Rapport pour les Décideurs (SPM) du GIEC. Une telle implication - et parfois une telle interférence - avec le processus scientifique du GIEC a été particulièrement grave dans la section SPM 5.2 au sujet de la coopération internationale. "

Dans sa conclusion, Stavin s'adresse directement aux responsables du GIEC dont il est - et a toujours été - un fidèle participant. Il écrit (caractères en italiques de Stavin)

"De mon point de vue, avec la réglementation et la structure actuelle, il sera extraordinairement difficile, sinon impossible, de produire une version complète et scientifiquement correcte du texte du Résumé Pour les Décideurs (SPM) sur la coopération internationale qui pourrait survivre au processus d'approbation par les différents pays.

Plus généralement, je demande instamment au GIEC d'attirer l'attention du public sur les documents qui ont été rédigés par les auteurs principaux et qui ont été soumis aux commentaires des gouvernements (et des experts) mais qui n'ont pas subi la phase d'approbation des gouvernements."

Pour illustrer ces observations de Robert Stavin, je rappelle ici le schéma du processus (assez bizarre, s'agissant, en principe, de science et du résumé d'un "rapport scientifique") suivi par le GIEC, depuis sa création et systématiquement appliqué depuis lors. ipccprocess

 

De fait, comme cela est rappelé par Robert Stavin, la publication du rapport (que très peu de politiques ou de journalistes (s'il y en a) ont le courage de lire in extenso) et du Résumé pour les Décideurs (beaucoup plus popularisé dans les médias et dans les milieux politiques), le SPM, n'interviennent qu'après approbation unanime des divers représentants des différents pays de l'ONU. Autant dire que les représentants politiques font tout leur possible pour bloquer la publication d'un rapport qui desservirait (ou ne servirait pas) les intérêts de leur pays.
D'autant plus que nombre de pays en voie de développement sont avides de "dédommagements" de la part des pays dits "riches" et n'ont certainement pas intérêt à ce que le rapport SPM paraisse moins alarmiste. Et ces pays sont numériquement majoritaires.
A noter que les représentants des gouvernements sont déjà intervenus avant la préparation de l'édition finale du rapport comme le montre ce schéma (tiré du site du GIEC). Les politiques interviennent donc avant et après la rédaction de la version finale du rapport qui est ainsi solidement encadré par les représentants gouvernementaux des différents pays. La lettre de Robert Stavin que l'on ne peut guère accuser de tiédeur vis à vis du GIEC, illustre à merveille les errements auxquels peut aboutir l'interférence des politiques dans un processus scientifique.

Il est sans doute difficile de concevoir un processus dit "scientifique", plus politisé que celui du GIEC, illustré ci-contre.
Pourtant, certain éminent politique francophone a récemment cité le GIEC comme un exemple à suivre et proposé de généraliser ce type de structure à d'autres activités scientifiques.
_______________________________________________________________________________________________________

2) La chasse aux sorcières. La censure et le "McCarthysme climatique" évoqué par Bengtsson (ci-dessous) continue ...
rossiter

A) Le Professeur Caleb Rossiter (photo ci-contre) :

Rossiter qui est un mathématicien-statisticien universitaire est aussi un homme de conviction et fervent acteur de causes humanitaires en faveur des contrées en voie de développement dont l'Afrique (voir son CV). Pourtant, Rossiter a été récemment évincé de l'ONG progressiste à laquelle il participait depuis des décennies, pour avoir publié un article dans le Wall Street Journal intitulé "Nous sacrifions l'Afrique au nom du changement climatique. Les politiques des pays de l'Ouest semblent plus intéressés par le niveau du dioxyde de carbone que par l'espérance de vie."

Cet article, jugé sans doute par trop "déviant" par rapport à la doxa de son organisation mère, dans lequel Rossiter professe ses doutes sur les théories en vigueur du changement climatique et où il défend le droit à l'usage des énergies fossiles par les africains lui a valu une éviction immédiate de l'organisation humanitaire, progressiste et environnementale, l'Institute for Policy Studies, avec laquelle il travaillait depuis des années. Caleb Rossiter s'est alors confié lors de plusieurs interventions ou interviews comme celui dont je traduis quelques paragraphes significatifs ci-dessous.

Pour la petite histoire, il faut savoir que Caleb Rossiter raconte qu'en tant que professeur au département de Mathématiques et de Statistiques à l'Université Américaine de Washington (DC)) a donné comme sujet de travail à ses étudiants, à titre d'exercice d'application de ses enseignements, l'analyse des corrélations des variations temporelles de la concentration du CO2 et de la température. Ce faisant, ses étudiants ont constaté, comme beaucoup d'autres avant et après eux, que les variations de température ne collaient pas avec les modèles du GIEC en vigueur et qu'il existe des cycles de température (notamment avec une période d'environ 60 ans, comme l'ont trouvé de nombreux autres auteurs). Caleb Rossiter, jusqu'alors convaincu du contraire, a alors planché avec ses élèves sur ce sujet pendant un certain temps. Il a finalement a été convaincu par la validité de leur travail et c'est sans doute ce qui explique les déclarations suivantes :

“Je suis simplement quelqu'un qui a été convaincu que les affirmations de certitude au sujet des causes du réchauffement et au sujet des conséquences du réchauffement ont été terriblement exagérées et ceci de manière irresponsable. [...] "Je ne suis pas quelqu'un qui dit qu'il n'y a pas eu de réchauffement et que cela n'aura pas de conséquences, c'est juste que je ne parviens pas à comprendre pourquoi tant de gens croient que c'est catastrophique pour notre société et pour l'Afrique.

Pour cette conviction - basée sur une décennie de recherches statistiques et d'analyse des données sur le changement climatique - Rossiter a récemment été exclu de son poste de chercheur associé à l'Institute for Policy Studies qui est un groupe de réflexion progressiste de Washington D.C.

Rossiter a publié un article dans  The Wall Street Journal intitulé "Le sacrifice de l'Afrique au nom du changement climatique" dans lequel il qualifiait la notion de catastrophe climatique de "science non avérée". Peu après, il a reçu une missive de l'Institut lui indiquant que sa participation était terminée.

Visiblement, il est plutôt périlleux de professer des doutes, fussent-ils soutenus par des analyses statistiques dont Rossiter est un spécialiste, dans certains milieux "progressistes" US.

Un chercheur d'un institut renommé, le Helmholtz Institute Allemand, nous raconte une bien curieuse histoire, déjà un peu ancienne, au sujet d'un article qu'il avait soumis en 2009, avec des collègues, pour publication à une revue renommée de climatologie US. Ce qui suit nous rappelle les déboires éprouvés et racontés récemment par Lennart Bengtsson.

semenov1

B) Vladimir Semenov (CV, photo ci-contre ) du Geomar- Helmholtz Institute Kiel Allemagne.

C'est Ben Webster, l'éditeur pour l'environnement du journal britannique "de référence", qui nous raconte, dans The Times (UK) du 8 Juillet 2014, cette histoire passablement inquiétante, sous le titre "Les voix des contestataires sont étouffées par des climatologues." Cet article a été repris dans diverses autres publications anglophones, mais malgré la grande notoriété du Times, il ne semble pas avoir réussi à franchir "the English Channel", la Manche.

 

 

Voici une traduction de quelques extraits de cet article de Ben Webster :

"Un travail de recherche qui remettait en question l'exactitude des modèles informatiques utilisés pour prédire le réchauffement climatique a été "censuré" par des climatologues, a-t-il été déclaré hier.

Un des relecteurs scientifiques de l'article a dit qu'une section ne devait pas être publiée parce qu"'elle créerait une confusion inutile au sein de la communauté des climatologues". Un autre a écrit qu'"Il faut que cette discussion toute entière disparaisse".

L'article suggérait que les modèles informatiques utilisés par le GIEC de l'ONU étaient erronés ce qui conduisait à une exagération de l'influence humaine sur le climat et à une sous-estimation de l'impact de la variabilité naturelle.

Ces découvertes pourraient avoir de profondes implications. Si elle sont exactes, ceci voudrait dire que les gaz à effet de serre ont moins d'impact que le GIEC ne l'a prédit et que le risque d'un réchauffement global catastrophique a été exagéré.

Cependant, les questions soulevées à propos des modèles ont été retirées de l'article avant que celui-ci soit publié en 2010 dans le American Meteorological Society’s Journal of Climate. L'article a été soumis en Juillet 2009 alors que beaucoup de climatologues poussaient les dirigeants de la planète à trouver un accord pour limiter les émissions lors du sommet de Copenhague sur le changement climatique en Décembre de cette année-là.

Vladimir Semenov qui est un climatologue de l'Institut Geomar à Kiel en Allemagne a dit que les questions que lui et dix autres de ses collègues avaient posées dans la version originale de leur article étaient valides et que leur élimination était "une sorte de censure"..

Il s'est décidé à en parler ouvertement après avoir constaté qu'un de ses anciens collègues, le Professeur Lennart Bengtsson, avait été vilipendé pour avoir remis en question les prédictions du GIEC sur le réchauffement climatique.

[...]

Le Dr Semenov a déclaré que certains semblaient s'efforcer de supprimer des suggestions que le climat était moins sensible aux augmentations d'émissions (NdT de CO2) que le GIEC l'avait affirmé. (NdT : A noter que c'est assez exactement ce que suggérait l'article de Bengtsson et al. il y a peu, soit quelques 5 ans plus tard, et qui a carrément été refusé).

“Si vous dites qu'il y a quelques indications que la sensibilité est erronée, ceci brise le socle sur lequel tout l'édifice repose." dit-il (NdT : Semenov) "Le public peut douter de l'ensemble des résultats."

Le Dr Semenov a déclaré que les relecteurs qui ont critiqué les résultats étaient techniquement corrects parce que leurs remarques n'étaient pas explicitement basés sur ses résultats." Cependant, dit-il : " Nous avions le droit d'en discuter...Si votre opinion sort du consensus général alors vous avez plus de problèmes pour publier vos résultats."

Un troisième relecteur était beaucoup plus en faveur de l'article dont il dit que la suggestion "très provocante" que les modèles étaient erronés, était "si intéressante qu'il était nécessaire d'en discuter plus en profondeur".

Cependant, presque tout le paragraphe a été supprimé tout comme la conclusion qui disait que "la sensibilité moyenne des modèles du GIEC est peut-être trop forte."

Le journal a choisi de ne publier que la phrase d'ouverture " Nous voudrions insister sur le fait que cette étude ne remet pas en question l'existence d'une tendance de réchauffement anthropique à long terme durant le XXe siècle. "

La dernière petite phrase que la revue à consenti à publier à l'exclusion des autres est typique de ce que Richard Lindzen avait nommé "le petite phrase magique" qui est le sésame permettant d'obtenir l'autorisation de publier dans ce genre de revue. Mais, dans cette "opération" la discussion plutôt dérangeante pour "la cause", soumise par les auteurs, a été totalement éliminée.
Comme on le voit, dans cet exemple comme dans d'autres, il s'agit d'un "consensus" de la "communauté des climatologues" obtenu à bon compte.
Dans les autres domaines de la science, on publie ce que l'on pense exact et qui ne souffre pas d'erreurs flagrantes détectées par les relecteurs. Si d'autres ne sont pas d'accord, la discussion s'engage. C'est comme cela que la science progresse et a toujours progressé.
_______________________________________________________________________________________________________________________________

3) Complément : Submersion des îles coralliennes : Mise à jour dans la revue Science.

L'antienne, maintes fois évoquée dans les médias alarmistes, dans quelques revues orientées et, même, par la Banque Mondiale, de l'engloutissement futur affirmé comme "inéluctable" des îlots coralliens, a du plomb dans l'aile.

Dans un article récent intitulé "
Le réchauffement pourrait ne pas submerger les îles", la "revue de référence" Science dont on connaît pourtant les orientations alarmistes, a (enfin) pris du recul sur cette question en se basant notamment sur les travaux les plus récents de Paul Kench et de ces collègues dont je vous avais déjà donné un aperçu dans le billet, rédigé en août 2010 et intitulé " Les îlots coralliens du Pacifique ne sont pas submergés par la hausse du niveau des océans. En réalité, ils "repoussent" quand l'eau monte."
En effet, dans un article récent publié au Geophys. Research Letters,
Paul Kench et ses collègues viennent de lever une objection mise en avant par les alarmistes qui soutenaient l'idée que si les îlots coralliens se sont certes adaptés aux variations du niveau des océans au cours des millénaires passés, ils ne pourront pas suivre le rythme d'une montée rapide du niveau marin ou de tempêtes brutales.
Le mécanisme démontré par
Kench et al est, a priori, assez contre-intuitif : Lors des élévations brutales du niveau des mers (comme, par exemple, durant les grandes marées dues aux El Niños), les vagues engendrées à proximité des côtes de ces îlots coralliens, tendent, non pas à éroder les côtes comme tout le monde le pense, mais, au contraire, à faire monter le niveau des terres en y apportant quantité de sédiments, notamment du sable, qui se déposent à la surface des parties temporellement submergées. "Kench note que les récifs coralliens peuvent croître de 10 à 15mm par an - c'est à dire plus rapidement que la hausse des océans qui est attendue à la fin de ce siècle" rapporte l'article de Science. "Aussi longtemps que les coraux sont en bonne santé et gênèrent un approvisionnement abondant en sable, il n'y a pas de raison qu'une île corallienne ne puisse pas croître et continuer à le faire", dit Paul Kench.

Note : Ceci ne suprendra pas les physiciens qui sont au fait des problèmes "d'instabilité de surface". C'est pour une raison similaire que, planté dans une zone plate et désertique soumise aux vents chargés de particules de silice, un objet proéminent servira d'ensemencement pour la création d'une dune par un processus d'accrétion.
Il s'agit du même mécanisme qui gère notamment la formation des "moutons" de poussière sous les lits peu visités par l'aspirateur. Ainsi, un grain de poussière qui a accrété (capturé) un deuxième grain de poussière augmente la probabilité d'une capture ultérieure d'un troisième grain de poussière. Au fur et à mesure que la taille du "mouton" augmente son efficacité (sa section efficace de capture) pour accréter d'autres grains de poussière, augmente. C'est un mécanisme divergent typique d'une instabilité lequel est en général limité par l'érosion. Pour ce qui est des îlots coralliens, Paul Kench démontre le mécanisme d'accrétion (ou de dépot) l'emporte sur le mécanisme d'érosion.
___________________________________________________________________________________________________________________________

 

Enfin, un grand merci aux nombreu(ses)x lecteurs(trices) qui se sont alarmé(e)s du "hiatus" (ou de "la pause") prolongé dans mes billets durant la période estivale écoulée et m'ont écrit pour me demander de mes nouvelles. Certains envisageaient la possibilité d'ennuis de santé, d'autres que j'aurais pu être soumis à des persécutions style Bengtsson (!) etc.
En réalité, rien de tout ça. j'ai tout simplement été très occupé durant cet été par diverses activités qui m'ont le plus souvent tenu éloigné de mon clavier (et parfois d'internet) sans toutefois parvenir à m'empêcher de suivre attentivement l'actualité climatique...

Donc, tout va bien en ce qui me concerne, et le cours normal de mes billets va reprendre comme auparavant, à l'approche de l'automne et de l'hiver.

Dear friends, stay tuned !


24 Mai 2014 - Dossier : "L'affaire Bengtsson"
bengtsson1

1) Introduction :

J'ai déjà eu, à plusieurs reprises, et notamment dans le billet précédent, l'occasion de citer les propos du Professeur suédois Lennart Bengtsson. Ce chercheur éminent qui est, sans conteste, l'un des plus expérimentés de son domaine, a consacré la plus grande partie de son activité de recherche à la modélisation numérique de la météorologie et du climat. Il est particulièrement bien placé pour porter des jugements étayés sur la situation actuelle de la science climatique qui comme chacun sait repose essentiellement sur des projections/scénarios générés par des programmes d'ordinateurs.

Les propos récents et actuels de Lennart Bengtsson que j'ai rapportés dans ces pages, pourtant exprimés dans le langage mesuré propre aux scientifiques, se révèlent particulièrement critiques et destructeurs dans le contexte actuel du fameux "consensus"
qui est l'argument d'autorité le plus souvent utilisé par la classe médiatico-politique. Dans ces conditions, les déclarations de Bengtsson ne pouvaient que déplaire à ceux, nombreux, qui ont investi leur crédibilité, leur réussite professionnelle et parfois leurs investissements, dans le pessimisme climatique avec l'appui et le soutien de la quasi-totalité de l'establishment politique.

Venant d'une personnalité de ce statut qui faisait partie intégrante et travaillait au coeur même de l'establishment climatique, ceci ne pouvait être considéré par certains que comme une trahison. Dès lors, les critiques, les menaces, le dénigrement systématique, le harcèlement et les pressions exercées sur Bengtsson n'ont pas manqué comme d'ailleurs cela a été le cas pour la plupart des collègues scientifiques qui l'ont précédé dans cette voie, tels que Lindzen, Christy, Spencer, Curry, Vahrenholt, Pielke et beaucoup d'autres, dans un passé récent. Jusqu'à présent, ces agissements étaient restés plus ou moins confinés dans le microcosme climatique et n'avaient que peu ou pas touché le grand public.

Cependant, cette fois-ci, les limites du supportable semblent avoir été franchies. La grande presse (US-anglo-germanophone) s'est faite, en cette occasion, l'écho des pratiques délétères exercées par ses propres collègues à l'encontre de Lennart Bengtsson. Certains des comportements bien connus des connaisseurs mais ignorés du grand public ont percé le "plafond de verre" et des journalistes en vue s'en sont émus d'autant plus que la personnalité de la victime, âgée et méritante, attire plutôt la sympathie.
C'est ainsi qu'a commencé ce que beaucoup ont appelé "l'affaire Bengtsson".

En réalité, l'"affaire" à laquelle est consacrée ce dossier s'est déroulée en deux épisodes successifs, aussi inquiétants l'un que l'autre, ce qui a amplifié le phénomène par une sorte d'"effet réplique".
Les réactions des uns et des autres, plus ou moins directement impactés dans le "scandale" ont été intéressantes comme vous pourrez en juger.

En guise de préambule, je rappelle ici quelques données documentaires sur le professeur Bengtsson :

Le Professeur Suédois Lennart Bengtsson a été le Directeur de la Recherche du European Centre for Medium-Range Weather Forecasts de 1975 à 1981, puis Directeur, jusqu'en 1990 de l'Institut Max Planck pour la Météorologie à Hambourg. Toujours actif à 79 ans, il est à présent chercheur invité à l'Environmental Systems Science Centre de l'Université de Reading (UK). Il continue de publier régulièrement des articles dans les revues scientifiques comme on peut le constater en visitant son site à l'Université de Reading (UK). Il est actuellement l'auteur ou coauteur de 238 publications, ce qui est considérable même après 51 ans de carrière.bengtsson5

Quelques récompenses attribuées à Lennart Bengtsson :
2007 Rossby Prize 2007 by the Swedish Geophysical Society (SGS)
2007 Elected Honorary Member of the American Meteorological Society (AMS)
2006 International Meteorological Organization (IMO) Prize of the World Meteorological Organization (WMO)
2005 Descartes Research Prize
1999 Fellow of American Meteorological Society
1998 Umweltpreis 1998 der Deutschen Bundesstiftung Umwelt
1998 Member of the Finnish Academy of Science
1996 Milutin Milancovic medal by the European Geophysical Society
1995 Member of the Nordrhein-Westfälischen Wissenschaftsakademie
1993 Member of the Swedish Academy of Science
1991 Honorary Member of the Swedish Meteorological Society
1990 Doctor honoris causa, University of Stockholm
1990 Förderpreis and the Golden Rosette for European Science by the Körberstiftung, Hamburg
1989 Member of Academia Europea
1986 Julius von Hann´s Gold Medal by the Austrian Meteorological Society

2) La lettre de démission de Bengtsson :

En tant qu'éminent climatologue de l'Académie des Sciences suédoise, Lennart Bengtsson est réputé avoir largement déterminé l'orientation (mainstream) de son pays en matière de politique vis à vis du climat. En tant que modélisateur, il était, il y a quelques années encore, parfaitement dans la ligne du GIEC. Il apparaît, comme il le déclare lui-même que ses points de vue sur la science climatique ont évolué et divergé de ceux de l'establishment du GIEC à la mesure des progrès réalisés dans les observations qui, peu à peu, ont mis en évidence la divergence qui existe entre les modèles et la réalité. Les citations que j'ai relevées dans le billet précédent et dans quelques autres, reflètent parfaitement le recul, relativement récent, pris par Bengtsson par rapport à ses collègues de l'establishment. Ainsi, j'avais rapporté ces phrases de Bengtsson qui expliquent, en grande partie, sa démarche intellectuelle :

"En d'autres termes, le réchauffement climatique n'a pas été un problème sérieux jusqu'à maintenant si nous nous fions aux observations. Cela ne devient un problème que si nous nous basons sur les simulations numériques du climat par les ordinateurs.[...]Mais comme il n'y a aucun moyen de s'assurer de leur validité, les prévisions numériques reposent plus sur de la croyance que sur des faits. Le GIEC a publié l'opinion de ses experts il y a quelques mois et a présenté ces dernières sous la forme de probabilités. Tant que les résultats ne peuvent pas être étayés par des modèles dûment validés celles-ci donnent l'impression trompeuse d'être fiables."

Venant d'un expert de la simulation sur ordinateur comme Bengtsson qui connaît parfaitement la fragilité intrinsèque des modélisations numériques dans ce genre de problème particulièrement complexes, on imagine aisément que ces déclarations n'ont pas dû soulever l'enthousiasme (c'est un euphémisme), chez les nombreux supporters du GIEC ainsi qu'auprès des rédacteurs des rapports de cet organisme. Un expert renommé jetait le doute sur les modélisations climatiques qui, à défaut d'observations concordantes, constituent le fer de lance des arguments défendus par le GIEC.
On ne pouvait pas faire pire, pensaient, sans aucun doute, les émules du GIEC de l'ONU. C'était une attaque frontale de la raison même de l'existence de l'alarmisme climatique sur laquelle reposent les politiques énergétiques d'une partie des gouvernements de la planète (dont la France).
Pourtant, la personnalité de l'éminent Professeur Bengtsson forçait quand même au respect et les critiques (acerbes) restaient limitées au petit cercle des initiés.

C'est dans ce contexte, déjà tendu, que la décision récente (le 1er Mai) de Lennart Bengtsson de rejoindre le GWPF (considéré par la plupart des supporters-participants du GIEC comme le grand satan) a fait l'effet d'une bombe.

Mais, qu'est-ce exactement que le GWPF ?

Le GWPF (Global Warming Policy Foundation, la fondation pour la politique du réchauffement climatique) est ce que l'on appelle dans les pays anglo-saxons un "think tank", c'est à dire un groupe de réflexion. C'est une structure extrêmement courante dans les pays anglophones. Ce groupe de réflexion a été fondé en 2009 par Lord Lawson (ancien ministre des finances britannique) et le Dr. B. Peiser qui est à présent chargé de la communication. Le GWPF se consacre aussi bien à la science du réchauffement climatique qu'à ses conséquences (éventuelles) économiques et à son traitement politique. Le GWPF explique son état d'esprit et sa mission dans cette présentation. En bref, le GWPF a été créé dans la perspective d'ouvrir un débat qui, selon lui, fait défaut, aussi bien sur le plan scientifique qu'économique ou politique ce qui le place, notamment, en opposition directe avec les tenants du GIEC qui affirment que la science est comprise.
Le GWPF prétend à la neutralité aussi bien scientifique que politique. C'est ainsi que son Conseil d'Administration de 8 membres inclut un membre du Labour et un(e) autre du Lib. Dem. à côté de personnalités conservatrices ou indépendantes.
Le conseil scientifique du GWPF regroupe 26 personnalités du monde scientifique et de l'économie ainsi que du secteur journalistique dont plusieurs sont bien connues des lecteurs de PU. Parmi les scientifiques, on retrouve, entre autres, Richard Lindzen, Freeman Dyson, Henrik Svensmark, Nir Shaviv, Vincent Courtillot, William Happer, Ross McKittrick, Paul Reiter, Robert Carter et Ian Plimer. Le président de ce conseil est, actuellement, le Prof. David Henderson, un économiste et statisticien éminent qui a été notamment le directeur du Département de l'Organisation pour la Coopération et le Développement de l'OCDE. Comme on le sait, tous ces scientifiques et le professeur Henderson lui-même, professent de grands doutes quand au sérieux des rapports du GIEC et de l'alerte climatique.

Lennart Bengtsson avait donc accepté de rejoindre le conseil scientifique du GWPF pour travailler aux côtés des personnalités mentionnées ci-dessus (pour lesquelles il a de l'estime, dit-il), ce qui a immédiatement déclenché une énergique levée de boucliers de la part de ses collègues supporters du GIEC. On ignore la nature, les noms des auteurs et le contenu exacts des pressions qui se sont exercées sur Lennart Bengtsson à cette occasion mais la lettre qu'il a adressée, le 14 Mai, soit deux semaines après son adhésion, au responsable actuel du GWPF, le Professeur Henderson, a ému et soulevé l'indignation de la plupart de ceux qui en ont eu connaissance.

Cher Professeur Henderson,

J'ai été soumis à une énorme pression de la part de mes pairs durant ces derniers jours et ceci venait du monde entier au point que c'est devenu pratiquement insupportable pour moi. Si cela continue je serai incapable de poursuivre mon travail habituel et je commencerai même à m'inquiéter pour ma santé et ma sécurité. De ce fait, je ne vois aucune autre porte de sortie que de démissionner du GWPF. Je ne m'attendais pas à subir une telle pression à l'échelle de la planète, de la part d'une communauté dont j'ai été proche tout au long de ma carrière. Des collègues me privent de leur soutien, d'autres retirent leurs noms de la liste de mes coauteurs etc.

Je ne vois aucune limite ni aucune fin à ce qui va arriver. C'est une situation qui me rappelle l'époque de McCarthy. Je ne me serais jamais attendu à quelque chose de semblable de la part d'une communauté autrefois aussi pacifique que l'était la météorologie. Apparemment, les choses ont bien changé ces dernières années.

Dans ces conditions, je serai incapable de contribuer de manière positive au travail du GWPF et, en conséquence, je crois qu'il est préférable pour moi de revenir sur ma décision de rejoindre le conseil et ceci dès que possible.

Avec mes meilleurs sentiments,
Lennart Bengtsson

Et de fait, qu'un éminent professeur de 79 ans, mondialement connu, particulièrement méritant, bénéficiant de l'estime générale et qui a consacré son existence à la recherche en météorologie et climatologie, déclare subir des pressions "pratiquement insupportables" et en arrive à craindre "pour sa santé et sa sécurité" du fait du harcèlement (à la McCarthy, dit-il) de la part de ses propres collègues pose quand même quelques problèmes quand à la déontologie du microcosme des climatologues.
Comme on peut s'y attendre, les réactions ne se sont pas faites attendre. Elles ont été nombreuses et énergiques. Elles se poursuivent encore à l'heure où j'écris ces lignes. En voici quelques-unes. D'autres références, notamment journalistiques, seront indiquées à la fin de ce billet.

3) Quelques réactions à "l'affaire Bengtsson":

 Le Times de Londres (UK) (Ben Webster,15 Mai 2014) titre :
"Une "chasse aux sorcières" force un scientifique à la démission" .

"Un climatologue renommé a démissionné du conseil scientifique d'un groupe de réflexion après avoir été soumis à ce qu'il a décrit comme des pressions "du style McCarthy" de la part de certains de ses collègues. Le Professeur Lennart Bengtsson, chercheur invité à l'Université de Reading, a déclaré que les pressions étaient si intenses qu'il serait incapable de continuer à travailler et qu'il craignait pour sa santé et sa sécurité à moins qu'il ne renonce à participer au conseil scientifique de la la fondation GWPF. Il a déclaré que les pressions venaient essentiellement de climatologues US, y compris de la part d'un d'entre eux employé par le gouvernement US qui l'avait menacé de retirer son nom en tant que coauteur d'un article à venir à cause de son lien avec la fondation."

National Review Online (US), Rupert Darwall, 15 Mai 2014. Titre : "La science comme du McCarthysme".

La science régresse si elle devient intolérante aux critiques. Au début de son règne, la reine Elizabeth I d'Angleterre avait proféré des paroles de tolérance à une époque de luttes religieuses en déclarant qu'elle n'avait aucunement l'intention d'épier l'âme de ses sujets. A la différence de la religion, la science n'est pas une affaire de coeur ou de croyance. Elle n'existe que par ce qui peut être démontré. En persécutant un de leurs vieux collègues qui avait avancé un pied en dehors de la ligne et en forçant les scientifiques à être soumis à un test sur leur foi, les climatologues du XXIe siècle se sont montrés moins tolérants qu'un monarque du XVIe siècle. Il y a quelque chose de pourri dans la situation actuelle de la science climatique."

Professeur David G. Gee, un collègue suédois à l'Université d'Uppsala, 15 Mai 2014

J'ai reçu votre lettre avec stupeur, désarroi et une grande sympathie. La pression qui est exercée sur vous par la communauté des climatologues confirme les pires aspects d'une science politisée. J'ai moi-même été réprimandé pour m'être opposé à la cause climatique et son dévouement aveugle aux ambitions politiques. Ceci doit être révélé, au plan global. Merci d'avoir montré tant de courage. Espérons qu'il y a d'autres personnes plus honnêtes dans le monde de la climatologie que ce que l'on voit en ce moment."

 Daily Mail (UK), Wills Robinson,15 Mai 2014. Titre : "Un climatologue déclare qu'il a été forcé de démissionner d'un nouveau poste dans un style chasse aux sorcières à la "McCarthy" par des collègues du monde entier."

"Un climatologue mondialement connu a été contraint de démissionner d'un groupe de réflexion après avoir été soumis à des pressions du style "McCarthy" de la part de scientifiques du monde entier. Le Professeur Lennart Bengtsson, âgé de 79 ans, est un scientifique de l'Université de Reading. Il a quitté la Fondation Pour la Politique sur le Réchauffement Climatique bien connue, à cause de menaces dont il dit qu'elles "sont pratiquement insupportables" a déclaré le Dr. Benny Peiser, directeur du GWPF au Mail Online. "Cette annonce a été accueillie avec un grand étonnement et une vague de colère. Cela montre à l'évidence qu'il existe une inquiétude grandissante parmi les observateurs intéressés que l'intolérance qui règne au sein de la communauté des climatologues fragilise les déclarations des scientifiques. Ceci constitue un scandale qui se retournera contre les scientifiques si leur communauté ne se mobilise pas pour venir à son secours. "

Judith Curry, Climate Etc, 14 Mai 2014
Judith Curry reproduit les échanges de courriers entre le GWPF et Bengtsson suite à la démission de ce dernier. Elle conclut :

"Je regrette vivement que n'importe quel scientifique mais tout particulièrement un scientifique aussi éminent que Bengtsson ait eu à subir de telles attaques. La semaine dernière nous avons assisté à de nombreuses et enrichissantes déclarations faites par Bengtsson au sujet de la situation de la science climatique. Il en résulte que la politique, la science et la société en ont été les bénéficiaires. Nous avons aussi assisté à un répugnant étalage de McCarthysme climatique de la part de climatologues, lequel a le potentiel de faire autant de mal à la science climatique que l'avaient fait les emails du Climategate. Nous avons observé que le GWPF a géré cette situation avec maturité et avec dignité."

Par ailleurs, Judith Curry décrit les vexations et humiliations subies par ceux qui ont eu la malencontreuse idée de s'écarter du "consensus" de la "communauté", ce qu'elle fait depuis quelques années, notamment en évoquant constamment les grandes incertitudes qui affectent la climatologie.Voici ce qu'elle a écrit dans son blog, récemment, le 16 Mai 2014.

“Ainsi qu'en est-il de l'impact sur un scientifique de ce qui est appelé le "McCarthysme climatique"?
Comme résultat du dénigrement à mon encontre par (Joe) Romm, par (Michael) Mann et d'autres, je suis écartée de toute possibilité d'obtenir des postes administratifs dans les universités et de situations de responsabilité dans les sociétés professionnelles. Ma candidature est systématiquement écartée de toutes les récompenses attribuées par les sociétés professionnelles, un grand nombre de collègues ne collaboreront pas avec moi et quiconque voudrait m'inviter comme orateur principal doit se justifier par rapport à toute les con...ries que vous pourrez trouver sur le WEB si vous googlez "Judy Curry"."

En effet. Je confirme. Visiblement, Judith Curry sait de quoi elle parle.

Lord Nigel Lawson, Standpoint Magazine Mai 2014
Lawson est l'un des deux fondateurs du GWPF.

Il y a quelque chose d'étrange quant au débat sur le réchauffement climatique - ou le débat sur le changement climatique comme nous sommes supposés l'appeler maintenant, du fait, qu'à l'heure actuelle, le réchauffement climatique s'est arrêté. Je n'ai jamais reculé devant les controverses, ni par exemple en tant que Chancelier (NdT : de l'échiquier, ministre des finances) ni ne me suis jamais inquiété d'être impopulaire si je pensais que ce que je disais et faisais servait l'intérêt public. Mais, jamais dans ma vie, je n'avais subi autant d'extrême hostilité envers ma personne, autant de vitupération et de calomnies dont moi-même - ainsi que les autres contestataires, bien sûr - avons été l'objet du fait de nos points de vue sur le réchauffement climatique et la politique qui en découle.

Mike Hulme a été (2000-2007) le Directeur-Fondateur du Centre de Recherche Tyndall du Royaume Uni. Il a été très actif dans les débuts du GIEC. Hulme est très loin d'être un climato-sceptique. Pourtant, entre autres critiques, il avait sévèrement pointé du doigt "l'esprit tribal" de ses collègues mis en lumière par les courriels du Climategate.
Voici quelques déclarations de Mike Hulme au sujet de "l'affaire Bengtsson" (rapportés par le Times UK, Ben Webster, 17 mai, cité aussi dans The Telegraph UK du 16 mai):

"Les climatologues qui diffament un collègue pour avoir apporté son concours au conseil scientifique d'un groupe de réflexion sont "aveugles de leurs propres biais", selon un ancien membre du conseil de l'ONU sur le changement climatique, Mike Hulme, professeur sur le climat et la culture au King's College de Londres. Hulme a condamné ses collègues climatologues pour avoir "persécuté" Lennart Bengtsson et il avertit que la science climatique est devenue trop politisée. Il a condamné les climatologues qui "croient que c'est leur rôle de prononcer des jugements publics quant à savoir si un collègue scientifique devrait apporter sa contribution à des organisations politiques, publiques ou faisant campagne, et d'exercer des persécutions sur ce scientifique jusqu'à ce qu'il "rentre dans le rang"..."Cet épisode nous en apprend beaucoup sur la profonde politisation actuelle de la science et aussi sur le fait que certains scientifiques demeurent aveuglés par leurs propres orientations."

Steve McIntyre (l'auteur de l'analyse destructrice de la fameuse "crosse de hockey") titre "L'épuration de Lennart Bengtsson".

Ceci est encore le fait d'une conduite honteuse de la part de la "communauté" des climatologues.
D'un point de vue général, il me semble que si le changement climatique est un problème aussi sérieux que le croit la "communauté" des climatologues, alors celui-ci exigera de prendre des mesures qui requièrent un engagement de la part de toutes les branches de notre société. La plupart des "sceptiques" ne sont pas de suppôts des frères Koch (NdT : Une famille de milliardaires qui sont réputés soutenir les climato-sceptiques aux USA) mais ce sont des gens qui n'ont pas été convaincus jusqu'à présent que le problème est aussi sérieux que ce qui est leur est présenté et que les politiques qui sont prescrites (le vent et le solaire tout particulièrement) représentent une forme quelconque d'assurance contre les risques. Ce sont ces gens-là que la "communauté" climatique devrait essayer de persuader.
Le projet de la participation de Bengtsson au GWPF me semblait être une sorte de main tendue aux sceptiques rationnels, ce dont la "communauté" aurait dû se réjouir.
Au lieu de cela, la "communauté" a lancé une fatwa. C'est exactement le genre d'action et d'attitude qui ne peuvent qu'engendrer le mépris de la part de la société au sens large, envers la "communauté".

Dr. Roy Spencer de l'UAH.

Le harcèlement de Lennart Bengtsson par des collègues n'est que le dernier exemple du comportement déplorable des climatologues qui ont passé un contrat avec le diable. Ils ont troqué leurs âmes de scientifiques contre des contrats de recherche, du prestige et un accès facile aux revues scientifiques pour publier leurs articles.
Je prédis que l'histoire les traitera sans indulgence et que la réputation de tous les climatologues pâtira de ces procédés. Dans l'état actuel des choses, le public qui paye nos salaires, est déjà en train de rire à notre sujet.
Certains d'entre nous (Christy, Lindzen, moi-même et d'autres) ont dû subir des années de traitement déloyaux de la part d'une poignée de collègues activistes et gardiens du temple qui ont empêché la publication de nos articles et bloqué nos demandes de crédits pour des raisons les plus futiles.

...Ce n'est pas tout. L'"affaire Bengtsson" ne s'est pas arrêtée là. Il y a eu un second épisode. Voyez la suite.


4) Un article scientifique de Bengtsson et al. est refusé avec des commentaires de relecteurs pour le moins étonnants :

Perçu comme s'inscrivant dans la lignée de cette "épuration" comme l'appelle Steve McIntyre, un article récent de Bengtsson et de quatre collaborateurs américains et suédois vient d'être rejeté par l'éditeur d'une revue de l'IOP (UK) (Environnment Research Letters).
Cet article mettait en lumière les divergences entre les modèles et les observations relevées notamment à partir des données telles que celles qu'on peut trouver dans le dernier rapport du GIEC (AR5) (comme je l'avais noté dans des billets précédents) et avançait l'idée (comme quelques autres) d'une sensibilité climatique au CO2 nettement plus faible que celle qui est prônée par les rapports du GIEC, ce qui, à l'évidence, rejetterait le "changement climatique anthropique" dans les profondeurs du classement des préoccupations.
Entre autres commentaires négatifs, le rejet de l'article est justifié, par l'un des rapporteurs, de la manière suivante :

"En résumé, la comparaison simpliste des prédictions tirés de l'AR4, de l'AR5 et de Otto et al, ceci combiné avec les affirmations qu'elles sont incompatibles est moins qu'utile, et de fait, cet article est nuisible car il ouvre la porte à des affirmations exagérément simplistes d'"erreurs" ou encore pire de la part des médias climato-sceptiques.

Plusieurs médias (anglophones et germanophones) ont réagi à ces assertions, pour le moins surprenantes de la part de relecteurs de revues scientifiques dont le devoir est de se limiter strictement à des considérations scientifiques à l'exclusion de toute considération politique. Ainsi le très connu Times de Londres (qui a démontré timesukdans le passé qu'il était très loin d'être un "média climato-sceptique", bien au contraire) titre, en une, dans son édition du 16 Mai avec une accusation gravissime (pour des scientifiques) : "Des scientifiques dissimulent des points de vue "nuisibles" sur le climat" et explique à ses (très nombreux) lecteurs :

Hier soir, un travail de recherche qui accumule les doutes sur le taux du réchauffement climatique a été délibérément écarté par des scientifiques parce qu'il était "moins qu'utile" pour leur cause. Faisant écho au scandale infamant du "Climategate" à l'Université d'East Anglia [NdT : Voir ce billet], une des revues au top des journaux académiques a rejeté le travail de cinq experts suite à un jugement confidentiel d'un relecteur dénonçant cet article comme "nuisible". Lennart Bengtsson qui est actuellement chercheur invité à l'Université de Reading et l'un des auteurs de cette étude, a déclaré qu'il soupçonnait que l'intolérance vis à vis des vues dissidentes sur la science climatique était à l'origine du refus de publier cet article. [...]
"Le problème que nous rencontrons maintenant dans la communauté scientifique c'est que quelques scientifiques confondent leur rôle en tant que scientifiques avec celui d'activistes du climat." a dit Bengtsson.

Toujours dans le Times (UK) du 16 Mai, (Lord) Matt Ridley (Ridley est un écrivain-journaliste, membre de la chambre des Lords, de la Royal Society of Literature, de l’Académie britannique de médecine et de l’Académie américaine des Arts et des Sciences) écrit sous le titre :
"Ce harcèlement contre les sceptiques de la science climatique doit cesser.
Depuis quand la diabolisation de ses contradicteurs est-elle devenue une pratique acceptable ?"

La démission du Professeur Bengtsson montre que le "consensus" revendiqué au sujet du réchauffement climatique alarmant implique la suppression des désaccords au moyen du harcèlement académique. Le Professeur insiste sur le fait qu'il n'y a pas de consensus au sujet de la vitesse et de l'intensité future du réchauffement dû aux gaz à effet de serre et encore moins au sujet des réponses qui peuvent être apportées.

Les preuves de l'existence d'un tel harcèlement sont apparues lors du scandale du "Climategate" en 2009 dans lequel les emails de quelques scientifiques ont révélé qu'ils étaient disposés à menacer et à blackbouler les collègues, les journalistes et les éditeurs qui exprimaient des points de vue sceptiques. Je discute fréquemment avec des scientifiques qui ne sont pas convaincus que le changement climatique soit, même de loin, le problème environnemental le plus urgent pour la planète mais qui ne mettront pas leur tête au dessus du parapet [NdT : Allusion aux soldats dans les tranchées] par peur de représailles pour leurs carrières.
Qu'advient-il du monde académique si la pratique de la diabolisation et du bâillonnement de vos opposants est devenue une pratique acceptable ? Les persécutions exercées à l'encontre du Professeur Bengtsson montrent précisément pourquoi des groupes de réflexion tels que le GWPF sont essentiels. En vérité, la vieille plaisanterie s'est révélée encore plus pertinente : "Quel est l'opposé de diversité ? C'est l'Université."

Partant du communiqué de l'éditeur de la revue de l'IOP qui endosse la prise de décision du rejet de l'article de Bengtsson et al. en y incluant l'argument politique mentionné ci-dessus, Steve McIntyre, pour sa part, remarque (ironiquement) :

Ainsi, l'"erreur", selon l'éditeur, semble n'être rien d'autre que l'exigence de Bengtsson que les modèles soient cohérents avec les observations. Sans aucun doute et même en matière de science climatique, une telle exigence ne peut pas être sérieusement considérée comme une "erreur".

De fait, la lecture du rapport des referees montre que selon ces deniers, Bengtsson et al commettent l'erreur" de comparer les résultats des observations avec les résultats des simulations numériques qui, selon eux, ne sont pas des prédictions ou des prévisions mais des projections ou des scénarios, et donc que cette comparaison serait une "erreur" (selon les referees).
Si on se souvient que Bengtsson a consacré la plus grande partie de sa longue carrière (51 ans !) à la modélisation numérique, il est difficile d'imaginer qu'il ne sait pas exactement de quoi il parle et on imagine aisément qu'il a suffisamment d'expérience pour savoir qu'il est indispensable de comparer les résultats des projections ou des scénarios numériques avec la réalité afin de valider ces derniers, si possible...

Pour sa part, Roy Spencer, climatologue à l'UAH, responsable des mesures satellitaires du même nom, écrit, le 16 mai :

"Les manoeuvres d'intimidation à l'encontre de Lennart Bengtsson ne sont que le dernier exemple du comportement déplorable de climatologues qui ont passé un contrat avec le diable. Ils ont échangés leurs âmes de scientifiques contre des contrats de recherche, du prestige et un accès facile aux revues scientifiques pour publier leurs articles. Je prédis que l'histoire les traitera sans indulgence et qu'en conséquence la réputation des climatologues sera mise à mal. Ce comportement déplorable de la communauté des scientifiques du climat n'a rien de nouveau. Il perdure depuis au moins 20 ans.
Certains d'entre nous (Christy, Lindzen, moi-même et d'autres) ont eu a subir des traitements inéquitables depuis plusieurs années de la part d'une poignée de collègues activistes et gardiens du temple qui ont empêché la publication de nos articles ou l'obtention de contrats de recherche avec les arguments les plus fragiles."

Le climatologue vétéran Roger Pielke Sr. est cité par le Spiegel Intl online en ces termes :

"Roger Pielke Sr. de l'Université du Colorado déclare : "Malheureusement, la climatologie est devenue très politisée et les points de vue qui diffèrent de ceux qui contrôlent le processus de rédaction des rapports sont, soit ignorés, soit ridiculisés. Au vu de ma propre expérience, je suis d'accord à 100% avec les déclarations du très éminent Lennart Bengtsson."

Le professeur Roger Pielke Jr. (le fils du précédent) et également cité dans le Spiegel Intl online. A noter que ni lui, ni son père ne sont des climato-sceptiques.

Pielke Jr. confirme que la recherche en climatologie est un boulot difficile. "Nous avons affaire à des gens qui jouent dur" dit-il. "A titre personnel, j'ai subi de très fortes pressions professionnelles au cours de ces années. Ceci incluait des menaces contre mon travail, l'ostracisme professionnel, des présentations publiques déformant mes propos et mes points de vue, des tentatives pour m'empêcher de parler en public ainsi que des menaces personnelles dont beaucoup d'entre elles ont été documentées en public." Il ajoute que "Quiconque désirant participer au débat public sur le changement climatique devrait le faire en sachant comment cela se passe de nos jours -- C'est sordide, méchant, destructeur."

Le Grantham Institute à l'Imperial College de Londres représente le versant opposé au GWPF avec lequel il est en conflit ouvert. Pourtant, dans cette occasion peu reluisante et au vu de la réaction outrée des médias, ses responsables ont choisi de se désolidariser des chercheurs qui ont harcelé Bengtsson et de rappeler quelques grands principes oecuméniques tout en égratignant au passage le GWPF, leur "pire ennemi".
Un responsable du Grantham écrit, sous le titre "La science et une société ouverte":

La démission du Professeur Lennart Bengtsson du conseil scientifique du GWPF a fait l'objet d'une importante couverture médiatique. Elle pose des questions importantes.
Quel que puisse être le point vue de quiconque sur le rôle, les motivations et l'intégrité du GWPF dans cette affaire, il relève du choix personnel des scientifiques de s'associer ou non avec lui afin d'y assurer un rôle de conseil.
Il est regrettable que les orientations politiques au sujet du climat affectent apparemment à ce point l'activité scientifique. Le Grantham Institute de l'Imperial College s'est toujours opposé à ce genre de comportement, pensant que le progrès scientifique exige que la société demeure ouverte. Nous essayons d'échanger avec un large éventail de personnalités, certaines d'entre elles ayant des points de vue radicalement différents sur le changement climatique.
Le déroulement de cette affaire est probablement un effet du "eux ou nous" qui a imprégné le débat sur la science climatique depuis des décennies. Il résulte, en partie de - et en réaction à - une pression externe exercée sur la communauté climatique.

Mais nous devons être clairs, ceci ne constitue en aucun cas une justification. Une pression concertée externe - si c'est ce qui a été fait - sur le Professeur Bengtsson pour le forcer à démissionner de sa fonction au GWPF était une faute et une erreur de jugement.

[...] Cet événement nous montre que le maintien d'une saine séparation entre la science et la politique - de chaque côté du débat politique - constitue un enjeu aussi permanent qu'indispensable..

3) Quelques titres récents dans la presse US/UK/Allemande :
bengtsson6

Der Spiegel (All) (Axel Bojanowski, 12 mai) : "Débat sur le changement climatique : Un scientifique renommé devient un sceptique". "Le météorologue Lennart Bengtsson a depuis longtemps été considéré comme une tête froide dans le conflit souvent virulent sur le réchauffement climatique. Il défend sa décision de rejoindre une organisation sceptique sur le changement climatique au cours d'un interview."
La légende de l'image ci-contre en en-tête de l'article est une citation de Bengtsson tirée de l'interview : "Je ne crois pas que cela ait du sens que notre génération croit ou prétende qu'elle peut résoudre les problèmes du futur."

The Financial Post (Peter Foster, 15 mai) : "Un scientifique suédois éminent est la dernière victime du McCarthysme climatique."

The Wall Street Journal (US) (James Taranto, 15 Mai) "L'autoritarisme scientifique. La question du scepticisme pour les climatologues."
Taranto conclut : "L'intuition est suffisante pour faire la distinction entre l'autoritarisme et l'autorité authentique."

The Times of London (UK) (Ben Webster, 15 Mai) ""La chasse aux sorcières" contraint un scientifique à la démission."

Investor.com (éditorial, 16 Mai) : "Climategate II et la montée du McCarthysme climatique".

The Telegraph (UK) (Lucy Kinder, 15 Mai): "Un climatologue est forcé de revenir sur ses positions suite à des pressions dignes du McCarthysme"
"Un climatologue suédois déclare qu'il a été soumis à une chasse aux sorcières réminiscente de l'ère McCarthy."
dailymailbeng


Daily mail (UK) (Ben Spencer, 16 Mai) : "Une étude suggérant que le réchauffement climatique a été exagéré a été rejetée par un journal réputé parce qu'elle était " moins qu'utile" pour la cause climatique, déclare un professeur."

Mail on Sunday (UK) (David Rose, 18 mai) : "Révélation : Comment des zélotes verts ont bâillonné un professeur qui avait osé remettre en question le réchauffement climatique."

  • Une étude du Professeur Lennart Bengtsson a été rejetée en étant qualifiée de "nuisible".
  • Ceci a déclenché des accusations selon lesquelles des scientifiques censurent des découvertes.
  • Le Professeur, âgé de 79 ans, est l'un des plus éminents climatologues au monde.
  • La semaine dernière, il a démissionné du conseil scientifique du GWPF.

Times (UK) (Ben Webster, 17 mai): "Des scientifiques condamnés pour biais politique sur le changement climatique".

The Telegraph (UK) (Sarah Knapton, 16 Mai) : "La science du changement climatique est devenue aveugle vis à vis de son biais pour les idées vertes". " La climatologie est devenue aveugle au biais vert ce qui risque de supprimer la recherche qui remet en cause le changement climatique anthropique nous disent des scientifiques."

The Sunday Times (UK) (Rod Liddle, 18 Mai) "Oui, nous sommes condamnés - Si nous traitons les climato-sceptiques comme le feraient des nazis."

Der Spiegel (All) (Axel Bojanowski, 17 Mai)) "L'attaque contre ceux qui ne sont pas d'accord : L'angoisse d'un climatologue face aux pressions de ses pairs."

Forbes (US) (Björn Lomborg, 22 Mai) : "Le McCarthysme en sciences du climat."

National Review Online
(US) (John Fund, 23 Mai) : "Il est difficile de vendre le changement climatique" (citation de la lettre de Bengtsson et commentaires)

Spiegel Interntional online (All) (Axel Bojanowski, 23 Mai) : "Un débat houleux : Les climatologues sont-ils forcés de rester dans les clous ?"
"Après avoir rejoint un groupe de lobbying controversé, critique du réchauffement climatique, le météorologiste
Lennart Bengtsson déclare qu'il a été rejeté par des collègues, ce qui l'a poussé à la démission. Des scientifiques se plaignent que des pressions pour se conformer aux opinions du consensus sont devenues de sérieux handicaps pour ce domaine de recherche."

Etc.

A ma connaissance, RIEN dans la presse francophone à ce sujet. Il en avait été pratiquement de même lors de l'affaire du Climategate (en 2009) où le débat qui avait soulevé l'intérêt de la presse internationale à l'époque, avait été rapidement glissé sous le tapis par les médias francophones, comme "sans intérêt".

4) Quelques compléments récents :

1) En réponse à une accusation du Guardian à l'encontre de Lindzen et Bengtsson qui ont rejoint les conseils scientifiques de divers groupes de réflexion, Judith Curry donne une liste rapide mais déjà longue, des climatologues mainstream officiellement affiliés à des organisations ou à des groupes de réflexion environnementalistes.

2) Andrew Montford dresse, sur son blog Bishop Hill; une liste de quelques réactions des pro-GIEC à l'annonce de la participation puis de la démission du conseil scientifique du GWPF par Lennart Bengtsson. Les commentaires lus dans les blogs ou dans les médias sociaux vont de l'accusation de sénilité (Andrew Dessler) à celle de William Connelley (un activiste vert qui a longtemps fait la pluie et le beau temps sur tout ce qui touche au climat dans Wikipedia avant d'en être remercié) qui, lui, sans vergogne, n'hésite par à qualifier Lennart Bengtsson de "crybaby", c'est à dire de "pleurnichard". L'IOP (l'Institute of Phyiscs UK) qui exerce la tutelle de la revue ERL donne un point de vue relativement mesuré sur cette affaire tout en renouvelant son credo envers le processus de peer-review qui est pourtant sérieusement remis en cause par cette affaire comme par quelques autres.

3) Enfin, tout récemment, le 21 Mai, Lennart Bengtssson a souhaité publier un texte résumant ses points de vue sur la situation de la science climatique dans un blog suédois (pourtant franchement hostile à sa démarche). Ce texte, publié en version anglaise approuvée par l'auteur, mérite d'être lu. Il est intitulé : "Mes points de vue sur la recherche en climatologie".

On peut y lire notamment (caractères engraissés par PU) :

"Ce qui est encore plus inquiétant c'est la tendance qui consiste à donner au public l'impression que les événements météorologiques deviennent plus extrêmes et que ceci est déjà en cours [NdT : C'est ce que font actuellement le président Obama et son secrétaire d'état John Kerry, entre beaucoup d'autres]. A l'exception d'une possible augmentation des précipitations et d'une possible intensification des ouragans tropicaux qui n'ont pas encore été observés, il n'y a aucune indication de l'augmentation d'événements météorologiques extrêmes dans les simulations des modèles et encore moins dans les observations actuelles. [...]

Ce qui est, peut-être, plus préoccupant encore est la tendance croissante à la pseudo-science dans le domaine de la recherche climatique. On le voit par le biais des publications qui ne publient que des résultats qui vont dans le sens d'une seule hypothèse climatique en s'abstenant de publier les résultats qui s'en écartent. Même le temps extrêmement froid comme celui qui a régné cette année au Nord des USA et au Canada a été considéré comme une conséquence de l'effet de serre.

Si Karl Popper était vivant aujourd'hui, nous aurions certainement dû affronter une féroce critique de ces comportements. Ceci est également démontré par la réticence des journaux scientifiques à publier des résultats qui contredisent les affirmations simplistes sur le climat, telles que celles sur la longue période de ces 17 dernières années qui a connu un réchauffement insignifiant ou nul au dessus des océans et une augmentation de la couverture glacée autour de l'Antarctique. Mes collègues et moi n'avons reçu qu'un accueil mitigé quand nous avons essayé de montrer que les observations indiquent une sensibilité climatique plus faible que celle qui résulte des calculs des modèles. Un tel comportement peut très bien ne pas être intentionnel. Il peut plutôt relever de ce que mon collègue Hans von Storch appelle un effet de "la construction sociale" [...]

Je tiens à insister sur le fait que je suis un adversaire affirmé de la construction sociale des sciences naturelles qui a pris une grande ampleur au cours de ces dernières années. Par exemple, des scientifiques allemands [NdT : Bengtsson fait sans doute allusion aux récentes déclarations de Schellnhuber du PIK qui ont provoqué un tollé en Allemagne] ont tenté de lancer le concept de ce qu'ils appellent "la bonne science" qui consiste à s'assurer que les recherches en sciences de la nature ne seront pas conduites par ce qu'ils considèrent comme de la recherche motivée par une curiosité anti-sociale en poursuivant des objectifs de recherche qui ne seraient pas les "bons"."


En bref, Bengtsson persiste et signe. Son allusion au concept de "bonne science" possède des relents de sinistre mémoire, tout particulièrement en Allemagne. Il n'est pas surprenant que ce concept qui distingue la "bonne" recherche scientifique effectuée selon des prémisses politiques, sociales ou autres, y ait soulevé un tollé lors des déclarations du climatologue de Potsdam, Schellnhuber qui est toujours conseiller scientifique auprès de Merkel.


5) Conclusion :

Comme on le constate, l'intolérance, les tentatives d'intimidation, les menaces etc. ont littéralement infesté ce (petit) domaine de la science. Pourtant, par définition même, la pratique de la science et, surtout, de la découverte, impliquent, le plus souvent, une démarche nécessairement hérétique par rapport aux acquis et au consensus de l'époque. Hélas, ceci n'est pas vraiment nouveau. L'histoire des sciences et des découvertes n'est qu'une longue litanie des avanies et des vexations subies par des chercheurs novateurs qui ont eu à souffrir et parfois durement, des critiques, des dénigrements ou pire, de la part de leurs collègues de l'Establishment de l'époque. Certains, comme Wegener, sont morts avant que leurs mérites soient reconnus...

Richard Feynmann, un des esprits scientifiques le plus brillants du XXè siècle, avait énoncé quelques principes à propos des certitudes et des doutes en matière de science. Il avait dit :

Les scientifiques ont une certaine expérience au sujet de l'ignorance, des doutes et des incertitudes et cette expérience est d'une très grande importance, je pense. Quand un scientifique ne connaît pas la réponse à un problème, il est ignorant. Quand il a une intuition sur ce qu'est le résultat, il est incertain. Et quand il est est à peu près sûr de ce que sera le résultat, il a encore des doutes. Nous avons observé qu'il est d'une importance cruciale, qu'afin de progresser, nous devons reconnaître nos ignorances et laisser la place au doute. La connaissance scientifique est une collection d'affirmations qui ont divers degrés de certitude - Il y en a qui sont plutôt incertaines, d'autres presque certaines, mais aucun n'est absolument certaine.

Sages paroles.

Merci à toutes celles et à tous ceux qui ont eu la patience de suivre ce long dossier qui montre une fois de plus, comme je l'avais déjà écrit et comme cela a été relevé par de nombreux intervenants cités ci-dessus, que la politisation de la science et l'intolérance ont été et demeurent de véritables fléaux pour la science. La science ne peut procéder que par un long enchaînement de débats contradictoires, d'erreurs et de corrections. Y mettre un terme en déclarant que "The science is setlled" (la science est comprise) est une erreur majeure.
La mise en place, par les politiques, de "la machinerie à fabriquer des consensus" qu'est le
GIEC traduit une incompréhension fondamentale du fonctionnement même de la recherche et de la découverte.
Lennart Bentgtsson s'est exprimé clairement à ce sujet. Il a dit :

"Dans sa globalité, le concept même du GIEC est fondamentalement faux"

J'ajoute que je ne suis vraiment pas fier du comportement de certains de mes collègues de cette discipline et je me demande comment les jeunes chercheurs frais émoulus dans ce domaine de recherche parviennent à supporter, sans broncher, de vivre leur vocation dans une atmosphère aussi oppressante...
Bon courage à eux.

Stay tuned !


23 Avril 2014 : Rapports du GIEC : Les seniors sortent de leur réserve. James Lovelock et Lennart Bengtsson parlent ouvertement.

La publication des rapports des groupes II ( Les conséquences prévisibles) et III (Les remèdes potentiels) et notamment celle du "Résumé pour les décideurs" du GIEC a soulevé de vives critiques, notamment de la part d'un certain nombre de scientifiques du domaine ou d'économistes de l'environnement. S'appuyant sur les prévisions/scénarios du groupe I (les causes), ces rapports présentent les mêmes caractéristiques que celles que nous avions notées pour le rapport du groupe I. En bref, des rapports complets sont extrêmement copieux et bien documentés, mais aussi difficiles à lire pour les non-initiés. En réalité, ces rapports complets sont relativement peu alarmistes et plutôt en retrait, de ce point de vue, par rapport aux précédents. Par contre, le "Résumé pour les Décideurs" (SPM) constitue, une fois encore, une véritable caricature du contenu des rapports complets. Il est vrai que les rapports complets sont rédigés par des scientifiques et que l'adoption des "Résumés Pour les Décideurs" (que certains ont rebaptisé "le Résumé par les décideurs") fait intervenir un grand nombre de représentants politiques délégués par chaque nation participant au GIEC...
C'est dans ces circonstances que deux scientifiques chevronnés et renommés, désormais en retraite, ont souhaité faire partager leurs points de vue.

Lennart Bengtsson est un éminent scientifique suédois dont on peut apprécier la très brillante carrière dans ce billet. Alarmé par le développement des perspectives politico-climatiques Bengtsson avait déjà fait connaître son opinion sur le blog de son collègue Hans von Storch comme je l'avais rapporté en Septembre 2013.

Pour sa part, James Lovelock, l'auteur de la thèse dite Gaïa, est un scientifique-auteur d'une multitude d'inventions remarquables. Lovelock a certainement été le principal promoteur de l'alarmisme climatique au Royaume Uni, dès les années 70-80. Depuis lors, confronté aux observations objectives, il a revu ses positions au point de devenir un des critiques les plus acerbes du GIEC, de ses participants et de quelques affirmations plus ou moins médiatiques sur divers autres sujets comme vous allez le voir. Compte tenu de sa notoriété, Lovelock a eu les honneurs d'une interview dans la revue Nature dont voici de larges extraits précédés d'une introduction-présentation de Lovelock par le chroniqueur de cette revue (Philip Ball (9 avril 2014))

1) Réflexions de James Lovelock sur l'héritage de Gaïa, sur le changement climatique, sur Fukushima, Tchernobyl etc.
Un interview publiée dans la revue Nature.

naturegaialovelock5

"Réflexions de James Lovelock sur l'héritage de Gaïa

Un scientifique qui participe à une exposition qui s'ouvre aujourd'hui à Londres, s'exprime sur Gaïa, sur le changement climatique et sur la nécessite (ou non) du processus de revue par les pairs.

Une nouvelle exposition au Musée de la Science de Londres a donné l'occasion de voir les archives personnelles des scientifiques qui comptent parmi les plus influents de notre époque : James Lovelock "A la découverte de Lovelock : le scientifique, l'inventeur, le non-conformiste" raconte l'histoire du chercheur britannique dans les domaines de la médecine, des sciences environnementales et de la planète. Elle montre des documents qui remontent aux histoires de son enfance, des griffonnages sur des carnets de laboratoire ainsi que des textes de brevets et des lettres émanant de dignitaires du passé comme l'ancienne premier ministre du Royaume Uni (et chimiste) Margaret Thatcher. On y trouve également plusieurs inventions de Lovelock telles que le détecteur capteur d'électrons qui a permis la mesure des chlorofluorocarbones destructeurs de l'ozone de l'atmosphère dans les années 1970.

Lovelock qui est né en 1919 est surtout connu pour "l'hypothèse Gaïa" qui avançait l'idée que la Terre fonctionne comme un système qui s'auto-régule de manière semblable à un organisme vivant. Cette idée à provoqué une controverse quand Lovelock et le micro-biologiste Lynn Margulis l'ont mise en avant dans les années 1970 mais les scientifiques de l'environnement et de la planète en acceptent à présent les principes de base. En 2006, son livre "La vengeance de Gaïa" prédisait des effets désastreux dus au changement climatique pour les toutes prochaines décennies à venir. Il y écrivait que "Seule une poignée des milliards d'habitants en capacité de procréer qui sont vivants aujourd'hui, survivront."

Cette semaine, Lovelock a parlé à la revue Nature au sujet de sa carrière, de ses prédictions antérieures et de son nouveau livre "Une dure route vers le futur".(recensé la semaine dernière dans Nature). .

- Est-ce que le changement climatique va être moins extrême que vous ne l'aviez pensé auparavant ?

La vengeance de Gaïa dépassait les bornes mais nous étions tous tellement impressionnés par la corrélation parfaite entre la température et le CO2 dans les analyses des carottes de glace [prélevées dans les glaces du Groenland et de l'Antarctique étudiées depuis les années 1980]. Vous auriez pu tracer une ligne droite corrélant la température et le CO2 et c'était tellement tentant pour que tout le monde affirme que "Eh bien, avec la montée du CO2 nous pouvons dire que telle ou telle année, il fera chaud comme ça.". C'était une erreur que nous avons tous commise.

Nous n'aurions pas dû oublier que le système a énormément d'inertie et que nous n'allons pas changer ça très rapidement. La chose que nous avons tous oublié c'est le stockage de la chaleur dans les océans - qui est mille fois plus grande que celle qui est dans l'atmosphère. Vous ne pouvez pas changer ça très rapidement.

Mais, en tant que scientifique indépendant il est beaucoup plus facile de dire que vous vous êtes trompé que si vous faites partie d'un département gouvernemental ou quoi que ce soit d'autre.

- Eh bien alors à quoi vont ressembler les 100 prochaines années ?

Il est impossible de répondre à cette question. Tout ce que je peux dire c'est qu'en aucun cas cela ne sera jamais et d'aucune façon aussi mauvais que ce que prédisent les scénarios les plus pessimistes.

- Etes vous encore pessimiste quand à la perspective de parvenir à une solution politique sur le changement climatique ?

Absolument.

- Dans votre dernier livre, vous vous déclarez partisan de ne pas essayer d'arrêter le changement climatique mais, plutôt, d'effectuer ce que vous appelez une "retraite soutenable". Pourquoi cela ?

Je pense que c'est la meilleure approche. Courir et foncer en avant ressemble beaucoup à une stratégie napoléonienne avant une bataille. Il est beaucoup mieux de réfléchir à la manière dont nous pouvons nous protéger. Si nous voulons vraiment faire quelque chose de bénéfique, nous devrions faire plus d'efforts pour faire de notre planète un lieu convenable pour y vivre dans le futur plutôt que d'essayer de sauver quoi que ce soit dans un futur éloigné. Ceci est particulièrement vrai pour la Grande Bretagne. Nous sommes presque morts de faim pendant la seconde guerre mondiale. Notre production agricole n'a pas augmenté suffisamment pour subvenir aux besoins de la population actuelle. C'est une chose sur laquelle nous devrions porter toute notre attention et non pas chercher à jouer aux devinettes en espérant des jours meilleurs.

- Est-ce que l'énergie nucléaire fera partie du futur malgré le désastre nucléaire de Fukushima au Japon ?

Cette affaire de Fukushima est une plaisanterie. Bon, ce n'est pas une plaisanterie, c'est très sérieux - Mais comment avons-nous pu être trompés par quelque chose comme ça ? Vingt six mille personnes ont été tués par le tremblement de terre de force 9 et par le tsunami [qui a causé la fusion du réacteur] et combien y a-t-il eu de morts avérés qui ont été tués par l'accident nucléaire ? Aucun

[Au sujet du désastre de Tchernobyl, Lovelock écrit dans "Une dure doute vers le futur" : "Les mensonges les plus étonnants ont été proférés et le sont encore et ils sont crus par tout le monde....Malgré au moins trois enquêtes effectuées par des médecins renommés, il n'y a eu aucune augmentation mesurable de la mortalité en Europe de l'Est. "]

Une grande quantité des investissements effectués dans les technologies vertes ont été une gigantesque arnaque même si cela partait de bonnes intentions."

[...]

La réaction de l'establishment climatique britannique à cette interview de Lovelock publié dans Nature, ne s'est pas fait attendre. En bref, comme on pouvait le prévoir, Lovelock y est accusé de ne pas être d'accord avec les déclarations du rapport AR5 du GIEC...bengtsson4

2) Lennart Bengtsson : Sur la science et la politique du changement climatique

Texte de Lennart Bengtsson publié le 15/04/14 dans un journal suisse à grand tirage, le Neue Zürcher Zeitung.
Il existe une traduction en anglais de Philipp Mueller

Voici une traduction en français de la déclaration de Bengtsson que beaucoup considèrent comme une analyse "raisonnable et prudente" de la situation par un ancien membre éminent du sérail de la climatologie. Les caractères engraissés dans ce texte le sont par l'auteur de PU.

"Nous savons depuis la fin du XIXe siècle que le climat de la Terre est sensible aux gaz à effet de serre présents dans l'atmosphère. Cest à cette époque que le chimiste suédois Svante Arrhénius a montré qu'une augmentation de la teneur en CO2 induirait un réchauffement du climat. De fait, Arrhénius avait peu d'espoir que cela se produise. Par conséquent, les Suédois devraient continuer à souffrir du froid et d'un climat déplorable. Depuis cette époque, beaucoup de choses ont changé. Les émissions annuelles de CO2 ont à présent atteint un niveau qui est environ 20 fois supérieur à celui de 1896. Ceci est à l'origine d'une inquiétude qui s'est répandue dans le monde entier.

Un accroissement du CO2 dans l'atmosphère conduit sans aucun doute à un réchauffement de la surface terrestre. Mais l'amplitude et la vitesse de ce réchauffement sont encore incertaines parce que nous ne pouvons pas encore séparer de manière satisfaisante l'effet des gaz à effet de serre des autres influences climatiques. Bien que le forçage radiatif des gaz à effet de serre (incluant le méthane, les oxydes d'azote et les fluorocarbones) ait augmenté de 2,5 watts/m2 depuis la moitié du XIXe siècle, les observations ne montrent q'un réchauffement modéré de 0,8° Celsius. Ainsi, le réchauffement est nettement plus petit que celui qui a été prédit par la plupart des modèles climatiques. De plus, le réchauffement du siècle dernier n'a pas été uniforme. Des phases de réchauffement manifeste ont été suivies par des périodes sans aucun réchauffement, allant même jusqu'au refroidissement.

La relation complexe qui n'est seulement que partiellement comprise, entre les gaz à effet de serre et le réchauffement climatique conduit à un dilemme politique. Nous ne savons pas quand nous pouvons nous attendre à un réchauffement de 2° Celsius. Le GIEC suppose que la Terre va se réchauffer de 1,5 à 4,5° Celsius en réponse à un doublement de la concentration en CO2. Cependant, ces fortes valeurs de la sensibilité climatique ne sont pas en accord avec les observations. En d'autres termes, le réchauffement climatique n'a pas été un problème sérieux jusqu'à maintenant si nous nous fions aux observations. Cela ne devient un problème que si nous nous basons sur les simulations numériques du climat par les ordinateurs.

Il n'y a pas d'autre choix que de passer par ces simulations sur ordinateur si on veut prédire ce qui va se passer dans le futur. Mais comme il n'y a aucun moyen de s'assurer de leurs validités, les prévisions numériques reposent plus sur de la croyance que sur des faits. Le GIEC a publié l'opinion de ses experts il y a quelques mois et a présenté ces dernières sous la forme de probabilités. Tant que les résultats ne peuvent pas être étayés par des modèles dûment validés celles-ci donnent l'impression trompeuse d'être fiables.

Les états membres de l'Union Européenne poursuivent une stratégie destinée à limiter le risque climatique en réduisant au minimum et le plus rapidement possible, l'usage des carburants fossiles. Beaucoup de citoyens ne veulent pas courir de risque et, de ce fait, sont en faveur de cette politique. De plus, beaucoup de citoyens désirent se débarrasser de l'énergie nucléaire parce qu'elle aussi est perçue comme trop risquée. Eliminer, tout à la fois, l'énergie nucléaire et les carburants fossiles, constitue un énorme défi. Malgré tout, l'Allemagne et la Suisse ont fait le choix d'opérer une telle transition. Poursuivre une politique énergétique aussi radicale et peut-être hasardeuse, en dépit des possibilités économiques, scientifiques et techniques limitées, constitue une entreprise gigantesque. .

Dans ce contexte, on doit considérer deux facteurs. Tout d'abord, une transition énergétique de ce genre ne fera malheureusement que peu baisser les émissions de CO2 de la planète, parce que 90% de ces émissions proviennent de pays situés en dehors de l'Europe. Nombre de ces pays vont probablement augmenter leurs émissions de CO2 dans le futur du fait que leur population augmente et que leur priorité numéro un est d'améliorer le niveau de vie de leurs habitants. La Chine constitue un cas particulier. Ses émissions de CO2 ont plus que doublé durant la dernière décennie et elles sont, maintenant, près de 50% supérieures à celles des USA. Pour diverses raisons il n'y a pas actuellement d'alternative aux fluides fossiles dans les pays en voie de développement. Les besoins en énergie sont très importants dans ces pays. Actuellement, il y a 1,3 milliard de personnes qui n'ont pas accès à l'électricité. Dans le but de réduire rapidement et facilement leurs émissions, les pays de l'OCDE ont exporté quelques-unes de leurs industries très énergivores dans les pays en voie de développement ; ça fait bien dans les statistiques nationales. Par contre, au plan global, cela ne fait pas grande différence car les émissions se produisent tout simplement quelque part ailleurs.

D'autre part, la transition rapide vers les énergies renouvelables a entraîné une augmentation considérable du prix de l'énergie dans de nombreux pays et tout particulièrement en Europe. Ceci a pour conséquence de mettre à mal la compétitivité et de conduire à des délocalisations des industries grandes consommatrices d'énergie vers des pays tels que les USA où le coût de l'énergie à chuté de manière significative du fait de l'utilisation du gaz de schiste.

On ne doit pas être surpris de constater qu'il y a d'autres forces en jeu qui poussent vers un changement rapide. Ceci résulte du fait que dès que des subventions gouvernementales sont impliquées, d'énormes profits deviennent accessibles. Cependant, avant que des changements radicaux et hâtifs puissent être appliqués au système énergétique en vigueur, on doit avoir des preuves solides que le changement climatique est suffisamment préjudiciable. Nous sommes encore loin de posséder de telles preuves. Il serait aberrant de conclure, à la lecture du rapport du GIEC et d'autres rapports, que la science est comprise.

Nous ne savons pas encore quelle est la meilleure solution pour résoudre les problèmes énergétiques de notre planète. Mais beaucoup de choses peuvent se produire pendant les cent prochaines années. Une sensibilité climatique modérée comme celle qui est suggérée par les observations récentes pourrait procurer un espace de respiration d'environ un demi-siècle (mais pas beaucoup plus), si, pendant le même temps, un basculement du charbon vers le gaz naturel se produit. Ceci nous offre l'opportunité d'éviter des investissements inutiles réalisés sous l'emprise de la panique et d'investir de préférence les ressources disponibles dans des programmes de recherche à long terme bien réfléchis. Ces derniers incluent les nouvelles formes d'énergie nucléaire tout comme l'utilisation des déchets nucléaires pour produire de l'énergie."

_________________________________________________________

Lennart Bengtsson était, jusqu'en 1990, le Directeur de l'Institut Max Planck pour la Météorologie à Hambourg. Après son départ en retraite, il a dirigé, entre autres, le Département des Sciences de la Terre de l'Institut International des Sciences de l'Espace à Berne."

D'autres traductions en français.de cet article de Lennart Bengtsson ont été publiées (Belgacomcloud (h/t skyfall) et Contrepoints)

La climatologue Judith Curry a également cité, (parmi d'autres) de larges extraits des déclarations de ces deux mêmes scientifiques dans un billet intitulé "Changement climatique : ce que nous ne savons pas ", en réponse (ironique) à une déclaration récente de l'AAAS américaine (Association de scientifiques US) qui était intitulée "Changement climatique : ce que nous savons".
En conclusion de son exposé à ce sujet, Judith Curry fait les remarques suivantes :

"Il est réjouissant de constater que des scientifiques renommés et des penseurs "sortent de leur réserve" pour donner leurs points de vue sur la science climatique et sur la manière dont nous devrions y répondre en des termes qui diffèrent des affirmations du GIEC et des interprétations les plus alarmistes.

Il est malheureux que ce comportement semble se limiter à des scientifiques indépendants ou à des retraités ; les fonctionnaires en activité dans de nombreux pays ne le feraient pas (même si leurs convictions personnelles différent de celles du consensus du GIEC) et le même diagnostic semble s'appliquer à la plupart des scientifiques employés par les universités.
C'est une situation très malsaine, en particulier pour les universités."

On ne saurait mieux dire...

Stay tuned !

 

10 Mars 2014 : Retour vers la variabilité naturelle.

Les lecteurs attentifs se souviendront que j'avais conclu un billet précédent en faisant remarquer que les climatologues proches du GIEC invoqueraient, tôt ou tard, les effets de la variabilité naturelle encore ignorés par les modèles (après avoir longtemps affirmé que la variabilité naturelle, c'est à dire les variations naturelles du climat en l'absence de contribution anthropique, était comprise et correctement prise en compte dans les modélisations).
De fait, nous assistons actuellement à une sorte de retour en arrière du processus de la recherche initié par la mise en place du GIEC qui est maintenant atteint de la "paralysie du paradigme" selon les mots de Judith Curry, vers une analyse plus proche de la méthode scientifique traditionnelle évoquée notamment par le Professeur Bob Carter.
S'agissant de l'analyse de l'influence des émissions anthropiques sur le climat de la planète, la méthode scientifique traditionnelle aurait consisté à rechercher, tout d'abord, l'ensemble des paramètres qui influent, de manière naturelle, sur le climat, c'est à dire en l'absence de forçage anthropique. Ceci aurait permis d'expliquer les causes des importantes variations climatiques des temps passés et notamment, parmi celles-ci, la plus proche de nous, l'intervention du petit âge glaciaire (du XVIIIe au début de XXe siècle) qui est très bien documentée et incontestée. Ceci étant bien compris et modélisé, il aurait alors été possible d'observer et d'analyser les effets de la superposition d'un éventuel forçage anthropique.
Comme le savent les lecteurs(trices) de ce site, ce n'est pas cette méthode qui a été choisie. Le GIEC a été créé avec pour mission d'identifier, d'emblée, les effets anthropiques sur le climat. Cette inversion du processus scientifique traditionnel semble s'être, à présent, retournée contre ses initiateurs.
En effet, les climatologues proches du GIEC ont affirmé, pendant plus de deux décennies que "the science is settled" ("la science est comprise") et qu'ils avaient bien pris en compte l'ensemble des facteurs influençant le climat de la planète. De nos jours, les observations objectives mettent en évidence la divergence croissante entre les modèles et les observations et les climatologues se voient contraints d'effectuer un retour en arrière vers l'analyse des facteurs qui contribuent naturellement aux changements climatiques et qui ont été omis dans les modèles.
Sans aucun doute, certains penseront que c'est là beaucoup de temps perdu par rapport à ce qui aurait pu et dû être fait depuis le début.

Voici donc des extraits de deux articles parus, tout récemment, dans la revue Nature dont on sait qu'elle n'a jamais hésité à promouvoir les thèses du GIEC au détriment des avis opposés. Il s'agit d'analyses plus globales que celles proposées dans les articles spécialisés. Ces articles ont été rédigés par des contributeurs de la revue. Même s'ils sont loin d'être parfaits, je les ai choisi pour leurs qualités pédagogiques et parce qu'ils sont destinées à un public averti mais non spécialiste. Je donne de très larges extraits du premier article et de brèves citations du second.

Ces deux articles sont naturellement relatifs au plateau (ici souvent appelé "hiatus" - le choix du vocabulaire est signifiant) qui fait allusion au fait que la température moyenne à la surface de la planète ne varie plus de manière significative depuis quelques 16 ou 17 années consécutives, ce qui constitue une divergence considérable par rapport aux modèles du GIEC et ceci en dépit d'une croissance persistante du taux de CO2 atmosphérique durant cette même période.
La littérature scientifique de ces derniers mois a été enrichie d'un nombre importants de publications cherchant un explication rationnelle pour ce "plateau" ou ce "hiatus". Pour l'instant, plusieurs explications ont été avancées et les avis divergent. Chacun défend ses positions sans que l'on parvienne à un consensus.
En francophonie, on vous assure, urbi et orbi que tout va bien, que "la science est solide", que les choses sont claires en matière de climatologie.
Rien n'est plus loin de la vérité, comme vous allez le voir.

1) Kevin Trenberth et la chaleur (toujours) manquante : C'est la faute des oscillations océaniques et, notamment, de la PDO.
L'article de la revue Nature qui suit repose essentiellement sur un article récent de Kevin Trenberth (du NCAR US) qui se pose de graves questions et tente une explication sur la divergence constatée entre les modèles du GIEC et les observations objectives. Son explication est une alternative à quelques autres, totalement différentes, qui viennent d'être publiées par d'autres auteurs. Un débat très animé est en cours. Sans aucun doute, Kevin Trenberth fait partie du Top-ten des climatologues proches du GIEC où son influence a été déterminante.

Nature 505, 276–278 (16 Janvier 2014) doi:10.1038/505276a:
Changement climatique : la problématique de la chaleur manquante.

tollefson

 

 

 

 

 

 

 

 

Voici une traduction presque complète de cet article. Comme à l'accoutumée, les encadrés en couleur différente du fond sont des traductions des textes originaux. Sauf pour les sous-titres, les caractères engraissés dans le corps du texte, le sont par l'auteur de PU.

"Changement climatique : l'affaire de la chaleur manquante
Plongés depuis seize ans dans le "hiatus du réchauffement climatique", les scientifiques reconstituent le puzzle d'une explication.

Le plus grand mystère actuel des sciences du climat a peut-être pris corps, alors qu'il était ignoré jusque là, avec un affaiblissement subtil des vents tropicaux qui soufflent sur l'Océan Pacifique à la fin de l'année 1997. Normalement, ces vents poussent les eaux réchauffées par le soleil vers l'Indonésie. Lorsqu'ils faiblissent, l'eau chaude est reversée vers l'Amérique du Sud, ce qui se traduit par un phénomène connu sous le nom d'El Niño - la température moyenne du globe a atteint une valeur record en 1998 - puis le réchauffement s'est arrêté.

Pendant plusieurs années, les scientifiques ont ignoré la pause au motif des fluctuations du système climatique : les variations naturelles de l'atmosphère, des océans et de la biosphère qui pilotent des épisodes chauds et froids du globe. Mais la pause a persisté ce qui a déclenché une crise mineure dans ce domaine de recherche. Tout en présentant des sauts et des creux, la température moyenne de l'atmosphère n'a monté que très peu depuis 1998, contredisant ainsi apparemment les projections des modèles et en dépit des émissions toujours croissantes des gaz à effet de serre. Les sceptiques du climat ont tiré parti de la tendance des températures comme un élément de preuve que le réchauffement climatique s'était arrêté. Pendant ce temps-là, les scientifiques savent que la chaleur doit quand même augmenter quelque part dans le système climatique mais ils se sont trouvés en difficulté pour expliquer où cette chaleur s'en allait si ce n'était pas dans l'atmosphère. Certains ont commencé à se demander s'il n'y avait pas quelque chose de faux dans leurs modèles.

A présent, alors que le hiatus du réchauffement climatique entre dans sa seizième année, les scientifiques sont enfin rentrés bille en tête dans la problématique de la chaleur manquante. Certains ont pointé le soleil, les volcans et jusqu'à la pollution chinoise en tant que responsables mais des études récentes suggèrent que ce sont les océans qui sont la clef de l'anomalie. Le dernier suspect en date est l'El Niño de 1997-1998 qui a pompé des quantités prodigieuses de chaleur des océans jusque dans l'atmosphère - peut-être suffisamment pour faire basculer le Pacifique équatorial dans un refroidissement prolongé qui a oblitéré la hausse des températures du globe depuis lors.

"L'événement El Niño de 1997 à 1998 a été le déclenchement pour des changements dans le Pacifique et je pense que c'est très probablement le début du hiatus" dit Kevin Trenberth qui est un climatologue au NCAR (Centre National pour la Recherche Atmosphérique) de Boulder au Colorado. Selon cette théorie, le Pacifique tropical pourrait sortir de sa torpeur prolongée de période de froid dans les années à venir. "A la fin", dit Trenberth, "il rebasculera dans l'autre direction" (NdT : sans doute, mais la période de la PDO est de 60-70 ans ce qui fait que cet événement pourrait se produire dans une vingtaine d'années environ).

Un contraste brutal

Vu sur un graphique des températures atmosphériques du globe, le hiatus contraste de manière saisissante avec le réchauffement rapide des deux décennies qui l'ont précédé (Ndt : voir graphique ci-dessous) Les simulations préalablement réalisées selon le GIEC suggèrent que le réchauffement aurait dû se poursuivre avec un taux moyen de 0,21°C par décennie de 1998 à 2012 au lieu du réchauffement observé qui est seulement de 0,04°C par décennie mesuré par le Met Office du Royaume Uni à l'Université de East Anglia à Norwich.
L'explication la plus simple pour le hiatus et pour la divergence avec les modèles est la variabilité naturelle. Tout-à-fait comme il y a des variations entre le chaud et le froid dans le temps qu'il fait d'un jour sur l'autre, les fluctuations chaotiques du climat peuvent propulser les températures vers le bas ou vers le haut d'une année sur l'autre ou d'une décennie sur l'autre. Les données sur les climats du passé montrent des vagues de chaleur ou de froid qui ont duré longtemps et les modèles du climat suggèrent que ceci peut se produire quand le monde se réchauffe sous l'influence des gaz à effet de serre.

Mais aucune des simulations du climat effectuées pour le GIEC n'a engendré ce hiatus particulier à cette période particulière. Ceci a conduit les sceptiques - et quelques scientifiques - à la conclusion controversée que les modèles auraient pu surestimer les effets des gaz à effet de serre et que le réchauffement futur pourrait ne pas être aussi fort que ce qui était redouté"[...].

Voici le relevé de température moyenne (1997-2014) du globe établi par les mesures satellitaires RSS-MSU (qui dispose des données pour le mois de Février 2014)rss-msufev

 

C'est ce que Jeff Tollefson (et Trenberth) appellent "le hiatus" et que quelques autres nomment "la pause".
Pour ma part, comme Pachauri, je préfère utilise le terme de "
plateau" car il n'implique rien sur son avenir...que personne n'est réellement en mesure de prévoir.

 

 

Tollefson qui adhère manifestement aux raisonnements de Trenberth, survole rapidement les autres explications concurrentes et déjà publiées (soleil, volcans, aérosols etc.) pour le "hiatus" et les rejette.

"Mais même les scientifiques qui restent confiants dans les modèles de base, reconnaissent qu'il y a une demande croissante pour expliquer ce qui se passe de nos jours.. "Il y a quelques années, vous voyiez le hiatus, mais on pouvait l'écarter parce qu'il était bien noyé dans le bruit" dit Gabriel Vecchi qui est climatologue à la NOAA (laboratoire de dynamique des fluides de Princeton, New Jersey). A présent, "c'est une chose qu'il nous faut expliquer".

Les chercheurs ont suivi différentes pistes au cours des dernières années en se focalisant essentiellement sur trois facteurs : le Soleil, les particules aérosols dans l''atmosphère et les océans. La puissance énergétique du soleil tend à augmenter ou à diminuer avec un cycle de 11 ans mais le soleil est rentré dans une phase d'endormissement au tournant du millénaire. Le cycle naturel approche actuellement de son maximum mais jusqu'à présent il a connu le maximum solaire le plus faible depuis cent ans. Ceci pourrait aider à expliquer le hiatus et la divergence avec les simulations numériques qui impliquent une irradiance solaire plus forte que celle que la Terre a reçue depuis 2000.

Une augmentation inattendue des particules aérosols dans la stratosphère pourrait aussi être un facteur refroidissant la Terre plus qu'il n'avait été prédit. Ces particules renvoient la lumière du soleil dans l'espace et les scientifiques soupçonnent que les petits volcans - et peut-être jusqu'à l'industrialisation de la Chine - auraient pu pomper des aérosols supplémentaires dans la stratosphère pendant 16 ans, provoquant une baisse des températures du globe.

Certains ont avancé l'idée que ces deux facteurs pouvaient être les principaux facteurs du hiatus mais des études publiées durant les années récentes suggèrent que leurs effets sont probablement relativement petits. Trenberth, par exemple, a analysé leurs impacts sur la base des mesures satellitaires de l'énergie qui rentre et qui sort de la planète et il a estimé que les aérosols et l'activité solaire ne pouvaient rendre compte que de 20% du hiatus. Ceci laisse le gros du hiatus aux océans qui représentent de gigantesques éponges à chaleur. Et c'est alors que les projecteurs se sont braqués sur la zone équatoriale du Pacifique."[...]

Jeff Tollefson donne ici une introduction (non traduite) aux événements météorologiques bien connus (sécheresses, inondations etc.) associés aux phénomènes El Niño-La Niña (l'ENSO). Il passe sous silence le fait que les phénomènes "extrêmes" qu'il décrit, sont répétitifs et très bien connus. Ils ont notamment été observés par Charles Darwin (1831-1836) lors de son voyage d'étude puis identifiés avec l'ENSO à la fin du XIX e siècle.
Tollefson évoque ensuite l'Oscillation Pacifique Décennale en ces termes:

"Souffler le chaud et le froid

Cette variation de la température océanique connue sous le nom d'Oscillation Pacifique Décennale (PDO Pacific Decadal Oscillation), pourrait être une pièce cruciale du puzzle posé par le hiatus. Le cycle se renverse tous les 15 à 30 ans et, lors de sa phase positive, l'oscillation favorise El Niño qui tend à réchauffer l'atmosphère. Après avoir relâché de la chaleur pendant quelques décennies à partir du Pacifique Est et du centre, la région se refroidit et entre dans la phase négative de la PDO. Cet état tend à favoriser La Niña qui apporte des eaux fraîches venant des profondeurs le long de l'équateur tendant à refroidir la planète. Les chercheurs ont identifié la signature de la PDO en 1997 mais ce n'est que récemment qu'ils ont commencé à comprendre comment elle s'articule au sein du processus général de la circulation océanique et dans quelle mesure elle peut aider à expliquer le hiatus.

Une découverte importante est intervenue en 2011 lorsqu'une équipe du NCAR dirigée par Gerald Meehl a expliqué que si on incluait le comportement de la PDO dans les modèles climatiques globaux, cela introduisait des interruptions de durée décennale dans le réchauffement climatique. Les observations des données des températures océaniques durant le récent hiatus révèlent, dans une étude plus récente, comment les chercheurs du NCAR (NdT, Trenberth et al qui pensent que la chaleur perdue s'est réfugiée au fond des océans) ont montré qu'un surplus de chaleur s'est déplacé dans les profondeurs océaniques après 1998, ce qui a contribué à empêcher le réchauffement de l'atmosphère. Dans un troisième article, l'équipe des mêmes chercheurs a utilisé des modèles numériques pour documenter le processus de renversement quand la PDO bascule dans sa phase positive alors que celle-ci échauffe la surface de l'océan et l'atmosphère, contribuant ainsi à plusieurs décennies de réchauffement rapide.

Une percée décisive est survenue l'année dernière de la part de Shang-Ping Xie et Yu Kosaka de la Scripps Institution of Oceanography à La Jolla en Californie. Les deux chercheurs ont utilisé un procédé différent en programmant un modèle qui inclut les températures de surfaces réelles pour les dernières décennies dans la région Est du Pacifique équatorial pour voir ce qui arrivait pour le reste du globe. Non seulement leur modèle a recréé le hiatus de la température du globe mais il a aussi reproduit les tendances climatiques saisonnières et régionales qui ont accompagné le hiatus y compris le réchauffement dans beaucoup de zones et des hivers nordiques plus froids.

"ça a été une révélation pour moi quand j'ai vu cet article" dit John Fyfe qui est modélisateur du climat au Centre Canadien pour la Modélisation Climatique et d'Analyse dans le Victoria. Mais, a-t-il ajouté, ça n'explique pas tout. " Cela a contourné la question sur la cause qui pilote le refroidissement tropical".

Ceci a été étudié par Trenberth et John Fasullo (NdT : également auteurs d'un célèbre 'bilan énergétique de la Terre) qui est aussi du NCAR, lesquels ont impliqué les vents et les données sur les océans pour expliquer comment ce processus s'enclenche. Leur étude explique comment les vents dominants associés à La Niña aident à pousser les eaux chaudes vers l'Ouest et, finalement, à les enfouir dans les profondeurs tout en activant la hausse des eaux froides le long de la zone de l'Est équatorial. Dans les cas extrêmes comme celui de La Niña de 1998, ceci est capable de forcer l'océan dans une phase froide de la PDO.

Une analyse des données historiques est venue conforter leurs conclusions, montrant que la phase froide de la PDO a coïncidé avec quelques décennies de refroidissement après la Seconde Guerre Mondiale, et que la phase chaude a coïncidé avec la montée rapide de la température du globe de 1975 à 1998.

"Je crois que les éléments de preuve sont assez clairs" dit Mark Cane qui est climatologue à l'Université de Columbia à New York. "Ce ne sont pas les aérosols ou la vapeur d'eau stratosphérique (NdT : explications avancées par des équipes concurrentes). Il s'agit d'une décennie de températures plus basses dans la zone Est du Pacifique équatorial."pdonature

 

 

 

 

 

 

 

 

 

jisao-hadcrut

Le graphique ci-dessus superpose les variations temporelles de l'indice PDO (JISAO- Université de Washington) avec la courbe des températures. Ce graphique montre que la température s'est élevée pendant les périodes 1920-1945 d'une part et 1976-1998 d'autre part, de manière synchrone avec les indices PDO positifs (en rouge sur le graphe du haut). Par contre, la période durant laquelle l'indice PDO a été négatif (en bleu sur la courbe du haut) a effectivement correspondu avec une période de stagnation ou de refroidissement de la température.

J'ai réalisé une autre version de la même superposition qui est peut-être plus explicite encore, car moins étirée que celle de cet article de Nature. Elle superpose l'indice PDO-JISAO (1900-2013) donné par l'Université de Washington et les données mensuelles de l'anomalie de température HadCRUT4, de 1900 à Janvier 2014.

La voici ci-contre. On aperçoit ici deux points de basculement particulièrement visibles.

D'une part, le refroidissement brutal de la PDO vers 1946 qui a coïncidé avec une baisse de la température (qui faisait craindre la survenue d'un petit âge glaciaire à l'époque) qui s'est prolongée jusqu'en 1980 où un nouveau renversement de la PDO a coïncidé avec la hausse récente des températures qui s'est prolongée jusqu'à la fin du XXe siècle.

Il apparaît que la PDO a de nouveau basculé dans un régime froid depuis quelques années. La température du globe a stagné depuis lors.

A noter que les climatologues avaient, jusqu'à récemment, attribué le "hiatus" de 1945 à 1976 aux aérosols et non pas à la phase négative de la PDO. D'autre part, dans son dernier rapport, l'AR5, le GIEC affirme que l'influence anthropique ne s'est fait sentir que depuis 1950. Dès lors, on peut se demander ce qui a provoqué une hausse de température identique à celle de 1976-1998 pendant les années 1910-1946. L'intervention de la PDO permet d'expliquer la succession des trois épisodes comme l'avaient déjà remarqué plusieurs chercheurs indépendants du GIEC (Voir la section 2, ci-dessous).

Un débat houleux

Cane a été le premier à prédire le refroidissement actuel du pacifique, bien que les implications ne fussent pas claires à l'époque. En 2004, lui et ses collègues ont trouvé qu'un simple modèle climatique régional prédisait un basculement chaud dans le Pacifique qui avait commencé en 1976 quand la température du globe a commencé à augmenter rapidement. En y réfléchissant après coup, ils ont conclu leur article avec une simple prévision. "quelle que soit sa valeur, le modèle prédit que le El Niño de 1998 a marqué la fin de période chaude du Pacifique tropical post-1976."

C'est un résultat étonnamment exact mais ce travail reste fortement contesté, en partie parce qu'il est basé sur un modèle simplifié du climat qui se concentre seulement sur la zone Pacifique équatoriale. Cane poursuit en remarquant que la tendance durant le siècle passé a été vers un réchauffement dans le Pacifique Ouest (NdT : du fait de la survenue de nombreux El Niños durant cette période) par rapport à la zone Est. Ceci ouvre la porte, dit-il, à la possibilité que le réchauffement dû aux gaz à effet de serre pilote les situations La Niña et pourraient continuer à le faire dans le futur contribuant à supprimer le réchauffement climatique. "Si tout ceci est vrai, il existe une rétroaction négative et si nous ne la prenons pas en compte dans nos modèles ces derniers surestimeront le réchauffement" dit-il.

Il y a deux défauts potentiels dans cette attribution. Tout d'abord, les données historiques sur les températures des océans sont notoirement imprécises ce qui a conduit de nombreux chercheurs à contester les affirmations de Cane que le Pacifique équatorial avait basculé vers des conditions plus riches en La Niña durant le siècle passé. Ensuite, de nombreux chercheurs ont trouvé des processus opposés dans les simulations numériques des modèles climatiques qui calculent les interactions entre l'atmosphère et les océans au delà du Pacifique équatorial. Ces simulations tendent à montrer une tendance vers plus de conditions du type El Niño résultant du réchauffement climatique.

La différence semble résider dans le mécanisme par lequel le réchauffement influence l'évaporation dans des zones du Pacifique, selon Trenberth. Ce dernier dit que les modèles suggèrent que le réchauffement climatique a un plus grand impact sur les températures dans la zone Est relativement froide parce que l'augmentation de l'évaporation ajoute, là-bas, de la vapeur d'eau dans l'atmosphère augmentant ainsi le réchauffement atmosphérique. Cet effet est plus faible dans la région plus chaude du Pacifique Ouest où l'air est déjà saturé d'humidité.

Les scientifiques auront la possibilité de tester leurs théories dans un assez proche avenir. Pour ce qu'il en est actuellement, les vents tropicaux forts poussent encore plus d'eau chaude vers l'Ouest, vers l'Indonésie, approvisionnant des tempêtes telles que le typhon Haiyan de Novembre dernier (NdT : malheureusement, les études montrent que cette saison cyclonique n'a rien d'exceptionnel) et repoussant les eaux du Pacifique Ouest qui sont maintenant de quelques 20 cm plus hautes que celles du Pacifique Est. Tôt ou tard, cette tendance va inévitablement se renverser. "Vous ne pouvez pas continuer à empiler des eaux chaudes dans le Pacifique Ouest" dit Trenberth "Il arrivera que l'eau montera si haut que la tendance va se renverser". Et quand ceci se produira , si les scientifiques sont sur la bonne piste, la chaleur manquante va réapparaître et les températures vont remonter de nouveau." (NdT : Autrement dit, ces scientifiques attendent le prochain El Niño qui ne manquera pas de se produire et de faire monter (un peu) la température comme l'a fait le fort El Niño de 2010 avant que celle-ci ne retombe... )

Comme vous l'avez constaté, l'auteur de ce billet est un supporter des idées de Kevin Trenberth qui est également l'auteur d'un article que j'avais commenté sous le titre "A la recherche de la chaleur perdue": Dans l'état actuel des choses, Trenberth pense que la chaleur "perdue" s'est réfugiée dans les profondeurs des océans. Nous verrons plus loin ce qu'en pense une de ses collègues, Judith Curry.

Voici le lien de l'article dont s'est largement inspiré Jeff Tollefson pour son billet dans Nature :
" Un hiatus apparent dans le réchauffement climatique ?" (Open Access)
Kevin E. Trenberth and John T. Fasullo

Un article (open access) rédigé sensiblement dans le même esprit que celui qui est traduit ci-dessus, est paru dans la revue Science, concurrente de Nature,. Il est intitule :"The pacific tropical ocean : Back in the driver's seat ?" : "L'océan Pacifique tropical : De retour aux commandes ?"

2) Les prédécesseurs oubliés :

Les lecteurs(trices) attentifs(ives) de Pensee-Unique.fr se souviendront que j'ai souvent évoqué, notamment dans ce billet qui date d'Oct. 2009 , les publications ou les observations de divers chercheurs, climatologues ou météorologues, qui avaient déjà mis en évidence la coïncidence assez remarquable qui existe entre les phases océaniques de la PDO et de l'AMO (l'Oscillation Multidécennale Atlantique) et les variations de la température terrestre que les chercheurs proches du GIEC comme Trenberth et Fasullo remettent à l'ordre du jour. aleo3

En voici deux exemples, parmi bien d'autres ::

 


Une publication ( Energy and Environnment, 21, 437-460, Sept. 2010) de Joseph d'Aleo et Don Easterbrook qui analysent ces corrélations observationnelles et dont la figure ci-contre est extraite.

Comme on le voit, ces auteurs avaient, dès 2009, observé que les variations de la température globale suivent d'assez près les évolutions d'une combinaison de la PDO et de l'AMO.

 

 

 

De même William Gray (un spécialiste renommé des ouragans) avait proposé le graphique suivant lors d'un colloque mentionné dans cet autre billetgray2.

 

William Gray avait basé ses analyses sur l'évolution des courants océaniques. Tout comme Judith Curry (basé sur l'AMO, voir ci-dessous), Syun Ichi Akasofu et quelques autres, Gray prévoit un abaissement de la température globale dans les années à venir.

 

 

 

3) Un deuxième article, tout récent, publié dans Nature Climate Change est intitulé "Heat hide and seek" (La chaleur joue à cache-cache)
. Nature Climate Change est une sous-section, nouvellement créée, de Nature, destinée à rassembler les articles sur le climat. L'auteur, Lisa Goddard est membre du "International Research Institute for Climate and Society, Columbia University, Palisades, New York 10964, USA.". Elle met, sans ambages, le doigt sur un point crucial.

goddard1

 

 


Nature Climate Change 4, 158–161 (2014) doi:10.1038/nclimate2155

Voici un extrait significatif de cet article qui fait référence au précédent et que l'on ne s'attendait certainement pas à voir un jour publié dans Nature :

"Il est intéressant de constater que personne n'évoque ouvertement l'autre versant de cette situation : l'accélération du réchauffement climatique. Les années 1970 jusqu'au milieu des années 1990 ont connu une période positive de l'Oscillation Pacifique Décennale et ont vu une accélération du réchauffement. Si vous acceptez les arguments sur l'effet d'une phase négative sur le réchauffement, alors, une phase positive de la PDO aurait dû avoir un résultat opposé."[..]

"Les informations requises pour gérer les risques et les opportunités des futurs changements climatiques, qu'ils soient naturels ou résultent de l'action humaine, doivent reposer sur une science solide. La science part de bonnes observations et d'une bonne synthèse. Mais les choses ne doivent pas d'arrêter là. Elle doit servir aussi à une meilleure compréhension, à un meilleur suivi et à des prédictions qui vont de la variabilité interannuelle aux décennales et de ses manifestations quant à un changement de la moyenne climatique."


On en saurait mieux dire tout haut ce qui vient immédiatement à l'esprit de tous les observateurs :
A partir du moment où on invoque l'effet de la phase négative de la PDO pour expliquer l'absence de réchauffement depuis 16 ou 17 ans, comme le font Trenberth et Fasullo, il est difficile de nier que la phase positive précédente a contribué au réchauffement de la période précédente (1976-1998) qui est précisément celle qui est censée démontrer l'influence anthropique, selon le GIEC.

Mais, évidemment, la reconnaissance de la contribution de la phase positive de la PDO durant la période 1976-1998 impliquerait que l'effet des gaz à effet de serre a été largement surestimé par les modèles. Dès lors, il faudrait en tenir compte dans les modélisations ce qui conduirait inévitablement à une diminution de la sensibilité au CO2, et donc, à des prédictions, pour le futur, nettement en retrait par rapport à ce qu'affirment les contributeurs au GIEC.

D'autre part, ces observations sur l'importance de la variabilité naturelle des océans, auparavant négligée, mettent à mal un des arguments essentiels développé par le GIEC depuis sa création. Ce dernier affirmait qu'il était impossible de modéliser les variations du climat sans tenir compte du CO2 anthropique parce que, selon les rapports du GIEC, la variabilité naturelle (supposée connue et prise en compte à l'époque) ne suffisait pas.
De fait si les contributeurs du GIEC (comme Trenberth) admettent maintenant que la variabilité naturelle a été capable de stopper, au moins temporairement, le réchauffement climatique, ceci implique nécessairement qu'ils n'en savaient pas assez sur l'importance de la variabilité naturelle sur l'évolution du climat et que leur argumentation était invalide. C'est très précisément ce qui a motivé le commentaire de Richard Lindzen ("Leur excuse pour l'absence de réchauffement durant les 17 dernières années est que la chaleur s'est cachée dans les profondeurs des océans. Mais ceci est la simple reconnaissance du fait que les modèles ne simulent pas les échanges de chaleur entre les couches de surface et les profondeurs des océans") que j'avais rapporté dans un billet précédent.

A l'évidence, tout ceci est extrêmement dérangeant pour le GIEC qui affirme pourtant être certain à 95% de son diagnostic. Ainsi, la remarque de Lisa Goddard "Il est intéressant de constater que personne n'évoque ouvertement l'autre versant de cette situation..." prend tout son sens.

En résumé, comme on pouvait le prévoir, l'introduction de la variabilité naturelle dans les explications de la "pause", rendue indispensable par les observations directes du comportement réel la Nature, pose des problèmes très épineux aux modèles des contributeurs du GIEC.

4) Le point de vue Judith Curry: "Sur la signification de la "pause" et ses implications"

Il ne s'agit ici que d'un bref résumé d'une conférence présentée à une assemblée de physiciens (la Société de Physique de Denver).

"Signification de la pause.

Dans les conditions du forçage par l'effet de serre anthropique,

  • Seulement 2% des simulations numériques des modèles du climat reproduisent des tendances à l'intérieur du domaine des incertitudes observationnelles.
  • Les pauses modélisées de plus de 15 ans sont rares et la probabilité d'une pause modélisée qui dépasse 20 ans est quasi nulle.

Les questions posées par la divergence entre les observations et les modèles

  • Les modèles climatiques sont-ils trop sensibles au forçage par les gaz à effet de serre ?
  • Le traitement de la variabilité naturelle par les modèles climatiques est-il incorrect ?
  • Le niveau de confiance "extrêmement probable" concernant l'attribution anthropique depuis 1950 est-il justifié ?
  • Les projections des modèles climatiques pour le XXIe siècle sont-elles trop élevées ?
  • Quelle confiance accordons-nous aux observations ?

I- Où se trouve la chaleur cachée ?

Hypothèse I
: Elle DOIT se cacher dans les océans.

  • Les évidences de la séquestration dans les profondeurs océaniques sont indirectes. Peu d'observations de la température des fonds océaniques avant 2005.
  • Les modèles océaniques ne transfèrent de chaleur nulle part dans le sens vertical aussi efficacement que décrit dans les réanalyses ECMWF.
  • Les inquiétudes au sujet de la chaleur remontant en surface semblent injustifiées si la chaleur est bien mélangée, du fait des contraintes du second principe de la thermodynamique.

Hypothèse II : Il n'y a PAS de chaleur cachée. Les changements de l'ennuagement se sont traduits pas une réflexion accrue de la lumière solaire.

  • Les données satellitaires sur les nuages du globe ne remontent qu'à 1983. Les problèmes d'étalonnage compliquent les analyses des tendances.
  • Les analyses de l'équilibre énergétique du globe sont affectées par des incertitudes importantes.

II. Peut-être les modèles sont-ils OK. Le problème se trouverait dans le forçage externe.

Il y a des désaccords significatifs dans les différentes données sur les forçages.
Les simulations CMIP5 (NdT : c'est à dire les plus récentes utilisées dans l'AR5 du GIEC) ont été forcées avec des données correspondant à "la meilleure estimation".
Aucun effort systématique n'a été effectué afin de préciser les incertitudes pesant sur ces données non plus que sur la sensibilité des modèles climatiques aux incertitudes du forçage."

A noter que Judith Curry a récemment publié (avec Marcia Wyatt) un article ( “Role for Eurasian Arctic shelf sea ice in a secularly varying hemispheric climate signal during the 20th century,” (Climate Dynamics, 2013).) basé sur la "ola" (l'onde de stade dont je vous avais parlé) qui évoque aussi la variabilité naturelle des océans (l'AMO) et qui prévoit un refroidissement à venir. J'espère avoir l'occasion de vous l'exposer en détail.

Enfin, comme vous pouvez le constater, ce ne sont pas les "odieux climato-sceptiques" (comme disent ou sous-entendent certains médias ou politiciens) qui qui mettent des bâtons dans les roues des théories du GIEC en vigueur.
C'est la Nature elle-même.

Comme vous le voyez, c'est un feuilleton à rebondissements. Si l'on peut dire.

Wait and see !
Stay Tuned !

 

08 Février 2014 : Le climatologue Garth Paltridge nous parle de la situation actuelle de la climatologie et des climatologues.

Le texte suivant constitue un prolongement du billet précédent (ci-dessous) dans lequel nous avions donné la parole à deux scientifiques français.
palt3paltridge

Garth Paltridge (ci-contre) est un authentique climatologue. Il est actuellement professeur émérite de l'Université de Tasmanie et membre de l'Académie des Sciences australienne.
Il a été Directeur de Recherche au sein de la Division de la Recherche sur l'Atmosphère du CSIRO.
(NdT : Commonwealth Scientific and Industrial Research Organization qui est, à peu près, l'équivalent du CNRS français). Il a également été le Directeur de l' "Institute of Antarctic and Southern Ocean Studies" et Président du "Antarctic Cooperative Research Centre".
Il est l'auteur de "The climate caper : facts and fallacies of global warming" soit "La balade climatique : des faits et des idées fausses sur le réchauffement climatique.
Son activité de recherche a été consacrée à la physique du changement climatique aussi bien en tant que théoricien qu'en tant que modélisateur sur ordinateur. Vous trouverez sur ce lien une interview récente de Paltridge et un CV détaillé (en anglais).

Garth Paltridge fait donc partie du "sérail" de la climatologie internationale, tout comme Judith Curry, souvent mentionnée dans ce site. Vivant à l'intérieur du système depuis de nombreuses années, Paltridge est donc particulièrement bien placé pour nous expliquer ce qui se passe, en réalité, au coeur de la climatologie ...et, surtout, des climatologues.

Comme à l'accoutumée, les encadrés en couleur différente (ici en jaune) contiennent une traduction en Français du texte initial. Les caractères engraissés le sont par PU. Vous avez, ci-dessous, une traduction complète du texte original publié par Paltridge dans Quadrant Online (une revue australienne de bon standing en ligne).

Voici le titre et le sous-titre de l'article publié par Garth Paltridge :

Les incertitudes intrinsèques du changement climatique.

Pratiquement tous les scientifiques qui sont directement impliqués dans les prédictions climatiques sont conscients des énormes incertitudes qui pèsent sur leurs travaux. Comment se fait-il alors qu'ils puissent jurer, la main sur le coeur, que les émissions humaines de dioxyde de carbone détruisent la planète ?

Dans ce titre introductif, Garth Paltridge nous fait part de son étonnement du hiatus considérable qui existe entre les incertitudes incontournables qui demeurent en matière de modélisation du climat et les certitudes affichées aussi bien par des organismes tels que le GIEC que par de nombreux climatologues. Dans ce sens, il rejoint les conclusions du billet précédent et, notamment, les déclarations de Pierre Darriulat.

Dans une introduction a caractère pédagogique, Paltridge commence par nous expliquer pourquoi et comment les modèles informatiques du climat sont intrinsèquement condamnés à de graves incertitudes. Garth Paltridge, théoricien et modélisateur, a longtemps exercé ses talents dans ce domaine précis. A ce tire, il sait donc parfaitement de quoi il parle et son explication et ses conclusions sont assez proches de celles d'autres climatologues et en particulier de celles d'un autre climatologue expérimenté, Pierre Morel (fondateur du LMD, le Laboratoire de Météorologie Dynamique), qui les avait mentionnées lors d'une conférence (donnée en 2009) dont j'avais cité quelques extraits dans un billet antérieur.

L'Organisation Météorologique Mondiale des Nations Unies a mis en place les premiers jalons pour l'établissement du Programme Mondial sur le Climat au début des années 1970. Entre autres activités, elle a tenu une conférence à Stockholm pour définir les principaux problèmes scientifiques qu'il faudrait résoudre avant que des prévisions climatiques fiables deviennent possibles. La conférence en a défini un grand nombre mais elle ne s'est focalisée que sur seulement deux d'entre eux.

Le premier concernait notre incapacité à simuler les caractéristiques de la couverture nuageuse et son extension dans l'atmosphère. Les nuages sont importants parce qu'ils déterminent l'équilibre entre le réchauffement dû au soleil et le refroidissement par émission d'infra rouges de la planète et, de ce fait, ils constituent un élément qui contrôle la température de la Terre. Le second concernait notre incapacité à prévoir le comportement des océans. Les océans sont importants parce qu'ils constituent un des principaux réservoirs de chaleur du système climatique. Ils présentent des fluctuations internes, plus ou moins au hasard, sur toutes sortes d'échelles de temps qui vont de quelques années jusqu'à des siècles.Ces fluctuations induisent des variations des températures de la surface des océans qui, à leur tour, affectent la totalité du climat de la Terre.

La situation n'a pas beaucoup évolué depuis les dernières décennies. Beaucoup des problèmes rencontrés dans la simulation du comportement des nuages et des océans sont encore bien présents (à côté d'autres problèmes de moindre importance) et pour des raisons qui n'ont pas changé. Peut-être le plus manifeste est que les modèles du climat doivent effectuer leurs calculs en chaque point d'une grille imaginaire plaquée sur la planète toute entière, à différentes altitudes dans l'atmosphère et à des profondeurs variables dans les océans. Les calculs sont effectués pour des pas de temps d'une heure et c'est de cette manière que les modèles progressent vers un futur hypothétique. Des difficultés surviennent parce des contraintes pratiques liées à la taille des calculateurs font que la distance horizontale entre chaque point des grilles est aussi grande qu'un degré ou deux de longitude et latitude, ce qui représente une distance de plusieurs dizaines de kilomètres.

Ces distances sont beaucoup plus grandes que la taille d'un amas nuageux typique. Il en résulte que la simulation des nuages exige une bonne dose de suppositions quant à ce que pourrait être une moyenne convenable de ce qui se passe entre les points de la grille du modèle. Même si les observations expérimentales suggèrent que les modèles obtiennent des moyennes grossièrement satisfaisantes pour des prédictions à court terme, il n'y a aucune garantie que les prédictions seront correctes pour des conditions atmosphériques qui régneront dans un futur éloigné de plusieurs décennies. Parmi d'autres problèmes, les petites erreurs dans la modélisation numérique des processus complexes ont la fâcheuse habitude de s'accumuler à mesure que le temps passe.

Toujours au sujet de cette affaire de points de la grille, les fluctuations océaniques et les turbulences plus petites que la distance entre les points de la grille d'un modèle sont invisibles pour ce modèle. Ceci ne serait pas en soi un problème sauf que les tourbillons dans les fluides turbulents peuvent devenir de plus en plus grands. Un petit tourbillon apparu au hasard dans un océan réel peut grossir et apparaître sorti de nulle part du moins pour ce qui concerne le modèle prévisionnel et il peut mettre le bazar dans les prévisions à partir de là et pour tout le futur.

Garth Paltridge met ensuite le doigt sur les incohérences qui existent entre les incertitudes inhérentes à la modélisation, mentionnées ci-dessus, et les certitudes proclamées par les climatologues dans les rapports et les discours prononcés avec une grande assurance devant le public, les politiques et les autres scientifiques, :

Tout ce qui précède se trouve en arrière-plan d'un des plus grands mystères de la question du changement climatique. En pratique tous les scientifiques directement concernés par les prédictions climatiques sont au courant des énormes problèmes et des incertitudes qui sont encore inhérentes aux résultats de leur travaux. Alors, comment se fait-il que ceux d'entre eux qui ont été impliqués dans le dernier rapport du GIEC puissent jurer, la main sur le coeur, qu'il y a une probabilité de 95% que les émissions humaines de dioxyde de carbone ont provoqué l'essentiel du réchauffement climatique qui s'est produit durant les dernières décennies ? .

Gardez à l'esprit que la représentation des nuages dans les modèles climatiques (et celle des la vapeur d'eau qui est intimement impliquée dans la formation des nuages) est de nature à amplifier le réchauffement prévu pour une augmentation de la teneur atmosphérique en dioxyde de carbone -et ceci en moyenne pour la plupart des modèles - d'un facteur d'environ trois. En d'autres termes, les deux tiers de la prévision de la hausse de la température, provient de ces caractéristiques des modèles. En dépit de ce que les modèles nous disent - et peut-être parce que ce sont les modèles qui nous le disent - aucun scientifique proche de ces questions qui aurait toute sa raison et s'il était interrogé à ce sujet, ne vous dirait qu'il est sûr à 95% que les nuages amplifient plutôt que réduisent le réchauffement climatique dû à l'augmentation du dioxyde de carbone. S'il n'est pas certain que les nuages amplifient le réchauffement climatique, il ne peut pas être sûr que la plus grande partie du réchauffement climatique résulte de l'augmentation du dioxyde de carbone.

Gardez aussi à l'esprit qu'aucun scientifique proche de ces questions qui aurait toute sa raison et s'il était interrogé spécifiquement sur ce sujet, ne vous dirait qu'il y a seulement une très petite possibilité (c'est-à-dire plus petite que 5%) que le comportement interne de océans pourrait être une cause majeure du réchauffement de la dernière moitié du siècle passé. Il serait particulièrement attentif à ne pas faire une telle déclaration maintenant alors qu'il n'y a pas eu de réchauffement significatif depuis les quinze dernières années environ. Dans la course folle à la recherche de ce qui pourrait expliquer la pause et pour trouver les raisons des échecs évidents des modèles incapables de la simuler, nous avons soudainement entendu dire que, peut-être, la chaleur du réchauffement climatique se serait "cachée" dans les profondeurs des océans. En d'autres termes, on nous explique qu'une quelconque fluctuation interne des océans pourrait avoir limité la tendance à la hausse de la température du globe. De ce fait, il est plus qu'un peu étrange que nous n'entendions pas dire, venant du GIEC (ou, en tout cas, pas à voix haute) qu'une quelconque fluctuation naturelle interne du système a pu aussi provoquer la plus grande partie de la hausse précédente.

Pour expliquer ces incohérences entre les rapports du GIEC, les discours au public et/ou aux politiques, et les incertitudes de la science, Garth Paltridge nous rappelle quelques points d'histoire ainsi que la dérive (selon lui) dans laquelle ont été entraînés nombre de scientifiques du climat. Selon Paltridge, les climatologues se sont faits piéger par les politiques (et notamment par les environnementalistes), ainsi que par certains de leurs collègues qui ont abondamment profité de la situation. Ceci répond, au moins en partie, à la question souvent posée par ceux qui font aveuglément confiance à la "science officielle" au prétexte qu'ils ne parviennent pas à comprendre "comment tant de scientifiques pourraient--ils se tromper ?".

Au vu de tout ceci, nous devons, au moins, envisager la possibilité que l'establishment scientifique qui se trouve derrière la question du réchauffement climatique, a été attiré dans un piège qui consiste à sur-évaluer grandement le problème du climat - ou, ce qui revient essentiellement à la même chose, à sous-estimer sérieusement les incertitudes inhérentes au problème climatique - dans un effort pour promouvoir la cause. Il s'agit d'un piège particulièrement pernicieux dans le contexte de la science parce qu'il risque de détruire, peut-être pour les siècles à venir, la réputation exceptionnelle et chèrement conquise, de l'honnêteté qui est à la base du respect de la société vis-à-vis de l'oeuvre scientifique. Jouer avec le capital réputation pour des objectifs politiques à court terme n'est pas la manière la plus intelligente de traiter ces affaires.

Le piège a été tendu vers la fin des années 1970 ou aux alentours de l'époque où le mouvement environnemental a commencé à réaliser que la prise en compte du réchauffement climatique cadrerait avec un bon nombre de ses objectifs sociétaux. C'est exactement à cette époque qu'il fut considéré comme une évidence, dans les corridors du pouvoir, que les scientifiques financés par le gouvernement (c'est-à-dire, la plupart des scientifiques) devraient se procurer une fraction importante de leur financement et de leurs salaires à partir de sources externes - dans tous les cas, externes à leur organismes de tutelle.

Du fait qu'ils ne sont pas naturellement liés à une industrie privée spécifique, les scientifiques qui travaillent dans les laboratoires de recherche environnementale ont été contraints d'aller rechercher des fonds dans d'autres départements gouvernementaux. En retour, ceci les a contraint à accepter les exigences du militantisme et de la manipulation de l'opinion publique. Pour ce type d'activité, une association qui se tient à distance respectable du mouvement environnemental constituerait un mariage paradisiaque. Entre autres avantages, il fournirait un moyen pour que les scientifiques puissent être suffisamment distanciés de la responsabilité découlant de n'importe quelle exagération, présentée au public, au sujet de la signification de leur problématique de leur recherche.

Le piège a été partiellement tendu pour la recherche climatique lorsqu'un certain nombre de scientifiques de la discipline ont commencé à tirer des satisfactions de l'exercice du militantisme. Leur satisfaction découlait d'un accroissement considérable de leur financement ainsi que de l'opportunité de recruter. Cette augmentation ne concernait pas vraiment l'aspect de la science dure mais plutôt l'émergence d'institutions périphériques et d'organisations engagées, du moins en partie, dans la promotion du message de la catastrophe climatique. C'est alors qu'a émergé un nouveau et lucratif mode de vie de la recherche duquel a découlé la possibilité de donner son avis à tous les types et à tous les niveaux du gouvernement, à dispenser sur les ondes des affirmations non contestables au public et à une justification immédiate pour assister des conférences internationales - ces dernières dans un certain luxe comparativement aux standards habituels des scientifiques. Cela avec une périodicité jamais vue jusque là.

Quelque part au cours du processus, on en arriva à faire croire à beaucoup dans le public et, de fait, à de nombreux scientifiques eux-mêmes, que les climatologues étaient l'équivalent de chevaliers montés sur des étalons blancs qui menaient une grande bataille contre les forces du mal - c'est-à-dire le mal sous la forme de "Big Oil" et de ses ressources financières supposées illimitées. Le fantasme était plus qu'un peu séduisant.

Le piège fut définitivement armé quand beaucoup des principales académies des sciences de la planète (telles que la Royal Society au Royaume Uni, l'Académie des sciences des USA, l'Académie des sciences australienne) se convainquirent de produire des rapports qui venaient étayer les conclusions du GIEC. Ces rapports furent proclamés comme des analyses nationales supposées indépendantes du GIEC et les unes des autres alors que, par nécessité, elles étaient compilées avec l'aide et, dans certains cas, suivant les injonctions de nombreux scientifiques impliqués dans les machinations internationales du GIEC. Et de fait, les académies qui sont les plus prestigieuses des institutions de la science, ont formellement hissé leurs drapeaux sur le mat du politiquement correct.

Selon Paltridge, le piège s'est refermé et il ne reste plus aucun moyen de trouver une sortie honorable. Ceux qui pourraient encore parler ne le font pas, sans doute par peur des représailles déjà évoquées par Marc Fontecave dans le billet ci-dessous et à des multiples reprises dans cette page. Désormais, le système court sur son erre.
La conclusion est plutôt optimiste pour ce qui est de l'avenir du climat mais elle est pessimiste sur l'avenir de la crédibilité de la science et des scientifiques.

Depuis cette époque, après trois ou quatre ans, il ne restait plus aucune possibilité acceptable offerte à la communauté scientifique, lui permettant d'évoquer le spectre des graves incertitudes qui pèsent sur les prédictions du désastres climatique. Il devient alors impossible d'utiliser le mouvement environnemental comme bouc émissaire s'il advenait que la menace du réchauffement climatique n'avait aucune substance véritable. Il n'est désormais plus possible d'échapper à sa responsabilité première s'il apparaît, à la fin, que prendre des mesures au prétexte de la réduction du réchauffement climatique s'avère être l'erreur scientifique la plus coûteuse jamais infligée à l'humanité. Le détournement de la richesse mondiale au nom du changement climatique est de l'ordre d'un milliard de dollar par jour. Et, pour le futur, on peut reprendre une citation du sénateur US Everett Dirksen : "Un milliard par-ci, un milliard par là, et bien vite on commence à parler de vrai argent.".

Au même moment, l'homme de la rue, fort de son bon sens et qui, dès à présent, peut sentir à des lieues à la ronde, l'odeur des exagérations d'une campagne environnementaliste, commence à entrevoir que c'est la politique, et non la science, qui pilote cette affaire.

Les scientifiques - enfin, disons, la plupart des scientifiques - sont peut-être un peu naïfs mais ils ne sont en général ni méchants, ni idiots, ni facilement subornés aussi bien par l'argent que par le politiquement correct. Alors, quelles que soient les satisfactions que l'on peut éprouver en soutenant la version officielle de la connaissance et quelles que soient les contraintes exercées par le pouvoir scientifique en place, il est quand même surprenant que le récent rapport du GIEC ait pu être publié sans pratiquement aucun murmure de mécontentement de la part des étages inférieurs de l'establishment scientifique. Qu'est-il advenu du scepticisme qui, dit-on, est le sang nourricier de la recherche scientifique ?

La réponse se trouve probablement dans le fait que tout cela est incertain. La probabilité que l'on prouve que le changement climatique durant le siècle prochain sera suffisamment important pour conduire au désastre est virtuellement nulle. Pour la même raison, la probabilité qu'un climato-sceptique ou qui que ce soit d'autre dans cette affaire, prouve que la théorie du désastre est totalement exagérée est aussi virtuellement nulle. De ce fait, le terrain d'affrontement pour les deux partenaires du débat est sur un plan d'égalité. Le problème est que la recherche climatique exige d'énormes ressources et qu'il s'agit d'un jeu entre les institutions et les organisations. Le scepticisme est une affaire d'individus. Les choses étant ce qu'elles sont dans le domaine du changement climatique, le scepticisme exercé par un individu peut s'avérer être un facteur sévèrement limitant pour la poursuite d'une carrière. Quoi qu'il en soit, la plupart des scientifiques, pris individuellement, ont une conscience et ils sont réticents à dresser leur tête au-dessus du parapet pour promouvoir un point de vue sur des choses qu'il est intrinsèquement impossible de prouver.

En bref, il y a plus d'incertitudes qu'il n'en faut pour permettre aux êtres humains d'être, au moins, raisonnablement optimistes sur le fait que le réchauffement climatique ne sera pas, et de loin, aussi mauvais qu'on le proclame.
Les climatologues et, en fait, tous les scientifiques, ne sont pas aussi chanceux. Ils ont beaucoup à perdre si l'avenir prouve qu'ils se sont trompés. "

Garth Paltridge


eisenhowerCette analyse peut, sans doute, faire écho aux mises en garde que certains trouveront remarquablement prémonitoires que Dwight D. Einsenhower avait énoncées lors de son départ de la présidence des Etats-Unis en 1961.

Voici le traduction de la dernière partie de ce discours connu par les Nord-américains sous le nom de "Farewell address" de Dwight .D.Eisenhower (34e Président des USA, de 1953 à 1961)

"[...] Au cours de cette révolution, la recherche est devenue un élément central. Elle est aussi devenue plus formalisée, complexe et coûteuse. Une fraction de budget en augmentation constante a été décidée pour, par, et à la direction du gouvernement fédéral.

De nos jours, l'inventeur solitaire qui travaillait dans son atelier a été remplacé par des groupes constitués de scientifiques dans des laboratoires et sur les terrains d'expérience. De la même manière, l'université libre qui a été historiquement la source des idées ouvertes et de la découverte scientifique, a connu une révolution dans la manière de mener ses recherches. En partie du fait des financements considérables devenus nécessaires, un contrat gouvernemental est devenu virtuellement un substitut à la curiosité intellectuelle. A la place de chaque vieux tableau noir, il y a maintenant des centaines de calculateurs électroniques modernes.

L'éventualité d'une domination des savants de la nation par le biais du recrutement fédéral, par celui des attributions des contrats et par les puissances d'argent est toujours bien présente -- et elle doit être considérée comme une affaire sérieuse.

D'autre part, tout en conservant notre respect pour la recherche et la découverte; comme nous le devons, il nous faut aussi être vigilant quand à un danger égal et opposé que la politique pourrait, elle-même, se retrouver captive d'une élite scientifico-technologique."

D.D. Eisenhower.


En conclusion :
Comme vous avez pu le constater, le texte de Garth Paltridge ne constitue pas une critique frontale et sévère du comportement de la plupart de ses collègues scientifiques du climat, à l'exception de ceux d'entre eux qui ont manifestement pris goût au militantisme, aux "jeux.du pouvoir" et aux feux de la rampe médiatique. Paltridge pense plutôt que la collectivité des climatologues s'est fait piéger dans un système pernicieux duquel il ne peuvent plus s'échapper honorablement quelles que soient les évidences scientifiques présentes et à venir. Du moins, c'est de cette manière qu'il explique l'obstination du GIEC et de ses participants à nous assurer que leurs certitudes se renforcent alors que les écarts entre les modélisations et les observations divergent de plus en plus nettement, comme le rappelle Paltridge et comme vous l'avez constaté dans les billets précédents.

J'ai pensé que ces points de vue, énoncés par un climatologue expérimenté, venant du coeur du "sérail" de la climatologie internationale, pourrait éclairer le débat d'un jour nouveau pour les lectrices et lecteurs de PU qui savent déjà que la situation réelle est bien différente de ce que l'on peut lire, entendre et voir dans les médias.

A bientôt.

Stay Tuned !

14 Janvier 2014 : Des chercheurs français s'expriment sur le récent rapport du GIEC (AR5 SPM), sur le "réchauffement climatique", sur la perception inquiétante de la science par le public et sur la politique énergétique.

De nombreux lecteurs(triches) de ce site se sont étonnés que PU ait très majoritairement rapporté les points de vue de nombreux chercheurs, essentiellement anglophones, qui émettent des doutes sur les prises de position du GIEC sur le climat. Par contrecoup, il a semblé que les chercheurs francophones étaient moins présents dans ce débat que leurs collègues anglophones. Et, en effet, à quelques exceptions notables près (entre autres, V. Courtillot, Benoît Rittaud, Serge Galam, Itsvan Marko, François Gervais etc.), les chercheurs francophones, dans leur ensemble, sont demeurés relativement discrets au cours des années passées.
A mon avis et comme le souligne l'un des deux intervenants mentionnés ci-dessous et comme on a pu l'observer dans un passé récent, cela tient essentiellement au fait qu'il est extrêmement risqué de professer des opinions divergentes de celles de la position officielle car "personne ne peut se risquer à la contester sous peine de délégitimisation rapide" dans les pays francophones et, très clairement, en France, où il est évident que l'orientation tranchée, unanime et parfois agressive, des médias sur la plupart des questions relatives à l'environnement constitue un frein considérable à l'établissement d'un réel débat scientifique.

C'est dans ce contexte délicat que j'ai décidé de vous rapporter les propos ou les écrits tout récents (c'est à dire des 4 derniers mois) de deux chercheurs français, parmi les plus éminents, qui, connaissant les risques, ont quand même décidé de s'exprimer ouvertement.
Il s'agit de deux scientifiques renommés, abondamment primés et appréciés par leurs collègues. L'un ( Marc Fontecave) est chimiste de formation. L'autre ( Pierre Darriulat) est physicien.

Comme d'habitude, les citations sont disposées dans les encadrés (bleu-verts ici). Les caractères engraissés sont le fait de PU sauf s'ils sont en italiques. Dans ce dernier cas, c'est l'auteur du texte qui a choisi de les mettre en valeur.

1) Marc Fontecave fontecaveest Professeur au Collège de France (chaire "Chimie des processus biologiques") et membre de l'Académie des Sciences.

Titulaire de nombreux prix et récompenses, Fontecave est également le directeur de l'équipe Biocatalyse de l'Institut de Recherches en Technologies et Sciences pour le Vivant. Il s'intéresse, entre autres, aux "technologies bioinspirées" proches de ce que les physiciens ou les physico-chimistes nomment parfois "bio-mimétisme". Il s'agit, sans aucun doute, d'un domaine riche d'avenir dans lequel Marc Fontecave est l'un de nos tout meilleurs représentants et c'est sans doute à ce titre qu'il se retrouve au top de la science française.


Marc Fontecave est également, parmi d'autres représentants éminents de la science française, membre du conseil d'orientation de la fondation "Écologie d'avenir" de l'Institut de France (qui regroupe toutes les Académies).

Voici, verbatim, quelques extraits significatifs de son intervention prononcée lors du Colloque de rentrée du Collège de France du 18 Octobre 2013 intitulé "Science et Démocratie".
Vous trouverez ici la vidéo complète (ou l'audio) de sa conférence donnée à cette occasion.

Au début de son exposé, Marc Fontecave s'inquiète de la perception dégradée de la science par le public, en relation avec les préoccupations environnementales.

[...]Nous voyons bien alors cette situation schizophrénique dans laquelle, dans le même temps, le citoyen espère plus que jamais des scientifiques la résolution des grands problèmes sociétaux, par exemple ceux liés à la santé ou au développement des nouvelles technologies de l'énergie qui permettrait une exploitation à grande échelle des énergies renouvelables et le même citoyen, dans le même temps voit la science exclusivement comme une source de malheurs. Le médicament n'est vu que sous l'angle du Médiator en oubliant tous les bienfaits de la recherche pharmaceutique, la chimie comme essentiellement une source de pollution en oubliant ce que la qualité de notre vie doit aux produits de l'industrie chimique, molécules, polymères, matériaux divers, l'énergie nucléaire est vue exclusivement comme une potentialité de catastrophes en oubliant que chaque jour l'interrupteur qui permet de se chauffer et de s'éclairer si confortablement est relié à une centrale nucléaire pour un coût qui confère une certaine compétitivité à notre économie, avec un moindre impact en termes d'émissions de gaz à effet de serre.

C'est cette schizophrénie qui rend le débat scientifique si tendu et si difficiles les arbitrages politiques nécessaires. Je dirais que les journalistes, en général, n'arrangent pas les choses faisant évidemment la part belle à l'instantané et à la catastrophe ainsi qu'au consensus laissant peu de place aux voix discordantes.
Pratiquement aucune des questions environnementales, énergie nucléaire, organismes génétiquement modifiés OGM, gaz de schistes, et même changement climatique, n'échappe aujourd'hui à ces blocages." [...]

Dans la suite, Fontecave évoque l'action de politiques et (de nouveau) des médias :

(Les politiques) doivent faire preuve d'autorité et d'intransigeance, comme l'ont fait pratiquement tous les gouvernements récents en France, de droite ou de gauche, en fermant littéralement le débat quand il s'agit de discuter, par exemple, de l'avenir de l'énergie nucléaire ou de l'exploitation des gaz de schistes.Je me souviens de la réaction de l'ancienne ministre de l'écologie en Février 2013 (NdR : Delphine Batho), le jour de la séance organisée par l'Académie des Sciences sur les gaz de schistes. Cette séance, à laquelle j'étais présent, avait pour objectif de faire le point de façon essentiellement scientifique, de façon neutre et transparente, sur les questions reliées à l'évaluation de nos ressources en gaz de schiste, à son exploitation et à la fameuse fracturation hydraulique. Donc, la ministre, sans même avoir pris connaissance du contenu de cette séance, a tout simplement et publiquement adressé - je cite - un "carton rouge" à l'Académie des Sciences. carton d'ailleurs largement relayé par les médias. Voilà, je crois, qui reflète parfaitement bien la situation de blocage que je décrivais. L'impossibilité du débat scientifique, spécifiquement sur les questions environnementales, blocage qui atteint les plus hautes sphères du pouvoir politique. Je rappelle qu'il en fut à peu près de même dans le compte-rendu médiatique, à charge, de la séance que l'Académie avait consacré au changement climatique, il y a quelques années.
Ce qui est en jeu, redisons le, c'est la nécessité de faire porter par nos représentants politiques une vision hautement positive de la science et du progrès scientifique y compris à travers la nécessaire controverse scientifique qui est au coeur de son développement." [...]

Concernant plus spécifiquement le réchauffement climatique et après avoir rappelé que 61% des habitants des USA pensent que les scientifiques ne sont pas d'accord entre eux sur les causes du réchauffement climatique et que 35% des Français expriment leurs doutes sur les causes anthropiques, Marc Fontecave déplore le fait que le débat scientifique soit totalement absent, sur ces questions, dans son pays. Il précise :

[...]Je me limiterai aux trois questions suivantes.
Première question : Quel degré de certitude avons nous que le réchauffement climatique est la conséquence exclusive de la production de gaz carbonique d'origine humaine issu de la combustion du charbon, du gaz et du pétrole et également des feux de forêts ? En effet, les changements climatiques sont fréquents dans l'histoire de la planète y compris lors de périodes longues sans émissions de gaz à effet de serre et sans variations du dioxyde de carbone atmosphérique.
Seconde question : Compte tenu de la très grande complexité du système terre-océans-atmosphère-soleil que les sciences de la terre et du climat, malgré des progrès considérables au cours du dernier siècle, ne comprennent que partiellement, les modèles utilisés sont-ils suffisamment fiables pour prévoir les évolutions du climat de la planète à court et très long terme ? Sont-ils fiables pour dire les conséquences de variations très faibles d'un composant très mineur de l'atmosphère, le dioxyde de carbone, sur son fonctionnement général ?
Troisième question : Est-il vrai que, contrairement à la période 1850-2000 pendant laquelle la quantité de CO2 dans l'atmosphère et la température de la planète - si ce dernier paramètres a d'ailleurs un sens - ont augmenté de façon continue et parallèle, ce n'est plus le cas depuis 15 ans, dernière période pendant laquelle les émissions de CO2 et son accumulation dans l'atmosphère n'ont jamais été aussi importantes en raison d'une utilisation de plus en plus massive, à l'échelle de la planète, des sources d'énergie carbonées fossiles et que la température de la terre est restée, certes très élevée, mais relativement stable ? Sans doute Jean Jouzel après moi, contribuera à apporter des réponses à ces questions, de mon point de vue, parfaitement légitimes.[...]

Marc Fontecave évoque ensuite l'idéologie du principe de précaution et des politiques vertes au sens large, citant, au passage, l'influence du Club de Rome. Voici ce qu'il dit à ce sujet :

"Malheureusement, comme toute idéologie, cette dernière laisse une place croissante à un certain nombre d'idées qui deviennent des dogmes contre lesquels il est de plus en plus difficile de s'exprimer. Comme l'écrit Dominique (Pestre), je le cite "Cette nouvelle idéologie du XXIe siècle emplit les ondes des radios et les journaux, trouve sa place à l'école et sur le WEB, se donne comme un principe du Bien avec un grand B, mais personne ne peut se risquer à la contester sous peine de délégitimisation rapide". Je pense qu'il est néanmoins nécessaire de prendre ce risque et de combattre certaines visions catastrophistes opposant systématiquement l'homme, la science et la technologie d'un côté, à la Nature de l'autre. Les premiers n'étant le plus souvent appréhendés que comme des sources de destruction de la seconde.."

Au sujet de la politique nationale en matière d'énergie, Fontecave fait la remarque suivante :

"D'autre part, on ne peut pas continuer à faire croire que des politiques et des solutions purement nationales soient adaptées au changement climatique. Prenons l'image de la France. Notre pays ne contribue que pour 1.5% à la production des gaz à effet de serre à l'échelle de la planète. Ceci s'explique, bien sûr, par la taille de ce pays mais aussi par son choix historique de l'énergie nucléaire qui en fait l'un des pays modernes les plus indépendants des carburants fossiles. De sorte que si nous faisions l'hypothèse que la France arrêtait toute émission de CO2 : Plus de voitures, plus de camions, plus d'avions, plus de chauffage, plus rien. En quelque sorte c'est comme si la France disparaissant brutalement comme puissance économique sur la planète, ce n'est pas 500 ppm que l'on aurait en 2050 mais [...] on serait à 498 ppm.Une différence d'un à deux ppm qui n'aurait évidemment strictement aucun impact sur le climat. La question de la réduction de l'émission des gaz à effet de serre doit donc impérativement être traitée à l'échelle mondiale. On essaie, mais ce n'est pas parce qu'à cette échelle les solutions sont extrêmement difficiles à élaborer et à mettre en place en raison de la nécessité d'arbitrage entre des groupes humains qui ont des intérêts vitaux très différents - on le voit avec les échecs, les relatifs échecs, des grands sommets internationaux sur le climat - qu'il faut se donner bonne conscience en faisant croire que les solutions que l'on met en place au niveau national, sauveront la planète."

Dans la suite, faisant référence à son propre travail de recherche, Fontecave cite une phrase tirée d'un livre ("Le système périodique") de Primo Levi, au sujet de la photosynthèse naturelle qui pose un problème crucial, notamment aux biochimistes : "Quand nous aurons appris à en faire autant, nous aurons résolu le problème de la faim dans le monde". Fontecave annonce d'ailleurs que le thème de la "valorisation du CO2" constituera le fil directeur de son cours au Collège de France pour l'année 2014 tout en précisant son point de vue sur les énergies renouvelables et la transition énergétique, ce qui le conduit à sa conclusion:

"Mais cette révolution technologique de l'énergie, il faut avoir le courage de le dire clairement, elle est très loin d'être à notre portée à court terme et ce n'est pas en invoquant de façon systématique le réchauffement de la planète que cela changera quoique ce soit à cette dure réalité. Les nouvelles technologies d'exploitation des énergies renouvelables, si souhaitables qu'elles soient, ne sont pas encore prêtes pour remplacer l'énergie nucléaire et les carburants fossiles. Chez nous comme ailleurs dans les pays émergents qui continueront à exploiter massivement ces derniers pour sortir leurs milliards d'habitants de la misère. Cette transition demandera beaucoup de temps et, en effet, d'énormes investissements. Mais, ce sera à nouveau une opportunité fantastique pour démontrer que la solution est bien dans la science, dans le travail acharné de nos chercheurs, dans une organisation de la recherche plus fluide au niveau national et plus coopérative au niveau mondial qu'elle ne l'est aujourd'hui, dans la formation scientifique de nos jeunes générations qui seront nos élites de demain, dans la confiance que les citoyens doivent avoir dans le progrès scientifique et technologique, dans la capacité des médias à rendre compte honnêtement de l'avancée des connaissances et des technologies et de l'existence de controverses scientifiques inéluctables et des points de vue minoritaires, enfin, dans la capacité des politiques que nous avons la responsabilité d'accompagner dans leurs arbitrages, à préférer la confrontation de l'avis de l'ignorant éclairé et de l'expert, aux jeux politiciens et électoralistes et aux slogans.

Je vous remercie."

_______________________________________________________________________________

Ces interventions, toutes récentes, de deux représentants éminents de la science française n'ont guère été mentionnées dans la presse et dans les médias au sens large. Cependant et dans le silence médiatique ambiant, la réaction d'une journaliste, Jade Lindgaard de Mediapart, comme suite à cette conférence au Collège de France, est emblématique des blocages évoqués par Marc Fontecave au sujet de la manière dont les controverses, qui sont pourtant au coeur de la démarche scientifique, sont perçues par les médias. Jade Lindgaard qui, à ma connaissance, n'a aucun background scientifique, ne parvient manifestement pas à concevoir qu'une "sommité scientifique", comme Marc Fontecave, puisse être "climato-sceptique". Pour elle, il s'agit d'un "paradoxe intellectuel" (sic) qui nécessite une enquête. C'est ainsi qu'elle titre l'un de ses articles sur Médiapart (du 16 Déc. 2013) :

" Climat : un sceptique au Collège de France"
Sous titre : "Chimiste réputé, membre du Collège de France, de l’Académie des sciences et de la fondation de Claude Allègre, Marc Fontecave est aussi un homme qui doute des causes du dérèglement climatique. Enquête sur un paradoxe intellectuel."

L'article (payant) commence ainsi : "Peut-on mettre en doute la responsabilité de l’homme dans le changement climatique devant un parterre de sommités scientifiques, et recevoir leurs applaudissements ? Oui. Où ça ? Au Collège de France, prestigieux cénacle de la science française."

Voilà qui vient parfaitement illustrer les allusions relativement acerbes de Marc Fontecave au sujet du comportement des journalistes (francophones) dans l'affaire du réchauffement climatique, comme dans quelques autres, relatives aux questions environnementales.

Faut-il rappeler à cette jeune journaliste que la science a toujours progressé par un enchaînement ininterrompu et "inéluctable" (comme dit Fontecave) de controverses, d'erreurs et de corrections, et que la plupart des grandes découvertes ont été faites contre le "consensus" qui régnait à l'époque. Faut-il rappeler les noms des grands scientifiques qui se sont dressés contre le consensus et en ont subi de graves désagréments de leur temps, tels que Louis Pasteur, Charles Darwin, Albert Einstein, Alfred Wegener, Warren et Marschall (le H. pilori), Philippe-Ignace Semmerlweis (la prophylaxie), Jacques Boucher de Perthes (les hommes préhistoriques), Alphonse Beau de Rochas (le moteur à 4 temps) sans oublier Ludwig Boltzmann et de nombreux autres savants qui ont eu à se battre contre les partisans du "consensus" et aussi, il faut le rappeler, hélas et déjà, contre la presse de leur époque.

Voici maintenant le communiqué publié par Pierre Darriulat qui fait part de son effarement (c'est un euphémisme) quand au contenu du dernier rapport du GIEC et notamment de son Résumé pour les décideurs, le SPM.

2) Pierre Darriulat (CV) est membre correspondant de l'Académie des Sciences. Il a consacré l'essentiel de sa carrière de chercheur à l'étude des interactions des particules élémentaires à laquelle il a apporté des contributions importantes, en particulier avec la découverte des jets hadroniques et des bosons faibles. Après avoir dirigé les recherches du CERN pendant sept ans, il s'est tourné vers l'étude de la supraconductivité des couches minces puis, quelques années plus tard, vers l'astrophysique qu'il enseigne aujourd'hui à l'Université nationale de Hanoï, où il dirige un laboratoire de physique des rayons cosmiques. Ses recherches lui ont valu de nombreuses distinctions honorifiques.
Pierre Darriulat est également l'auteur d'un livre intitulé "Réflexions sur la science contemporaine". (La présentation ci-dessus est extraite de la 4-de-couv.)

A) Contexte et introduction : Comme suite à la parution toute récente du dernier des rapports pluriannuels du GIEC, le Parlement britannique a pris une initiative qui aurait pu (dû) faire école. Le Parlement UK a mis en place une consultation ouverte et transparente auprès d'un certain nombre de scientifiques ou d'experts s'intéressant au domaine, afin de connaître leurs points de vue sur le contenu du récent rapport SPM (le résumé pour les décideurs) et sur le rapport complet dit AR5.
Il s'agissait, pour les personnes consultés, de répondre à un certain nombre de questions précises portant essentiellement sur la crédibilité des rapport AR5/SPM que l'on trouvera au début de ce document publié par le Parlement britannique.

Voici trois exemples des questions posées par le Parlement UK. Ces questions sont loin d'être anodines. De fait, elles ciblent assez précisément les problèmes qui sont au coeur du débat :

  • Est-ce que le rapport AR5 traite les questions relatives à la fiabilité des modèles climatiques ?
  • Le processus du GIEC est-il un mécanisme efficace pour rendre compte de l'état des connaissances scientifiques ? Ou s'est-il focalisé dans le but de fournir une justification pour la mise en place d'une politique ?
  • Dans quelle mesure les interventions des politiques ont-elles influencé les conclusions finales du résumé sur les fondements scientifiques de l'AR5 (NdT : le travail du groupe I)

darriulat

B) La déposition de Pierre Darriulat

Le texte complet transmis aux parlementaires britanniques par Pierre Darriulat est ici (en pdf).

Il est intitulé "Le point de vue d'un physicien indépendant" par le Professeur Pierre Darriulat pour l'enquête du Comité sur l'Energie et le Changement Climatique au sujet des dernières conclusions de 5ème rapport du GIEC (AR5).

Voici une traduction en Français de quelques extraits significatifs du texte transmis au Comité britannique. Les caractères engraissés le sont pas l'auteur de ce site. Les caractères mis en valeur par des italiques sont le fait de P. Darriulat.

"Résumé :
Le rapport AR5/WGI du GIEC, et tout particulièrement le Résumé pour les Politiques (SPM), expriment une évaluation alarmiste de l'influence des émissions anthropiques de CO2 sur le climat qui ne rend pas correctement compte des connaissances scientifiques actuelles. Ceci résulte d'une ambiguïté inhérente à l'exigence que les scientifiques doivent s'exprimer de manière consensuelle sur ce qu'ils pensent être le meilleur message. Il est nécessaire de fournir un résumé scientifique qui soit adressé aux scientifiques et qui donne une image objective de l'état de nos connaissances et des inconnues en matière de sciences du climat, en insistant sur les questions qui sont moins bien comprises et sur ce qu'il est nécessaire de faire pour les clarifier. Un tel résumé devrait porter une attention particulière à une série de questions controversées qui ont été identifiés par plusieurs climatologues qui ne partagent pas l'interprétation alarmiste de la science." [...]

Les points évoqués par Darriulat sont numérotés en chiffres romains. En voici quelques uns :

1 . Au mois de Septembre dernier, le GIEC a publié son rapport "Changement climatique : la science physique de base" qui est un document de plus de 2000 pages qui ne sera lu que par un petit nombre de personnes, ainsi qu'un document associé Le "Résumé pour les politiques" (SPM = Summary for Policy makers) de 36 pages qui sera le document qui est en général lu par les politiciens, les officiels et les médias. A mon sens et comme son objectif est de s'adresser aux politiciens, le SPM ne peut pas être un document scientifique.
Lorsqu'ils ont eu à rédiger le SPM, les auteurs ont eu à faire face à un dilemme. Ou bien ils parlent en scientifiques et doivent donc reconnaître qu'il y a trop d'inconnues pour faire des prédictions fiables, aussi bien dans les mécanismes en action que dans les données disponibles, ou bien ils essaient de faire passer ce qu'ils estiment que c'est le message d'un "consensus" qu'ils doivent faire passer. Mais ceci se fait au prix de la rigueur scientifique. Ils ont délibérément choisi cette seconde option. Il en résulte qu'ils ont déformé le message scientifique pour le transformer en un message alarmiste réclamant une action urgente, ce qui est tout le contraire de la signification du message scientifique [...]

Darriulat reprend ces remarques au point 3. de son exposé, en détaillant le processus :