bandeau

papier
bronzage
serreterre
femme
hiboux

 

 

Rechercher sur le site :

Le débat en cours sur le réchauffement climatique sous la loupe ... (derniers ajouts le 17/11/12)

Plan de cette page (régulièrement mise à jour)

Pardonnez moi de vous asséner quelques données chiffrées et quelques courbes mais tout cela est indispensable pour se faire une opinion personnelle sur ce que vous racontent les médias, l'Ex vice-président Al Gore (surnommé autrefois Mr Ozone par Georges Bush père), l'économiste Sir Stern, le chantre de TF1 Nicolas Hulot, greenpeace et les autres écologistes. Et aussi, pour vous dire ce que l'on ne vous dit jamais : c'est à dire la thèse des (nombreux) opposants aux précédents mais qui ne fait pas l'affaire des médias ni des politiques. Je vous expose en simplifiant, les deux théories qui font débat actuellement, en essayant de les déformer le moins possible, ce qui n'est pas facile vue la complexité du problème.

Bon! La température au sol de notre planète se réchauffe progressivement depuis au moins un siècle. Typiquement +0,7°C en 100 ans.Cela semble être un fait, aux erreurs de mesure près. Cela s'est déjà produit à plusieurs reprises dans l'histoire de la Terre mais les tenants de l'effet de serre affirment que cela résulte, cette fois-ci, de l'effet de serre provoqué par le CO2 résultant de l'industrie humaine. Ils proposent de limiter ou d'arrêter les émissions de ce gaz à effet de serre avec les conséquences que l'on imagine.

Pour leur part, les opposants à la théorie de l'effet de serre affirment que l'homme n'y est pour rien et que le réchauffement provient de causes parfaitement naturelles (dont ils donnent une explication), que des phénomènes identiques se sont déjà produit plusieurs fois au cours des millénaires passés. Ils ajoutent que limiter la production de CO2 n'aura aucune conséquence positive sur le climat mais que celle-ci peut être négative en limitant la croissance des végétaux et en nuisant à l'environnement. Vous le voyez, ils sont irréconciliables. Seuls les avancées actuelles et futures de la recherche ... (et le thermomètre !) pourront les mettre d'accord ! Regardez aussi à la fin de cette page : les thèses évoluent....

L'IOP, c'est à dire l'Institute of Physics anglais a organisé un séminaire le 7 Juin 2007 intitulé "Climate change prevision : a robust or flawed process", c'est à dire "Prévision du changement climatique : Démarche solide ou défaillante ?". Deux éminents scientifiques Richard Lindzen et T. Thorpe ont fait le point des connaissances actuelles, en défendant, respectivement, des thèses anti et pro-GIEC. Allez voir ce texte (en anglais) et faites vous une opinion ! Bravo les Anglais ! Il semble que nous soyons incapables d'organiser un tel débat en France ...

2006- Il faut dire que tout est problématique dans cette histoire de réchauffement climatique... Entre autres :

  • L'idée même que le réchauffement puisse être "global" pose problème à nombre de climatologues. En effet, le climat est très variable comme temperature98-06chacune sait, dans le temps et dans l'espace. Ceci est dû aux énormes courants d'air et aux cellules de convection qui parcourent notre planète. Rien n'est uniforme et tout cela varie dans le temps de manière difficile à prédire ! L'exemple de l'Antarctique est tout à fait typique : Une partie fond actuellement mais l'autre s'épaissit. Que signifie alors une température moyenne sur ce continent? A l'échelle de la Terre c'est encore pire. Certaines parties se réchauffent (à cause de courants marins comme El Niño, par exemple) tandis que d'autres refroidissent. l'OMM (Organisation Météorologique Mondiale) qui fournit chaque année une moyenne "globale" se contente de simples moyennes du type ( Nord+Sud)/2 qui ne signifient pas grand chose en réalité. C'est aussi un sujet de débat. (Voir une bonne discussion de la NASA ici)
  • La mesure des températures est problématique en particulier à cause de l'effet dit des "îlots de chaleur", c'est à dire l'effet de la proximité des habitats et des industries de tailles grandissantes et de l'asphalte des voies de communication qui poussent les thermomètres à la hausse. Certains pensent que les mesures sont ainsi faussées par rapport aux mesures plus anciennes et donnent l'impression d'une hausse artificielle. D'autres disent que ces effets sont négligeables !
  • D'autre part, les évolutions de température d'une année sur l'autre sont de l'ordre de quelques dixièmes de degré (0,02 à 0,3 °C) comme le montre la courbe officielle ci-contre. Les physiciens savent bien que la mesure exacte de la température est toujours une chose délicate mais mesurer des variations aussi faibles (au millième de degré près comme les chiffres de la WMO ! ) sur différents points de la surface du globe avec une fiabilité suffisante pour en faire une moyenne significative relève d'un pari très difficile, sinon impossible. Prétendre évaluer la température de la planète au millième ou au centième de °C près relève de l'exploit... ou de la foi, car tout dépend de la manière dont on fait la moyenne des différents points de mesure ! Et quel est le vrai pourcentage d'incertitude que l'on ne donne jamais ? L'incertitude doit être bien supérieure aux écarts supposés d'une année sur l'autre. Par contre les mesures satellitaires se révèlent plus précises et plus fiables que les mesures terrestres mais elles ont été longtemps rejetées par les partisans de l'effet de serre parce qu'elles indiquaient un réchauffement beaucoup plus faible voire pas de réchauffement du tout de la basse atmosphère. Il semble que des corrections aient été apportées depuis mais elles sont encore sujettes à caution. Bref, c'est un autre beau sujet de discussion et de disputes.

Tout d'abord : Qu'est ce que l'effet de serre ?

Il existe de multiples descriptions plus ou moins compliquées et, surtout, plus ou moins exactes de l'effet de serre. C'est (en apparence) très facile à comprendre : (voir les détails dans cette page)

  • Le rayonnement solaire qui contient tout le spectre bien connu de l'arc en ciel (violet, indigo, bleu, vert, jaune, orangé, rouge), traverse sans trop de dommages (sauf pour les ultraviolets) l'atmosphère terrestre et vient réchauffer notre planète (terres et océans).
  • La Terre, échauffée agit comme un radiateur radiant. Elle émet à son tour des rayons infrarouges, invisibles à l'oeil nu. Une partie notable des rayons infrarouges ainsi irradiés vers l'espace sont arrêtés (absorbés) par les gaz à effets de serre contenus dans l'atmosphère. Ces gaz s'échauffent à leur tour ( les molécules se mettent à vibrer et à tourner) et rayonnent une partie de cette énergie (située à une longueur d'onde encore plus grande que celle qui est absorbée) vers la Terre qui se réchauffe. A noter que dans cette hypothèse, la troposphère (la partie inférieure de l'atmosphère qui joue le rôle de serre) doit s'échauffer encore plus que la Terre.
  • Il est habituel ( mais totalement erroné ! voir les explications dans cette page ) de dire que tout se passe donc comme si la Terre était emmitouflée dans une couverture, ou comme dans une serre de jardin : La serre en verre = l'atmosphère. Les petits pots de culture = la planète. Malheureusement, cette image, généreusement propagée, est fausse pour de multiples raisons. D'abord une serre de jardin ne fonctionne pas comme cela. Ensuite les molécules de gaz triatomiques excitées (CO2, 03, H20 etc...) ne restent pas sur place lorsqu'elles s'échauffent. Elles ont tendance à remonter dans l'atmosphère. Elles sont aussi soumises aux puissants courants de convection qui permettent à des molécules plus lourdes que l'air, comme le CO2, de remonter. Quoiqu'il en soit, on affirme que l'effet de serre réchauffe notre planète d'environ 33°C. L'effet de serre permettrait donc la vie sur Terre.
  • Il est amusant de noter que Svante Arrhénius qui proposa le premier un modèle d'effet de serre de jardin pour la Terre pensait que le réchauffement de la planète serait d'environ 4 à 5°C pour un doublement de la proportion de CO2 dans l'atmosphère. Cela pourrait se produire dans 3000 ans, pensait-il. Les dernières prédictions du GIEC basées sur le modèle élémentaire d'Arrhénius (température = loi en logarithme de la concentration du CO2 multipliée par un coefficient alpha sur lequel des controverses ont encore cours...) retrouvent à peu près les mêmes indications en utilisant les plus gros ordinateurs de la planète. Le GIEC fait des projections de doublement du CO2 dans 100 ans ce qui est une hypothèse hasardeuse car d'ici là, (si on se rappelle des progrès gigantesques réalisés aux cours des cent dernières années) d'autres procédés peuvent se substituer à l'usage du pétrole, du gaz et du charbon. La théorie d'Arrhénius fut abondamment critiquée en 1896 et délaissée jusqu'en 1960, surtout parce que les cycles du soleil (Milankovitch) permettaient d'expliquer les grandes variations de température (notamment l'âge glaciaire) sur des centaines de milliers d'années passées. Il semble donc que le GIEC ait remis à l'honneur la théorie d'Arrhénius de 1896. Comme cela est expliqué ci-dessous, la grande difficulté de ces modèles réside dans l'effet des rétroactions de la planète positives ou négatives. On les ignorait à l'époque d'Arrhénius et on n'en sait pas beaucoup plus à notre époque. Tout cela est très complexe. Vous saurez tout ou presque sur ce fameux "effet de serre" en allant voir cette page.

Quels sont les gaz à effet de serre : Le plus important, c'est l'eau (H20 vapeur ou H20 nuages) qui représente entre 60% et 95% de l'effet de serre (selon les auteurs). Ensuite vient le fameux CO2, le gaz carbonique qui contribue entre 3% et 30% (selon les auteurs) et qui absorbe les rayonnements infrarouges de longueurs d'onde d'environ 4,3 et 15 microns. Viennent ensuite une série de gaz très efficaces pour l'effet de serre mais moins abondants : Le méthane (CH4), l'oxyde nitreux (N20), l'ozone (03) et quelques autres plus rares encore. Ces gaz à effets de serre ont tous des molécules (au moins) triatomiques. Cela est utile pour qu'elles puissent vibrer et tourner sur elles mêmes, ce qui leur confère des bandes d'absorption infra-rouges propres à générer l'effet de serre..

Pour de multiples raisons scientifico-écologico-politiques, la vapeur d'eau qui pourtant est, de très loin, le principal responsable de l'effet de serre, a été considére, non pas comme un acteur direct, mais comme un acteur secondaire (par rétroactions) par les tenants de l'effet de serre anthropique (cad créé par l'homme). Seul le CO2 est dans le collimateur. Intéressons nous à lui, en particulier.

2007- La thèse des partisans de l'effet de serre (tels Al Gore, Hulot, Stern, les écologistes, de nombreux membres du GIEC etc...) affirme que le CO2 émis par l'activité industrielle de l'homme est le responsable du réchauffement climatique et que ce dernier sera mauvais. Les média font du psittacisme (=répètent comme des perroquets) et les politiques suivent. Ils ont presque réussi à faire croire qu'il n'y avait plus de débat. Sur quoi se base leur certitude ?

Commençons par le début : D'où vient le CO2 ?

Quelques chiffres (source, entre autres, ici) généralement admis sur les différentes sources de CO2 et les échanges qui se produisent entre elles :
Note : Ci dessous, GtC veut dire Gigatonne de carbone, c'est à dire milliard de tonnes de carbone (contenu dans le CO2).
Certains utilisent l'unité Gt de CO2.
Le rapport entre ces deux unités est de 44/12 (masse mol. du CO2/masse mol. du Carbone) =3,7.
Ainsi émettre 7GtC est équivalent à émettre 26 GtCO2.

  1. L'atmosphère contient environ 750 GtC
  2. La surface des océans contient environ 1000 GtC
  3. La végétation sur Terre, les sols et les déchets contiennent environ 2200 GtC
  4. En dessous de la surface, les océans renferment 38000 GtC

C'est à dire près de 42000 (GtC) milliards de tonnes de Carbone.

Les échanges entre les différentes sources, cette fois ci en GtC par an :

  1. La surface des océans et l'atmosphère échangent, chaque année, 90 GtC.
  2. La végétation sur Terre et l'atmosphère échangent, chaque année, 60 GtC.
  3. Les animaux marins (les planctons) et la surface de l'océan échangent, chaque année, 50 GtC
  4. La surface des océans et les eaux en profondeur échangent, chaque année, 100 GtC...........

C'est à dire un échange permanent de quelques 300 (GtC) milliards de tonnes de carbone par an.

Et l'activité humaine dans tout cela ? me demanderez vous. Eh bien ...
L'homme injecterait, lui, chaque année, environ 3 GtC dans l'atmosphère sur les 5 à 7 GtC produits annuellement par combustion d'énergie fossile (pétrole, fiouls, gaz etc..). A noter que, d'après un article de Prairie et Duarte (Biogeosciences, 2007), la respiration de l'humanité toute entière relâcherait quelques 0,3 GtC/an dans l'atmosphère ! Les animaux domestiques :0,75 GtC/an et les déchets humains et animaux : 0,5 GtC/an, ce qui n'est pas totalement négligeable (voir les "modestes propositions" de Florin Aftalion, texte suggéré par un lecteur que je remercie )..

Soient quelques 3 GtC par an, avec une croissance de l'ordre de 0,3 pourcent par an, c'est à dire 0,009 GtC supplémentaire par an.
Deux remarques utiles : Le CO2 est bien plus lourd que l'air (1,52 fois exactement = 44/29). Ainsi une grande partie du CO2 créé par les diverses combustions ne monte pas dans l'atmosphère mais reste sur Terre pour s'infiltrer dans les sols, se dissoudre dans les océans, être absorbé par les plantes etc. C'est ce que l'on appelle les "puits" de CO2. L'autre partie du CO2 créé par l'homme monte dans l'atmosphère, entraîné par des mécanismes de convection divers. Honnêtement, et quoiqu'en disent certains, on ne sait pas quelle est la proportion exacte du CO2 créé par l'homme qui se retrouve dans l'atmosphère pour contribuer effectivement à l'effet de serre. Certains disent la moitié. Admettons que l'homme envoie (peut-être) environ 3GtC par an dans l'atmosphère terrestre. Quoiqu'il en soit, l'apport humain paraît très faible, par rapport aux chiffres précédents. Mais les partisans du CO2 répondent en leur disant que les effets s'amplifient eux-mêmes ! C'est à dire qu'un peu plus de CO2 dans l'atmosphère réchauffe la planète et que cela réchauffe l'eau qui s'évapore encore plus et ainsi de suite. La contribution de l'homme est petite mais il a une auto-amplification, ou rétroaction positive, soutiennent-ils. Et c'est bien là que surviennent les problèmes qui divisent les scientifiques, quoiqu'en disent les écologistes ignorants et qui veulent nous persuader que l'affaire est entendue, une fois pour toute ! On patauge encore !

Ainsi, voici où demeurent les incertitudes actuelles:

  1. Le premier problème qui déchaîne des tempêtes de conjectures et de discussions sans fins, c'est que le CO2 (et les autres gaz) ne reste pas sagement où il se trouve et que des échanges permanents et très efficaces entre la Terre, les océans (surface et profondeur) et l'atmosphère brouillent toutes les cartes. Sans compter que ces échanges dépendent de la température qui, elle même, dépend des échanges. Ainsi, beaucoup se demandent encore : mais où passe donc le CO2 produit par l'homme ? Comme vous l'imaginez, les échanges entre les différentes sources de CO2, dépendent de la température qui à son tour dépend du CO2 mais aussi de H20... Ils sont très complexes et généralement mal connus dans l'état actuel de la science. Certains croient le savoir ...mais ils sont démentis par d'autres. Bref, honnêtement, on patauge encore !
  2. Le second problème qui déchaîne aussi des tempêtes et des affrontements sanglants entre les partisans et les opposants à la thèse de l'effet de serre, c'est que l'on ignore beaucoup de choses sur la manière dont notre vieille planète réagit à un excès de CO2 dans l'atmosphère et à une élévation de température. C'est la biosphère, en particulier. Que deviennent les planctons et les algues marines (on les appelle les "biota"), les forêts et les plantes lors d'une augmentation de température et de CO2 ? (voir une découverte intéressante ici). Que devient l'immense réservoir thermique de l'eau des océans ? Que font les bactéries présentes dans le sol de la planète ? Ce n'est pas simple du tout et certains pensent que la paléoclimatologie (l'étude de la manière dont la biosphère a réagi dans un passé lointain où l'atmosphère était riche en CO2 et la température très élevée. La paléoclimatologie qui se fait en étudiant des fossiles, apportera des réponses à ces questions, comme par exemple ici.
  3. Le troisième problème vient de notre incapacité actuelle à prévoir et à estimer l'influence de l'eau contenue dans l'atmosphère qui représente l'immense majorité des molécules présentes (!) et que l'on sait bien que H20 joue un rôle tout à fait primordial pour l'effet de serre, entre 95% et 64% selon les auteurs. Ainsi, de même pour la couverture nuageuse à basse altitude qui joue un rôle absolument décisif pour la température de la planète. Terra Incognita avec un grand I. Comment et pourquoi la vapeur d'eau se condense en gouttelettes ? Comment se forment les nuages ? Pourquoi il pleut ici mais pas là-bas ? Comme vous le verrez plus bas, des progrès dans la compréhension de ces phénomènes ouvrent grand les portes de la connaissance scientifique du climat et même de la météorologie. Pour l'heure et pour les tenants de l'effet de serre, c'est une inconnue pratiquement insurmontable quoiqu'en disent certains, avides de reconnaissance et de résultats!
  4. Le quatrième problème c'est qu'on est encore incapable d'injecter avec certitude l'influence réelle du soleil et de ses variations périodiques dans les programmes d'ordinateurs. Sachant que le soleil est à l'origine de la chaleur sur notre planète mais aussi de la génération de champs magnétiques qui peuvent influencer la formation des nuages par les particules ionisées, ces inconnues mal maîtrisées suscitent de graves réserves sur les prévisions climatiques par ordinateur. Jusqu'au point où les chercheurs ont proposé un modèle qui expliquerait le réchauffement climatique uniquement à partir des instabilités solaires... qui ne sont même pas impliquées dans les modèles standards actuels. Alors que l'on débatte de l'efficacité de tel ou tel processus, oui, bien sûr. Mais qu'on les oublie dans les calculs, non !

Au vu de ces difficultés et du très grand nombre d'inconnues qui restent à élucider, on comprend que les prévisions sur le futur de notre planète soient pour le moins hasardeuses (voir paroles de grands chercheurs). Les mathématiciens ou les physiciens sérieux diraient qu'il s'agit d'un énorme système d'équations différentielles à coefficients inconnus, non linéaires et couplées entre elles et donc très difficile à élucider (voir cette page sur les graves critiques de physiciens sur les modèles des climatologues). En plus, une partie est plus ou moins chaotique c'est à dire très sensible aux conditions initiales souvent inconnues. Il n'y a pas pire ! Pourtant, les programmeurs sur ordinateurs s'en donnent à coeur joie avec des milliers de paramètres inconnus et la forme des équations maîtresses qu'il faut essayer de deviner. Disons gentiment que, comme toujours, ils obtiennent des résultats mais le problème c'est que l'on peut faire évoluer a volo les résultats en changeant un seul des paramètres ou une seule des équations inconnues. Comment croire que les ordinateurs font une prédiction correcte alors que les mécanismes essentiels des échanges et des rétroactions (feedbacks) positives et négatives sont encore très mal comprises et font toujours l'objet d'âpres discussions entre les chimistes, les physiciens, les climatologues, les géophysiciens etc.?

priereAinsi pour un scientifique rigoureux et au niveau d'incertitude scientifique où nous nous trouvons actuellement, la croyance dans la véracité de telle ou telle prédiction d'ordinateur semble plus relever de la foi que de la certitude scientifique ! (voir ici une liste des dangers inhérents à la modélisation numérique). Sans compter que vu la multiplicité des méthodes de résolution possibles, les équations hasardeuses et le nombre de paramètres injectables, les résultats des simulations sur ordinateur sont très difficilement controlables par quiconque ne les a pas programmées lui-même. Bref, on nage et les partis-pris prennent le dessus, déclenchant des polémiques dont le niveau n'est pas celui que l'on pourrait attendre d'un grand débat scientifique et de scientifiques honnêtes et rigoureux. Pour leur part, les politiques et les écologistes choisissent les résultats qui leurs conviennent, mais ils ignorent tout des nombreuses incertitudes, des approximations et des problèmes que posent encore les méthodes qui ont été employées. Bref, ils sont dans l'incapacité totale d'apprécier la fiabilité des résultats qui leur sont communiqués et l'on ne saurait leur en vouloir au vu des difficultés du problème. La seule chose que l'on peut leur reprocher c'est leur trop grande crédulité et leurs affirmations péremptoires pour faire croire que tout cela est sûr et certain. Alors que ça ne l'est pas du tout !

Ceci étant bien compris, voyons maintenant quelques résultats de calculs sur ordinateur qui, selon les partisans de l'effet de serre du CO2, "prouvent" que l'homme est bien pour quelque chose dans le réchauffement climatique :

simulation

Ci-contre un des multiples résultats de simulations numériques pour démontrer l'influence du CO2 introduit par l'homme dans l'atmosphère. (du NCAR/DOE parallel climate model). L'image ci-contre, à l'intention des politiques est à vocation pédagogique. Elle est facile à comprendre. En noir, la courbe représentant les températures mesurées en moyennant les résultats des mesures d'un grand nombre de thermomètres placés sur notre planète. En bleu (le flou représente les incertitudes), la courbe des températures calculées avec un modèle d'ordinateur qui introduit les effets du rayonnement solaire (le simple rayonnement ? voir plus bas) et de l'activité volcanique. En rose une courbe de variations de températures calculées en ajoutant à la précédente l'effet de l'augmentation du CO2 dans l'atmosphère (du fait des activités humaines pensent les auteurs) ainsi que les sulfates présents dans l'atmosphère. A noter que l'on néglige l'effet du méthane et des autres gaz à effet de serre (comme H20, le plus important de tous mais sur lequel on a peu ou pas de modèles). Comme vous allez le voir, les opposants à la théorie de l'effet de serre anthropogénique (produit par l'homme) donnent, eux, une explication basée sur la couverture nuageuse due à H20 et non pas sur l'effet de serre du CO2.

Lorsque l'on voit le très bon accord de ces courbes, comme les participants du GIEC, les écologistes et les politiques et nombre de journalistes l'ont fait, on est prêt à jurer que cette explication est la bonne et qu'il n'y a pas à discuter." The debate is over" : Le débat est clos, comme dit Arnold Schwartzenegger le gouverneur de Californie qui n'est pas vraiment un connaisseur en simulations numériques. Malheureusement, ce faisant, les crédules ignorent totalement les grandes incertitudes de ces simulations numériques sur ordinateur qui peuvent prédire la même chose avec des jeux totalement différents de paramètres et d'équations. Autrement dit, et je suis très bien placé pour le savoir après 40 ans de pratique, le fait qu'une simulation numérique "marche", c'est à dire semble reproduire une courbe, ne donne absolument aucune garantie que cette solution soit la bonne et surtout qu'elle soit UNIQUE et qu'il n'y en ait pas d'autre. Et il peut y en avoir beaucoup d'autres, surtout avec autant d'inconnues et d'équations à la clef, qui donneraient des résultats tout aussi convaincants ! Bref, "comparaison n'est pas raison" dans ce domaine et, au cours de ma longue carrière, j'ai vu bien des simulations qui semblaient aussi convaincantes que celle-ci mais qui ne reflétaient absolument pas la vérité comme l'ont démontré les expériences réelles ultérieures !

Malgré toutes ces réticences que beaucoup connaissent mais dissimulent (il faut les comprendre, c'est leur gagne-pain !), certains (avec ou sans arrières-pensées), comme les membres politiques du GIEC (beaucoup moins pour les scientifiques !) font naïvement(?) confiance à ces calculs d'ordinateurs...
A partir de ce moment là, les "computer-men" (cad les prévisionnistes sur ordinateur) n'ont plus qu'à faire tourner leurs programmes pour obtenir des projections pour le futur de la planète. projectionOn obtient alors des courbes du genre de celles de la figure ci-contre (publiées par le GIEC dans son rapport de 2001). Ces variations de températures prévues pour le XXIème siècle servent d'argument N°2 (après la crosse de hockey de Mann) aux "alarmistes" de toutes origines. A noter que l'on retrouve ces courbes partout sur le WEB, dans une multitude de sites plus ou moins éclairés, portés par des convictions toutes faites ou par une crédulité naïve dans les simulations numériques, ce qui est excusable quand on n'a jamais exercé la profession de chercheur et qu'on n'a pas soi-même été confronté aux prévisions délirantes de ces big brothers ! Par contre, les vrais chercheurs qui connaissent bien les problèmes des prévisions sur ordinateur, n'accueillent ces résultats qu'avec la plus grande prudence.

Sans entrer dans les détails, on voit, du premier coup d'oeil que les différents modèles utilisés (A1B, A1T, B2 etc..) ne brillent pas pas leur cohérence. D'après eux, l'accroissement des températures peut ainsi aller de +1°C à +6°C ! Cela dépend, disent-ils du comportement humain imprévisible. Rien que cela devrait mettre la puce à l'oreille de nos crédules concitoyens. Si une telle fourchette d'erreur est possible, on se demande aussi comment il se fait que certains programmeurs n'aient pas aussi trouvé des abaissements de température ! Peut-être en ont-ils trouvés qu'ils n'ont pas publiés ? Ou alors, ils n'ont pas encore exploré toutes les différentes équations et les valeurs possibles des cinq millions de paramètres envisageables ? Il est vrai que s'ils avaient publiés des résultats indiquant une décroissance des températures leurs crédits de recherche auraient été immédiatement suspendus par les gouvernements. En effet et dans l'ambiance actuelle, pourquoi financer des recherches qui ne prévoient pas de catastrophes ?

In cauda venenum, tous ces calculs sur ordinateurs sont extrêmement complexes, comme on s'en doute ! Ils ne peuvent être effectués que par des spécialistes de la programmation certes très qualifiés dans leur domaine mais qui ne sont pas, le plus souvent, des climatologues avertis.On touche ici à une difficulté récurrente en matière de simulation sur ordinateur : Il arrive le plus fréquemment (mais pas toujours, heureusement) et ne particulier pour des problèmes très complexes, que ceux qui mettent au point les programmes ne sont pas de spécialistes des sciences de l'observation. Il n'existe plus de Pic de la Mirandole (qui prétendait TOUT savoir). D'où un certains nombre de couacs ! Et pas seulement en matière de climatologie. C'est d'ailleurs une des explications que donnent les détracteurs de la crosse de hockey de Mann en rappelant que Mann n'était nullement un statisticien professionnel et qu'il a commis des erreurs de programmation, de ce fait.

Pour vous faire toucher du doigt une des nombreuses et grandes difficultés auxquelles se heurtent les "projections" d'ordinateur, j'emprunte l' image suivante à A. Zichichi (le Président de la Fédération Mondiale des Scientifiques). Vous trouverez une citation de Zichichi ici dans laquelle il déclare que le climat est régi par un système d'équations différentielles couplées (couplage fort) insolubles. Ce en quoi, il rejoint exactement les conclusions du livre de Peixoto and Oort (Physics of climate, New York AIP, 1992) qui écrivaient " L'intégration d'un modèle fortement couplé incluant l'atmopshère, les océans, la Terre et la cryosphère avec des constantes de temps très différentes, présente des difficultés insurmontables même si on connaissait le détail des processus en interaction". C'est très précisément ce que disent Gerlich et Tscheuschner dans leur article de 2007.

Antonio Zichichi se propose d'illustrer, très simplement, la grande sensibilité des modèles climatiques sur ordinateur aux rétroactions positives ou négatives de la planète vis à vis d'une variation de température telles que celle que nous connaissons actuellement et et comme celles qui se sonnt produite depuis la nuit des temps.

Dans la formule ci-contre, très simple, qui nous indique que les variations de température sont extrêmement sensibles aux modèles de rétroactions choisis,

  • Delta T est la variation de température de la planète en °C eqzichichi
  • Delta T0 serait la variation de température de la planète s'il n'y avait que l'effet de serre seul, sans rétroactions.
  • F est le taux de rétroaction (positives et négatives prises ensembles) qui varie entre 0 et 1. 0 signifie aucune rétroaction et 1 signifie un emballement de la température ( le "tipping point" ou "le run away", comme disent les américains)

Si l'effet de serre du CO2 ne générait aucune rétroaction, l'élévation de température serait d'environ 1,2°C au maximum (dit-on). Si on considère les dernières projections du GIEC en matière d'élévation de température (entre 2,2 et 6°C), on observe, sur la courbe ci-contre, que cela indique que le GIEC a "supposé" qu'il existait une rétroaction positive comprise entre 0,45 et 0,8.

Quand on connaît les immenses difficultés qui se présentent lorsque l'on cherche à comprendre le vaste et complexe système des rétroactions de la planète, on se dit qu'un tel choix de paramètres ne peut-être qu'au "doigt mouillé" comme disent les scientifiques, c'est à dire extrêmement incertain. D'ailleurs, il ne se passe pas de mois sans que l'on découvre que certaines rétroactions que l'on pensait positives se révèlent, en fait, négatives (autrement dit, refroidissent la planète et ne la réchauffent pas) , comme cela a été le cas, par exemple, pour les planctons ou pour l'effet des nuages cirrus (l'effet iris, à la fin ).

_____________________________________________________________________________________________________________________

Mise à jour du 20 Juillet 2009 : Le Dr Roy Spencer est Directeur de Recherches sur les questions climatiques à l'Université de l'AlabamaSpencer (Huntsville). Il a été chef de projet sur la recherche climatique à la NASA. Spécialiste des mesures satellitaires, il est le chef d'équipe du AMRS-E (Advanced Microwave Scanning Radiometer) monté à bord des satellites Aqua de la NASA. Il a co-développé les mesure satellitaires précises de la température des différentes parties de l'atmosphère. Il est le responsable des mesures de température de la basse atmosphère dites UAH que vous retrouverez à la page "indicateurs du climat". Spencer est bien connu des lecteurs de ce site (voir ici).
Roy Spencer a rédigé, au mois de Juillet 2009, un texte très pédagogique expliquant aux non-spécialistes comment fonctionnent les modèles climatiques sur ordinateur en précisant leurs points forts et leurs points faibles. J'ai pensé qu'il serait utile de traduire son analyse en français. La voici :
----------------------------------------------------------------------------------

Comment Fonctionnent les Modèles du Climat ?

Roy Spencer (13 Juillet 2009) (source)

Puisque la peur du réchauffement climatique anthropique  ainsi que la mise en œuvre de lois ou de limitations des émissions de dioxyde de carbone, repose essentiellement sur les résultats de modèles du climat, il est important que le grand public comprenne les bases de ces modèles, comment ils fonctionnent et quelles en sont les limites.

Les modèles du Climat sont des Programmes

De manière générale, un modèle climatique est un programme d’ordinateur essentiellement constitué d’équations mathématiques. Ces équations décrivent, de manière quantitative, comment la température de l’atmosphère, la pression de  l’air, les vents, la vapeur d’eau, les nuages et les précipitations répondent au réchauffement de la surface de la Terre et de l’atmosphère  par le soleil. On y inclue aussi les équations qui décrivent comment les éléments de l’atmosphère dénommés à ‘effet de serre’ (essentiellement  la vapeur d’eau, les nuages, le dioxyde de carbone et le méthane) conservent la chaleur de la basse atmosphère en constituant une ‘couverture’ radiative qui contrôle, en partie, la vitesse de refroidissement de la Terre par échappement de ses infrarouges vers l’espace lointain.... (Texte complet en pdf, ici)

____________________________________________________________________________________________________

En résumé, les projections par ordinateurs peuvent sans doute convaincre un profane, politique ou écologiste déjà convaincu mais certainement pas un scientifique expérimenté et sans parti pris : il n'est absolument pas prouvé par ces prévisions sur ordinateur que l'effet de serre donne la bonne explication. Même si le contraire n'est pas prouvé non plus, c'est évidemment le point faible N°1 des tenants de l'effet de serre anthropogénique sur lequel insistent les "climate skeptics" comme disent les américains....A ces doutes sérieux liés au fait qu'il ne s'agit pas de preuves mais des modèles d'ordinateurs peu fiables, s'ajoutent encore d'autres points faibles sur lesquels insistent aussi les opposants à l'effet de serre du CO2 :

  • Dans le modèle d'effet de serre, la troposphère (c'est la partie basse de l'atmosphère) devrait se réchauffer au moins autant que la Terre (comme les vitres d'une serre de jardin... qui ne le font pas non plus! Allez voir ici). Or les satellites et les ballons d'observation n'indiquaient jusqu'en 2005, aucune augmentation de température. Les tenants de l'effet de serre ont récemment réuni un comité d'experts aux Etats Unis pour essayer de réconcilier (c'est le terme employé, voir ici) les mesures de température effectuées sur la Terre et dans la troposphère car cela est vital pour soutenir les thèses de l'effet de serre. Après de nombreuses et houleuses discussions (qui ont provoqué, entre autres, la démission d'un éminent spécialiste de la question, présent à la réunion, R. Pielke), les observations ont finies par être "réconciliées" aux (grandes) erreurs de mesures près, c'est à dire que les variations de températures de la basse stratosphère seraient à peu près identiques à celle de la Terre. Il reste un point crucial qui est resté non résolu et qui n'est pas négligeable puisqu'il concerne les mesures de la température de la troposphère au dessus des tropiques : l'élévation de température de la troposphère au dessus des tropiques est bien moins élevée que celle de la Terre (en fait 2,4 fois plus petite que ne l'indiquent les modèles d'effet de serre). Et c'est très grave pour les tenants de la thèses des gaz à effet de serre parce que la température au dessus des tropiques constitue, en fait, la seule et authentique signature de l'effet de serre ! Au point qu'un chercheur (Ross McKitrick, Financial Post 12 juin 2007) a récemment proposé que les "taxes carbone" soient spécifiquement indexées sur cette température, signature de l'effet de serre. Donc, pour l'instant, pas moyen de réconcilier la théorie de l'effet de serre et les mesures réelles au dessus des tropiques. C'est un fait !
    Vincent Gray, pourtant relecteur officiel des rapports du GIEC depuis le début, démontre que les fameuses corrections ne tiennent pas la route, que la température de la troposphère n'a jamais augmenté et que cela dément complètement l'effet de serre du CO2. L'article est ici.
    C'est évidemment un point très douloureux pour les tenants de l'effet de serre du CO2 puisqu'il contredit clairement les modèles du GIEC en vigueur. D'autre part, Vincent Gray, toujours membre du GIEC, descend en flammes les rapports de cet organisme ! L'article est ici.
  • Le modèle de l'effet de serre anthropogénique (dû à l'homme) n'explique absolument pas les grandes variations de températures que notre chère vieille Terre a connu aux cours des siècles et des millénaires passés où il n'y avait pas d'industrie humaine ! Tout simplement parce que le GIEC a, depuis sa création, exclu, d'emblée, toute autre hypothèse que l'effet de serre du CO2. C'est, pour le moins une difficulté. Par contre, le modèle suivant, bien qu'encore incomplet, permet d'expliquer tout cela en détail et sans aucun calcul d'ordinateur, uniquement avec des données expérimentales. C'est ce qui fait sa force aux yeux de nombreux scientifiques.
  • Les observations les plus récentes montrent que l'hémisphère sud se refroidit ce qui n'est pas explicable par les modèles d'effet de serre en vigueur au GIEC. L'argument qui consiste à dire que ce sont les aérosols et autres fumées qui induisent un refroidissement ne tient pas pour l'hémisphère sud qui possède peu d'industries.
  • A la stupéfaction générale, d'autres mesures récentes montrent que les océans de la planète se sont brusquement refroidis au cours des doutesannées 2004-2005 perdant jusqu'à 20% de la chaleur accumulée pendant les 50 années précédentes. Sans d'ailleurs que l'on sache où est passée cette gigantesque quantité de chaleur. Voilà qui remet en question, très sérieusement, les fondements même des modèles de "circulation générale" (GCM "Global Circulation Model") qui sont la base des prédictions du GIEC telles qu'elles sont reportées dans les courbes ci-dessus.
  • Enfin, et c'est tout récent (2007) pour ce qui est de la courbe des concentrations de CO2, de nouvelles publications remettent en question les courbes de température et de concentration du CO2 qui servent de base à l'argumentation du GIEC (Groupement Intergouvernemental pour l'Etude du Climat qui est le porte drapeau des tenants de l'effet de serre)... Allez voir ici .

 

 

 

La thèse dominante de ceux qui ne croient pas à l'effet de serre dû au CO2 rejeté par l'homme

Ne faisons pas durer le suspense. Disons le tout de suite : pour les opposants à la théorie de l'effet de serre, le grand responsable du réchauffement actuel (et aussi des réchauffements et des refroidissements passés), c'est tout simplement... le SOLEIL ! Et je vais vous expliquer pourquoi. Pour eux encore, le CO2 émis par l'homme n'a qu'une influence négligeable dans cette affaire ! Tout est de la faute aux éruptions solaires que vous voyez nettement sur l'image de droite comme des taches plus brillantes que le reste de l'astre. Vous ne pouvez évidemment les voir à l'oeil nu car cela vous brûlerait la rétine.
bombeHDe fait, le soleil n'est rien d'autre qu'une gigantesque bombe atomique, une bombe H pour être précis. Une bombe H dont la taille est d'un million de fois celle de la Terre et qui brûle 600 millions de tonnes d'hydrogène par seconde. C'est d'ailleurs ce que nous essayons de reproduire, à toute petite échelle, sur Terre dans le projet ITER à Cadarache. Ce sera sans doute très difficile, mais c'est un enjeu extraordinaire pour le futur du genre humain. Si l'homme parvient à domestiquer l'énergie de fusion (après avoir domestiqué celle de fission), les problèmes d'énergie seront résolus pour longtemps sur notre planète.


Pour ce qui est du SOLEIL, l'explosion permanente et continue qui nous réchauffe n'est pas parfaitement constante. Elle subit des variations cycliques (tous les onze ans environ) au cours desquelles le soleil semble "pulser", c'est à dire que le soleil rentre périodiquement en éruption puis se calme peu à peu jusqu'aux éruptions suivantes. L'amplitude de ces suites d'éruptions n'est pas constante d'un cycle à l'autre, pas plus que leur durée (autour de 11 ans) et, justement, notre soleil est l'objet, depuis quelques dizaines d'années, d'une série de pulsations particulièrement énergiques...assez rares dans l'histoire récente de notre système solaire . D'ailleurs, d'autres planètes de notre système solaire en subissent les contrecoups comme vous le verrez plus bas.

sunspotnovVoici, ci-contre, à droite, une illustration de ces pulsations. Nous achevons le cycle solaire 23 en ce mois de novembre 2007 et allons amorcer la remontée vers le cycle 24. La NASA hésite entre les deux prédictions (courbes en rouge) pour l'intensité du prochain cycle 24. Comme vous le verrez dans la suite, l'amplitude de ces cycles d'éruption solaire a une importance considérable pour déterminer le climat de notre planète.

Vous pouvez actualiser ce graphe (mise à jour chaque fin de mois) en cliquant sur l'image.

Bien entendu et comme vous l'avez vu dans les paragraphes précédents, les tenants de l'effet de serre et des prévisions sur ordinateur n'ont pas oublié le rayonnement solaire. Ils ne le pourraient d'ailleurs pas, car le SOLEIL est pratiquement l'unique source de chaleur ! Et quand on veut faire des prévisions sur ordinateur, n'est-ce pas, on ne peut pas oublier la source des températures. Cependant, et d'après les modélisateurs précédents, les éruptions solaires que vous voyez sur l'image ci-contre et qui évoluent au cours des années ne peuvent expliquer, à elles seules et par simple variation de luminance, les variations de température que nous observons sur notre planète. Tout au plus, les tenants de l'effet de serre du CO2 anthropogénique, accordent-ils à leurs opposants un maigre effet de 0,3 Watt/m2 , à comparer avec les 2,4 Watts/m2 qui seraient dus à l'effet de serre de notre CO2, pensent-ils.

Pour ce qui est de la luminance du SOLEIL, ce doit être exact si on s'en tient à la simple mesure des variations d'éclairement produit par notre astre qui respire comme je l'ai dit, tous les onze ans. Rien à objecter à cela et si les opposants n'avaient que cet argument dans leur besace, je ne me serais sûrement pas donné le mal d'écrire cet article pour vous !

Mais (bien sûr), il y a autre chose: Les chercheurs qui travaillent sur le rayonnement solaire (les astrophysiciens) ont fait bien d'autres observations que l'étude de la simple variation de l'ensoleillement de l'astre solaire et là, je dois dire qu'en tant que scientifique, les résultats m'ont impressionné, d'autant plus qu'il ne s'agit, cette fois-ci, aucunement de prévisions d'ordinateurs, mais bien d'observations expérimentales et de mesures incontestables et incontestées ! Plus moyen de critiquer de multiples jeux de paramètres ou d'équations. Cette fois-ci, ce sont de vraies preuves ! Comme vous allez le voir, le processus d'analyse à partir de faits, et uniquement de faits, et non point de résolutions d'équations alambiquées, ressemble tout à fait à une enquête de Sherlock Holmes. Le scénario est en trois étapes.

Pour vous expliquer tout cela de manière aussi pédagogique que possible, je vais vous faire suivre pas à pas l'histoire des découvertes telles qu'elles ont été faites au cours de cette dernière dizaine d'années, jusqu'à maintenant. N'ayez pas peur, le raisonnement est facile à suivre et les évidences crèvent les yeux ! Allons-y !

Première étape : Observation de corrélation entre la durée des cycles solaires et la température du globe
Des chercheurs astrophysiciens Danois qui travaillent depuis une dizaine d'années sur ce problème ont eu l'idée originale de tracer sur un même graphique la température moyenne du globe de 1750 à 2000 (courbe blanche ci-contre) et la durée des cycles solaires pendant la même période (en jaune sur le même graphique). Comprenons nous bien : les chercheurs n'ont pas essayé de superposer les variations d'éclairement ou d'énergie émise par le soleil pendant cette période mais bien la durée des cycles des éruptions solaires, pour voir s'il y avait une possible relation entre ces données. et la température terrestre. Autrement dit, ils se sont posé la question suivante : " La température du globe a t-elle une relation quelconque avec la durée des cycles d'éruptions solaires ? " Voir le résultat des mesures compilées par Karen Labitzke (référence :1987, "Sunspots, the QBO, and the stratospheric temperature in the North Polar region". Geophysical Research Letters, 14, 535.) (à retrouver ici) ainsi que ( Soon, W., et al. (1996). Inference of solar irradiance variability from Terrestrial Temperature Changes, 1880–1993: an astrophysical application of the sun-climate connection. Astrophysical Journal, 472, 891). Voir aussi : Labitzke, K., The global signal of the 11-year sunspot cycle in the stratosphere: Differences between solar maxima and minima, Meteorol. Zeitschift, 10, 83-90, 2001. Al Pekarek a aussi retracé ce graphique, utilisant la durée des cycles solaires, jusqu'en 2001 .cycles

 

 

A moins d'être aveugle, on voit que cela a bien l'air d'être le cas.

A noter que l'échelle de droite est graduée en durée des cycles solaires magnétiques et l'échelle est inversée par rapport à la convention habituelle. La moyenne de ces cyles tourne autour de 22 ans qui est la durée classique des cycles de Hale. Cette durée est égale au double de celle des cycles bien connus de Schwabe qui, elle, est de 11 ans environ. Cela tient au fait que le soleil renverse sa polarité magnétique lors du passage d'un cycle solaire au suivant (voir, par exemple, ici) et que la polarité magnétique du soleil (et de la Terre) joue un rôle important, comme nous le verrons plus bas.

 

Addendum du 5 Mai 2010 : Des images, du même type que la précédente, de corrélation [température/durée des cycles solaires] ou de corrélation [extension des glaces/durée des cycles solaires] tirées d'une présentation Poster à la "Final ACSYS Science Conference, Arctic and Antarctic Research Institute, St. Petersburg," 11-14 November 2003. (merci au lecteur qui m'a communiqué cette référence)
Auteurs : Torgny Vinje, Norwegian Polar Institute, Norway
Hugues Goosse, Université Catholique de Louvain, Belgium vinje1


Fig. 5.

Ligne rouge : anomalie de température par rapport à moyenne (1961-1990) au Nord du 62N (selon Polyakov 2001). les températures avant 1880 ne sont pas repérsentatives d'une moyenne circumpolaire.

Ligne bleue : deviations par rapport à la durée moyenne du cyle solaire pendant la période 1961-1990 (10,6 années) lissées selon la méthode L121 indiquée dans http://web.dmi.dk. La correlation entre les deux lignes est de 0.93.

Les échelles sont inversées comme dans le graphique précédent.



vinje2

Fig. 6.

Echelle de gauche et courbe bleue: Anomalie normalisée par rapport à la moyenne de l'extension de la glace de la Mer de Barents en août (1750-2000).

Echelle de gauche et courbe rouge :
Anomalie normalisée par rapport à la durée moyenne du cycle solaire entre 1750 et 2000, selon Friis-Christensen and Lassen (1991), Lassen et Friis-Christensen (1995), and Thejll et Lassen (2000) notée (L12221) et donnée sur le site http://web.dmi.dk. La corrélation entre les deux courbes est 0.7

 

De fait,il ne s'agit pas, cette fois-ci, de corréler une seule montée de température avec une seule montée de concentration de CO2 comme l'ont fait les tenants de l'effet de serre, mais bien, plusieurs montées et descentes de température avec plusieurs augmentations et diminutions de la durée des cycles solaires en fonction du temps. Le test est beaucoup plus discriminant puisque la température à beaucoup varié en montées et en descentes durant ces périodes. Disons pour l'instant et pour rester prudent (Corrélation n'est pas raison !) que la coïncidence entre les températures et la durée des cycles solaire est impressionnante et n'est sans doute pas le fait du hasard. C'est très bien, mais comment expliquer cela ? se sont demandés les chercheurs qui travaillent dans ce domaine. A noter que ces observations sont totalement ignorées dans les rapport finaux du GIEC jusqu'à nos jours. Mais comme les évidences se sont affinées et les preuves accumulées depuis, ils doivent se faire bien du souci à l'ONU (qui est le responsable du GIEC) les partisans de l'effet de serre du CO2! Et cette relation profonde entre le rayonnement cosmique ionisant ne date pas d'aujourd'hui, loin de là.
__________________________________________________________________________

Mis à jour : Juillet 2011. Les résultats de Friis-Christensen et Lassen qui datent de 1991 ont été abondamment critiqués; jusqu'à être prétendus erronés, par les tenants de l'effet de serre. Ils ont pourtant été confirmés, quelques années plus tard, par deux chercheurs irlandais qui ont utilisé les données du Armagh Observatory, lequel présente la particularité de posséder une des bases de données de température les plus longues existantes à ce jour. Ces deux chercheurs ont publié leurs résultats en 1996 dans le JASTP : Journal of Atmospheric and Terrestrial Physics, Vol. 58, No. 15, pp. 1657-1672, 1996

A provisional long mean air temperature series for Armagh Observatory
Une longue série provisoire de données sur la température moyenne conservée à l'Observatoire de Armagh
C. J. Butler and D. J. Johnston
Armagh Observatory, College Hill, Armagh BT61 9DG, Northern Ireland, U.K.

Résumé : Deux longues séries de température moyenne de l'air à la surface sont présentées pour le l'Oervatoire de Armagh. L'une est basée sur la mesure "spot" de deux températures quotidiennes ( de 1796 à 1882) et l'autre sur les mesures des maximas et minima de températures quotidiennes de 1844 à 1992. Nos données confirment la corrélation de température avec la durée des cycles solaires suggérées, en premier; par Friis-Christensen et Lassen (Science 254, 698, 1991). Pour ce site (NdT : Armagh), on prolonge leurs résultats de 65 années en allant vers la fin du XVIIIème siècle.
___________________________________________________________________________

 

veizerUne autre étude de Jan Veizer (professeur de géochimie à Ottawa, Canada),cette fois, concerne des périodes très reculées de l'histoire. Lors de forages profonds, La proportion d'isotopes (Be10, Chlore36 et Carbone14) trouvés dans les carottes donnent une bonne indication de l'irradiation de la planète par les rayons cosmiques de haute énergie. D'autre part, la proportion des isotopes O16-O18 et la variation des faunes fossiles permettent d'estimer la température.

Ci-contre les résultats absolument confondants de l'étude de Jan Veizer (réf : Veizer J. (2005), Celestial climate driver: A perspective from four billion years of the carbon cycle, Geoscience Canada, 32, 1, 13-28.)

A voir l'excellente concordance des variations de le température terrestre avec l'irradiation ionisante, on comprend que Jan Veizer soit devenu très sceptique sur le rôle du CO2 dans le réchauffement climatique. Alors quoi ? Ce qui était vrai pendant 500 millions d'années ne serait plus vrai pendant notre petit siècle ? Les éruptions solaires ne concerneraient plus notre vieille Terre ?

herschelA noter un petit point historique très intéressant et qui parait un peu insolite sur cette question : L'idée que les éruptions solaires influencent le climat de notre Terre n'est pas nouvelle. Ainsi, en 1801, un astronome anglais, Sir William Herschel (le découvreur de la planète Uranus et du rayonnement infrarouge qu'il avait trouvé en plaçant un thermomètre derrière un prisme) avait remarqué que le prix du blé semblait directement contrôlé par le nombre de taches (éruptions) solaires qu'il observait avec son télescope (réf : Phil. Trans. Roy. Soc. London, 91, 265 (1801)). Il pensait que la couverture nuageuse était plus importante quand il y avait moins d'éruptions solaires et donc moins de blé, dont les prix montaient ! A noter, comme vous allez le voir, que William Herschel qui utilisait des moyens très réduits, avait un sens très profond de l'observation. Il avait déjà presque tout pressenti ! C'était un génie, sans doute bien meilleur que bien des climatologues d'aujourd'hui ! Voici exactement ce qu'il dit en 1801 ::“I am now much inclined to believe that openings [i.e., sunspots] with great shallows, ridges, nodules, and corrugations, instead of small indentations, may lead us to expect a copious emission of heat, and therefore mild seasons.” Autrement dit : "Je suis maintenant très enclin à penser que les taches (NDLR : les éruptions solaires) avec des bordures profondes, des nodules et des rayures, plutôt que de légères indentations, doivent nous conduire à attendre une copieuse émission de chaleur et donc à des saisons plus douces" . L'histoire raconte que la déclaration de William Herschel sur la corrélation entre le cours du blé et l'intensité des taches solaires, prononcée devant l'honorable Royal Society de Londres, déclencha une tempête de rires et qu'il fut contraint de quitter la salle sous les quolibets. Lord Brougham alla jusqu'à utiliser le qualificatif de "grand absurdity" pour qualifier cette hypothèse. Et pourtant, ce n'était pas du tout absurde comme allaient le montrer les recherches effectuées quelques 2 siècles plus tard.

Ci contre, à droite, voici comment on observait les taches solaires au début du XVIIème siècle.
sunspots

En bref, Herschel pensait que les éruptions solaires jouent un rôle important pour déterminer la température terrestre. Le prix du blé n'est rien d'autre qu'un marqueur (un proxy comme disent les américains et, à l'époque, il n'y en avait pas d'autre). En matière de science, c'est ce que nous appelons un indice. Sans plus, car nous ne connaissions pas le détail des mécanismes et la bonne question c'était : Par quel processus ? Comment les taches solaires que Herschel observait pouvaient-elles bien influencer le climat de notre planète ? Tout le monde l'ignorait, bien entendu, et il fallut attendre 202 ans pour que les observations de Herschel soient vérifiées en détail et que des tentatives d'explications de la physique du phénomène apparaissent enfin et, aussi, que Lord Brougham "mange du corbeau" (toujours comme disent les américains, pour "reconnaître ses torts").

Plus près de nous mais toujours dans la série de grands précurseurs ou visionnaires, je ne peux manquer de vous citer une phrase particulièrement prophétique due à l'Abbé Théophile Moreux (photo ci-contre crédit). Elle figure à la page 64 de son oeuvre maîtresse, "Le Ciel et l'Univers" ( Gaston Doin et moreuxCie, Paris 1928). L'Abbé T. Moreux (1867-1954) était, tout à la fois, un astronome remarquable (il a donné son nom à un cratère de la planète Mars et il était un spécialiste des taches solaires), un météorologue passionné et un vulgarisateur hors-pair. Outre un certain nombre d'articles scientifiques et quarante années de relevés météorologiques, il nous a laissé une centaine de livres de réflexions sur divers aspects de la science. L'Abbé Moreux est toujours honoré de nos jours et notamment dans la ville de Bourges (voir ici) où il a passé une grande partie de son existence et construit, successivement, deux observatoires. A noter que l'Abbé Moreux prit part à la Résistance pendant la seconde guerre mondiale et qu'il fut arrêté par les Allemands. Un officier Allemand, astronome amateur, qui avait lu ses livres, le fit libérer in extremis.
Voici ce que Théophile Moreux a écrit dans le livre cité plus haut et que m'a signalé un lecteur cultivé (que je remercie) :

"...Tous ces phénomènes ( NDLR : résultant de l'activité solaire) ont une répercussion sur l'état d'ionisation de la haute atmosphère et retentissent sur notre climatologie. Les détails de cette action puissante nous échappent encore, mais les physiciens, n'en doutons pas, sauront un jour ou l'autre en démêler les lois, malgré quelques météorologistes attardés qui cherchent toujours en bas alors qu'il faut regarder plus haut." Théophile Moreux, 1928.
C'était déjà une tentative d'explication assez prophétique. On se demande quels étaient, en 1927, les "quelques météorologistes attardés qui cherchent toujours en bas alors qu'il faut regarder plus haut" mais on ne peut s'empêcher de faire le parallèle avec la situation actuelle....

millikan

 

 



Un autre grand savant surtout connu parce qu'il est le premier à avoir mesuré la charge de l'électron, le Professeur Millikan de CalTech (Prix Nobel de Physique 1923), a lui aussi pensé que les rayons cosmiques pouvaient influer sur le climat comme nous le rappellent cette image et le texte ci-contre, extraits de "Popular Science" en Mars 1931.Le titre (journalistique) était " Les rayons cosmiques peuvent permettre de prévoir le climat". (Merci au lecteur érudit)

 

 

 

 

Pour leur part, plus récemment et en relation avec les observations de William Herschel ...
wheatpricedeux chercheurs Israéliens (Lev A. Pustilnik et Gregory Yom Din) ont vérifié, en 2003 et 2004, en utilisant des moyens modernes, cette frappante corrélation entre le prix du blé et la variation des cycles solaires entre 1249 et 1703 (référence accessible).

Plus extraordinaire encore, ils ont analysés les variations du prix du blé aux Etats Unis entre 1900 et 2000 et ils ont encore trouvé une excellente corrélation avec les cycles solaires (référence accessible) et les hausses et les baisses du marché du blé. Cet aspect de la phénologie (cad l'étude de l'influence du climat sur la croissance des végétaux, mise en vedette par Emmanuel Leroy Ladurie, en particulier) est très intéressant. Une aussi éclatante corrélation (qui n'est pas raison !) ne peut être due au hasard. Elle devrait convaincre les partisans de l'effet de serre du CO2, que les éruptions solaires ont probablement une influence importante sur le climat par le biais de la couverture nuageuse, comme je vais vous l'expliquer ci-dessous.

 

Deuxième étape : La durée des cycles solaires influence la trajectoire des particules ionisantes émises de l'espace et atteignant la Terre.

Tout d'abord, il nous faut comprendre ce qui se passe quand le soleil rentre en éruption, approximativement tous les onze ans, avec un variation lente de l'amplitude au cours des siècles. Je rappelle que nous sommes actuellement rentré dans une période de très intense activité des éruptions solaires.
Il est connu depuis longtemps que les éruptions solaires si elles font assez peu varier la luminance de l'astre, induisent ce que l'on appelle des orages magnétiques. Ces orages magnétiques d'intensité variable dans le temps et l'espace, apparaissent de manière concomitante avec les éruptions du soleil. Leur première conséquence est de dévier les flux de particules ionisantes (les rayons cosmiques découverts par Viktor Hess en 1912, prix Nobel 1936) qui, venant de très loin, traversent l'espace à grande vitesse et viennent impacter notre planète. Vous en voulez une preuve ? La voici sur la figure suivante :

ionisation

 

Les deux courbes du haut de cette figure représentent le nombre des particules ionisantes qui parviennent sur Terre mesurées dans deux chambres de détection aux États Unis entre 1937 et 2000.
Comme on le voit l'accord temporel entre le nombre d'éruptions solaires et le nombre de particules ionisantes est parfait. D'autre part, on voit que le maximum d'intensité des éruptions solaires correspond à un minimum du nombre de particules ionisantes qui parviennent sur notre planète. C'est essentiel pour comprendre la suite de ce petit exposé.

Ces courbes ont été compilées par le Professeur Svensmark et son équipe de l'Institut de recherches spatiales danois à Copenhague. Les travaux que je vous expose ont été rapporté dans les meilleures revues internationales comme Physical Review Letters ( le gotha des physiciens !) et ne sont pas sujettes à caution.

Ainsi cette courbe, d'origine expérimentale, ne peut être contestée. Le professeur Svensmark et son équipe confirment ainsi ce que l'on pensait déjà et qui résulte du phénomène suivant : Les éruptions solaires induisent des orages magnétiques qui dévient les particules ionisantes qui devraient normalement atteindre notre planète : Lorsque les éruptions sont brutales (cad de courte durée), le nombre des particules ionisantes qui atteignent notre planète est minimal : C'est tout simple et nul ne conteste ces faits !

Bon, c'est très bien tout cela, se disent les chercheurs. Mais que font donc ces particules ionisantes lorsqu'elles arrivent sur Terre et comment cela peut-il influencer la température de notre planète ? Pour être honnête, disons que de nombreux physiciens et astrophysiciens avaient déjà pressentis, comme le professeur Svensmark, ce que je vais vous raconter. Travaillant indépendamment aux quatre coins de la planète (au moins, aux USA en Israèl, au Japon et en Russie), ils étaient parvenus à la même conclusion : Les particules ionisantes doivent influencer la basse couverture nuageuse de la Terre et ainsi son ensoleillement et donc sa température.

Encore fallait-il le prouver et expliquer par quel processus physique! Nous arrivons à la troisième étape :

Troisième (et dernière) étape : Les particules ionisantes venues de l'espace, plus ou moins déviées par les éruptions solaires influencent grandement la couverture nuageuse de la Terre et donc sa température !

Le professeur Svensmark et son équipe Danoise ont alors lancé un projet de programme d'expériences auprès du CERN (Centre d'Etude et de Recherche Nucléaire de Genève). Ce programme appelé "Programme CLOUD" (cloud= nuage en anglais).Il s'agit d'une collaboration internationale impliquant pas moins de 60 scientifiques appartenant à 17 grandes institutions de la science provenant de 10 pays. L'investissement est évalué à 9 millions d'Euros : Ce n'est pas rien ! Le but de ce programme est d'établir le lien physique entre les radiations ionisantes venues de l'espace et la formation des nuages dans la troposphère de notre planète. Autrement dit, d'essayer de comprendre si et comment les particules ionisantes peuvent changer la couverture nuageuse de la Terre et donc modifier son ensoleillement et donc... sa température, ce que beaucoup persistent à nier...comme Lord Brougham en 1801 et le rapport du GIEC en 2007 !

Voici un exemple des résultats étonnants obtenu par l'équipe de Svensmark et rapporté en 2000 dans Physical Rev. Letters (une revue au dessus de tout soupçon). La courbe ci-dessous présentée par Henrik Svensmark lors d'une connférence en 2005 a été implémentée par les résultats obtenus entre 2000 et 2005 :

Avouez que le recouvrement de la courbe rouge ( intensité des rayons cosmiques) et de la courbe bleue (taux de couverture nuageuse à basse altitude) est pour le moins confondante...

cloudcosmic

D'autre part, et plus récemment et pour en savoir plus, le professeur Svensmark et ses collaborateurs ont construit une grande chambre d'ionisation (une sorte de grande boite transparente) entourée d'une multitude d'instruments d'observation et remplie avec les gaz qui constituent la partie inférieure de l'atmosphère terrestre, avec les compositions variables des différents constituants (Azote, oxygène, H20, CO2, SO2, sulfates etc.). C'est le projet SKY (nuages en Danois). Ils ont ainsi réalisé, dans cette chambre d'ionisation, une petite atmosphère terrestre. Puis ils ont irradié l'ensemble avec des rayons lumineux identiques à ceux du soleil et avec des particules ionisantes identiques à celles qui sont générées par les rayons cosmiques et qui proviennent généralement des étoiles qui explosent en permanence et essentiellement dans la voie lactée. A la grande surprise des expérimentateurs et du professeur Svensmark lui-même, les résultats ont été d'une efficacité stupéfiante.Ils ont parus, sans tambour ni trompette, le 4 octobre 2006 dans les Proceedings of the Royal Society A, publiés par la Royal Society et l'Académie des Sciences Britannique qui est, bien entendu, une revue au dessus de tout soupçon. Les média, (s'ils sont au courant ?) n'en ont soufflé mot. Ils ont eu tort, car, de l'avis général, cette découverte représente une vraie nouveauté dans la connaissance du climat de la Terre, même si elle ne leur fait pas plaisir, parce qu'à elle seule, et dans la mesure où elle est confirmée, elle pourrait permettre d'expliquer en grande partie, si ce n'est la totalité des variations de température de la Terre, passée, présentes et futures ! ...sans l'effet de serre du CO2. marsh1

 

Voici une autre version de la superposition précédente parue dans Science (298, 1732 (2002)) ( KS Carslaw, RG Harrison et J. Kirkby).
Ce graphe, qui porte malheureusement sur une durée limitée, a la mérite de rassembler sur le même graphique, la variation de fraction de nuages bas (inférieurs à 3 km) en bleu, la variation mesurée de l'irradiance solaire (au sol) en pointillés noirs et la variation des rayons cosmiques mesurés à Hawa, en tiretés rouges.

Notez que l'échelle des irradiances solaires est inversée, comme de bien entendu.

RG Harrison est bien le même Regis Harrison de Reading qui est cité ci-dessous.

 

Les idées du professeur Svensmark, du Dr Shaviv en Israel et de quelques autres sur la planète, dont de nombreux chercheurs Russes sont finalement très simples : Lorsque l'activité solaire est très intense comme cela a été le cas à la findu siècle dernier, les orages magnétiques qui lui sont associés, dévient efficacement les particules qui normalement fabriqueraient des nuages à partir de la vapeur d'H2O présente dans l'atmosphère. Par un processus qui n'est pas encore totalement éclairci et sur lequel les débats vont bon train, l'ensoleillement résultant sur la Terre est plus intense et la Terre s'échauffe. En revanche, lorsque l'activité solaire est plus faible (comme en 2007-2008, voir ici), l'héliosphère devient plus transparente et les rayons ionisants parviennent, en plus grand nombre, jusqu'à l'atmosphère de notre planète provoquant ainsi un refroidissement qui résulte de l'augmentation de l'albedo des nuages.. D'ailleurs des mesures satellitaires ont confirmé ce point de vue, malheureusement pour une période assez courte (il n'y avait pas de satellites autrefois !). Bref, c'est simple à comprendre mais c'est révolutionnaire en matière de science des climats et... ce n'est évidemment pas inclus dans les simulations numériques des partisans de l'effet de serre anthropogénique ni dans les rapports du GIEC dont je vous ai parlé plus haut qui ne font intervenir que les faibles variations de luminance du soleil bien insuffisantes pour expliquer les variations actuelles. C'est vrai.
Je ne serais d'ailleurs pas étonné que le Professeur Svensmark, avec ses collègues et le Dr Shaviv de Jérusalem, reçoivent un jour le prix Nobel pour cette découverte qui révolutionne nos idées dans cette matière. Mais sans doute faudra t'il attendre que tout le battage médiatique sur l'effet de serre soit retombé et que les innombrables polémiques soulevées par cette découverte se soient calmées. Car n'imaginez pas que les tenants de l'effet de serre anthropogénique restent inactifs. Loin de là ! Cette découverte est pour eux une véritable catastrophe et ils consacrent beaucoup d'énergie à la minimiser, voire à la ridiculiser...Par exemple et à l'instar de Sir Brougham en 1801, et quelques 200 ans plus tard, un autre membre éminent de l'establishment, R. Pachauri, le président du GIEC, rejeta violemment les idées de Svensmark et Friis-Christensen en les qualifiant de "naïves et irresponsables".
Un point important pour les inquiets : Nous sommes actuellement à la fin du cycle 23. D'après ce que nous connaissons des cycles solaires et de leurs évolutions à long terme, et si cette dernière théorie s'avérait exacte, la Terre devrait se refroidir sérieusement dans les années qui viennent ! Vous trouverez ici une bibliographie avec des liens actifs des principaux articles de Svensmark et de ses collaborateurs.

Le temps (dans tous les sens du mot) nous dira qui a raison !

Il s'écoulera sûrement beaucoup de temps avant que les choses se clarifient et soient admises par tout le monde comme une évidence. C'est comme cela en Science : plus une découverte est révolutionnaire donc importante et va contre la Pensée Unique, plus elle met du temps à s'imposer. Par exemple, Alexander Fleming, le découvreur de la pénicilline (le premier antibiotique qui a sauvé des millions de vies humaines), a mis plus de 10 ans avant de faire admettre et produire sa découverte. Et encore, nous étions au début de la seconde guerre mondiale : la pénicilline devenait indispensable !

Vous trouverez ici un superbe petit film (40Mo) de l'équipe Svensmark, qui montre ce que l'on voit dans la chambre d'ionisation et vous explique le processus qui conduit de l'arrivée des rayons cosmiques générés par l'explosion d'une étoile à la formation des nuages sur notre Terre. J'en ai extrait quelques photos, que je vous livre avec quelques explications :

cosmic ionise cluster nucleation nuage
Le rayons cosmiques( traits blancs obliques de droite à gauche) de haute énergie pénètrent dans l'atmosphère terrestre. Ils sont plus ou moins déviés par les orages magnétiques engendrés lors des éruptions solaires. Parvenant dans la partie basse de l'atmosphère les électrons libérés participent à la création de petits noyaux de condensation dans la vapeur d'H2O. On voit très bien sur cette image le point brillant qui marque l'impact de la particule ionisante environnée des noyaux de condensation déjà créés (en rose) Lorsqu'ils sont assez nombreux, ces micro noyaux de condensation se regroupent en petits paquets C'est un processus classique en physique. Ces paquets de noyaux nucléent ( se rassemblent) et condensent la vapeur d'eau présente dans l'atmosphère en formant des gouttelettes d'eau. Ce sont ces gouttelettes d'eau qui constituent les nuages que nous voyons au dessus de nos têtes. ... Et c'est ainsi que se forment les nuages grâce aux particules cosmiques venues de très loin...Les conséquences d'une modification de la couverture nuageuse sur le climat de la planète, sont fondamentales, évidemment !

Ces expériences sur l'effet de radiations cosmiques en sont encore à leur début. Le projet CLOUD du CERN devrait voir son achèvement en 2010. Comme dans le projet SKY réalisé à petite échelle, Il s'agit de mettre en place une vaste chambre d'expérience remplie avec des gaz identiques à ceux de l'atmosphère et de l'irradier avec des particules de haute énergie identiques à celles qui nous viennent de l'espace. Il reste bien entendu à déterminer l'efficacité réelle en terme de variations de températures dû à cet effet encore que beaucoup pensent que cet effet des rayons cosmiques pourrait suffire, à lui seul, à expliquer les variations de températures présentes et passées (telles que celles du petit âge glaciaire et de l'optimum médiéval). Pour donner un ordre de grandeur, disons qu'un chercheur russe affirme (sans que je puisse le certifier) qu'une variation de 1% de l'ennuagement sur la planète induirait une variation de 4°C sur la surface de la planète. Comme nous en sommes actuellement à +0,6°C d'après l'OMM, il aurait donc suffi que l'ennuagement ait varié de 1,5 pour 1000 pour expliquer le fameux réchauffement climatique. De tout cela, Les médias n'ont jamais parlé !

Vous le voyez, comme c'est souvent le cas en matière scientifique et surtout pour un sujet aussi chaud que le réchauffement planétaire, cette histoire n'est pas terminée. Même si certains disent que "les sceptiques sur l'effet de serre nous font perdre du temps" comme Kofi Anann, les recherches se poursuivent quoiqu'il arrive et au grand dam de ceux qui nous disent que l'affaire est entendue.

Il existe aussi d'autres théories pour expliquer le réchauffement climatique ou plutôt les variations (plus ou moins naturelles ?) de la température de notre planète au cours des âges. Je ne vous ai décrit que les deux théories qui tiennent le haut du pavé en ce moment : celle des tenants de l'effet de serre due au CO2 généré par l'homme (endossée de manière exclusive par le GIEC et largement médiatisée) et celle (encore dans l'ombre) liée aux éruptions solaires particulièrement actives en ce moment....Mais pourquoi nous cache t-on tout cela ? Pour que nous fassions des économies d'énergie fossile ? Nous sommes assez intelligents pour bien agir sans que l'on nous dissimule les débats scientifiques, non ?
_______________________________________________________________________________________________________________________

Notes added in proof (comme disent les chercheurs à la fin d'un article. Cad "notes qui confirment l'article" ) sur cette hypothèse d'effet des rayons ionisants sur les climat terrestre :

Tout récemment (en 2006), deux chercheurs de l'Université de Reading ( Regis G. Harrison et David .B. Stephenson, UK) ont eu une idée intéressante. Ils ont rassemblé toutes les données disponibles sur les taux d'ennuagement (en fait, ils ont utilisé le facteur de diffusion de la lumière solaire par les nuages) présents au dessus de l'Angleterre depuis 1947 jusqu'en 2004. Ces données sont soigneusement conservées dans les archives des stations météorologiques et ceci, jour après jour.
Nos deux chercheurs de Reading ont comparé ces données de l'ennuagement sur l'Angleterre avec les taux de radiations cosmiques reçues par la Terre pendant la même période, c'est à dire de 1950 à 2004. Ces données sur les rayons cosmiques sont collectées dans des chambre à bulle situées au Colorado aux USA où elles sont soigneusement enregistrées.

Le résultat de cette confrontation, analysée avec beaucoup de soin, montre que l'intensité des rayons cosmiques est indubitablement corrélée au taux d'ennuagement, exactement comme l'avaient prévu Svensmark et d'autres avant lui, comme William Herschel et Edward Ney. Les résultats, très encourageants pour les tenants de la théorie du réchauffement de la planète par les éruptions solaires, ont été publiés en avril 2006 (Proc. Royal Society series A, issue 2068, p1221-1223, 04/2006) et ...ils ont évidemment été superbement ignorés par les médias et les "experts" du GIEC (dans leur rapport de février 2007)...qui ne croient pas aux preuves expérimentales et qui préfèrent faire confiance aux prophéties d'ordinateur ... Car il s'agit ici d'évidences expérimentales indiscutables qui ne dépendent ni des hypothèses ni des paramètres inconnus, ni des méthodes de calcul. Ce sont des faits, purs et simples.
Il est particulièrement intéressant de remarquer que Regis Harrison était loin d'être un supporter des idées de Svensmark et de l'influence des rayons cosmiques sur l'ennuagement de la Terre avant qu'il entreprenne ces recherches. En 1999, Il avait rédigé un rapport particulièrement critique sur les idées que les rayonnements ionisants pouvaient influer sur le climat.Vous pourrez le constater en consultant son site Internet. C'est sans doute parce qu'il voulait infirmer ces idées qu'il a entrepris ces travaux statistiques sur les nuages au dessus de l'Angleterre. Mais comme tous les bons chercheurs placés devant l'évidence expérimentale, il reconnaît que Svensmark et al. avaient raison.

Dans le même esprit, deux chercheurs Indiens, Subarna Bhattacharyya et Roddam Narasimha (Journal of Geophysical Research, vol. 112, D24103, doi:10.1029/2006JD008353, 2007) ont étudié les possibles corrélations entre la mousson indienne et l'activité solaire et ceci au plan régional c'est à dire avec une grille de pas assez fin. La corrélation est extraordinairement nette (99,5% de confiance), ce qui démontre une fois de plus le lien direct entre l'activité solaire et l'ennuagement conformément à la théorie de Svensmark et al, et qui corrobore les observations précédentes de Regis Harrison et David Stephenson.
Par ailleurs, on sait que les modèles GCM (General Circulation Model) de circulation générale de l'atmosphère utilisés par les programmeurs du GIEC sont totalement incapables de fournir des prédictions correctes pour les moussons. Devant ces évidences, on ne peut que conseiller au GIEC une fois encore, mais sans illusions, de jeter un coup d'oeil du côté du soleil...quitte à se faire appeler "chevalier de la Terre plate".
_______________________________________________________________________________________________________________

Et enfin, dans le même ordre d'idée, une étude récente (parue le 2 Juin 2007, dans le Journal of South African Intitution of Civil Engineering) sur la corrélation absolument frappante qui existe entre les quantités de pluies en Afrique du Sud et les éruptions solaires. Les auteurs ( WJR Alexander, F. Bailey, DB Bredenkamp, A van der Merwe et N Willemse) ont rassemblé les données hydrométéorologiques collectées en Afrique du Sud, jour après jour, par les quelques 500000 stations réparties dans le pays et ceci pendant les 150 dernières années.
Je ne peux résister au plaisir de vous montrer cette courbe qui analyse le niveau du grand Lac Victoria entre 1896 et 2005 et démontre la corrélation frappante qui relie le niveau du lac (et donc des pluies) avec le nombre des taches solaires. La voici :

lakevictoria

En noir, le niveau naturel du lac Victoria. En rouge, la courbe qui donne le nombre de taches solaires (autrement dit le nombre d'éruptions solaires) pendant la même période. Le moins que l'on puisse dire, c'est que cette corrélation ne peut être le fruit du hasard ! Cela rejoint, en plus clair encore, les résultats précédents des mesures que Harrison et Stephenson ont récemment effectuées pour le Royaume Uni. Vous trouverez l'article ici (en pdf et en anglais, bien sûr). Avouons que comme corrélation, c'est tout autre chose que de voir deux courbes croître de manière monotone comme le fait le GIEC avec le taux de CO2 et la température et d'en déduire une corrélation! Les auteurs de cet article, tous experts dans ce domaine, recommandent d'ailleurs aux autorités de leur pays de prendre en compte ces résultats pour la gestion de l'eau qui est un problème crucial en Afrique du Sud. Ils ajoutent, mi-figue mi-raisin qu'ils n'ont trouvé aucune corrélation avec le taux de CO2 présent dans l'atmosphère ! A noter que ces auteurs ne semblent pas connaître les travaux récents de Svensmark et Nir Shaviv sur ce sujet, puisqu'ils ne les citent pas dans leur bibliographie. Non plus que les résultats de Harrison (UK)ou Hiremath (Inde), ni ceux des chercheurs du CALTECH sur le niveau du Nil, ce qui n'enlève rien au mérite de leur découverte. Bien au contraire.
_______________________________________________________________________________________________________________________

A noter, pour être équitable, qu'Edward Ney avait suggéré, lui aussi, en 1959 et après une série d'expériences qu'un tel mécanisme devait exister. En cela, il reprenait fidèlement les idées du brave William Herschel en 1801. Comme c'est souvent le cas en Science, une idée émerge quelque part, puis elle est délaissée jusqu'à ce qu'elle soit reprise par quelqu'un d'autre. Elle peut être délaissée là encore et ainsi de suite jusqu'à que les choses arrivent à maturité... Cela peut prendre plusieurs siècles ! La Science est comme la Justice : Elle avance très lentement et pas à pas, pour éviter de se tromper ! Et puis, il faut souvent attendre que les progrès techniques aient permis la mise au point de méthodes plus sophistiquées pour résoudre les problèmes...

Et voici encore un résultat récent montrant une corrélation manifeste sur près de 1000 ans d'histoire entre l'intensité des rayons cosmiques et la température terrestre.

Il s'agit d'une étude menée par deux chercheurs japonais (Kasaba et Tokashima, Congrès de l'American Geophysical Union) qui ont prélevé des carottes sur de très vieux arbres (certains avaient 1400 ans !) pour en étudier la proportion de carbone 14. Il se trouve que le C14 qui est un isotope du carbone naturel (C12) est uniquement produit par les radiations cosmiques. Nos deux chercheurs japonais ont donc tracé une courbe donnant l'intensité des radiations cosmiques (mesurée par la concentration de carbone14carbone 14 par rapport à la concentration de C12), en fonction du temps ( mesuré en comptant le nombre des anneaux de croissance). Autrement dit, ils ont utilisé le proxy "C14 dans les anneaux des arbres" pour analyser la proportion de rayons cosmiques depuis plus de mille ans. Ce faisant, ils ont obtenu la courbe ci-contre qui est proprement époustouflante !

En effet, on retrouve parfaitement, de l'an 900 à nos jours, la courbe des températures bien connue avec l'optimum médiéval ( la période chaude, vers 1200, donc pauvre en rayons cosmiques arrivant sur la Terre), la période froide correspondant aux minimas de Wolf, Sporer et Maunder (vers 1700), donc riches en rayons cosmiques impactant la Terre etc. La partie droite de la courbe correspond au relâchement du C14 par suite de la combustion des énergies fossiles dès le début de l'ère industrielle.

Tout cela est parfaitement cohérent avec les idées de William Hershell, de Ney, de Svensmark, de Shaviv, etc... et ne peut pas être nié.

Il apparaît donc bien que la température terrestre, du moins pour les mille ans qui ont précédé l'année 1900, ait été totalement déterminée par la proportion des radiations cosmiques venant de l'univers interstellaire et modulée par les éruptions solaires...Or nous vivons une période particulièrement riche en éruptions solaires qui dévient et donc atténuent le rayonnement cosmique parvenant sur notre planète provoquant sans doute une diminution de son ennuagement et donc son réchauffement....Alors, pourquoi le GIEC s'obstine t'il à nier cette possibilité ??? En quoi est-il naïf et irresponsable (ce sont les mot qu'avaient utilisé son président) de se fier à des découvertes aussi frappantes ? Est ce une "grand absurdity" comme avait dit lord Brougham en 1801, qui, bien entendu, ignorait tout cela ?

07/06/08. Voulez-vous encore une démonstration de cette belle corrélation entre les cycles solaires et la température terrestre ? Dirigeons nous vers l'observatoire d'Armagh en Irlande (Ulster) qui a conservé des archives qui remontent très loin dans le temps, depuis un peu avant 1800 pour être précis. Les gens d'Armagh ont réutilisé la technique de Labitzke-Pekarek citée plus haut. Voici ce qu'ils ont trouvé, à partir de leur base de données locales.armagh

En ordonnée la durée des cycles solaires (en années). Notez que l'échelle est représentée avec les cycles longs vers le bas. En abscisse, les dates.

Les points représentent les données de températures relevées à Armagh depuis 1800.

 

Ici encore, il faut être aveugle pour ne pas voir que la température a augmenté nettement lorsque les cycles solaires étaient courts ce qui correspond à une activité éruptive d'intensité accrue et donc, à un ensoleillement plus important sans doute parce qu'il y a moins de nuages si l'on en croit la théorie de Svensmark.

(Source)

 

 

 

J'en connais certains, adeptes de Real-Climate, qui persistent à penser, qu'il n'y a là rien d'autre que de simples coïncidences.. Alors, tout spécialement pour eux, permettez-moi d'insister...
En voici encore une (source) issue d'un livre (Stuiver, M. and Braziunas, T.F. 1988. The solar component of the atmospheric 14C record. In: Stephenson, F.R. and Wolfendale, F.R. (Eds.), Secular Solar and Geomagnetic Variations in the Last 10,000 Years. Kluwer, Dortecht, The Netherlands, p. 245.). La figure suivante a été reprise et citée par Feynman, J.( 2007. (source) Has solar variability caused climate change that affected human culture? Advances in Space Research 40: 1173-1180). Cette courbe représente la variation du taux de carbone 14 dans les tissus photosynthétisés conservés dans les cernes des arbres. Comme chacun le sait maintenant, le C14 n'est présent sur Terre que gràce aux rayons cosmiques (plus ou moins déviés par les éruptions solaires). Tracer la variation du taux de carbone 14 en fonction du temps revient à suivre la piste des éruptions solaires, au cours des siècles ou des décennies.C14

Voici la courbe en question :

Ce graphe rapporte le taux d'isotope C14 que l'on trouvait dans l'atmosphère au cours des années indiquées en abscisse. Ce travail est donc très proche mais indépendant de celui des deux Japonais cités ci-dessus. A noter que celui-ci commence en 800, les données des Japonais en 1000. Les courbes sont remarquablement proches.

Comme dans le cas précédent, il faut se souvenir que l'optimum médiéval (800-1300) était une époque remarquablement chaude tandis que le petit âge glaciaire (1400-1800) était, lui, remarquablement froid.

Et comme d'habitude, la période chaude (médiévale) correspond à une chute considérable du rayonnement cosmique sur le planète, tandis qu'on observe l'inverse pour le petit âge glaciaire (Je vous le rappelle : plus de rayons cosmiques = moins d'ensoleillement = plus froid) et il est prouvé (pas seulement à 90% !) que les rayons cosmiques sont moins déviés de leur trajectoire pendant les périodes calmes du soleil...

Enfin, l'article très récent (2008) suivant : Raspopov, O.M., Dergachev, V.A., Esper, J., Kozyreva, O.V., Frank, D., Ogurtsov, M., Kolstrom, T. and Shao, X. (2008. The influence of the de Vries (~200-year) solar cycle on climate variations: Results from the Central Asian Mountains and their global link. Palaeogeography, Palaeoclimatology, Palaeoecology 259: 6-16.) trouve encore la même chose. Quelle coïncidence !

De même l'article de Raspopov, O. M., A. V. Dergachev, T. Kolström, A. V. Kuzmin, E. V. Lopatin, and O. V.  Lisitsyna (2007), Long-term solar activity variations as a stimulator of abrupt climate change, Russ. J. Earth Sci., 9, ES3002, doi:10.2205/2007ES000250. traduction accessible ici, trouve des corrélations nettes entre les changements climatiques et les cycles solaires durant l'holocène (- 9000 ans à nos jours)

________________________________________________________________________________________________________________

Et voici encore un clou dans le cercueil de la théorie de ceux qui ne veulent pas croire à la corrélation manifeste entre les cycles solaires et le climat de la planète : Il s'agit du résultat du travail de cinq chercheurs suisses et allemands U. Neff, S. J. Burns, A. Mangini, M. Mudelsee, D. Fleitmann et A. Matterqui, en 2001, ont publié une lettre dans Nature (411:290-293), sous le titre "Forte corrélation entre la variabilité solaire et la mousson d'Oman d'il ya 6000 à 9000 ans." les résultats de ses recherches sur une stalagmite prélevée dans une grotte en Oman (Arabie).
Neff et al ont soigneusement dosé la quantité de deux isotopes bien connus, le C14 et le O18 en fonction de la profondeur (c'est à dire de l'année de déposition) des couches internes de la stalagmite. Tout le monde sait qu'un stalagmite se forme très très lentement, par dépôts successifs de carbonates contenus dans une une goutte d'eau qui tombe du plafond d'une grotte. Ainsi une stalagmite peut-elle contenir des informations précieuses sur les conditions de l'environnement d'il y a plusieurs milliers d'années.

Le C14, présent sur notre planète est un isotope du carbone ordinaire (le C12). Le C14 présente la particularité de n'être produit que par le rayonnement cosmique qui atteint notre planète. Le C14 est donc le marqueur favori de ceux qui cherchent à connaître les fluctuations liés aux cycles éruptifs de notre astre solaire au cours des âges, sans que nous ayons accès aux observations directes des taches solaires de ces époques reculées...
L'isotope 18 (O18) de l'oxygène est naturellement présent dans l'oxygène de l'air qui est très majoritairement l'O16. On sait que le taux de déposition de l'oxygène 18 dépend directement de l'humidité et de la température.. Ainsi, la mesure du taux de l'O18 donne-t-elle une indication précieuse sur les conditions climatiques qui régnaient à l'époque du dépot de la goutte sur la stalagmite. Chercher la corrélation C14/O18, c'est donc chercher la corrélation entre le taux de radiation neffcosmique et le climat. C'est un principe analogue à celui qui sert pour l'étude des carottages glaciaires.


Voici, ci-contre, les courbes obtenues par Neff et al . Elle sont absolument confondantes, comme les précédentes. La corrélation est évidente et se trouve d'autant plus méritoire que les conditions climatiques (température et humidité) et l'irradiation cosmique ont beaucoup fluctué pendant cette longue période de notre histoire.

La figure du haut récapitule l'ensemble du spectre (en bas l'O18, en haut le C14) obtenu pour la période étudiée. En abscisse sont reportées les années en kyr BP, ce qui signifie en unités de 1000 ans avant notre époque (kiloyear before present)

Le graphique du bas est obtenu avec une meilleure résolution pour la période 7900 à 8350 années avant notre époque. On peut, sur ce diagramme, observer, presque année après année, l'excellente corrélation qui a existé entre le flux cosmique du soleil et les données climatiques qui régnaient alors sur la Terre...

Certains continuent encore à nier toutes ces évidences expérimentales en prétendant qu'il ne s'agit que de "coïncidences" fortuites ...et continuent à prétendre que les fluctuations du soleil n'influent pas sur le climat.

Je pense que ce seul graphique,( mais aussi tous les autres qui sont pourtant d'origines très diverses), montre à quel point, la foi exagérée dans les modèles informatiques de l'effet de serre du GIEC , peuvent conduire certains de nos contemporains jusqu'à l'aveuglement le plus total. C'est le cas des responsables du GIEC. A mon avis, ils ne pourront pas continuer encore longtemps à "oublier" l'effet des radiations cosmiques sur le climat. Les scientifiques disent "les faits sont têtus". On en peut pas se tromper très longtemps...

 

 

Pour conclure (provisoirement) cette longue litanie des effets des fluctuations de l'astre solaire sur le climat de la planète, voici le résultat d'un travail tout à fait étonnant, publié par quatre chercheurs américains White W.B., Lean J., Cayan D.R. et Dettiger M.D. en 1997 (Journal of Geophysical research 102; 3255). whiteCes derniers ont cherché à savoir s'il existait une corrélation entre l'évolution de la température des océans et les variations de l'irradiance solaire. Comme vous le savez sans doute, l'irradiation solaire (la lumière émise) est d'intensité particulièrement stable puisque l'on s'accorde à lui attribuer généreusement une oscillation, (ou fluctuation) de l'ordre de 0,1%. Cette fluctuation naturelle apparaît correspondre aux fameux cycles de 11 ans des éruptions solaires. Sur les 1360 watt/m2 émis, cela représente pourtant environ 1,3watt/m2 et se trouve donc de l'ordre de grandeur de l'effet du CO2, selon certains. Cependant, Il est vrai que seule une fraction de cette énergie solaire parvient sur Terre, parce que le reste est absorbé dans l'atmosphère. Quoiqu'il en soit, le GIEC termine tous ses rapports en déclarant que les variations d'irradiances solaires sont bien trop faibles pour expliquer le réchauffement actuel de la planète...
Ainsi, lorsque l'on cherche s'il existe une corrélation entre les fluctuations solaires et les températures des océans, on s'attend à ne rien trouver du tout ! Voire ! Regardez attentivement les courbes ci- contre, à droite :

En bas, l'irradiance solaire ( en Watt/m2) mesurée et lissée pour la période 1955-1996.. Les quatre courbes supérieures indiquent la température des quatre principaux océans de la planète pendant la même période. Les fluctuations des températures de ces océans ont été moyennées et ceci est indiqué par les courbes continues en noir sur ce graphique.

Si vous ne retrouvez pas l'image des fluctuations solaires dans les quatre courbes des températures des océans, c'est que vous avez mal regardé : La corrélation est évidente ! Il est difficile de la nier. Cela montre indubitablement que le flux issu de l'astre solaire joue un rôle essentiel pour déterminer la température des océans, même si ses variations sont extrêmement faibles, elles sont pourtant tout à fait efficaces !

Pour enfoncer le clou, s'il en était encore besoin, voici une figure extraite d'un article récent( source) de Willie W.H. Soon de l'Harvard-Smithsonian Center for Astrophysics, Cambridge Massachusetts, USA). La référence de cet article est : Geophys. Research Letters, vol 32, L16712, 2005 :soon1

 

Les courbes en pointillé représentent les anomalies de la température de l'air à la surface du cercle Arctique depuis 1880 jusqu'en 2000.

Sur la figure du haut, la courbe en trait noir épais représente les variations de la TSI, c'est à dire de l'irradiance solaire totale (Total Solar Irradiance) (voir la page des grands indicateurs du climat) pendant la même période. Comme je viens de vous le dire dans les paragraphes précédents, on sait que les variations de cette irradiance, bien que faibles, sont étroitement corrélées aux cycles solaires. La superposition de ces deux courbes est étonnante. Elle représente une autre vision de celle qu'avait trouvé Pekarek en 2001 et que je cite plus haut.

 

Pour la même période, les courbes du bas montrent la mauvaise corrélation qui existe entre le taux de CO2 ( courbe en trait épais noir) dans l'atmosphère et la même courbe de température que la précédente.

Willie Soon a étudié en détail la statistique de la corrélation entre ces courbes en utilisant la méthode des ondelettes. Ses résultats ne font que confirmer ce que nous voyons : Les variations solaires se corrèlent beaucoup mieux avec les températures que le taux de CO2 dans l'atmopshère...

 

 


Est-il encore nécessaire d'insister en citant les résultats publiés récemment dans Phys. Rev. Letters (la plus prestigieuse revue des physiciens, publiée par l'American Physical Society) 101, 168501 (2008) par trois chercheurs argentins (Pablo Mauas, E. Flamenco et A. Buccino, PB et AB sont chercheurs de l'Institut d'Astronomie et de Physique Spatiale de Buenos Aires) le 17 octobre 2008 ?

Cet article concerne une étude détaillée de la corrélation entre le flux ( d'eau) d'un des plus grands fleuves du monde et l'activité solaire de 1920 à 2000. Il s'agit du fleuve Parana qui se trouve dans la partie Sud-Est de l'Amérique du Sud. mauas
Le graphe (Fig. 2) ci-contre, tiré de l'article en question, vaut plus qu'un long discours :

La courbe en traits pleins noirs représente le flux du fleuve Parana.

La courbe en tiretés représente la nombre de taches solaires.

La courbe en pointillés représente la courbe de la TSI (Total solar irradiance qui, comme on le sait, est assez proche de celle des taches solaires)

Les unités en ordonnées sont évidemment arbitraires.

Ces courbe sont été obtenues en faisant une moyenne glissante de 11 ans pour lisser les cycles solaires individuels. Le coefficient de corrélation de Pearson entre le flux du fleuve et l'activité solaire est de r=0,78 ce qui est remarquable et confirme l'excellente corrélation déjà perceptible à l'oeil. A noter que les auteurs ont aussi observé des corrélations remarquables avec les variations du champ magnétique terrestre qui est lui-même corrélé au vent solaire et donc aux effets des rayons cosmiques galactiques (GCR), dans l'esprit des travaux récents (2007) de Vincent Courtillot et al.

Et en effet, la corrélation est (une fois de plus) stupéfiante...

Il est important de remarquer que le signe de la corrélation (augmentation de l'activité solaire -> augmentation du flux du fleuve) est conforme à celui trouvé par trois groupes d'auteurs, pour les moussons asiatiques.
1)A. K. Gupta, D. M. Anderson, and J. T. Overpeck, Nature (London) 421, 354 (2003).
2) R. Agnihotri, K. Dutta, R. Bhushan, and B. L. K. Somayajulu, Earth Planet. Sci. Lett. 198, 521 (2002).
3)U. von Rad, M. Schaaf, K. H. Michels, H. Schulz, W. H. Berger, and F. Sirocko, Quat. Res. 51, 39 (1999).
_______________________________________________________________________________________________________________________
4 décembre 08 : Encore un article récent (en 2008) sur les corrélations soleil-climat. Cette année, on ne les arrête plus !.

Dans la revue Science du 7 Nov. 2008 ( Vol 322, N°5903, pp 940-942) est paru un article intitulé " Test de la relation Climat-Soleil-Culture à partir des données sur 1810 années provenant d'une grotte Chinoise". Il est de Pingzhong Zhang et al. Les auteurs viennent de diverses universités et centres de recherches chinois et américain. Cette étude est financée par la NSF et diverses institutions chinoises,.

Les chercheurs ont analysé les isotopes contenus dans un morceau de stalagmite d'un mètre cinquante de longueur provenant d'une grotte de Wanxiang (Nord de la Chine). Cette stalagmite a enregistré au cours des années, des informations sur la mousson asiatique (AM). Les collègues de cette équipe ne cachent pas leur admiration pour cette découverte qui, selon Richard Kerr, le chroniqueur de Science (source), "fournit la preuve la plus décisive, à ce jour, pour un lien entre le climat, le soleil et la Culture " (NDLR : Il n'a pas dû lire les articles précédents mais c'est un grand pas en avant pour cette revue et pour Richard Kerr) .
Je précise que le mot "culture" est ici utilisé dans le sens de "civilisation". En effet -mais je ne m'étendrai pas sur ce sujet ici- les chercheurs qui ont mené cette étude ont non seulement trouvé qu'il existait un lien fort entre l'activité solaire et le climat mais encore que ces fluctuations qui avaient fait alterner pluies abondantes et sécheresses avaient aussi déterminé les changements d'ères chinoises (successivement Tang, Song, Ming et Qin).

La technique utilisée est classique. Une proportion notable de sels d'Uranium et de Thorium ont permis une datation précise ( à 2,5 ans près !) des couches déposées. Comme a l'accoutumée pour les stalagmites, c'est l'isotope 18 de l'oxygène qui a servi analyser les quantités de pluie en fonction du temps. A ce sujet, Gerald Hau, paléoclimatologue Suisse qui ne tarit pas d'éloge dit " Je pense que c'est un des plus beaux articles que j'ai vu depuis longtemps". Il ajoute " Ils ont littéralement enregistré l'histoire de la pluie sur le Nord de la Chine depuis 1800 ans". zhang1

 

 

Voici les courbes maîtresses de l'article en question qui concerne la période allant de l'an 200 de notre ère à l'année 2000. Les trois courbes en vert (identiques) résultent des mesures exposées dans cet article. Les coïncidences avec d'autres mesures (avance-recul des glaciers et soleil) sont indiquées par les courbes superposées et de couleurs différentes. On relève :

Courbe A) En rouge, L'indice des périodes de sécheresses et d'inondations plus anciennes, relevées à 150 km au nord de la grotte de Wanxiang (à LongXi). Les sécheresses pointent vers le haut. Les zones jaunes résultent d'autres mesures identiques faites à LongXi.

Courbe B) Avance et recul des glaciers alpins suisses (Gorner (bleu foncé) et Grindelwald (bleu clair))

Courbe C) Irradiance solaire à partir des analyses des isotopes 10 du Béryllium et du carbone 14 (Musheler 2007)

 

 

Comme on peut le voir, ces graphiques obtenus à partir de mesures effectuées en Chine et dans les Alpes suisses, mettent en évidence aussi bien l'Optimum médiéval ( vers l'an 1000) que le petit âge glaciaire (1300-1700). Autant dire, comme on le sait déjà, que le graphique en crosse de hockey de Michael Mann est carrément démenti par ces résultats, tout comme son argument qui consistait à dire que l'optimum médiéval n'avait concerné que la zone Nord-Atlantique (ce qu'il ne pouvait démentir à cause de l'histoire bien documentée de cette région). Ceci est confirmé par la Fig 3 de l'article qui établit une comparaison entre les différentes reconstructions des températures, par modèles et dendrochronologie. La figure 3 montre que la crosse de hockey surestime grandement ( d'un facteur 2, au moins) les températures du 20ème siècle et atténue l'optimum médiéval. Il montre aussi, contrairement aux affirmations de Mann et al, que les températures actuelles n'excèdent pas celles de l'optimum médiéval.

Ces graphiques montrent aussi de manière frappante, et une fois de plus, la corrélation étroite qui existe entre l'irradiance solaire (et donc les cycles solaires) avec le climat et ceci, jusqu'en l'an 2000, bien que les auteurs complètent leur article par la fameuse "petite phrase magique" (comme signalé par Lindzen et illustré par 3 exemples ici) qui déclare que cela ne marcherait que jusqu'en 1960 (parce que ça diverge des modèles informatiques (!)... et c'est assez étonnant : en général on dit 1980)... parce que l'effet du CO2 pourrait avoir pris le dessus sur le forçage solaire. Parbleu, il faut bien parvenir à se faire publier dans Sciences et ne pas se couper des crédits de la National Science Foundation qui a financé cette étude...Dans cet esprit, je me demande comment ils vont faire pour écrire une "petite phrase magique" pour justifier la période 1998-2008 où la température globale est restée stable ou a diminué alors que le taux de CO2 augmentait à grande vitesse... Tandis que l'activité solaire, elle, diminuait,... comme il se doit. (voir indicateurs); ça va être dur !

_____________________________________________________________________________________________________________________

27 Déc. 2008 : Robert V. Baker est professeur associé à la Division de Géographie de l'Université de Nouvelle Angleterre en Australie. Il vient de baker publier un article particulièrement détaillé sur les corrélations entre les cycles solaires et les fluctuations du SOI ( Indice des oscillations Sud) de l'Est de l'Australie. Cet article est intitulé "Analyse exploratoire des similarités entre les phases magnétiques des cycles solaires et des fluctuations du SOI, dans l'Est de l'Australie". Il a été publié en Décembre 2008 dans la revue (peer-reviewée) Geographical Research 46(4), 380-398, Déc 2008. Malheureusement pour les lecteurs non universitaires, cet article n'est pas en accès libre (il est payant) mais plusieurs revues en ont porté témoignage. (source)

L'indice quasi-périodique SOI mesure le différentiel de pression atmosphérique au niveau de la mer entre Tahiti et Darwin. Cet indice est déterminant pour les sécheresses et les fortes pluies qui affectent périodiquement l'Australie, l'Inde, l'Amérique du Sud ainsi que l'Afrique. Il concerne dont essentiellement l'hémisphère Sud de notre planète.
L'indice SOI donne une indication (source) sur le comportement de la circulation atmosphérique au dessus du Pacifique. Quand l'indice SOI est positif, les vents dominants partent des régions du Pacifique Ouest plus chaudes où ils se chargent en humidité, ce qui résulte en une forte pluviométrie sur les régions Est de l'Australie. Ainsi, une année à SOI positif conduit à une pluviométrie au dessus de la moyenne. Lorsque le SOI est négatif, le différentiel de pression est plus faible, les vents dominants sont atténués et la pluviométrie en australie est généralement en dessous de la moyenne.
Comme on le voit, la prédiction de l'indice SOI est une donnée cruciale pour l'agriculture et la gestion des eaux ( en particulier) en Australie.

L'analyse de Robert V. Baker est basée sur les différents cycles du soleil construits autour du cycle bien connu de Schwabe (périodicité 11 ans, environ). Baker envisage les interactions entre le champ magnétique lié aux éruptions solaires et le champ magnétique terrestre. Comme on le sait, le champ magnétique solaire résultant des éruptions solaires s'inverse lors du passage d'un cycle solaire au suivant. Ainsi, tous les 22 ans environ, le champ magnétique solaire se trouve être de même sens que le champ magnétique terrestre ou de sens opposé à celui-ci pour le cycle de schwabe suivant. Cette périodicité de 22 ans, déjà mentionnée par Alexander (voir ci-dessus) et d'autres, est connue sous le nom de cycle de Hale. Elle faitbaker1 donc intervenir la parité du numéro du cycle. De plus, la succession de 4 cycles de Hale conduit aux cycles de Gleissberg dont la périodicité est donc d'environ 88 ans. Le sens relatif des champs magnétiques solaire et terrestre a une grande importance pour la déviation des particules ionisantes propres à la fécondation des nuages, selon la théorie de Svensmark.

Robert Baker étudie en détail les corrélations SOI-(croissances ou décroissances des cycles), lors des différentes phases des éruptions solaires connues sous les noms alpha, beta, khappa, gamma et omega et plus spécifiquement les phases dites SPP (Sun's south pole positive) qui se reproduisent tous les 22 ans, selon les cycles de Hale. Les données SOI sont connues avec précision depuis 1876 ce qui permet une analyse fine des corrélations sur une assez longue durée. Baker étudie également l'influence des cycles de Gleissberg.

Compte tenu de la complexité de cet article, il est impossible d'en donner un compte rendu détaillé ici, mais ce qu'il faut retenir c'est la règle simple énoncée par Baker pour la prévision du SOI (et donc des périodes de sécheresses ou de fortes pluies) en conclusion de cette étude extensive. Le texte anglais de Baker est assez obscur : " An underlying ‘rule of thumb’ for SOI prediction is that the greater the positive (or negative) rate of change in sunspots and associated field activity, the more likely there will be positive (or negative) SOI fluctuations (and similarly for negative changes)".
Voici une traduction simplifiée de ce que dit Baker : La règle sous-jacente pour la prédiction du SOI réside dans l'observation que plus rapide est le taux de croissance du nombre de taches solaires et de l'activité magnétique solaire associée, plus grande est la probabilité qu'il y aura des fluctuations positives de SOI. Et vice versa.
Ce qui en terme plus simples peut s'exprimer de la manière suivante : " Lorsque le nombre des taches solaires augmente rapidement, le SOI connaît une évolution positive (et vice-versa).
A noter que les conclusions de Baker sont cohérentes avec celles d'Alexander pour l'Afrique du Sud (ci-dessus) qui retrouve lui aussi des corrélations nettes avec le cycle de Hale de 22 ans et qui note que la pluviométrie augmente quand les éruptions solaires sont plus intenses.

Baker affirme qu'il a entrepris ces recherches dans un but prévisionnel. Cependant, il n'ignore pas les implications de ses résultats sur le débat actuel sur le réchauffement climatique. Voici ce qu'il a déclaré à ce sujet (source) :

"Nous devons mettre au banc d'essai le système naturel ( c'est à dire avec le soleil) avant de chercher l'effet des additions ( par exemple avec le CO2)" déclare Baker "Comparer les données actuelles avec les celles du siècle précédent peut nous donner une idée de l'effet de l'ajout des gaz à effet de serre. Mais enfouir sa tête dans le sable en affirmant que le soleil n'a aucun effet sur le changement climatique représente un déni virtuel de la réalité historique." (caractères gras du traducteur). On en peut mieux dire !

Le 22 décembre 2008, (source) Robert Baker ajoute aussi quelques commentaires intéressants sur l'arrêt prolongé de l'activité solaire en cette fin du cycle 23 : "La période du minimum des taches solaires qui marque la fin du cycle 23, dont la fin était prévue pour octobre 2007, se poursuit. En fait, nous pourrions entrer dans une période prolongée d'activité solaire minimale comme celle qui a conduit aux "sécheresses de la Fédération" ( NDT de l'Australie) au tournant du XXème siècle, avec un abaissement à venir des températures pour une décennie. " (conformément à cette page)
NDT : Baker fait ici allusion à la période froide des premières années du XXème siècle qui s'est traduite par des sécheresses prolongées en Australie. En fait le refroidissement des océans est responsable d'une SOI négative comme expliqué plus haut et donc d'une moindre humidité portée par les vents dominants au dessus de l'Australie.

Note : Les lecteurs attentifs auront certainement remarqué que le graphique de Al Pekarek (ci-dessus) qui établit une corrélation entre les températures de l'hémisphère Nord et les durées des cycles solaires, montre que la température augmente quand les cycles sont de courte durée. Alexander et Baker trouvent que ces cycles intenses et de courtes durées entraînent des périodes pluvieuse, ce qui peut paraître troublant si on se souvient du modèle de Svensmark. En réalité, il est patent que les périodes de refroidissement des océans conduisent plus souvent à des sécheresses (tout comme avec l'ENSO et les Etats Unis). En effet et comme le montrent les variations du SOI, un refroidissement des océans entraîne généralement une modification des vents dominants qui affecte la pluviométrie sur les continents. Autrement dit, si la quantité de nuages générés par les rayons cosmiques change en fonction des cycles solaires, ce qui modifie la température terrestre, (d'après Svensmark), ce sont les vents dominants qui déterminent la pluviométrie. Il s'agit de deux phénomènes distincts mais interdépendants, qui se révèlent corrélés aux cycles solaires.

De fait, les températures des océans (White et al), la température globale ( Labitzke, Pekarek et les nombreux auteurs cités ci-dessus) et la pluviométrie (Alexander, Baker) sont tous dépendants des cycles du soleil.
Ceux-ci se révèlent ainsi comme le véritable chef d'orchestre de la climatologie de notre planète.

Ce n'est pas vraiment une surprise, n'est-ce pas ?
Ce qui en est une, par contre, c'est que certains "scientifiques de l'establishment" persistent à nier cette évidence...

Mais ils progressent :
Lockwood et Frohlich admettaient que le lien activité solaire-température du globe était valable jusqu'en 1980 ... mais plus après.
Au jour d'aujourd'hui, plusieurs climatologues du GIEC admettent que ce lien était valable jusqu'en 1994... mais plus après.
Il ne reste plus que 14 ans..

Mise à jour 25 Nov 2009 : En réalité, Lockwood et Frohlich ont utilisé les données solaires dites PMOD TSI (modifiées par eux-mêmes) défaillantes, au contraire des données ACRIM (confimées) qui s'avèrent donner un résultat satisfaisant jusqu'à nos jours. Nicola Scafetta a donné un comparatif très détaillé des données PMOD TSI versus ACRIM (et NIMBUS) devant l'EPA américain ( avec des témoignages écrits de responsables des missions qui incriminent les modification de Lockwood et Frohlich)  dans lequel il montre que les données PMOD sont invalides et les données ACRIM correctes...

______________________________________________________________________________________________________________________

19 Janvier 2009 : Champ magnétique terrestre, activité solaire et climats : D'après une étude récente, il existe un lien évident entre le champ magnétique terrestre et la pluviométrie tropicale.
L'année 2009 commence bien pour les "solaristes" et les "cosmoclimatologues"...

Dans le même esprit que les articles précédents et en ce mois de Janvier 2009, est paru dans la revue Internationale Geology sous le titre "Is there a link between Earth's magnetic field and low-latitude precipitation? ". Soit : "Existe-t-il un lien entre le champ magnétique terrestre et les précipitations aux basses latitudes") un article remarquable de deux chercheurs Danois (Mads Faurschou Knudsen and Peter Riisager) du Geological survey de Copenhague, et des Universités d'Aarhus et de l'Université d'Oxford (Référence : Geology 2009;37;71-74, doi:10.1130/G25238A.1) (article complet en pdf).( article de revue de l'AFP ici, contenant deux erreurs grossières : l'une sur l'explication de la méthodologie employée : la mémoire du champ magnétique terrestre ne provient pas des stalagmites et stalactites Chinois et en Oman. C'est la pluviométrie ! Et l'autre, assez amusante, sur les rayons cosmiques qui sont carrément rebaptisés " rayons cosmétiques" dans la dépêche de l'AFP.
Bravo l'AFP !. ça méritait bien un bonnet d'âne)

Les résultats de l'étude de ces deux chercheurs méritants, qui n'ont pas craint de braver les foudres du GIEC et de ses affidés, ont ainsi apporté de l'eau au moulin de la théorie de Svensmark (connue sous le nom de Cosmoclimatologie) qui, comme vous le savez si vous avez lu ce préambule, prévoit que les champs magnétiques solaire et terrestre combinés, contribuent à dévier les particules ionisées (rayons cosmiques) en provenance du cosmos et qui, normalement impacteraient la Terre et son atmosphère. Le rôle de ces GCR (Galactic Cosmic Rays) selon Svensmark et ses collègues résulterait en une variation de la couverture nuageuse (et donc de la pluviométrie et de l'ensoleillement) qui règne sur la planète selon un processus qui s'apparente à celui qui est utilisé dans les chambres à brouillard de Wilson. Ce processus est en cours d'étude au CERN de Genève comme je le raconte plus bas, avec quelques détails.

dongge

Comment ont procédé nos deux chercheurs Danois ? Leur étude couvre la période allant de -150 ans à -5000 ans, avant la période actuelle. C'est à dire pendant l'Holocène.

  • Ils ont rassemblé les données dites paléo-(ou archéo)-magnétiques, publiées par plusieurs auteurs dans les années précédentes et collectées au sein de la base GEMAGIA.50, sur le moment dipolaire du champ géomagnétique issu de laves volcaniques et de matériaux archéologiques calcinés, pour la période considérée. En effet, cette technique exige que les matériaux à mémoire magnétique aient été chauffés à haute température puis refroidis brusquement. Les données géomagnétiques sont en noir sur la figure ci-contre. (l'échelle est à droite)
  • Ils ont collecté les données de pluviométrie correspondantes, mesurées avec l'isotope Oxygène-18 des zones tropicales extraites de l'analyse des stalagmites et des stalactites trouvées dans des grottes en Oman et en Chine (notamment grotte de Dongge), du type de celles utilisées par Zhang et al (ci-dessus). Les données pluviométriques sont en gris-bleu sur la figure ci-contre. (l'échelle est à gauche)

 

La confrontation de ces deux courbes obtenues avec des données d'origines totalement différentes est assez remarquable comme on peut le voir sur la figure ci-contre. Les données reportées sur les figures A et B ont été obtenues avec des lissages différents. Les coefficients de corrélations r sont très bons ( 0,89 et 0,71). Les exemplaires prélevés dans les grottes de Qunf en Oman montrent aussi des corrélations identiques mais moins complètes que celles des données chinoises.

Il serait étonnant que de telles corrélation soient fortuites, d'autant plus qu'elles viennent à l'appui des résultats publiés par Courtillot et al en 2007. Courtillot et ses collègues avaient trouvé une corrélation remarquable entre les données géomagnétiques et les températures terrestres sur une longue période. Comme on le sait, la publication des résultats de Courtillot et al, a donné naissance à une violente polémique portant sur l'utilisation des bases de données. De façon tout à fait inhabituelle en matière de sciences où rien n'est jamais définitivement prouvé, cette polémique a été rendue publique au moyen d'articles venimeux publiés par les grands quotidiens français Le Monde, Libération et Le Figaro. On y reprenait les termes d'une violente attaque issue du site RealClimate (le site fondé par Michael Mann, l'homme de la crosse de hockey) qualifiant Courtillot de "chevalier de la Terre plate". En 2008, Courtillot et ses collègues ont publié un article plus complet et plus détaillé montrant, de nouveau, les corrélations frappantes qui existent entre les variations solaires et les températures du globe.

Tout ceci vient, bien sûr, à l'appui de la théorie de Svensmark. En effet, c'est la combinaison du champ magnétique terrestre et du champ magnétique solaire (généré pendant les périodes d'activité éruptive) qui peut dévier les rayons ionisants responsables de l'ensemencement des nuages de la planète.
Un des deux chercheurs Danois, (source) interrogés par un journal Danois précisent que " Nos résultats montrent une forte corrélation entre la force du champ magnétique terrestre et la quantité de précipitation dans les tropiques". Knudsen, lors de ce même interview ajoute : "La seule explication que nous pouvons fournir pour expliquer la connexion (géomagnétisme-climat) est d'invoquer les mêmes mécanismes physiques qui sont présents dans la théorie de Svensmark."

La fin du texte de l'AFP (qui a beaucoup forcé sur l'alarmisme au réchauffement climatique anthropogénique, ces dernières années), est amusante : " Les deux chercheurs reconnaissent que le CO2 joue un rôle important dans le changement climatique." affirme l'AFP.
Ce que rectifie Riisager par un correctif cinglant " Mais le climat est un système d'une incroyable complexité et il est peu probable que nous ayons une vue complète des facteurs qui jouent un rôle et de ceux qui sont importants dans une circonstance donnée."

Je doute fortement que Riisager et Knudsen soient des supporters de la théorie anthropique, ne serait-ce que parce que leur article ne fait jamais et à aucun endroit, mention du CO2. Je l'ai relu plusieurs fois et je peux vous affirmer que ni le CO2, ni les gaz à effets de serre ne sont jamais cités dans cet article !

Il fallait bien que quelqu'un la sorte, la petite phrase magique (voir ici dans le bonnet d'âne) . Mais, dans ce cas présent, c'est l'AFP qui l'a écrite..( entre autres âneries qui lui ont valu un bonnet d'âne bien mérité)....et non pas les chercheurs.

______________________________________________________________________________________________________________________

23 Janv.2009 : Rayons cosmiques et atmosphère : Observation directe de l'effet de la température de la stratosphère sur les rayons cosmiques. Bien que cette découverte ne prétende absolument pas confirmer la théorie de Svensmark et al (qui concerne plutôt la basse atmosphère), je ne résiste pas au plaisir de vous la faire partager car elle est très révélatrice de la manière dont fonctionne la Science. Ici, ce sont les physiciens des particules qui font progresser la climatologie et la météorologie. Alors quand on vous dit que vous n'êtes pas climatologue...

Comme tous les chercheurs le savent, une étude entreprise avec un but précis, conduit très souvent à l'observation d'un phénomène inattendu qui se révèle plus intéressant que l'objectif initial. C'est pour cela que, comme la grande majorité de mes collègues, je professe les plus grands doutes sur l'intérêt de la recherche "pilotée" (par les projets gouvernementaux, entre autres). Ce qui est réellement important pour la science n'est, en général, jamais prévu à l'avance...

La découverte importante que je vais vous décrire ici en quelques mots est un exemple frappant de découverte inattendue effectuée au sein d'une démarche totalement différente. Cela porte un nom : La sérendipité (mot tiré d'une légende du royaume de Serendip en Indes). Ceci est enseigné aux étudiants américains.. mais pas aux français, sans doute trop cartésiens. Dommage ! C'est pourtant comme cela qu'ont été découverts le tirage des fibres, la rayonne (un assistant de Pasteur), la pénicilline, le nylon et des milliers d'autres choses.. minos2

Cette découverte remarquable résulte d'une collaboration fructueuse (notamment dans le projet MINOS, avec les américains) entre le National Centre for Atmospheric Sciences et le Science and Technology Facilities Council, tous deux du Royaume-Uni.. L'article de presse du NCAS est ici. L'article est publié au Geophys. Res. Lett., doi:10.1029/2008GL036359, sa version pdf est ici (en ligne, mais payant).

Ci-contre, à droite, une vue du puits de l'expérience MINOS.

Les auteurs ont analysé un enregistrement de 4 années de données sur les rayons cosmiques enregistrés au fond d'une mine désaffectée dans l'Etat du Minesota (USA). Ils ont observé une corrélation quasi-parfaite entre les rayons cosmiques détectés et la température stratosphérique, ce qui est compréhensible de la manière suivante : Les rayons cosmiques aussi appelés muons résultent de la dégradation spontanée d'autres rayonnements cosmiques, connus sous le nom de mesons. L'augmentation de la température de l'atmosphère résulte en une dilatation de celle-ci de telle manière que moins de mesons sont détruit par impact sur des molécules d'air (O2, N2 etc...), ce qui laisse un plus grand nombre de ces derniers qui ont échappé aux impacts, subir la dégradation naturelle en muons. Ainsi, si la température de l'atmosphère augmente, on s'attend à observer plus de muons. C'est bien ce que l'on voit.

Mais ce qui a surpris les chercheurs c'est la brusque et intermittente augmentation du nombre de muons observés pendant les mois d'hiver.Ils ont vérifié que ces bouffées de muons, plus ou moins localisées, correspondent à des augmentations brutales de température de la stratosphère de quelques 40°C. Ce qui est connu (pour l'hémisphère Nord) mais difficile à observer par ballons et satellites, sous le nom de "Réchauffements Stratosphérique Soudains". Ces événements se produisent à peu près tous les ans et sont réputés imprévisibles.

Le mieux est d'écouter ce qu'ont à nous dire les auteurs de cette découverte. S'agissant d'un communiqué de presse du NSAS, on peut penser, sans risque, que l'on ne souffrira pas de distorsions de déclarations comme celles qui affectent assez systématiquement les communiqués des agences de presse (l'AFP comme Reuters).

le DR. Giles Barr ( Univ. Oxford) : "C'est marrant de se retrouver (NDT : au fond d'un puits de mine désaffectée) à 800 m de profondeur en train de faire de la physique des particules. C'est encore mieux de savoir que de là, on est capable de suivre ce qu'il se passe dans une partie de l'atmosphère et qu'il est très difficile de mesurer autrement".

Le responsable de l'équipe, le Dr Scott Osprey dit : "Jusqu'à maintenant nous avons dépendu des mesures satellites et des ballons pour nous donner des informations sur ces événements météorologiques importants. Maintenant, nous avons la possibilité d'utiliser les enregistrements sur les rayons cosmiques datant de 50 ans pour avoir une idée assez précise de ce qui s'est produit en matière de température de la stratosphère en fonction du temps...."

Le Professeur Jenny Thomas, porte-parole de la mission MINOS du University College of London déclare que " Le problème que nous envisagions d'étudier avec la mission MINOS concernait les propriétés de particules fondamentales que sont les neutrinos qui est un ingrédient crucial de notre modèle de l'Univers; mais ainsi que c'est souvent le cas, en gardant un esprit ouvert vis à vis des données collectées, l'équipe de recherche a été en mesure de révéler une découverte inattendue qui va aider notre compréhension des phénomènes minos climatologiques et météorologiques."

 

Je vous propose de visionner ce petit film réalisé par cette équipe anglaise à partir de cette nouvelle technique. Pour la voir, cliquez sur l'image. (source)

On y observe très bien l'évolution des températures de la stratosphère, avec de brusques bouffées de chaleur (zones rouges sur le film) et des refroidissements fluctuants. La première partie du film est prise au pôle Sud. On distingue très bien l'antarctique et le trou de l'ozone au dessus, ainsi que son évolution. La fin du film montre quelques images prises au dessus du pôle Nord.

 

Que peut-on en penser ?

-Tout d'abord que la science climatique et (ou) météorologique fait des progrès considérables, souvent par des voies détournées et imprévues. Vous noterez que les avancées, ici rapportés, ne sont pas dus à des climatologues ou à des modèles informatiques mais à des physiciens des particules.
-Cette découverte met en évidence un interaction entre le rayonnement cosmique et la stratosphère. Dans le cas présent, les rayons cosmiques servent de détecteurs et non pas d'initiateurs comme dans le théorie de Svensmark ou dans les expériences en préparation au CERN de Genève (CLOUD). Néanmoins, ceci représente un progrès considérable sur notre connaissance des flux de chaleurs dans la stratosphère. A noter que les mesures rapportées ici constituent une grande première pour le pôle Sud. Sans aucun doute, cela va aussi nous permettre de mettre sur la sellette le modèle standard du trou de l'ozone (Crutzen et al) lequel est actuellement très sérieusement remis en question, notamment par le Professeur Canadien Qin-Bin Lu qui pense que le trou de l'ozone doit tout ou presque, aux rayons cosmiques (cet article de la DTU, entre autres).

Alors quand les modèles du GIEC disent avoir tout compris ... on a quelques doutes...
__________________________________________________________________________________________________________________

1er Mars 2009 : A 37 ans, l'astrophysicien Nir Shaviv (son site prof. et son remarquable site personnel Sciencebits), actuellement professeur au prestigieux Racah Institute de Jerusalem est sans aucun doute un des plus brillants physiciens de sa génération. Son nom, shavivsouvent associé dans cette colonne à celui de Svensmark (dont il partage les idées) est évoqué à plusieurs reprises dans les paragraphes précédents pour ses remarquables travaux (notamment avec Jan Veizer) sur les corrélations existantes entre les cycles solaires et la température terrestre.

Tout récemment (le 4 Nov. 2008), Nir Shaviv a publié un article dans la revue (révisée par les pairs) Journal of Geophysical Research Vol. 113, A11101, doi: 10.1029/2007JA012989, 2008, intitulé " Using the oceans as a calorimeter to quantify the solar radiative forcing".

Soit :" L'utilisation des océans comme calorimètre pour mesurer le forçage radiatif du soleil"

Si vous avez lu attentivement cette page, vous savez déjà que le GIEC de l'ONU et ses affidés négligent systématiquement, dans leurs calculs, la prise en compte des variations de l'irradiance solaire (qui est le flux lumineux émis par ce dernier), pour la simple raison que ces variations sont très faibles. Et de fait, l'irradiance solaire appelée aussi 'la constante solaire" dont la valeur est d'environ 1366 W/m2 (TSI en anglais, Total Solar Irradiance) ne fluctue que de moins de 1 W/m2 ce qui correspond à une variation très faible de l'ordre de 0,17W/m2 sur les 240 W/m2 qui sont absorbés par notre planète. "Une paille" disent-ils par rapport au forçage terrestre d'environ 1 W/m2 dû à l'effet direct du CO2 anthropique (et plus avec les rétroactions supposées). Cet argument constitue l'essentiel de la défense des tenants du réchauffement anthropique dû au CO2, face aux solaristes comme Nir Shaviv et beaucoup d'autres, tels que ceux qui sont cités dans son article ou dans cette chronique.

Le contre-argument des solaristes s'appuie sur un raisonnement à double détente :

  • D'une part, ils mettent en avant le très grand nombre de corrélations observées entre l'activité solaire et la température terrestre, sur des millénaires (et même plus, cf. l'article de Jan Veizer et Nir Shaviv), sous toutes les latitudes et sur une très grand nombre d'observables tels que les niveaux des rivières et des lacs, les traces paléo-climatiques dans les stalagmites ou autres fossiles, y compris en dendrochronologie, avec les cycles solaires (Schwabe, Halle et Gleissberg), telles que j'en ai répertorié quelques-unes dans les billets précédents. Les solaristes ne manquent pas aussi de rappeler que la période de réchauffement écoulée correspond justement à un maximum d'activité solaire (depuis quelques milliers d'années), tout comme les minima d'activité solaires de Maunder et de Dalton avaient coïncidé avec un refroidissement intense de la planète...

  • D'autre part, ils font une constatation d'évidence qui est que, contrairement à ce qu'avancent les affidés du GIEC, le soleil fait bien d'autre choses que de nous envoyer des rayons lumineux. Il gère aussi et entre autres l'héliosphère, un puissant champ magnétique et les vents solaires. Ces derniers dévient plus ou moins le flux de rayons ionisants qui nous viennent de l'espace et que l'on appelle les rayons cosmiques ou CRF (Cosmic Ray Flux). Ces rayons ionisants sont susceptibles de modifier la basse couverture nuageuse qui a une très grande influence sur le climat, comme le pensent Svensmark et bien d'autres..Tout ceci, bien entendu, par l'intermédiaire de l'activité solaire (ses éruptions) comme expliqué ci-dessus.(voir des compléments sur l'activité solaire actuelle ici).

Pour bien comprendre l'intérêt et la nouveauté de cet article du Professeur Shaviv, il est fondamental de se souvenir que les éruptions solaires qui se répètent, entre autres, avec une périodicité de 11 ans environ (cycles de Schwabe) sont parfaitement synchrones et en parfaite corrélation avec les petites variations de l'irradiance solaire (de 1 W/m2 cités plus haut). Autrement dit, l'activité éruptive solaire est la cause des petites variations de l'irradiance solaire. Nul ne le conteste. Mesurer les variations de la TSI, c'est mesurer l'activité solaire et vice-versa.

Puisque les tenants du réchauffement anthropique contestent le mécanisme (dont le détail est encore non prouvé - c'est à cela que sert le projet CLOUD du CERN de Genève décrit ci-dessous) proposé par Svensmark et ses collègues, Nir Shaviv a astucieusement abordé le problème sous un angle différent. On peut expliquer son raisonnement de la façon suivante :

" Puisque, selon le GIEC, les variations d'irradiance solaires (TSI) provoquées par les éruptions solaires sont trop petites pour intervenir efficacement dans les bilans du forçage radiatif et que nous en voyons pourtant de très nombreuses manifestations, il doit exister, quelque part un mécanisme d'amplification, qui fait que les variations de TSI (et donc les éruptions solaires) sont plus efficaces que ne le pensent les affidés du GIEC. Cette amplification (ou ce chaînon manquant tel que, par exemple, l'hypothèse de Svensmark) doit être directement perceptible dans la multitude des données dont nous disposons maintenant et notamment sur les fluctuations du bilan thermique des océans qui représentent 70% de la surface de la planète. " D'où l'idée d'utiliser un calorimètre (comme l'indique le titre de l'article) qui est, comme chacun sait, un instrument qui permet de faire le bilan thermique de ce qui est reçu et de ce qui est perdu (ou renvoyé). Et quel meilleur calorimètre avons nous à notre disposition que la masse d'eau contenue dans les océans ?

Nir Shaviv a donc choisi d'examiner quantitativement les variations de trois observables océaniques :

  • Le contenu thermique des océans (évoqué ici) appelé OHC en anglais (Ocean Heat Content) qui se chiffre en quelques 1022 Joules.
  • Le niveau des mers (SLR: Sea Level Rise) qui dépend du OHC du fait de la dilatation thermique des océans.
  • La température de surface des océans (SST : Sea Surface Temperature) qui dépend évidemment aussi de l'OHC.

en fonction des variations de l'irradiance totale du soleil (TSI). A noter que ces quatre observables font l'objet de mesures indépendantes, même si elles sont, à l'évidence, reliées par la physique. La considération de l'OHC est évidemment primordiale mais l'étude complémentaire du SLR et de la SST permettent d'améliorer le rapport signal/bruit de l'analyse et de mettre en évidence la cohérence de l'ensemble.OHC1


Le graphe ci-contre vous montre qu'à l'évidence, la TSI, l'OHC et le SLR sont bien corrélées sur les cinq dernières décennies (1950-2000). La corrélation de la SST est moins évidente. Un calcul de coefficient de Pearson permet de l'évaluer..

Dans le graphe supérieur, la courbe en traits gras représente l'activité solaire mesurée par les détecteurs de neutrons (courbe inversée sur le graphique). Celle en trait fin représente les variation de la TSI (échelle de droite).

Le deuxième graphe à partir du haut représente le flux de chaleur océanique F. En trait fin, celui de la totalité des océans. Celui en trait gras, le flux de l'Océan Atlantique Nord, seul.

Les deux graphes suivants représentent les variations du SLR et de la SST.

 

La question posée est donc celle-ci : Les variations de l'irradiance solaire permettent-elles d'expliquer quantitativement les variations du contenu thermique des océans (OHC) ainsi que les variations de la hausse du niveau des mers (SLR) ou encore les variations de la température de surface des océans (SST)?

Nir Shaviv utilise un certain nombre d'équations qu'il m'est impossible d'expliquer en détail dans ce billet. Les lecteurs intéressés et experts pourront se référer à l'article initial (dans le JGR, malheureusement accessible seulement par abonnement).

L'analyse montre que la réponse à la question posée est NON : Les variations des observables tels que l'OHC, le SLR et la SST, sont plus grandes, de près d'un ordre de grandeur (selon les hypothèses de départ), que celles qui seraient produites par la faible variation de l'irradiance du soleil.
OHC3

Nir Shaviv résume les résultats de son analyse par le tableau ci-contre.

L'échelle des ordonnées représente un facteur caractéristique utilisé par Shaviv qui est le quotient du Forçage (F) radiatif global divisé par la variation de TSI. Le trait rouge horizontal représente la valeur de ce coefficient si les variations des différents forçages correspondaient exactement à ce que l'on peut calculer d'après les variations de TSI. Autrement dit, le trait horizontal rouge représente ce qui est attendu par le GIEC.

Le tableau indique ensuite les écarts entre les valeurs réellement observées et le trait rouge (valeurs attendues s'il n'y avait pas d'amplification), successivement pour l'OHC ( le contenu thermique des océans, la température de surface (SST), le niveau des mers (SLR = Tide gauge).

Sur la partie droite du tableau, séparées par une ligne pointillée verticale, on voit "l'expectation", c'est à dire ce que l'on attend dans le cas où on inclue l'effet des nuages de basse altitude (observés) (Low Clouds + TSI) conformément à l'hypothèse de Svensmark. . Bien entendu, la mesure de la TSI tombe sur la ligne rouge, comme cela est indiqué par un rond rouge que j'ai tracé autour de ce point pour le rendre plus visible que sur le graphique original.

Les mesures calorimétriques indiquées en trait plein avec leurs barres d'erreurs sont calculées en supposant que le forçage radiatif global est le même sur les océans et sur les parties émergées. Celles en pointillé sont calculées en supposant que le forçage radiatif concerne seulement les océans.
Les résultats rassemblés sur ce graphique signifient qu'il existe nécessairement un processus d'amplification qui fait que le soleil est beaucoup plus actif que le pensent le GIEC et ses affidés.

Nir Shaviv déclare qu' "En résumé nous trouvons que le flux total qui pénètre dans les océans est environ d'un ordre de grandeur plus grand que celui indiqué par la moyenne globale de l'irradiance de 0,17W/m2. La donnée brute du flux mesuré, ainsi que le fait qu'il n'existe aucun retard entre ce flux et la cause des variations, montrent que ces observations ne peuvent résulter d'une rétroaction atmosphérique de même qu'il est très improbable que cela puisse provenir d'un mode d'oscillation couplé atmosphère-océan. Ainsi, ces résultats doivent-ils obligatoirement être la manifestation de variations réelles du forçage radiatif global".

Comme je l'ai précisé plus haut, on sait que les fluctuations de l'irradiance solaire sont parfaitement synchrones et d'amplitude proportionnelle à celles du taux de rayons cosmiques impactant notre planète. Les effets de l'un ou de l'autre ne peuvent donc pas être distingués par une telle étude. C'est ce que reconnaît Nir Shaviv qui précise qu'"étant donné que le lien (Climat/Rayons cosmiques) prédit correctement le déséquilibre radiatif (NDLR, voir la partie droite du tableau "low clouds+TSI") observé dans le cas des nuages de basse altitude, celui-ci est le candidat le plus plausible"

En résumé : Nir Shaviv montre qu'il existe nécessairement un mécanisme qui amplifie notablement les effets du soleil sur notre planète, ce qui est conforme au très grand nombres d'observations qui ont été effectués et dont certaines ont été rapportées dans cette chronique. La théorie de Svensmark est un exemple et un bon candidat pour expliquer ce mécanisme d'amplification.

Inutile d'ajouter que les conclusions de cet article portent un rude coup aux tenants du réchauffement climatique anthropique version GIEC, puisqu'il met le doigt sur les très importants effets du soleil qui ont été superbement négligés jusqu'à maintenant, au profit du forçage radiatif du CO2 anthropique. D'ailleurs Shaviv a dû batailler pendant près de 11 mois pour que cet article voit enfin le jour. C'est un signe qui ne trompe pas...


**********************************************************************************************************************

Alors que conclure de cette longue suite d'articles ?

Eh bien, comme l'on fait de nombreux chercheurs et notamment ceux qui sont impliqués dans les projets CLOUD ou ISAC qu'il existe probablement un mécanisme qui amplifie l'effet des faibles fluctuations solaires pour leur conférer des conséquences cruciales que l'on n'aurait pas attendu de la part de fluctuations aussi faibles. C'est très exactement ce que prévoient les théories de Svensmark, Nir Shaviv et les autres, en nous expliquant que les éruptions solaires (les fluctuations de l'irradiance solaire n'en sont qu'une conséquence), tout comme les variations du champ géomagnétique, jouent un rôle déterminant en déviant les particules ionisantes qui impactent la Terre et l'atmosphère et en modifiant la couverture nuageuse. A noter que cette théorie permet aussi d'expliquer facilement le fait que le pôle sud se refroidit quand le pôle nord se réchauffe (comme en ce moment) et vice versa, c'est à dire l'effet de bascule polaire. Allez voir ici.

Inutile de vous rappeler, une fois de plus, que les experts du GIEC et les rapports subséquents ne s'intéressent qu'à l'irradiance solaire dont ils trouvent les variations trop petites, en oubliant (?) ce qui provoque ces fluctuations et en prétendant que toutes ces observations faites dans de multiples situations des deux hémisphères et sur des paramètres très divers, ne seraient que pures coïncidences !
Les affidés du GIEC semblent ne pas vouloir savoir que le soleil gère bien d'autres phénomènes que l'émission d'un flux lumineux. Ou, plus exactement, ils prétendent que comme la théorie de ces effets-là n'est pas encore bien comprise, cela veut dire que ces phénomènes n'existent pas...
Pour des scientifiques, c'est une attitude plutôt étonnante, n'est-ce pas ? Bref, le GIEC ne veut entendre parler ni des rayons ionisants, ni de la variabilité solaire, ni du champ géomagnétique...C'est exactement ce qu'a stigmatisé le Professeur de Climatologie R. Pielke Sr. (ici) .

________________________________________________________________________________________________________________________

Ceci étant dit, je crois qu'il est utile de faire une petite chronologie pour remettre en perspective les progrès dans ce domaine qui en connaîtra probablement d'autres dans les années à venir :

CHRONOLOGIE (rayons cosmiques et climat de la Terre) :

1801 : Sir William Herschel, grand physicien anglais, observe que le cours du blé (et donc l'abondance du blé), varie en fonction du nombre jevonsdes éruptions solaires. Il est ridiculisé par l'Establishment anglais...

1875 et 1878 : William Stanley Jevons, un économiste statisticien anglais publie deux articles dans Nature (Jevons, William Stanley (14 November 1878). "Commercial crises and sun-spots", Nature, xix, pp. 33–37) sur ses observations que le cycle des éruptions solaires (entre 10,5 ans et 11 ans) se retrouve dans l'analyse des crises économiques engendrées, selon lui, par les variations du prix des céréales, elles-mêmes engendrées par les variations du climat provoquées par les éruptions solaires. Son travail, très critiqué lui aussi, tombe dans l'oubli.

wilson1927 : Le physicien écossais C.T.R.Wilson reçoit le prix Nobel pour l'invention (dans les années 1890-1896) de la chambre à condensation qui permet de mettre en évidence et d'étudier les particules ionisantes venues de l'espace. Wilson pensait ainsi étudier les processus de formation des nuages dans l'atmosphère par les rayons cosmiques. Lors de ses études, il découvrit que les noyaux de condensation de la vapeur d'eau se produisaient aussi sur des noyaux non chargées. Le mécanisme suggéré par les études de Harrison et Stephenson est différent des idées initiales de Wilson parce qu'il dépend de la nature des noyaux crées par les ions plutôt que par les ions eux-mêmes. Cette distinction est importante parce que les chambres à condensation de Wilson ne reproduisent pas la composition de l'atmosphère terrestre. Depuis cette invention, la chambre de condensation, appelée maintenant "chambre à bulles" de Wilson a été universellement utilisée pour suivre et identifier les particules ionisantes de haute énergie tels que les rayons cosmiques... jusqu'à l'invention de la grille à fils de Georges Charpak (prix Nobel 1992).

1933 : A.E. Douglass, le fondateur de la dendrochronologie (analyse des cercles anneaux de croissance des arbres), étudie, en particulier les séquoias géants. Il découvre des corrélations remarquables entre les épaisseurs des anneaux de croissance des arbres et les cycles des éruptions solaires, tous les onze ans Il en déduit, tout simplement, que les éruptions solaires affectent notablement le climat de la Terre.

ney1959 : Edward Ney, éminent chercheur américain, avance l'idée que les rayons cosmiques doivent influer sur le climat de la planète. Il profite d'un éclipse du soleil pour effectuer, avec des ballons et un vieux DC4 (français), des mesures remarquables pour étayer ses affirmations. Cette idée s'endort dans les archives...

1974 : Pendant la période "froide" quatre chercheurs J. W. King, E. Hurst, A. J. Slater et B. Tamkin suggèrent dans Nature (252, 2-3 01 Nov 1974) que l'agriculture déficiente de cette époque serait liée au minimum de taches solaires concomitant. Ils notent aussi que des modulations de 10 à 50% des revenus de l'agriculture de la Chine, l'Union Soviétique et des Etats-Unis semblent corrélés avec les cycles solaires de 11 et 22 ans. Voilà qui nous rappelle les observations de ce cher William Herschel en 1801 !

1976 : Dans un volumineux article publié dans la revue Science, (vol 192, page 1189), John A. Eddy, astronome de Boulder (Colorado US), démontre que le règne très froid de Louis XIV correspond à une faiblesse unique et très marquée des éruptions solaire (minimum dit de Maunder) pendant une cinquantaine d'années.

1986-1993 : Elizabeth Nesme-Ribes était (elle est décédée en 1996) Directrice de Recherche au CNRS et Astronome à l'Institut d'Astrophysique de Paris. Elle a consacré l'essentiel de son activité à l'étude du soleil et notamment à l'influence des éruptions solaires sur le climat, en particulier pendant le minimum de Maunders. Entre autres publications importantes (un exemple) elle a laissé un livre passionnant "Histoire solaire et climatique" ( ici) écrit avec Gérard Thuillier, sur ces questions. Elle a largement contribué à susciter l'intérêt croissant apporté à l'étude du soleil, à ses variations et à ses conséquences.

geelmagny1989-2000 : Deux paléoécologistes (paléoclimatologues), l'un français (Michel Magny DR CNRS à Besançon) et l'autre Hollandais (Bas Van Geel, Amsterdam) semblent figurer parmi les tous premiers à avoir signalé des corrélations effectives entre l'activité solaire et des données paléoclimatiques. Michel Magny a ainsi étudié les niveaux des lacs du centre-ouest de l'Europe (Magny, CRAS, 1993, STP, 317, 1349-1356) et Bas Van Geel, assisté du physicien Mook, a démontré l'efficacité du marqueur C14. Entre autres : Quaternary Science Review 18, 331-338, 1999 "the role of solar forcing upon climate change")

1994 : Des astronomes américains, John Butler et ses collègues sont parvenus à démontrer une corrélation nette entre les cycles solaires et les températures terrestres durant les deux derniers siècles, c'est à dire depuis 1795. Ils ont utilisés des relevés de températures très anciens trouvés dans la littérature astronomique (Science News, 23 avril 94).

1997 : Henri Svensmark et Eigil Friis-Christensen montrent qu'il existe une remarquable corrélation entre rayons cosmiques et couverture nuageuse de la Terre à partir de mesures satellitaires. Ils avancent une théorie pour expliquer ces faits.

1997 : Quatre chercheurs américains, White et ses collaborateurs, publient (dans le Journal of Geophysical Research) une série de courbes montrant la modulation (de 1955 à 1997) des températures des différents océans de la planète par les faibles variations de l'irradiance solaire. La concordance est évidente. Cela ne peut s'expliquer que par un "facteur d'amplification" tel que, par exemple, celui évoqué par Svensmark qui implique l'influence des éruptions solaires. Graphe de White et al. ici.

2001 et suivantes : Tim Patterson, un professeur paléo-géologue canadien qui extrait, avec son équipe, des sédiments très anciens des boues des fjords profonds de l'Est du Canada, remarque une frappante corrélation entre les variations du climat sur de très longues périodes avec les différents cycles d'éruptions solaires dont le cycle de Schwabe de onze ans. Après avoir longtemps cru à l'influence du CO2, il est devenu "sceptique du CO2 " et pense que l'influence des taches solaires est primordiale. Description ici.

2001 : Cinq chercheurs allemands et suisses, Neff et ses collaborateurs, analysent les concentrations de C14 et de O18 dans des stalagmites trouvés dans une grotte d'Oman. (source Nature) Ils trouvent une très bonne corrélation, s'étendant sur plus de 3500 ans avant notre époque, entre l'occurence et l'amplitude des moussons de cette région et les taux de radiations cosmiques.

2002 : Michael Stolz, Michael Ram et John Doranummo de l'Université de Buffalo (USA) ont étudié les relevés climatiques sur 100.000 ans obtenus à partir des carottages glaciaires (15 mai 2002, Geophysical Research Letters). Ils retrouvent systématiquement le fameux cycle de onze ans des éruptions solaires mais ils notent que les périodes d'intenses éruptions volcaniques provoquent un renversement temporaire des effets sur le climat ce qui a probablement induit en erreur de nombreuses recherches précédentes. Leurs conclusions rejoignent celles de Svensmark et al. sur l'effet des radiations cosmiques.

2003-2004 : Deux chercheurs Israéliens, Lev A. Pustilnik et Gregory Yom Din, opérant avec des moyens modernes, confirment et étendent les observations de W. Herschel et de S. Jevons.

2003 : Jan Veizer et Nir Shaviv utilisent une cinquantaine de météorites tombée sur la Terre pour reconstruire les flux cosmiques sur 520 millions d'années (!) Ils démontrent une corrélation nette avec les températures des surfaces de l'océan, pendant cette période, mesurées en analysant la proportion d'un isotope de l'oxygène (O18) dans des fossiles marins.

2004 : Deux chercheurs russes (0.G. Gladysheva et G.A. Kovaltsov du Ioffe Institut), un chercheur danois (N. Marsh) et deux chercheurs finlandais (K. Mursula et I.G. Usoskin) effectuent une étude détaillée de la couverture nuageuse en fonction de l'intensité des rayons cosmiques selon la latitude. Ils montrent clairement que la couverture nuageuse obéit au cycle de 11 ans des éruptions solaires et confirment l'hypothèse de Svensmark que les radiations cosmiques fabriquent des nuages par ionisation. Publication accessible ici .

2004 : Trois chercheurs chinois (J. Zhao, Y-B Han et Z-A Li) démontre une corrélation évidente entre l'activité éruptive solaire (nombre de taches solaires) et le volume des pluies dans la région de Pékin entre 1870 et 2002. Publication accessible ici.

2004 : L'European Space Agency (ESA) lance un programme appelé ISAC (Influence of Solar Activity Cycles on Earth's Climate), regroupant des chercheurs Danois, Suédois et Anglais (Imperial College), destiné à mettre en évidence les effets de l'activité solaire sur le climat. Vous trouverez ici une présentation faite en Nov. 2005 lors de la "Second European Space Weather Week". Rapport final en 2007 ici.

2005 : Deux chercheurs japonais, Kasaba et Tokashima, démontrent que les variations de températures de la planète depuis au moins un millénaire sont directement corrélées à l'intensité des rayons cosmiques.

Juin 2006 : Regis Harrison et David Stephenson (Reading UK) démontrent une corrélation probante entre les flux ionisants (rayons cosmiques) et l'ennuagement au dessus de l'angleterre entre 1950 et 2004.

2006 : Trois chercheurs américains du célèbre institut CALTECH et de la NASA (JPL) ( Alexander Ruzmaikin, Joan Feynman et Yuk Yung) observent une corrélation nette entre les niveaux du Nil ( de l'année 622 à 1470) et les éruptions solaires. Ils expliquent que la pluviométrie qui alimente les eaux du Nil doit être liée aux taches solaires conformément à la théorie de H. Svensmark. A mettre en relation avec l'article de Juin 2007 des cinq chercheurs Sud Africains sur le niveau du lac Victoria.

Septembre 2006 : K. M. Hiremath, chercheur Indien du Indian Institute of Astrophysics démontre une corrélation nette entre les cycles des éruptions solaires et l'intensité des pluies en Inde (étude sur 130 ans). Il observe, comme les autres chercheurs, qu'aux minima d'activité du soleil ( soit des minima d'intensité des rayons cosmiques) correspondent des pluies plus intenses. Article ici.

Octobre 2006 : Henri Svensmark et ses collaborateurs réalisent une chambre d'expérience ( projet SKY) qui met en évidence l'étonnante efficacité des rayons cosmiques pour produire des noyaux de condensation de la vapeur d'eau en nuages, dans l'atmosphère.

Juin 2007 : Cinq chercheurs Sud Africains ( Alexander, Bailey, Brendekamp, Van der Merwe et Willense) démontrent la corrélation absolument frappante qui existe en l'intensité des pluies en Afrique du Sud, le niveau du lac Victoria et l'activité éruptive solaire (Article ici)

2007 : Cinq chercheurs brésiliens, Rigozo, N.R., Nordemann, D.J.R., Silva, H.E., Souza Echer, M.P. and Echer, E. retrouvent très nettement les cycles des taches solaires de 11 ans dans les cernes de croissance d'arbres chiliens couvrant la période 1587 à 1994. Planetary and Space Science 55: 158-164. Ils avaient rapportés des résultats analogues en 2006 ( Trend Appl. Sci. Res. 1: 73-78.) Ils recoupent ainsi les découvertes du pionnier en la matière A.E. Douglass qui avait trouvé la même chose dans les séquoias en... 1933.

Janvier 2007 : Vincent Courtillot (directeur de l'Institut de Physique du globe de Paris et trois collègues découvrent une corrélation nette entre la température du globe et les variations de champ magnétique terrestre (dont on sait quelles résultent des éruptions solaires, via le vent solaire) (Earth and Planetary Science Letters, 253, (2007), 328-339). Cet article ( notamment la base de donnée utilisée) est violemment critiqué par les tenants du GIEC (RealClimate etc., jusqu'aux journaux français comme le Monde et Libération). Courtillot y est accusé de malhonnêteté... Pourtant l'article de Knudsen et al va dans le même sens.

Août 2007 : Des chercheurs de cinq institutions britanniques et américaines, placés sous la direction du paléoclimatologue Curt Stager ont observé une nette corrélation entre les cycles des éruptions solaires de 11 ans et les pluies intenses qui sont tombées sur l'Afrique de l'Est durant le XXème siècle. Ils ne parlent pas du réchauffement climatique mais pensent que cela devrait servir à prévenir les maladies véhiculées par les insectes (fréquentes en période humide). Cette découverte rejoint tout à fait les observations en Afrique du Sud de l'article précédent (Alexander). Article paru dans le Journal of Geophysical Research du 7 août. Analyse ici, source NSF.

3 novembre 2007 : Deux chercheurs américains, N. Scaffetta et B. J. West font paraître un article dans le Journal of Geophysical Research ( vol 112, D24S03, DOI : 10.1029/2007JD008437, 2007) qui analye l'influence de la signature solaire dans les enregistrements de température depuis 1600. Ils trouvent qu'au moins 50% du réchauffement constaté depuis 1900 est attribuable au variations du soleil.

25 décembre 2007 : Deux chercheurs Indiens, Subarna Bhattacharyya et Roddam Narasimha font paraître un article dans le Journal of Geophysical Research, vol. 112, D24103, doi:10.1029/2006JD008353, 2007 (résumé ici) , dans lequel ils expliquent avoir trouvé une corrélation très nette entre l'activité solaire et l'intensité des pluies de mousson. C'est un grand progrès quand on sait que, jusqu'à présent, les modélisations numériques ne connaissaient que des échecs répétés.

Février 2008 : Deux chercheurs finlandais (Ilya G. Usoskin et Gennady A. Kovaltsov) confirment, à partir d'une étude exhaustive qu'il existe bien un lien possible entre les rayons cosmiques et le climat de la Terre. Ils font le point sur les modes d'action possibles. Cet article paraîtra dans les comptes rendus de Geoscience en 2008. Un tiré à part est accessible ici.

Mars 2008 : Les deux chercheurs américains N. Scaffetta et B. J. West, cités ci-dessus ( 3 Nov 2007) ont repris leur travail pour évaluer l'influence des cycles solaires sur le climat. Cette fois-ci, en raffinant encore, ils trouvent que la part du soleil est d'au moins 69% dans le réchauffement total. (Repris dans Physics today mars 2008).

Octobre 2008 : Trois chercheurs Argentins (Pablo Mauas, Eduardo Flamenco et Andrea Buccino) on étudié les variations du flux du Parana (un des plus grands fleuves du monde) pendant le XXème siècle. Ils trouvent une forte corrélation multidécennale avec l'activité solaire, une intense activité solaire donnant des flux plus importants et ceci avec un coefficient de corrélation de 0,78 valable à 99%. (Phys. Rev. Letters, 17 oct. 2008, DOI 101, 168501 (2008), " solar forcing of the stream flow of a continental south american river"). Cet article est à rapprocher de celui des deux cherchers Indiens ci-dessus ( décembre 2007 - les moussons dépendent de l'activité solaire) ou encore de ceux d'Alexander et al pour l'Afrique du sud (juin 2007).

Nov. 2008 : Un groupe chercheurs chinois et américains étudient une stalagmite prélevée dans une grotte du le nord de la Chine. Ils trouvent une corrélation remarquable entre l'insolation, les moussons aisatiques et.. les changements d'ère chinoises sur 1800 ans. (Sciences, 17 nov. 2008, Zhang et al vol 322, N° 5903, pp 940-942). A rapprocher des précédentes études sur les corrélations entre le soleil avec les pluies et les fleuves effectuées au Mexique, en Inde, en Afrique du Sud et en Afrique de l'Est.

Nov 2008 : Le Prof. Nir Shaviv du Racah Institute publie un article montrant que les fluctuations du contenu thermique des océans, du niveau des mers et de la température de surface de océans sont d'un ordre de grandeur plus grandes que celles qui seraient attribuées aux simples variations de l'irradiance solaire. Il en déduit qu'il existe certainement un mécanisme d'amplification tel que, par exemple, celui proposé par le Professeur Svensmark et al. (Ref : JGR vol 113, A11101, doi: 10.1029/2007JA012989,2008)

Déc. 2008 : Dans le même esprit que l'article de Zhang et al de Nov. 2008, ci-dessus, , un chercheur Australien, Robert Baker, analyse en détail les corrélations frappantes qui existent entre les cycles solaires de Hale et Gleissberg et le SOI (Southern Oscillation Index) qui détermine la pluviométrie en Australie du Sud-Est. (Geographial Research Déc. 2008, 46(4), 380-398)

Jan. 2009 : Deux chercheurs Danois, Knudsen et Riisager, (Oxford, Aarhus, Copenhague et Geological Survey of Denmark and Greenland) trouvent une remarquable corrélation entre les variations du champ magnétique terrestre et la pluviométrie des régions tropicales. Ces découvertes viennent à l'appui de la théorie de Svensmark et des observations de Courtillot et al. (cité plus haut).
(source) (Ref : Geology 2009;37;71-74). (analyse ici)

Sept. 2009 : Trois chercheurs (Sigrid Dengel, Dominik Aeby et John Grace) de l'Institut des Géosciences d'Endinburgh (UK) ont trouvé une "Relation entre les rayons cosmiques galactiques et les cernes des arbres". ' 'New Phytologist Vol 184, 3, Page 545-55. Ceci corrobore les découvertes de A.E. Douglass ci-dessus. (analyse ci-dessous)

Pour un vieux routier de la science comme moi et pour beaucoup d'autres, la chronologie précédente rappelle de nombreux autres processus qui ont conduit à des découvertes importantes dans le passé : Une simple observation effectuée par un chercheur clairvoyant dort dans les tiroirs pendant des dizaines d'années. Elle est reprise par un autre, tout aussi clairvoyant mais qui, le plus souvent, ignorait la première. Tout cela reste encore en sommeil, jusqu'à ce que d'autres chercheurs remettent la question sur la sellette, dans les temps modernes, poussés par l'actualité. Dès lors le processus s'accélère nettement et les progrès dans la connaissance avancent à pas de géants, grâce aux méthodes modernes, jusqu'à ce que le problème soit élucidé. Car s'il y a un mérite à trouver dans le "réchauffement climatique" et surtout médiatique actuel, c'est bien celui d'avoir suscité de nombreux travaux pour améliorer notre compréhension du climat de la planète. Souhaitons que les résultats soient bien utilisés et non détournés, ce dont (hélas !) l'homme s'est fait une spécialité dans le passé !

2007-2010 : A venir : Résultats des expériences menées au CERN de Genève pour étudier en détail les processus de création de nuages par les rayons cosmiques (projet CLOUD): Premiers résultats prévus pour l'été 2009. Résultats complets en 2010. Voici la liste des institutions participant à cette expérience internationale :

  • cloudUniversité d'Aarhus, (Danemark)
  • Université de Bergen, (Norvège)
  • Institut de technologie de Californie (États-Unis)
  • CERN (Suisse)
  • Centre spatial national danois (Danemark)
  • Institut météorologique finlandais (Finlande)
  • Université d'Helsinki (Finlande)
  • Université de Kuopio (Finlande)
  • Institut de physique Lebedev, (Russie)
  • Université de Leeds (Royaume-Uni)
  • Institut Leibniz de recherche troposphérique, Leipzig (Allemagne)
  • Université de Mayence et Institut Max-Planck de chimie, Mayence (Allemagne)
  • Institut Max-Planck de physique nucléaire, Heidelberg (Allemagne)
  • Institut Paul-Scherrer (Suisse)
  • Université de Reading (Royaume-Uni)
  • Laboratoire Rutherford Appleton (Royaume-Uni)
  • Université technologique de Tampere (Finlande)
  • Université de Vienne (Autriche)

.(Vous trouverez des détails récents (financement, schéma d'expérience, soutiens etc. sur ce projet ici.)
Aux lecteurs français
: hélas, nous n'y sommes pas représentés ! Ce n'est malheureusement pas étonnant quand on sait que les représentants en climatologie et en sciences de l'environnement de notre pays sont très actifs au sein du GIEC... qui refuse d'emblée d'envisager l'influence du soleil et des rayons cosmiques sur le climat... au profit du CO2. Dommage !

Mise à jour 9 Juin 2009 : En ce début Juin 2009, la cellule de 3m de diamètre destinée à l'expérience CLOUD est enfin arrivée au CERN de Genève. Comme vous pourrez le constater en visionnant ce petit film, il ne s'agit pas d'une petite expérience de "coin de table" comme disent les physiciens mais d'un projet très consistant. Les deux collaborateurs à droite de l'image donnent l'échelle de cette chambre d'expérience.cloudchamber

 

Un peu à l'image de l'expérience SKY, à plus petite échelle, réalisée par l'équipe de Svensmark, cette chambre sera remplie d'une atmosphère contrôlée avec le plus grand soin qui sera irradiée avec des rayonnements (cette fois-ci, produits au CERN) proches de ceux qui résultent du rayonnement cosmique (plus ou moins déviés par l'héliosphère et le champ magnétique terrestre) conformément à ce qui est expliqué ci-dessus.

Comme vous le savez, le but de cette expérience consiste à mettre en évidence et à quantifier les processus qui pourraient présider à la génération des nuages de basse altitude sous l'action des rayons cosmiques. Quand on sait que la couverture nuageuse de basse altitude réfléchit quelques 30W/m 2 soit environ 25 fois plus que le forçage direct du CO2 , on réalise que le moindre changement naturel de cette couverture nuageuse peut avoir des conséquences cruciales sur le climat de la planète. C'est ce qui va être étudié dans le courant de cette année 2009 et en 2010, grâce à cet appareillage.
Les chercheurs des 18 institutions internationales impliquées dans ce projet vont maintenant commencer à installer les détecteurs, les injecteurs de gaz et divers autres instruments de mesure autour de cette énorme récipient qui sera disposé devant une des sorties de l'accélérateur du CERN. Il faudra sûrement encore plusieurs long mois et beaucoup de travail avant que le dispositif soit opérationnel et que les premiers tests puissent être entrepris.

Vous pourrez voir ici une vidéo d'une présentation du projet par le responsable de cette opération au CERN, Jasper Kirkby. Voici le poster de la présentation de Kirkby (le 04/06/09) que je vous invite à lire si vous voulez en savoir un peu plus sur cette expérience passionnante dont nous sommes nombreux à attendre les résultats...
Inutile d'ajouter que cette nouvelle ne fera pas la une (ni la deux, ni la trois etc...) des médias français. Le projet CLOUD du CERN ? Connais pas !


____________________________________________________________________________________________________________________
Miise à jour du 19 Novembre 2009 : CLOUD commence ! Les chercheurs engagés dans le projet CLOUD ont fait très vite !


A peine 6 mois après avoir reçu la "casserole" comme on appelle l'énorme chambre d'expérience que j'ai décrite ci-dessus, il semble que la majeure partie de l'instrumentation ait été installée et que les premiers essais ont lieu en ce moment même. Voici ce que nous dit le bulletin (en français) du CERN à ce sujet :

"À l’heure où les expériences LHC procèdent aux derniers réglages dans l’attente des prestigieux faisceaux, l’expérience CLOUD vient de terminer sa phase d’assemblage et commence l’acquisition de données grâce à un faisceau de protons issu d’un accélérateur vieux de 50 ans, le Synchrotron à protons (PS)." Lire la suite ici.

Le CERN nous donne aussi quelques photos intéressantes. En voici deux :

kirkbycloud1

 

 

 

 

 

 

 

 

Ci-dessus, à droite, la chambre d'expérience CLOUD installée dans le Hall Est du PS (Synchrotron à protons).

 

Jasper Kirkby, Directeur du projet, dans la chambre d'expérience de CLOUD.

Pour ceux qui n'auraient pas lu les explications précédentes sur le projet CLOUD du CERN, je rappelle que cette expérience est basée sur un principe proche de celui de la chambre à bulles de Wilson.Dans la chambre à bulles classique, on détecte les trajectoires des particules ionisantes venant du cosmos en les faisant passer dans une chambre contenant de la vapeur d'eau sursaturée. Les trajectoires des particules, plus ou moins incurvées à l'aide de champ magnétiques ce qui permet de calculer leur vitesse, sont visualisées grâce aux gouttelettes d'eau qui se forment le long de trajectoires.

L'expérience CLOUD repose exactement sur le même principe sauf que, cette fois-ci, la vapeur d'eau n'est pas sursaturée. C'est tout simplement celle qui est contenue dans l'atmosphère. Il est remarquable que C.T.R. Wilson qui a reçu le prix Nobel en 1927 pour l'invention de la "chambre à bulles" ait pensé, dans les années 1900-1920, que les rayons cosmiques pouvaient produire des effets analogues dans l'atmosphère et ainsi induire la formation des nuages, comme je l'ai raconté plus haut. C'est l'objectif de l'expérience CLOUD.

Si les particules ionisantes sont capables de produire des noyaux de condensation propres à fabriquer des nuages, un lien direct entre les éruptions solaires et la température terrestre aura été trouvé. Il restera, bien entendu, à mettre tout cela en équation, puis vérifier etc....

Nous attendons les premiers résultats avec impatience mais l'expérience pourrait s'étendre sur plusieurs années :

Keep your fingers crossed and wait and see !

12 Juin 2010 : Ils ont fait très vite ! Premiers essais des expériences CLOUD au CERN, en vraie grandeur. Résultats encourageants : Premières nucléations activées par le "rayonnement cosmique" observées.

Comme vous le savez, Jasper Kirkby (photos dans le billet ci-dessus) est le responsable du Projet Cloud qui regroupe les efforts de l'essentiel des grands pays développés, (à l'exception de la France) pour étudier la formation des nuages via l'influence des rayons cosmiques. (CLOUD = Cosmic Leaving OUtdoor Droplets). C'est à ce titre que Kirkby a exposé les résultats les plus récents des premières expériences CLOUD (en vraie grandeur) lors de la dernière conférence IPAC10 (International Particule Accelerator Conference) à Kyoto (Mai 2010). Un lecteur très averti (que je remercie) m'a signalé qu'un article (pre-press proceeding) intitulé 'The CLOUD project : Climate research with accelerators" est disponible sur le site de l'IPAC10, très exactement sur cette URL. Je vous invite à le consulter. Il est à la base à ce billet.

Le texte rédigé par Kirkby débute par un exposé des arguments scientifiques qui ont été à l'origine du développement du projet CLOUD au CERN de Genève. A titre d'exemple, Jasper Kirkby rappelle les corrélations frappantes [soleil/mousson] observées dans la grotte d'Oman (publié dans Nature (411:290-293), sous le titre "Forte corrélation entre la variabilité solaire et la mousson d'Oman d'il y a 6000 à 9000 ans."), telles que je vous les avais décrites dans un billet précédent.

kirkby1Kirkby montre ensuite une corrélation [rayons cosmiques/températures et avance des glaciers andins] que l'on voit sur la figure ci-contre.

La figure a) (en haut) (Températures de l'hémisphère Nord) reproduit quelques unes des différentes reconstructions de températures obtenues par les indicateurs (paroxysme) divers tels que les cernes de arbres, les pollens, les coquillages, les stalagmites, les forages au Groenland et dans d'autres points du globe. On y retrouve, bien entendu, la célèbre crosse de hockey de Michael Mann (en rouge, nommée hockey stick) qui se distingue nettement de toutes les autres reconstructions, en ce sens qu'elle ne reproduit ni l'optimum médiéval, ni le petit âge glaciaire.

La figure b) (au milieu) reproduit les données connues sur le rayonnement galactique (ray. cosmique), telles qu'obtenues à partir de l'observation d'un certain nombre d'isotopes, depuis l'an 900 jusqu'en l'an 2000 environ.

A noter que l'échelle verticale est inversée. C'est à dire que les valeurs élevées du flux de rayons cosmiques sont associées à des températures plus froides.

 

 

La figure c) (en bas), indique l'avance des glaciers andins au niveau du Vénézuela, c'est à dire dans la région tropicale proche de l'équateur à une altitude de 3750m. La croissance (avance) des glaciers est indiquée par une flèche vers le bas.

 

 

Puis, Jasper Kirkby nous explique les concepts qui sous-tendent l'élaboration de l'expérience CLOUD tels que vous les retrouverez exposés dans les billets précédents (par exemple ici) . Concernant la construction même de l'expérience CLOUD voici ce que nous dit Jasper Kirkby :

"Le concept consiste à exposer une grande enceinte remplie d'air ultra-purifié et humide, contenant des traces de gaz bien définis, à un rayonnement ajustable de "rayons cosmiques" issus du Synchrotron à protons du CERN (CERN PS). Au moyen d'instruments sensibles d'analyse, la nucléation et la croissance des particules d'aérosols à l'intérieur de l'enceinte, peut être observée et analysée. Au cours d'expériences distinctes, une faible expansion adiabatique (200mbar) peut-être effectuée, comme dans une chambre à brouillard classique de Wilson, pour étudier les gouttelettes des nuages et les particules de glace.

CLOUD étudiera les effets des rayonnements cosmiques dans un grand éventail de processus microphysiques actifs dans les nuages : La création d'aérosols par des traces de vapeur condensable, la croissance d'aérosols jusqu'à la taille des CCN (NDT: CCN : Cloud Condensation Nuclei : Noyaux de condensation des nuages, (NDT :typiquement de taille 100nm), l'activation des CCN en gouttelettes des nuages, les interactions entre les gouttelettes et les aérosols et, finalement, la création et la dynamique des particules de glace dans les nuages. L'expérience CLOUD (figure ci-dessous) est optimisée pour l'étude des interactions ion-aérosols des nuages. Les spécifications techniques ont été obtenues à partir de l'expérience pilote effectuée en 2006. [...] L'enceinte est exposée à un rayonnement pion secondaire de 3,5 GeV/c issu du CERN PS, correspondant aux énergies caractéristiques et aux densités d'ionisation des muons des rayons cosmiques dans la basse troposphère. L'intensité du faisceau peut être ajustée pour couvrir toute la gamme du rayonnement naturel allant du sol à la stratosphère. "

Voici le schéma complet de l'expérience CLOUD, mise au point en 2009 et actuellement en fonctionnement : kirkby2

 

Quelques brèves explications utiles pour la suite :

L'enceinte est représentée en grisé bleu.

En haut, l'irradiation UV (comme dans l'atmopshère) est introduite par une batterie de fibres optiques.

Sur la gauche, l'entrée du rayonnement CERN PS avec son détecteur de particules (Hodoscope)

En bas du schéma sont indiqués les différentes sources de gaz ou de traces de gaz destinées à remplir l'enceinte qui est thermostatée avec une grande précision, à 0, 01°C près.

Sur la droite sont indiqués les instruments d'analyse multiples et ultraperformants dont les sondes pénètrent à l'intérieur de l'enceinte.
Parmi ceux-ci, on remarque deux instruments essentiels dont on verra l'utilité ci-dessous.

Le CPC (une batterie) : Condensation Particle Counter

Le SPMS : Scanning Mobility Particle Sizer.


 

 

Voici ci-dessous, une des toutes premières observations d'un processus de nucléation activé par le rayonnement "cosmique" du CERN PS, obtenue avec l'appareillage CLOUD représenté ci-dessus :kirkby3

 

Figure 5 (de l'article de Kirkby) : Les échelles horizontales sont graduées en heures et minutes.
Traduction de la légende :

" Un exemple de l'une des premières salves de nucléation enregistrées avec CLOUD. La figure du haut montre le développement temporel de la concentration en particules d'aérosol, mesurée par la batterie CPC (Condensation particle counter).

 

La figure du bas montre l'évolution temporelle du spectre de la dimension des aérosols (échelle verticale graduée en nanomètres) mesurée par le SPMS (Scanning Mobility Particle Sizer) avec un seuil de détection à 8 nm. Le faisceau pion (PS) a été lancé à 16h45. Il a généré une augmentation rapide du taux de nucléation des aérosols. Lequel a été détecté peut de temps après (ceci est vu comme une brusque discontinuité près du début des courbes du graphe ci-dessus). Ceci est une observation claire d'une nucléation activée par les ions. "

 

 

 

 

Kirkby conclut son article en décrivant brièvement les résultats tout récents de la première série d'expériences effectuées avec CLOUD. Je rappelle que le "temps de faisceau" est sévèrement limité et programmé sur ces accélérateurs du CERN.

"CLOUD a été branché sur le rayonnement du synchrotron à protons du CERN en 2009 et une première série d'expériences très réussie a été effectuée en Novembre-Décembre pour étudier la nucléation binaire neutre et induite par les ions de H2SO4/H2O, à 292K. Peu de temps après le début de l'expérience, une augmentation claire du taux de nucléation activé par les ions a été établie par l'observation reproductible d'une augmentation brutale du taux de nucléation quand le faisceau était activé (voir figure 5 et 6 (dans le document original)). Le détecteur a démontré d'excellentes performances techniques et une grande quantité de données de haute qualité ont été enregistrées durant la série d'expériences de 2 semaines (quelques exemples sont donnés dans les figures 7-10 (de l'article original)). Les données obtenues lors de cette série d'expériences sont actuellement en cours d'analyse et un article scientifique portant sur les principaux résultats nouveaux est en préparation, pour une publication prévue plus tard dans l'année."
___________________________________________________________________________________

Voilà qui est très encourageant pour la suite. Vous avez sûrement noté au passage (figure du bas de la figure 5, ci-dessus) que les tailles des particules aérosols résultant des nucléations générées par les "rayons cosmiques" issus du CERN PS, atteignent 80 nm. Ce qui loin d'être insignifiant quand on sait que les CCN (noyaux de condensation des nuages) tournent autour de 100 nm.

Cependant, les chercheurs du projet CLOUD sont encore loin d'avoir atteint leurs objectifs (que Kirkby a rappelés ci-dessus). Ces premiers résultats et les suivants devront être soigneusement analysés. Il faudra faire varier les nombreux paramètres de l'expérience; mettre tout cela en équations, comparer avec les observables climatiques etc...
Si nous ne sommes certainement pas encore sortis de l'auberge, nous sommes sur la bonne route...

"Keep tuned" comme ils disent au CERN. Restez à l'écoute. L'avenir est prometteur.
Un grand bravo et nos encouragements à toutes les institutions des pays (Royaume Uni, Allemagne, Etats Unis, Russie, Danemark, Suisse, Finlande, Portugal, Autriche, Bulgarie etc. ) qui participent à cette très belle expérience.
Dommage que la France n'en fasse pas partie.

.

05 Juin 2011 : Des nouvelles relatives au Projet CLOUD du CERN et à Svensmark et ses collègues.

De nombreux lecteurs me demandent fréquemment des nouvelles sur l'avancement du projet CLOUD au CERN.
Voici donc ce que nous en savons en ce mois de Juin 2011. Ce billet fait suite à celui que vous trouverez ci-dessus et qui faisait le point sur les premiers résultats obtenus par l'équipe qui travaille sur ce projet.

aarhusComme je l'ai écrit ci-dessus, le projet CLOUD est une affaire de grande envergure qui, comme tous les grands projets du CERN, avance prudemment et pas à pas.
D'autre part, le projet CLOUD utilise à présent les rayonnements de faisceau qui sont en "temps partagés", c'est à dire en compétition avec d'autres projets avec lesquels ils partagent le "temps de faisceau" (comme on dit dans le milieu des "Grands Instruments" de ce type) programmé et rigoureusement délimité bien à l'avance, ce qui ne facilite pas les choses.

Enfin, il faut réaliser que les expériences du type de CLOUD sont évidemment très difficilement reproductibles et vérifiables par d'autres équipes comme le sont, par exemple, les expériences de physique plus légère. Il est donc fondamental que les résultats publiés soient irréprochables ce qui requiert un grand nombre de tests et de vérifications pour s'assurer que les résultats correspondent bien à la réalité et ne résultent pas d'artefacts qui sont relativement fréquents et souvent difficiles à détecter et à éliminer.
Tout cela prend du temps. Beaucoup de temps...
Dans ce genre d'expérimentation, il faut savoir être patient, d'autant plus que les progrès réalisés par les scientifiques du CERN restent généralement très confidentiels ...jusqu'à la publication (le plus souvent cosignée par plusieurs dizaines d'auteurs).

Pourtant, et après cette longue attente, il semble que les résultats (positifs) des expériences CLOUD soient en voie de publication si on en croit Nigel Calder (un collaborateur et ami proche de Henrik Svensmark) ainsi qu'une déclaration (ci-dessous) de Jasper Kirkby, le responsable du projet CLOUD.

Enfin, et toujours dans le même esprit, une équipe de chercheurs danois et britanniques vient de publier un article qui confirme et prolonge les premiers résultats publiés par Svensmark et al, en 2006, résultants de l'expérience SKY que j'ai évoquée à de multiples reprises ci-dessus.
chillling

1) Des nouvelles de CLOUD

Nigel Calder est un journaliste scientifique américain, renommé et expérimenté, qui a, entre autres, collaboré avec Henrik Svensmark pour la rédaction d'un livre (en anglais) dont je vous recommande la lecture "Les étoiles qui refroidissent - Une nouvelle théorie du changement climatique". Nigel Calder qui suit évidemment la progression de CLOUD de très près et qui est certainement très bien informé à ce sujet, vient de publier un court texte sur son blog (13 Mai 2011) qui nous dit textuellement ceci :

"L'expérience CLOUD du CERN (le test de la théorie de Svensmark sur l'effet des rayons cosmiques) montre une augmentation considérable de la production d'aérosols (NdT : qui servent au développement des nuages) et la publication des résultats est programmée pour dans deux ou trois mois. Voyez cet interview de Jasper Kirkby sur Physics World ( Le site de l'IOP, l'Institute of Physics UK) qui est assez généreux pour rappeler la conférence que j'avais donnée au CERN en 1997 qui exposait l'hypothèse de Svensmark."

 

kirkby4

 

 

Les lecteurs anglophones pourront visionner cet interview très récent de Jasper Kirkby, le responsable du projet CLOUD qui regroupe les efforts conjugués d'une vingtaine d'institutions internationales. Cet interview a été réalisé par Physics World (une émanation de l'Institute of Physics britannique). Il suffit de cliquer sur l'image ci-contre.

A la fin de son interview, Jasper Kirkby précise effectivement que les observations sont très positives et qu'elles ont pu être quantifiées. Ces résultats devraient être révélés dans deux ou trois mois.

 

 

En parallèle avec la lourde instrumentation développée au CERN pour valider et quantifier l'effet des rayons ionisants sur la formation des nuages, des chercheurs de l'Université d'AArhus (Danemark) et de Sheffield (UK) viennent de publier les résultats d'une série d'expériences indépendantes effectuées, cette fois-ci, avec un faisceau d'électrons d'une part et avec un faisceau de rayons gamma, d'autre part.

2) Un nouvel article confirme l'effet des particules ou des rayonnements ionisants sur la nucléation des aérosols responsables de la formation des nuages :
Voici les références de cet article :

GEOPHYSICAL RESEARCH LETTERS, (38, L09805, doi:10.1029/2011GL047036. Publié le 12 Mai 2011) pedersen
Aerosol nucleation induced by a high energy particle beam
"Nucléation d'aérosols par un flux de particules de haute énergie"

Martin B. Enghoff,1 Jens Olaf Pepke Pedersen,1 Ulrik I. Uggerhøj,2 Sean M. Paling,3 Henrik Svensmark,1
(photo de Pedersen ci-contre)

1National Space Institute, Technical University of Denmark, Copenhagen, Denmark.
2Department of Physics and Astronomy, University of Aarhus, Aarhus, Denmark
3Department of Physics and Astronomy, University of Sheffield, Sheffield S3 7RH, U.K.

Le résumé ci-dessous est disponible sur le site de l'AGU. L'article complet n'est hélas pas en accès libre, comme d'habitude pour les GRL

Abstract : We have studied sulfuric acid aerosol nucleation in an atmospheric pressure reaction chamber using a 580 MeV electron beam to ionize the volume of the reaction chamber. We find a clear contribution from ion-induced nucleation and consider this to be the first unambiguous observation of the ion effect on aerosol nucleation using a particle beam under conditions that resemble the Earth’s atmosphere. By comparison with ionization using a gamma source we further show that the nature of the ionizing particles is not important for the ion-induced component of the nucleation. This implies that inexpensive ionization sources - as opposed to expensive accelerator beams can be used for investigations of ion-induced nucleation.

En français :

Résumé :"Nous avons étudié la nucléation des aérosols d'acide sulfurique dans une chambre de réaction à pression atmosphérique en utilisant un faisceau d'électrons de 580MeV pour ioniser le volume de la chambre de réaction. Nous observons une contribution évidente de la nucléation générée par les ions et nous considérons qu'il s'agit de la première observation sans ambiguïté de l'effet des ions sur la nucléation, utilisant un faisceau de particules dans des conditions qui ressemblent à celles de l'atmosphère terrestre. De plus, en comparant avec l'ionisation induite par une source de rayons gamma nous montrons que la nature des particules ionisantes n'est pas importante pour la composante de la nucléation induite par les ions. Ceci implique que des sources d'ionisation peu coûteuses - par opposition avec les coûteux rayons issus d'accélérateurs, peuvent être utilisées pour les recherches sur la nucléation induite par les ions."

Voici le graphe significatif, extrait de l'article et accompagné de sa légende.

enghoff1

 

 

 

Figure 1. "Taux de formation (NdT : des clusters de 4 nm, par centimètre cube et par seconde) en fonction de la concentration en ions (NdT : par centimètre cube), mesurés par le CPC (NdT : Condensation Particle Counter, Compteur de particules condensées). Les barres d'erreurs indiquent les incertitudes statistiques."

 

 

 

 

Une brève description de l'expérience, telle que vous pourrez la retrouver sur le site de l'Université d'AArhus, permet de se faire une idée de la démarche et des progrès réalisés par les chercheurs, auteurs de cette étude :

Pour sa part, Nigel Calder décrit le graphe précédent de la manière suivante : "Cette figure montre le décompte des particules aérosols (de taille 4 nm) générés lorsqu'un faisceau d'électrons de 580MeV, issu de l'accélérateur de AArhus, est envoyé dans la chambre de réaction qui contient de l'air synthétique constitué d'un mélange de dioxyde de soufre, d'ozone et de vapeur d'eau. Ces mesures ont été réalisées après une exposition de 10 mn à la lumière ultraviolette qui a généré des molécules d'acide sulfurique dans le mélange. Après 60 minutes, les particules d'aérosols ont été dispersées et les test pouvait être répété en utilisant une exposition au faisceau différente de manière à induire différents degrés d'ionisation, ou, de manière alternative, en utilisant des rayons gamma issus d'une source sodium-22.
Après les essais (Runs) 1 à 5 (droite en haut du graphe) le cylindre d'alimentation du mélange d'air a été changé et le décompte des particules d'aérosols (droite au milieu du graphe) était inférieur sans doute à cause d'une contamination non identifiée (NdT : Un des plus graves problèmes auxquels ont été confrontées les équipes de CLOUD concernaient la décontamination de la chambre d'expérience comme l'explique Kirkby dans son exposé. Ceci est indispensable pour obtenir des résultats quantifiables et reproductibles). Lors du Run N°10, le nombre des aérosols a encore chuté. Indépendamment de ces variations, on a toujours observé une croissance marquée et progressive du décompte des aérosols sur une grande étendue du degré d'ionisation de l'air. Les résultats obtenus avec les sources de rayons gamma (les croix sur la figure) sont indistinguables de ceux qui utilisent le faisceau d'électrons."

Lors des précédentes expériences SKY réalisées par Svensmark et son équipe au DTU de Copenhague, les radiations cosmiques étaient simulées par des radiations gamma. Svensmark et ses collègues ont observé que les rayons gamma contribuaient à la nucléation des aérosols. Les critiques de ces expériences ont évidemment porté sur la nature de la source ionisante utilisée par Svensmark et al.
Au cours de ces nouvelles expériences qui utilisent des électrons énergétiques issus de l'accélérateur ASTRID, la ressemblance avec les rayons cosmiques naturels est nettement plus proche. Les chercheurs de AArhus et de Sheffield ont également utilisé une source de rayons gamma issus d'une source sodium-22. Ils ont obtenu des résultats pratiquement indiscernables de ceux qui étaient observés avec le faisceau d'électrons ce qui montre que le processus est peu sensible à la nature de la source ionisante.

Ces résultats et ces observations, obtenus indépendamment du projet CLOUD du CERN, sont évidemment encourageants en ce sens qu'ils confirment et étendent les résultats obtenus en 2006 au cours de l'expérience SKY, par Svensmark et ses collègues. Cependant, le projet CLOUD demeure indispensable parce que les performances des sources d'ionisation et, surtout, la taille de la chambre d'expérience d'AArhus ne permettent pas de générer des clusters d'aérosols de taille suffisante.
Rappelons que la chambre d'ionisation de CLOUD fait quelques 26000 litres tandis que celle d'AArhus ne fait que 50 litres.
D'autre part, la quantification et la modélisation de ces expériences demeurent des objectifs incontournables pour que la théorie ou "l'hypothèse Svensmark" devienne une réalité et qu'elle soit acceptée comme une réalité scientifique.

Ainsi va la Science et c'est très bien ainsi.

3) Voici quelques compléments pour ceux qui désirent en savoir un peu plus sur les développements récents de cette passionnante affaire qui constitue un bel exemple de la "méthode scientifique" :

Un article, sur ce sujet, de l'association de scientifiques britanniques "The Scientific Alliance". Cet article est intitulé "Est-il temps de remettre en question nos connaissances acquises sur le changement climatique". C'est un texte intéressant qui replace ces expériences dans le contexte du réchauffement climatique tel que prôné par le GIEC.

Un texte de Roy Spencer, encore sceptique, il y a peu, sur ces processus. Son texte commence ainsi : "Bien que j'ai été sceptique de la théorie des rayons cosmiques de Svensmark jusqu'à présent, il semble que les éléments de preuve deviennent trop forts pour que je les ignore."

Un texte de Physics World (IOP). A noter que certains commentateurs du forum ne semblent pas avoir lu (ou compris) les articles de Svensmark...

Des compléments de Nigel Calder sur l'histoire des différentes étapes de cette recherche.

______________________________

Stay tuned !
Encore un peu de patience !

 

06 Septembre 2011 : CLOUD : Un article préliminaire de l'équipe internationale (63 chercheurs, appartenant à 17 institutions internationales) qui travaille sur le projet CLOUD au CERN vient de paraître sous la forme d'une Lettre dans la revue Nature sous le titre :

"Le rôle de l'acide sulfurique, de l'ammoniaque et des rayons cosmiques galactiques dans la nucléation des aérosols atmosphériques".

naturecloud4

Cet article qui n'est en réalité qu'un article préliminaire, date de Sept 2010. Il était très attendu par une grande partie de la communauté qui s'intéresse au climat.

Il apporte une confirmation éclatante des fondements même de la théorie dite de Svensmark et al, en ce sens qu'il confirme, de manière indubitable et quantifiée, que la nucléation des germes propres à fabriquer les nuages, du moins ceux qui ont été utilisés dans l'expérience, est largement amplifiée par les rayons cosmiques.
Par contre, il montre aussi que les idées actuelles sur la nature même des vapeurs nucléantes, notamment dans la basse troposphère, utilisées par les modèles climatiques, sont entièrement à revoir.
Bref, il reste à identifier ces vapeurs nucléantes inconnues (peut-être d'origine organique/biologique ?) qui semblent jouer un rôle absolument majoritaire et à étudier leur nucléation (avec et sans rayons cosmiques), pour conclure.

Autrement dit, si ces chercheurs ont prouvé ou confirmé que les rayons cosmiques jouent un rôle amplificateur puissant dans les nucléations, il apparaît aussi que l'identité des vapeurs nucléantes essentielles dans la basse troposphère est encore inconnue contrairement à ce que tout le monde pensait.
Il en va souvent ainsi en recherche expérimentale : Si on trouve ce que l'on cherche on découvre aussi beaucoup de questions.

Enrico Fermi disait à ses étudiants : "Il y a deux possibilités ! Si les résultats confirment votre hypothèse, alors vous avez fait une mesure. Si le résultat est contraire à l'hypothèse, alors vous avez fait une découverte.".

Ce n'est donc que le début, certes très prometteur, de cette passionnante histoire qui relève, cette fois-ci, de la véritable recherche scientifique et non pas des supputations issues de modèles incertains.

cloudnature3

Ci-contre un fac-similé de la première page de l'article de Nature qui donne le titre, la liste complète des auteurs ainsi que leurs affiliations.

On y voit que l'article a été soumis le 9 Septembre 2010, accepté le 24 Juin 2011 et publié le 24 Août 2011, c'est à dire près d'un an après sa soumission ce qui peut sembler passablement long.

On retrouve dans liste des affiliations, des institutions Allemande (2), Portugaise, du Royaume Uni, Finlandaise (4), Autrichienne (2), Suisse, Italienne, Américaine (USA) (3), et Russe.
Selon Jasper Kirkby, cette liste sera complétée prochainement par l'adjonction de deux instituts supplémentaires ce qui portera la liste à 19 institutions participantes à ce projet CLOUD.

La France est, et restera, absente de cette coopération internationale.

 

 

 

cloud2010

Beaucoup de choses ont été écrites au sujet de la signification du contenu de cet article.

Certains, bien entendu, et il est inutile de préciser qu'il s'agit des adeptes habituels du GIEC, scientifiques ou non, ont cherché à minimiser ces résultats de CLOUD de manière plus ou moins transparente voire, parfois, un peu ridicule. D'autres, du côté opposé, ont fait le contraire.

Pour ma part, je pense qu'il faut rester dans la ligne des (multiples) communiqués de presse du
CERN à ce sujet. Il est clair que, compte tenu de sa réputation de sérieux et de sa situation actuelle, le CERN n'a certainement pas intérêt à broder sur les résultats de ses observations qui - je le rappelle - sont encore des observations préliminaires.

Au vu des surprenantes injonctions du Directeur du CERN de limiter les communiqués et les articles aux observations et d'éviter les interprétations, il est certain que le CERN et, a fortiori l'article de Nature, n'en ont pas rajouté. Bien au contraire.
Disons que nous disposons certainement de la version la plus "soft" ou "low key" des observations effectuées à Genève, ce qui, à mon avis, en renforce l'intérêt.

Quoiqu'il en soit, le contenu des communiqués du CERN me semble amplement suffisant pour situer les avancées remarquables, tout comme les déconvenues sur ce que les modélisateurs du climat tenaient pour certain, et aussi pour envisager les questions fondamentales auxquelles il faudra répondre, sans tarder.

Par contre, on ne peut que s'interroger sur certains aspects, de fond et de forme, de l'article publié dans Nature. C'est ce que nous ferons un peu plus bas.

1) Les communiqués du CERN et la conclusion de l'article de Nature

Voici donc, pour commencer, une traduction aussi fidèle que possible du communiqué de presse officiel du CERN, publié le jour même de la parution de l'article dans Nature.

(ci-dessous, caractères engraissés par l'auteur de PU)

L'expérience CLOUD du CERN fournit des informations sans précédent sur la formation des nuages

Genève, le 25 Août 2011. Dans un article de ce jour de la revue Nature, les premiers résultats de l'expérience CLOUD du CERN ont été publiés. L'expérience CLOUD a été conçue pour étudier les effets des rayons cosmiques sur la formation des aérosols atmosphériques - les petites particules solides ou liquides suspendues dans l'atmosphère - dans des conditions contrôlées en laboratoire. On pense que les aérosols atmosphériques sont, dans une grande proportion, à l'origine des germes qui conduisent à la formation des gouttelettes d'eau. La compréhension des aérosols atmosphériques est donc importante pour la compréhension du climat.

Les résultats de l'expérience CLOUD montrent que les vapeurs à l'état de trace dont on supposait jusqu'à présent qu'elles rendaient compte de la formation des aérosols dans la basse atmosphère ne peuvent expliquer qu'une faible fraction de la production observée des aérosols atmosphériques. Les résultats montrent aussi que l'ionisation résultant des rayons cosmiques augmente de manière significative la formation des aérosols. Des mesures précises telles que celles qui sont rapportées sont importantes en ce qu'elles permettront d'obtenir une compréhension quantitative de la formation des nuages. Elles contribueront à une meilleure prise en compte des effets des nuages dans les modèles du climat.

“Ces nouveaux résultats de CLOUD sont importants parce que nous avons fait un grand nombre d'observations inédites sur quelques processus atmosphériques très importants", a déclaré le porte-parole de l'expérience, Jasper Kirkby. "Nous avons trouvé que les rayons cosmiques accroissent les formations des particules aérosols de manière significative dans la moyenne troposphère et au dessus. Ces aérosols peuvent éventuellement grossir jusqu'à devenir des germes pour les nuages. Cependant, nous avons trouvé que les vapeurs dont on pensait auparavant qu'elles rendaient compte de la formation de tous les aérosols de la basse stratosphère, ne peuvent rendre compte que d'une petite fraction de ces observations - même en faisant intervenir l'amplification due aux rayons cosmiques."

Les aérosols atmosphériques jouent un rôle important pour le climat. Les aérosols peuvent réfléchir la lumière du soleil et produire des gouttelettes d'eau. De ce fait, des aérosols additionnels pourraient rendre les nuages plus brillants (NdT : c'est à dire plus réfléchissants) et augmenter leur durée de vie. Au vu des estimations actuelles, environ la moitié de toutes les gouttelettes d'eau se forme par l'agrégation de molécules qui sont présentes dans l'atmosphère en très petites quantités. Certains de ces agrégats embryonnaires deviennent finalement assez gros pour constituer des germes pour la formation des gouttelettes d'eau. Des traces d'acide sulfurique et de vapeurs d'ammoniaque sont supposées jouer un rôle important et sont utilisées dans les modèles de l'atmosphère, mais le mécanisme et la vitesse avec laquelle elles forment des agrégats avec les molécules d'eau, sont restés mal connus jusqu'à présent.

Les résultats de CLOUD montrent qu'à une altitude de quelques kilomètres, l'acide sulfurique et la vapeur d'eau peuvent former rapidement des agrégats et que les rayons cosmiques augmentent le taux de formation d'un facteur 2 à 10, ou plus. Cependant, dans la plus basse couche de l'atmosphère, c'est à dire jusqu'à environ un kilomètre de la surface de la terre, les résultats de CLOUD montrent que des vapeurs additionnelles telles que d'ammoniaque doivent intervenir. De manière cruciale, cependant, les résultats de CLOUD montrent que l'acide sulfurique ainsi que l'eau et l'ammoniaque, seuls - même avec l'amplification des rayons cosmiques - ne sont pas suffisants pour expliquer la formation des aérosols observée. Ainsi des vapeurs additionnelles doivent être impliquées et la recherche de leur identité sera la prochaine étape de CLOUD.

“Cela a été une grande surprise pour nous de trouver que la formation des aérosols dans la basse atmosphère n'est pas due à l'acide sulfurique, à la vapeur d'eau et à l'ammoniaque seuls " a déclaré Kirkby. " Ils est désormais d'une importance vitale de découvrir quelles sont ces vapeurs additionnelles qui sont impliquées et si elles sont d'origine naturelle ou d'origine humaine, et aussi de découvrir la manière dont elles influent sur les nuages. Ce sera notre prochain travail."

L'expérience CL.OUD consiste à utiliser une chambre ultramoderne dans laquelle les conditions atmosphériques peuvent être simulées avec une grande précision et dans des conditions parfaitement contrôlées, en incluant des concentrations de vapeur à l'état de trace qui pilotent la formation des aérosols. Un faisceau de particules issu de l'Accélérateur Synchrotron à Protons fournit une source artificielle et ajustable de radiation cosmique.

Un compte rendu un peu plus détaillé est fourni par le CERN/CLOUD sous ce lien (pdf).
Entre autres, on peut y lire des précisions qui ne figurent pas dans le communiqué de presse cité ci-dessus.

"CLOUD a effectué plusieurs découvertes importantes. Premièrement, nous avons montré que la plupart des vapeurs nucléantes probables, telles que l'acide sulfurique, l'acide sulfurique et l'ammoniaque, ne peuvent rendre contre des nucléations qui sont observées dans la basse atmosphère. Les nucléations observées dans la chambre d'expérience se produisent avec des taux de seulement un dixième à un millième du taux observé dans la basse atmosphère. En se basant sur les premiers résultats de CLOUD, il est clair que le traitement de la formation des aérosols dans les modèles climatiques devra être sérieusement révisé, puisque tous les modèles supposent que les nucléations résultent seulement de ces vapeurs et de l'eau. Il est à présent urgent d'identifier les vapeurs nucléantes additionnelles et de savoir si elles sont d'origine naturelle ou humaine.

Deuxièmement, nous avons trouvé que les taux naturels d'ionisation atmosphérique, résultant des rayons cosmiques, peuvent amplifier la nucléation dans les conditions de notre travail (NdT : C'est à dire uniquement avec des traces d'acide sulfurique et d'ammoniaque) d'un facteur pouvant aller jusqu'à 10. L'amplification par les ions est particulièrement prononcée aux températures froides de la moyenne troposphère et au dessus, où CLOUD a trouvé que l'acide sulfurique et la vapeur d'eau peuvent nucléer sans l'addition de vapeurs additionnelles.
Ce résultat laisse la porte ouverte à la possibilité que les rayons cosmiques peuvent influer sur le climat. Cependant, il est prématuré de conclure que les rayons cosmiques ont une influence significative sur le climat tant que les vapeurs nucléantes additionnelles n'ont pas été identifiées, leur taux d'amplification par les ions ait été mesuré et que leur effet final sur les nuages ait été confirmé."

De même, la conclusion de l'article de Nature (accès payant) apporte quelques explications supplémentaires concernant les nucléations assistées par les rayons cosmiques (page 432 de l'article)

" L'ionisation par les GCR (Rayons Cosmiques Galactiques) au niveau du sol accroît de manière substantielle le taux de nucléation des particules d'acide sulfurique et d'acide sulfurique-ammoniaque d'un facteur compris entre 2x et 10x ou plus, tant que le taux de nucléation se trouve en dessous du taux de production ion-paires limitatif. Bien que nous n'ayons pas encore dupliqué les concentrations ou les complexités des vapeurs organiques atmosphériques, nous trouvons que l'augmentation assistée par les ions (NdT: C'est à dire par les rayonnement ionisants tels que les rayons cosmiques) se produit à toutes les températures, à n'importe quel taux d'humidité et pour n'importe quelle composition des agrégats observés jusqu'à maintenant. La nucléation assistée par les ions se manifestera en générant une production constante de nouvelles particules qu'il est difficile d'isoler dans les conditions de l'atmosphère à cause des autres sources de variabilité mais, néanmoins, elle est active et pourrait être très importante quand elle est moyennée sur la troposphère. Cependant la fraction de ces particules nouvellement nucléées qui grossissent jusqu'à une taille suffisante pour ensemencer les gouttelettes des nuages, tout comme le rôle des vapeurs organiques dans la nucléation et le processus de croissance, demeurent des questions ouvertes du point de vue expérimental. Ce sont des découvertes importantes pour le lien potentiel entre les rayons cosmiques et les nuages."

Cependant, si le contenu de l'article lui-même ainsi que les explications des différents communiqués du CERN sont relativement transparents, un lecteur averti ne manquera pas de s'étonner de la présentation matérielle de l'article de Nature et notamment d'un certain nombre de choix matériels effectués par les rédacteurs de ce document.

Vu la remarquablement longue durée du processus du peer-review (du 9 Sept 2010 au 24 Juin 2011 !), il est probable que les "négociations" entre les referees de Nature et les auteurs ont été assez tendues et les aller-retours nombreux, sauf mesures dilatoires toujours possibles. Finalement, il faut être conscients du fait que l'article publié dans Nature, aussi bien dans sa forme que dans son contenu, résulte d'un compromis (probablement délicat) entres les auteurs et les referees (inconnus) de Nature.

De fait, le contenu et la forme de cette publication posent quelques questions. En voici quelques-unes, parmi d'autres, telles que je les ai perçues.:

2) Quelques sujets d'étonnement à propos de cet article de Nature

A) Voici deux graphes rapportés dans les annexes de l'article de Nature dont on peut s'étonner qu'ils ne figurent pas directement dans le corps de l'article tant il sont spectaculaires et surtout éclairants sur l'efficacité du rayonnement cosmique :

cloud2Source: Fig. S2c du texte complémentaire de l'article de Nature de J. Kirkby et al., Nature, 476, 429-433, © Nature 2011

Le graphe ci-contre n'apparaît pas directement dans l'article de Nature. Il est rejeté dans le "online supplementary material", c'est à dire dans les annexes que les auteurs d'un article dans Nature peuvent rédiger dans le but de compléter et de soutenir les thèses défendues dans l'article original.

Il faut être conscient que les articles de la revue Nature sont de format très limité. Il était certainement très difficile, voire presqu'impossible, de condenser dans un format aussi réduit, les nombreux résultats importants obtenus par une équipe de 63 chercheurs qui travaillaient sur les différentes facettes de ce projet. Les auteurs ont donc fait usage de la possibilité qui leur était offerte de rédiger une annexe en y incluant quelques graphiques tels que la Figure S2 (ci-contre) et la Figure S4 (ci-dessous)

Ce graphe (ci-dessus à droite) est particulièrement spectaculaire en ce qu'il montre de manière indubitable l'effet amplificateur considérable du rayonnement cosmique, naturel ou induit, sur la nucléation des noyaux de condensation qui peuvent croître et ensemencer les nuages dans l'atmosphère. Voici la chronologie de l'expérience qui a donnée naissance à ce graphe (suivre l'axe des abscisses) :

"A 03h45 (du matin) lors d'une expérience CLOUD du CERN de Genève, une lumière ultraviolette a commencé à créer des molécules dans la chambre d'expérience qui contient un mélange qui imite approximativement le contenu de l'atmosphère. Dans ce graphique Jn indique la phase neutre de l'expérience durant laquelle on a retiré, à l'aide d'un champ électrique convenable les ions et les agrégats moléculaires. A 04h33, les opérateurs de CLOUD ont stoppé le champ électrique éliminateur et ont permis aux Rayons Cosmiques Galactiques naturels (Jgcr) de pénétrer dans la chambre d'expérience, venant du toit du bâtiment du CERN, donnant ainsi lieu à un taux d'enrichissement en agrégats plus rapide.
A 04h58, les opérateurs ont ouvert la porte aux particules pions (Jch) issues de l'accélérateur, lesquels sont équivalents aux rayons cosmiques. Le taux de production des agrégats à considérablement augmenté démontrant ainsi l'effet des rayons cosmiques sur la création et la croissance des agrégats."

Remarquez que les tailles des agrégats suivis dans cette expérience sont très petites (autour de 2nm). Je vous rappelle que les expériences préliminaires utilisaient des détecteurs peu sélectifs (limités à 8nm) qui permettaient d'observer des agrégats de plus grande taille. Les détecteurs utilisés ici, beaucoup plus fins, permettent de suivre pratiquement l'effet des rayons cosmiques sur la naissance des agrégats, mais il est évident que les agrégats atteignent des tailles nettement plus importantes au cours du temps, comme on le voit ci-dessous.


cloudnature4

Source Fig S4 (du texte complémentaire de l'article de Nature) accompagnée de sa légende traduite en français :

"Un exemple d'événement de nucléation : Un exemple d'observation de nucléation (sans addition d'ammoniaque) montrant la croissance en fonction du temps
a) des particules chargées négativement
b) des particules chargées positivement,
observée avec le NAIS.
La chronologie est la suivante : à 5h00, le faisceau Pion (NdT : simulant les rayons cosmiques) est mis en route. A 5h15, les UV (NdT : simulant le soleil) sont activés. A 7h00, le faisceau Pion et les UV sont stoppés. (la nucléation de nouvelles particules est éteinte par l'appauvrissement d'H2SO4 du fait de la forte population d'aérosols). La nucléation chargée est observée seulement pour les particules chargées négativement. La diffusion des deux types de charges est seulement observée pour les aérosols de tailles supérieures à environ 10 nanomètres."

A noter, pour la petite histoire, que les chercheurs du CERN évoquent cette visualisation de la nucléation en parlant de "banane".

Notez que, lors de cette expérience, des agrégats de taille égale ou supérieure (car le haut de la figure est coupé) à 40 nm ont été observés. Comme on le voit, ceux-ci persistent pendant plusieurs heures après l'excitation par le faisceau Pion et les UV et c'est leur coalescence éventuelle qui donne lieu aux noyaux de condensation CCN aptes à créer des nuages.
A ce sujet, voir, ci-dessous, ce qu'en dit Svensmark lors de son interview du 02 Septembre.

Il est également étonnant que cette image S4, très parlante, tout comme celle de la Figure S2, n'ait pas été incorporée directement dans l'article de Nature mais seulement dans les "compléments" associés à l'article (que seuls les spécialistes intéressés lisent en détail).

B) On peut aussi se demander pourquoi Svensmark et des ses collègues ne figurent pas dans la liste des auteurs de cet article dans Nature, alors qu'ils ont joué un rôle décisif dans la présentation du projet CLOUD (Ils figuraient dans la liste des collaborateurs initiaux)...

Henrik Svensmark qui est considéré comme le "père" de la théorie sous-jacente à ces expériences CLOUD, n'a pas co-signé cette Lettre à Nature. Pas plus que ses collègues proches de l'Université d'Aarhus et de Copenhague, d'ailleurs. Il n'y a aucun membre des centres de recherches Danois dans la liste des auteurs.
D'une part, Svensmark et ses collègues directs ont effectivement participé à la rédaction du projet (commencé en 2000, accepté en 2006). Ils faisaient partie du projet lors de sa création en 2006 comme on le voit sur ce billet de présentation rédigé en 2006-2007.
Il est cependant possible qu'ils n'aient pas participé directement à l'expérience publiée qui mobilisait surtout des spécialistes physico-chimistes des aérosols de l'atmosphère. Une "dream team" "Une équipe de rêve", comme dit Kirkby.

Cependant, on peut quand même relever plusieurs autres anomalies. Il faut se souvenir que Svensmark et ses collègues avaient publié dès 2006 les résultats d'une expérience préliminaire dans le même esprit que CLOUD, baptisée SKY. SKY trouvait des résultats analogues à ceux de CLOUD, cinq ans auparavant, mais, évidemment, dans des conditions beaucoup moins bien contrôlées que CLOUD. Les résultats de cette expérience SKY publiés dans le Proceeding of the Royal Society ne sont même pas cités dans l'article de Nature. Guère plus d'ailleurs qu'aucun des nombreux articles publiés récemment par Svensmark et ses collègues. La seule citation du travail de Svensmark et de ses collègues est celle d'un article plus ou moins obsolète (mais fondateur) qui date de ...1997!

D'autre part et cela n'est sans doute pas anodin non plus, Svensmark et ses collègues d'Aarhus ont publié tout récemment les résultats d'une expérience effectuée dans l'esprit de celle de CLOUD mais de plus petite taille et qui utilise des électrons comme particules ionisantes ou des rayons gammas au lieu des pions (protons) du CERN. Cette expérience réalisée dans les laboratoires de l'Université d'Aahrus retrouve, une fois de plus, un effet marqué des rayons ionisants sur les nucléations des embryons atmosphériques. Les chercheurs qui ont travaillé sur cette expérience d'Aarhus en concluaient qu'il n'était nullement besoin d'une expérience coûteuse et à très grande échelle pour mettre en évidence et étudier ces phénomènes qui se reproduisent à l'identique pour des rayonnements ionisants variés. Ainsi, pouvait-on le comprendre comme une sorte de critique à peine voilée du vaste (et lent) projet CLOUD. L'article du JGR relatif à l'expérience d'Aarhus n'est pas non plus cité dans la Lettre à Nature. Il est pourtant paru bien avant que le processus de relecture de la Lettre à Nature soit terminé et il était donc loisible de l'ajouter, quitte à en supprimer une autre, moins appropriée, pour respecter les contraintes liées au nombre des caractères publiables dans un article de Nature.

Tout cela est un peu étonnant. En l'absence d'informations supplémentaires sur ce sujet, notamment de la part de Henrik Svensmark, on ne peut que rester dans le domaine des spéculations sur les relations actuelles entre Kirkby et al d'une part et Svensmark et al, d'autre part.
Il est également possible que Svensmark et ses collègues Danois n'aient pas apprécié les déclarations du Président du CERN qui avait recommandé à ses collègues de CLOUD de ne publier que des résultats en s'abstenant d'avancer des théories ou des interprétations.
Ce geste très inhabituel dans la communauté scientifique a pu être mal perçu par certains chercheurs qui ont dès lors, purement et simplement, refusé de publier dans ces conditions. De même, Svensmark et ses collègues n'ont peut-être pas été d'accord avec leurs collègues pour publier leurs résultats dans la revue Nature dont tout le monde connaît les orientations en matière de climatologie. Dès lors, Svensmark savait que l'article publié ne pouvait qu'être "atténué" pour parvenir à complaire à la politique éditoriale (actuelle) du journal.

Pour savoir ce que Svensmark pense de la situation actuelle, voir cet interview de Henrik Svensmark par David Whitehouse du 02 Sept. 2011.
Dans cet interview, Svensmark se limite strictement à des considérations scientifiques. Le texte complet traduit en français par un lecteur que je remercie, est disponible en pdf.
En voici un extrait significatif, relatif à l'abondance des éléments susceptibles de former des noyaux de condensation sous l'action des rayons cosmiques ainsi que sur la taille des agrégats observés dans l'expérience CLOUD :

"Il y a des quantités de soufre issues des phytoplanctons. Au dessus des océans, la formation des nuages est limitée par le flux rentrant des rayons cosmiques et non pas par l'abondance de sulfures. Pour ce qui est de l'ammoniaque, l'effet énorme découvert par CLOUD est très intéressant. Mais comme ils n'ont besoin que d'une molécule d'ammoniaque sur 30 milliards dans l'air et comme les émissions des océans incluent une estimation que quelques 8 Gigatonnes d'ammoniaque, je ne vois pas ici de limitation (les émissions d'ammoniaque à partir des continents sont bien supérieures)".

Plus loin, au sujet de la taille des agrégats observés par CLOUD :

"Les agrégats fabriqués par CLOUD vont, dans pratiquement tous les cas, grossir pour atteindre la taille des CCN (Noyaux de condensation des nuages). Voyez, par exemple, les Proceedings of IPAC'10, Kyota, Japan (pages 4474-4478) (voir ci-dessus) où les particules dans la chambre de CLOUD ont grossi jusqu'à 70nm qui correspond à la taille requise des CCN. Notre propre expérience a pu faire grossir des particules jusqu'à 40nm ce qui est proche des CCN de taille environ 50nm."

Ce qui est à mettre en relation avec le graphe S4 du "supplemenary material" de l'article de Nature; décrit ci-dessus

3) Brèves conclusions sur les comptes-rendus du CERN et sur l'article de Nature :

  • Les rayons ionisants (les rayons cosmiques) issus du cosmos constituent un moteur particulièrement efficace pour la nucléation des aérosols, au moins pour les molécules d'acide sulfurique et d'ammoniaque, seules prises en compte dans ce travail .
    Ces observations constituent donc la confirmation (tant) attendue des prémisses fondamentaux de la théorie de Svensmark et al. De fait, ces observations viennent aussi confirmer les observations antérieures des chercheurs Danois.

  • Les observations révèlent aussi quelques surprises de taille concernant les nucléations beaucoup moins actives que prévu dans la basse stratosphère, avec ou sans effet des rayons cosmiques et toujours pour les molécules concernées par ce travail (H2SO4 et NH3) qui, constituaient, jusqu'à présent le socle des modélisation du GIEC.

  • Ainsi, et au moins pour la basse troposphère, les modèles actuellement utilisés, notamment par le GIEC, sont à revoir en profondeur. Les aérosols (sulfurique et ammoniaque) soupçonnés jusqu'à présent de constituer l'essentiel des générateurs de nucléation propres à la condensation de la vapeur d'eau en nuages, ne jouent qu'un effet minime. Il en existe certainement d'autres, beaucoup plus actifs, sans doute d'origine organique/biologique (par exemples rejetés par les biotas océaniques ou la végétation), qu'il faut maintenant identifier et étudier en détail. Avec et sans rayonnement cosmique.

  • Tant que les molécules responsables de la nucléation dans la basse troposphère n'auront pas été identifiées et étudiées dans la chambre d'expérience de CLOUD, toutes les estimations proposées ici ou là (par exemple sur Realclimate), à partir des résultats préliminaires de CLOUD ne sont que de pures spéculations.

  • Par contre, les multiples traces laissées par les rayons cosmiques au cours des âges dans les indicateurs climatiques (proxys 14C ou 10Be par exemple) relevées dans les stalagmites, les débris entraînés par les glaces, les cernes des arbres, les coraux etc. constituent des évidences incontournables de l'effet des rayons cosmiques sur le climat.

Quelques compléments utiles :

Des détails techniques sur CLOUD publiés par le CERN.
Une vidéo du CERN dans laquelle Jasper Kirkby explique brièvement les résultats rapportés dans l'article. A voir (pour les anglophones. Pour les autres, les orateurs s'expriment lentement et de manière très compréhensible.)

_____________________________________________________________________________________________________
D'autres analyses du même article, parues online :

Nature News : "La formation des nuages est peut-être liée aux rayons cosmiques. Une expérience teste la connexion entre le changement climatique et le bombardement radiatif de l'atmosphère."

Physics World (site de l'IOP : Institute of Physics UK) : "Test du lien rayons cosmiques et climat."

The Register (UK) : " CERN : Les modèles du climat devront être profondément révisés."

Calder's Update : "L'expérience du CERN confirme l'effet des rayons cosmiques". Nigel Calder, ancien éditeur en chef de New Scientist, est le co-auteur du livre " The Chillling Stars" écrit avec Henrik Svensmark.

Nir Shaviv : The CLOUD is clearing. "Le nuage (jeu de mots) s'éclaircit". Nir Shaviv est un brillant jeune astrophysicien Israélien qui a contribué aux fondations de la cosmoclimatologie, notamment en examinant les données du passé éloigné et en mettant en évidence un effet amplificateur de l'action du soleil à partir de données calorimétriques. A titre anecdotique, notez que Nir Shaviv a signalé un effet spectaculaire d'ensemencement des nuages par les particules polluantes rejetées par les navires.

The Wall Street Journal : "L'autre théorie du climat." avec quelques réflexions intéressantes de Svensmark.

David Whitehouse : "Quelques réflexions sur les compte-rendus des résultats de CLOUD dans les médias (anglophones)".
________________________________________________________________________________________________________

Je laisserai la conclusion de ce billet à Henrik Svensmark qui, à la différence de beaucoup, a prononcé, lors de son interview du 02 septembre, une phrase qui me semble frappée au coin du bon sens scientifique :

"Bien sûr, il y a encore beaucoup de choses à explorer mais je pense que l'hypothèse des rayons cosmiques ensemençant les nuages converge vers la réalité."

A suivre. Bien sûr. Il se dit que des résultats intéressants concernant, cette fois-ci, des molécules organiques, sont en voie de publication.

Stay tuned !

__________________________________________________________________________________________________________

PS : Interviewé par Atlantico (6 Sept. 2011), dans un article intitulé " Réchauffement climatique : les climato sceptiques contre-attaquent !", mon collègue, Vincent Courtillot, exprime un point de vue sensiblement identique à celui de ce billet, sur la signification réelle des ces premiers résultats de CLOUD.
Quant aux autres médias francophones disposant des services de journalistes scientifiques, on attend toujours des nouvelles sur ces publications de CLOUD. Il est vrai qu'il est sans doute difficile d'évoquer les résultats de expérience internationale CLOUD du CERN de Genève, après l'avoir totalement passée sous silence depuis près de 5 ans (ou depuis près de 11 ans, c'est à dire depuis la soumission du projet).

 

 

 

Mise à jour 2007 :

Si vous lisez l'anglais et que vous avez une bonne formation scientifique, vous pourrez trouver à cette adresse un document d'archive (malheureusement sans les images) qui était un cours pour les étudiants du département des sciences de l'environnement de l'Université de Leeds, UK, remarquablement honnête, avec encore plus de détails techniques, sur tout ce qui concerne le débat actuel sur le réchauffement climatique. Vous trouverez ici une troisième analyse (en anglais) récente et assez complète sur les effets des cycles solaires sur les températures terrestres.
Mise à jour du 27 Nov. 2009 : Un lecteur attentif que je remercie me signale que l'excellent cours de l'Université de Leeds que je vous recommandais ci-dessus,a disparu. Nous ne savons pas pourquoi : Départ de l'enseignant ? Rétroaction des GIEC freaks ? Je rappelle au passage que l'Université de Leeds participe à l'expérience CLOUD mentionnée ci-dessus, ce qui n'est pas le cas de nos universités françaises.
Mise à jour du 6 Février 2010 : Un autre lecteur attentif que je remercie a retrouvé le cours de l'Université de Leedsen question . Vous le trouverez ici : http://web.archive.org/web/20040302034940/http://www.env.leeds.ac.uk/envi2150/oldnotes/ . C'est le lien indiqué ci-dessus sous forme tinyurl..

_

 

Les "tenants de l'effet de serre" contre les "solaristes" :

En Juin 2007, deux articles viennent de paraître coup sur coup dans les Proc. Royal Society et dans Nature ( "No solar hiding place for greenhouse sceptics" = "Pas de refuge derrrière le soleil pour les sceptiques de l'effet de serre" de Quirin Shiermeier ) qui, selon les auteurs (Lockwood et Fröhlich), enfonceraient "the last nail in the coffin" comme disent les américains ( "le dernier clou dans le cercueil"), des tenants de la thèse des effets des cycles solaires sur la température terrestre. Leur argumentation repose que sur le fait que la température de la planète continue à augmenter lentement depuis 1985 (disent-ils) alors que le cycle solaire 23 (où nous trouvons actuellement) se trouve sur la fin de son activité. D'après la théorie des éruptions solaires, pensent les auteurs, nous devrions assister, au contraire, à une décroissance des températures. CQFD !

Compte tenu de la convergence d'un très grand nombre d'observations expérimentales (voir ci-dessus) accumulées au cours d'un grand nombre d'années années en divers points de la planète, qui militent en faveur de l'importance des cycles solaires, il n'est pas prudent de prendre les arguments des "réchauffistes de l'effet de serre" comme argent comptant même s'il exact de dire que la Terre devrait se refroidir incessamment si la théorie des cycles solaires s'avère confirmée. Voici quelques remarques qui devraient tempérer l'optimisme des alarmistes de l'effet de serre :

  • Tout d'abord les "solaristes" doivent se réjouir du fait que les tenants de l'effet de serre du CO2 n'aient apparemment trouvé aucune autre anomalie entre les mesures des températures terrestres et la durée des cycles solaires... que, justement, pendant les 20 dernières années ! Par contre, si vous avez lu le texte précédent, vous savez maintenant que cette corrélation existe depuis, au moins, des centaines ou des milliers de cycles solaires ! Et brusquement, elle cesserait d'exister depuis 20 ans ? Bizarre ! D'autre part, comme les rapports du GIEC n'ont jamais envisagé l'existence de ce lien de causalité entre les orages magnétiques des cycles solaires et la température, on s'étonne de ce revirement brutal d'attitude...: Ce lien n'existait pas, mais on se croit brusquement obligé d'essayer de démontrer qu'il est faux depuis seulement 20 ans ! Re- bizarre !
  • Le cycle solaire 23 n'a amorcé sa décrue qu'à partir de 1995-1997. En 1985 nous étions encore dans la croissance du cycle 21. Il est donc abusif de dire que la température aurait dû diminuer depuis 1985 (voir des graphiques ici). Tout au plus devrait-elle le faire depuis 1997, c'est à dire depuis près de 10 ans. Qu' a donc fait la température depuis 10 ans ?
  • TLTLa meilleure et la plus fiable mesure de température, presque réellement globale, de la planète que nous possédons provient des mesures dites RSS et notamment du canal TLT ( voir ici et ci-contre) des satellites qui examinent avec une grande précision la température de la basse troposphère ( de 0 à 5km d'altitude, c'est la partie de l'atmosphère qui est en contact avec le sol et les océans terrestres). La température ainsi mesurée, marque un palier horizontal très net, voire une décroissance depuis 2001 (je l'ai indiqué en rouge sur la courbe officielle ci-contre qui porte (en bleu) la droite de croissance de la température jusqu'en 1997 (avant El Niño)) , qui apparaît comme un grand pic sur ces graphique. Le palier ou la légère décroissance (2001-12 Juin 2007) sur une durée de 6 ans est exceptionnel depuis au moins 40 ans d'enregistrement de température. Notons que pendant cette durée, la proportion de CO2 n'a fait qu'augmenter. Cette page vous donnera les grands indicateurs du climat (actualisés), dont les températures.
  • Les mesures, aussi satellitaires (voir, par exemple, ici, tiré d'un article de Science) montrent un affaiblissement très net de l'ordre de 20% de la densité optique de l'atmosphère due aux aérosols présents dans l'atmosphère survenu depuis 1992 (après l'explosion du Pinatubo, survenu en 91) ) jusqu'à nos jours. Cette décroissance très nette de la proportion des aérosols peut engendrer un affaiblissement de l'influence des radiations cosmiques dues aux cycles solaires car ( voir ci-dessus) ce sont les aérosols (notamment le SO2) qui servent de catalyseur pour la fabrication des nuages terrestres par les radiations cosmiques. Diminuer les aérosols risque d'entraîner des sécheresses.
  • Deux chercheurs américains de l'université de Buffalo autour de Michael Stolz, ont publié un article en 2002, démontrant que les éruptions volcaniques (comme celle, gigantesque, du Pinatubo en 1991) peuvent provoquer un affaiblissement voire une inversion de l'effet des cycles solaires pendant une durée limitée. Voir un compte rendu de l'article ici.
  • Enfin, la théorie des effets des cycles solaires n'a jamais prétendu, non plus que les observations expérimentales, qu'il y avait une concordance parfaite et surtout instantanée entre l'effet des cycles solaires et la température terrestre. Pour vous en convaincre, remontez voir le graphique très instructif, de Al Pekarek en début de ce chapitre. Vous verrez que les tendances sont bien corrélées mais pas à un échelle de 10 ou 20 ans. Ainsi, par exemple, autour de 1900, il s'est produit une période d'environ 15 ans pendant laquelle la température augmentait constamment alors que la durée du cycle solaire diminuait... comme maintenant, peut-être. L'effet inverse existe aussi. En bref, il semble y avoir un certain retard entre la durée des cycles solaires et la température terrestre, d'environ 15 ans autant que nous puissions en juger. Sans doute cela est-il lié à l'énorme inertie que présente la masse de la Terre des océans vis à vis des changements thermiques...

En conclusion sur cette affaire des 10 (et non pas 20 dernières années), il est encore trop tôt pour se prononcer. Comme je l'ai dit plusieurs fois, attendons encore un peu et nous saurons qui a raison ! Mais il serait bien étonnant que cette frappante corrélation température-durée des cycles solaires ait brutalement décidé d'abandonner la partie après alors qu'elle existait déjà au temps des pharaons (voir ci-dessus). Et ceci se produirait justement ces 10 ou 20 dernières années ?.. Un peu difficile à croire, vous ne trouvez pas ? Certains ont parié (et beaucoup d'argent ! voir par exemple ici cet intéressant témoignage d'un "repenti" de l'effet de serre) que les températures allaient diminuer dans les prochaines années... Allons, encore un peu de patience ! Nous verrons bientôt qui va gagner !

Octobre 2007 : Les solaristes Svensmark et Friis-Christensen répondent à l'article de Lockwood et Fröhlich en prolongeant les corrélations entre la courbe des température et celle des rayons cosmiques jusqu'en 2006 :
La corrélation est absolument stupéfiante !

On ne dispose actuellement que du preprint de l'article de Svensmark et Friis-Christensen. Nous ignorons encore dans quelle revue il sera publié, mais vous le trouverez ici en pdf. Son titre : "Sun still appears to be the main forcing agent" i.e. "le soleil est toujours le principal facteur (ndlr: du réchauffement climatique").
Plutôt qu'un long discours sur le contenu de l'article qui insiste surtout sur le choix des "bonnes" bases de données, notamment sur les rayonnements cosmiques que n'auraient pas utilisées Lockwood et Fröhlich (d'après Svensmark et Friis-Christensen), ainsi que quelques critiques acerbes sur la méthodologie du travail de Lockwood et Fröhlich, regardez le graphique suivant, ci-dessous à droite :

svensmark1

Cette étude couvre la période 1958-2006

En bleu, les courbes des températures globales de la basse troposphère telle qu'elle est donnée par les multiples études de radio-sondages. Cette courbe est réputée plus fiable que la courbe des températures terrestres qui est souvent "cannulée" par les problèmes de mesures et d'îlots urbains.

En rouge : les courbes qui donne la variation du taux de rayons cosmiques tels que mesurés, en continu, par les stations terrestres.

Le graphe du haut donne la superposition directe des courbes brutes de températures et d'intensité du rayonnement cosmique. On peut déjà apercevoir une excellente corrélation.

Le graphe du bas est obtenu en corrigeant les courbes de températures des effets liés aux aérosols éjectés par les volcans (par exemple pinatubo en 91), les effets des oscillations océaniques nord-atlantiques et El ninõ (par exemple en 98). Svensmark a aussi retranché une montée continue de 0,14°C/ décennie qui semble donc être un paramètre différent et indépendant des effets solaires. Ceci pourrait évidemment être lié à l'effet de serre de H2O et des autres gaz comme le CO2. N'oublions pas que les derniers cycles solaires étaient particulièrement intenses et que les océans se sont réchauffés. Bref, cette légère montée de la température, plus faible et sous-jacente aux effets solaires, représente sans doute l'énorme capacité calorifique de la masse (Terre+atmosphère avec ou sans effet de serre) face à la montée de l'intensité des cycles solaires, tels que nous avons pu les observer depuis quelques décennies. Mais je vous rappelle que les océans ont déjà commencé à se refroidir... Attendons nous donc à un refroidissement net du climat dans les années à venir... Et si vous regardez bien la courbe des températures, vous observerez que celles-ci n'augmentent plus depuis environ 10 ans. Nous sommes donc actuellement sur un plateau. Avant une descente ? Probablement, prévoient de nombreux climatologues. Mais patience !, l'avenir nous le dira...

En résumé : En l'absence de corrections (courbes du haut) , la corrélation (rayons cosmiques-soleil) est déjà évidente. Mais après correction des effets ponctuels,( courbes du bas) la corrélation devient absolument stupéfiante et ceci bien après 1980, contrairement à ce qu'affirmaient Lockwood et Fröhlich dans leur dernier article tant médiatisé ...

 

Mise à jour du 8 Juillet 2009 : Henrik Svensmark et son équipe, imperturbables, poursuivent sur leur lancée. En ce mois de juillet 2009, ils publient un nouvel article (actuellement sous presse dans GRL- Geophysical Research Letters) intitulé svensmark4


" Les décroissances des rayons cosmiques modifient les aérosols atmosphériques et les nuages". ("Cosmic rays decreases affect atmospheric aerosols and clouds").
En voici le résumé, traduit en français :

"Les éjections de masse de la couronne solaire sont détectées sur la Terre par les décroissances de Forbush des rayons cosmiques.
Nous trouvons que les nuages de basse altitude contiennent moins d'eau liquide à la suite d'un événement de Forbush et, pour les événements les plus prononcés, le contenu liquide de l'atmosphère océanique peut décroître jusqu'à 7%. Le contenu en eau des nuages mesuré par le SSM/I (détecteur spécial micro-onde/imageur) atteint un minimum environ 7 jours après le minimum de Forbush de rayons cosmiques, tout comme le font la fraction de nuages de basse altitude vue par le MODIS ( Spectro-radiomètre imageur à moyenne résolution) et par l'ISCCP (Projet international satellitaire d'étude des nuages). Une observation, menée en parallèle par le réseau robotisé chargé de l'étude des aérosols AERONET montre une chute dans l'abondance relative des particules aérosols fines qui, dans des circonstances normales, auraient pu évoluer en noyaux de condensation pour les nuages.
Ainsi, l'existence d'un lien entre le soleil, les rayons cosmiques, les aérosols et la quantité d'eau liquide contenue dans les nuages, est apparent à l'échelle du globe. "

Ci-dessous, la figure 1, très parlante, de leur article. En tiretés épais sont représentées les courbes indiquant la décroissance marquées des rayons cosmiques impactant notre planète, correspondant à la moyenne de cinq événements de Forbush qui sont survenus en 2003, 1/2005, 9/2005,2000, 1991. Pour chacune des différentes mesures (AERONET, SSM.I etc.), la ligne horizontale en pointillés représente la valeur moyenne enregistrée avant l'événement de Forbush. Les courbes en trait continu noir représentent les mesures disponibles dans les bases de données AERONET (aérosols) SSM/I (contenu en eau liquide des nuages), MODIS (fraction en eau liquide des nuages) et ISCCP (quantité de nuages détectés en IR) .

sven09

 

 

 

 

 

 

 

 

 

 

Quelques précisions semblent nécessaires pour pouvoir apprécier pleinement l'importance des résultats décrits par Svensmark et son équipe :

Comme le savent les lecteurs qui ont lu avec attention les textes précédents sur cette page, Henrik Svensmark et son équipe cherchent à établir un lien direct entre la variabilité solaire (résultant essentiellement des éruptions solaires), et la couverture nuageuse de la planète qui, à son tour, modifie le climat.
Je vous rappelle que le lien (actuellement en cours d'examen au CERN de Genève, projet CLOUD) proposé par Svensmark et al est le suivant :

Eruptions (taches) solaires -> Modification de la quantité de rayons ionisants impactant la planète -> Modification de la couverture nuageuse -> modification du climat.

Cette fois-ci, Svensmark et ses collègues se sont intéressés à une forme particulière d'éruption solaire (que je n'avais pas encore évoquée) qui s'appelle la CME (Coronal Mass Ejection). En gros, de tels événements qui se reproduisent une ou deux fois par an, autour du maximum d'activité solaire de chaque cycle de Schwabe, consistent en une sorte de synchronisation d'éruptions qui apparaissent simultanément sur la couronne solaire, à l'image de ce qui est visible cme sur la photo ci-contre (prise pendant une éclipse). C'est un phénomène d'une grande intensité, bien connu des radio-amateurs et des gestionnaires de satellites.

Cette sorte d'éruption géante qui équivaut à l'éjection par le soleil d'une masse de matière considérable, provoque une décroissance rapide et intense de la quantité de rayons cosmiques impactant notre planète, comme on le voit (courbes en tiretés gris) sur les figures précédentes.. Cette décroissance rapide qui apparaît comme un pic négatif pour les détecteurs de rayons cosmiques, est connue sous le nom d'événements (ou de décroissance) de Forbush du nom du chercheur (Scott E. Forbush) qui identifia le phénomène en 1937. L'explication de cette décroissance n'a pu être donnée qu'en 2000. Il s'agirait d'un nuage plasmatique fugitif, résultant du CME, qui écranterait brièvement la Terre vis à vis des rayons cosmiques galactiques.

Les événements de Forbush qui marquent une décroissance intense et rapide de la quantité de rayons ionisants incidents sur notre planète constituent un élément de test très précieux pour quiconque, comme H. Svensmark et ses collègues, veut observer directement les effets des rayons cosmiques sur l'ennuagement de la Terre.

Du coté de l'observation directe des taux d'ennuagement, des propriétés des nuages et des noyaux de condensation (aérosols), la recherche à fait beaucoup de progrès ces dernières années. Les chercheurs disposent maintenant de plusieurs systèmes d'observations, quasi permanents et qui sont, en général, gérés par des coopérations internationales.

AERONET : "Aerosol Robotic Network" est un réseau basé à Terre résultant d'une coopération internationale (NASA-CNR) rejoints par un grand nombre d'observateurs dépendant de multiples institutions réparties sur la planète. Le réseau se charge essentiellement de l'harmonisation des étalonnages, du traitement des données et de la distribution. AERONET mesure essentiellement l'AOD, c'est à dire la profondeur (ou la densité) optique des couches atmosphériques à différentes longueurs d'onde.

MODIS : Le " Moderate Resolution Imaging Spectrometer" équipe les satellites de la NASA, AQUA et TERRA. Ce système est essentiellement un système d'observation. Dans le cas présent et outre de nombreuses autres informations, MODIS indique la fraction d'eau liquide contenue dans les nuages (LWCF : Liquid Water Content Fraction) et ceci aussi bien au dessus des continents que des océans.

SSM/I : (de RSS) "The Special Sounder Microwave Imager" donne le contenu en eau liquide des nuages au dessus des océans. (CWC : cloud water content).

ISCCP : "The International Satellite Cloud Climate Project" fournit, des informations sur les caractéristiques de nuages à basse altitude (<3,2km) au dessus des océans, à l'aide de détecteurs infra-rouge installés sur des satellites.

Comme on le voit très bien sur la figure 1 de l'article de Svensmark et al reportée ci-dessus, les événements de Forbush les plus intenses sont suivis, à brève échéance (après quelques jours) d'un décrochement quasi homologue des quatre observables recensés dans cet article : MODIS, AERONET, SSM/I et ISCCP.

La corrélation (Événements de Forbush/ aérosols et nuages) est évidente et le lien de cause à effet est, sans doute, très difficilement discutable.

A noter également, comme le font remarquer Svensmark et al que les mesures AERONET indique que le taux de fines particules diminue en proportion de l'intensité des événements de Forbush et que le minimum est atteint au bout de 4 à 5 jours. Cette diminution du taux de particules fines précède donc de quelques heures à quelques jours les diminutions des taux et des quantités d'eau liquides mesurées par les autres sondes.
Ceci est conforme avec les modèles et les observations précédentes qui indiquent que les rayons cosmiques facilitent la formation d'aérosols sulfuriques (SO4
2- ) ultrafins (10 à 30nm) avec un délai de quelques heures.

Tout ceci ainsi que des observations complémentaires mentionnées dans cet article sont cohérents avec les modèles avancés par Svensmark et plusieurs autres groupes sur les mécanismes fondamentaux d'ennuagement.

Cet article constitue un progrès important dans notre compréhension des mécanismes (encore inconnus) qui président à la formation des nuages. Au vu de ces résultats, le rôle des rayons ionisants sur la formation des nuages et donc des éruptions solaires sur le climat, est difficilement contestable. C'est pourtant, cette hypothèse, avancée par Svensmark et al. dans les années 90, que R. Pachauri, le président du GIEC en 2007, avait qualifiée d' "extrêmement naïve et irresponsable"... Il fallait pouvoir le dire.

Hélas, comme à l'accoutumée, vous n'entendrez jamais parler de cet article et de ses conclusions dans la grande presse ni dans aucun des autres médias, non plus que dans les sites WEB ou les revues dont certains se prétendent cependant scientifiques...Pourquoi donc ?
Parce qu'il ne vas pas dans le "bon sens" . Il est pourtant publié par des chercheurs patentés appartenant à un Institut renommé dans une revue prestigieuse et revue par les pairs...

Mais, vous l'avez compris : Voilà qui constitue un élément de très bonne augure pour le projet CLOUD en cours d'installation au CERN de Genève que j'ai évoqué ci-dessus.

Note added in proof : Cet article de Svensmark et al fait écho à une observation résultant d'une coopération Russo-Brésilienne en 1995 (Institut Lebedev de Moscou et Université de Campinas). Cet article, publié dans le Nuovo Cimento ( 18, 3, Mai 1995) est intitulé :
"Rainfalls during Great Forbush decreases" :
"Pluies pendant les grands événements de Forbush" ( Yu. I. Stozhkov, J. Zullo jr. I. M. Martin, G. Q. Pellegrino, H. S. Pinto, G. A. Bazilevskaya, P. C. Bezerra, V. S. Makhmutov, N. S. Svirzevskyand A. Turtelli jr.).

Voici le résumé (source) :" Nous avons étudié les variations des quantités de pluies pendant les grandes décroissances de Forbush données par le détecteur de neutrons à basse latitude de Huancayo (47 événements entre 1956 et 1992). Les données de pluviométrie on été prises dans l'état de Sao Paulo et dans la région de l'Amazone au Brésil. De manière générale, les données provenant de plus de 50 stations météorologiques ont été utilisées pour chaque événement. Le principal résultat est le suivant : Durant les fortes décroissances du flux de rayons cosmiques dans l'atmosphère (grande décroissance de Forbush), la pluviométrie a diminué. Les variations de pluviométrie sont encore plus nettes pendant les saisons humides." (NDT (caractères engraissés du traducteur))

... ce qui est parfaitement conforme aux observations récentes de l'équipe Danoise.
Nous dira-t-on, une fois de plus, qu'il ne s'agit là que de simples coïncidences ?

 

12 Janvier 2011 : Encore une mise en évidence de la corrélation existant entre la couverture nuageuse terrestre et le flux des rayons cosmiques galactiques (GCR).
Comme nous le savions, La Terre se refroidit quand le soleil s'endort. Certains le re-découvrent et le confirment.

Alors que les climatologues proches du GIEC et leurs relais journalistiques orientés ne cessent de nous expliquer, urbi et orbi, que les faibles variations de l'irradiance solaire (0,1%) ne permettent pas d'expliquer le réchauffement climatique actuel, des articles fort documentés sur les interactions nettement plus subtiles qui existent entre l'activité solaire et le climat terrestre ne cessent de paraître dans les bonnes revues scientifiques.

En voici encore un, parmi beaucoup d'autres. Cet article est dans la lignée de celui qui précède. Il apporte de l'eau au moulin du projet International CLOUD mené au CERN de Genève, par des représentants de 17 institutions de tous les grands pays développés (sauf la France).

Cet article est intitulé :

"Lien entre les rayons cosmiques et les variations rapides de la couverture nuageuse aux latitudes moyennes."
Cosmic rays linked to rapid mid-latitude cloud changes

Les auteurs sont des chercheurs du Royaume Uni
B. A. Laken, D. R. Kniveton, et M. R. Frogley
Department of Geography, University of Sussex, Falmer, Brighton, England, BN1 9QJ, UK
Laken effectue un tavail post-doc à l'Instituto de Astrofısica de Canarias, 38205 La Laguna, Tenerife, Spain

Article publié le 24 Novembre 2010 dans Atmos. Chem. Phys., 10, 10941–10948, 2010 (Atmospheric Chemistry and Physics)
doi:10.5194/acp-10-10941-2010

Voici le résumé original en anglais suivi d'une traduction en français :

Abstract:. The effect of the Galactic Cosmic Ray (GCR) flux on Earth’s climate is highly uncertain. Using a novel sampling approach based around observing periods of significant cloud changes, a statistically robust relationship is identified between short-term GCR flux changes and the most rapid mid-latitude (60°–30° N/S) cloud decreases operating over daily timescales; this signal is verified in surface level air temperature (SLAT) reanalysis data. A General Circulation Model (GCM) experiment is used to test the causal relationship of the observed cloud changes to the detected SLAT anomalies. Results indicate that the anomalous cloud changes were responsible for producing the observed SLAT changes, implying that if there is a causal relationship between significant decreases in the rate of GCR flux (0.79 GU, where GU denotes a change of 1% of the 11- year solar cycle amplitude in four days) and decreases in cloud cover (1.9 CU, where CU denotes a change of 1% cloud cover in four days), an increase in SLAT (0.05 KU, where KU denotes a temperature change of 1K in four days) can be expected. The influence of GCRs is clearly distinguishable from changes in solar irradiance and the interplanetary magnetic field. However, the results of the GCM experiment are found to be somewhat limited by the ability of the model to successfully reproduce observed cloud cover. These results provide perhaps the most compelling evidence presented thus far of a GCR-climate relationship. From this analysis we conclude that a GCR-climate relationship is governed by both short-term GCR changes and internal atmospheric precursor conditions.

Résumé : L'effet des rayons galactiques cosmiques (GCR) sur le climat de la Terre est très incertain. Une relation statistiquement robuste est identifiée, en utilisant une nouvelle technique d'échantillonnage autour de périodes où se sont produites des variations significatives de l'ennuagement. Elle compare les variations à court terme de flux de GCR avec les décroissances les plus rapides de l'ennuagement aux latitudes moyennes, sur des périodes journalières : Ce signal est vérifié à partir des réanalyses des températures de l'air près de la surface (SLAT). Une expérience de modèle GCM (Modèle de circulation générale) est utilisée pour tester la relation causale entre les variations d'ennuagement observées et les anomalies de SLAT. Les résultats indiquent que les anomalies d'ennuagement étaient responsables des variations de températures SLAT, ce qui implique une relation de causalité entre une décroissance significative du taux de variation du flux GCR (0,97GU où GU indique un changement de 1% de l'amplitude du cycle solaire de 11 ans, en 4 jours) avec la décroissance de l'ennuagement (1,9CU, ou CU indique une variation de 1% de la couverture nuageuse en 4 jours); et une augmentation de la SLAT (0,05KU ou KU indique le changement de température de 1K en 4 jours) qui peut en résulter. L'influence des GCR est clairement distincte des variations d'irradiance solaire et du champ magnétique interplanétaire. Cependant, il est constaté que les résultats des expériences utilisant les modèles GCM sont quelque peu limités par leur capacité à reproduire correctement la couverture nuageuse observée. Il est possible que ces résultats constituent la preuve la plus convaincante présentée jusqu'à ce jour de la relation entre le climat et les rayons cosmiques galactiques (GCR). A partir de cette analyse, nous concluons que la relation climat-GCR est déterminée par les variations à court terme des GCR et par la situation de précurseur, interne à l'atmosphère.

Le résumé est relativement clair. L'examen des principales figures de l'article de Laken et al, l'est encore plus.

laken1

Fig. 1.
"(A) variation à court terme du flux de rayons cosmiques galactiques (GCR) (pertinence indiquée par les marqueurs).
Les données du flux des rayons cosmiques galactiques (GCR) résultent de multiples sources de mesure des flux de neutrons. Les variations sont normalisées selon les évolutions au cours d'un cycle de Schwabe."

Comme on le constate, la période choisie montre une variation conséquente du flux GCR en une dizaine de jour, seulement. Il est évident, que s'agissant d'attributions et de corrélations, il est beaucoup plus probant de s'intéresser aux variations rapides plutôt qu'aux variations lentes.

 

 


"(B) Anomalies des variations de la couverture nuageuse se produisant pendant le période des composites (GCR) (pertinence indiquée par les contours en trait plein)
Les variations d'ennuagement sont une moyenne effectuée dans la troposphère ( de 30 à 1000mb) issues des données sur les nuages de l'ISCCP (International Satellite Cloud Climatology Project) D1 IR."

 

 

 

Comme on peut le constater, il existe une corrélation évidente entre les variations de flux cosmique et les variations d'ennuagement, moyennées dans toute la zone (des latitudes moyennes et de la troposphère) considérée. De même, comme on s'y attend et conformément aux multiples observations antérieures rapportées dans cette page, une augmentation du flux de neutrons (résultant d'une activité solaire moins importante), résulte en une augmentation de l'ennuagement.
Ceci est également cohérent avec les mesures effectuées, en 2006 et avec des moyens plus rudimentaires, par Regis Gille Harrison (et Stephenson), au dessus du Royaume Uni.

  • Ces corrélations peuvent-elles être expliquées par d'autres interactions Soleil-Terre ?

Laken et ses coauteurs se posent alors la question de savoir si d'autres phénomènes résultants l'activité solaire (UV, phénomènes électriques) déjà évoqués dans cette page, pourraient expliquer les observations précédentes. Ils écrivent :

"However, only the rate of GCR flux undergoes correlated and statistically significant co-temporal variations to cloud changes over the composite period. These results suggest that the effects we observe are independent of other solar phenomena and that we can therefore discount the possibility that an alternative solarterrestrial mechanism is operating (such as those detailed by: Tinsley, 2008; Douglas and Clader, 2002; Haigh, 1996; Kniveton et al., 2003)."

Traduction : "Cependant, seules les variations du flux de Rayons Cosmiques Galactiques montrent une corrélation statistiquement significative des variations co-temporelles avec les variations de l'ennuagement tout au long de la période étudiée. Ces résultats suggèrent que les effets que nous observons sont indépendants des autres phénomènes solaires et que nous pouvons donc exclure la possibilité qu'un autre mécanisme d'interaction solaire-Terre soit en action (tels que ceux expliqués en détail par Tinsley, 2008; Douglas and Clader, 2002; Haigh, 1996; Kniveton et al., 2003"

Rappelons que Tinsley (soutenu par Harrison) est le promoteur de la théorie des effets électriques (Jz ). Douglas et Clader mettait en avant la simple variation de l'irradiance solaire durant les cycles. Joanna Haig évoquait l'effet de l'activité solaire UV sur l'ozone stratosphérique (c'est aussi le point de vue de Lockwood). Kniveton (qui est coauteur du présent article) et al évoquaient la variation du taux de dimethylsulfide au dessus de l'océan Indien, liée au variations des UV émis pendant les cycles solaires. A noter que les effets des GCR sur l'ennuagement ne sont pas exclusifs des autres effets suggérés par ces différents auteurs. Tous ces effets pourraient également contribuer de manière indépendante ou concertée à la modification du climat. Cependant, les observations de Laken et al, rapportées ici, ne concernent que les modifications de l'ennuagement par les GCR et les variations de températures terrestres résultantes.

  • Latitude et altitude des anomalies d'ennuagement :

Le bases de données observationnelles se sont beaucoup enrichies au cours des ces dernières années, notamment celles de l'ISCCP (International Satellite Cloud Climatology Project) qui ont permis à Laken et al de donner des informations détaillées sur les anomalies d'ennuagement qui se sont produites en concomittance avec les variations de flux cosmiques. Voici la Figure 2 de l'article accompagnée de sa légende :

laken2

 

"Diagramme latitude/altitude des anomalies de la couverture nuageuse se produisant à la date exacte des composites (Ndt : des détecteurs de rayons cosmiques).
Les variations statistiquement significatives (au dessus d'un degré de confiance de 0,95) sont indiqués par les contours en trait continus."

 

Comme on le constate, les variations d'ennuagement significatives (encadrées d'un trait continu) corrélées avec les variations de GCR, se trouvent essentiellement au dessus des latitudes moyennes, soit de (15°S à 60°S) et de (20°N à 62°N). A noter que la région équatoriale (latitude 0) est le plus souvent encombrée de nuages, ce qui empêche d'effectuer ce genre de travail dans de bonnes conditions

Conformément avec ce qui avait été avancé auparavant, ce sont les nuages à basse et moyenne altitude qui présentent le taux de corrélation le plus élevé avec les variations enregistrées du flux des rayons cosmiques galactiques.

 

 

  • Comme on s'y attend (voir le tableau ici), une augmentation de la couverture nuageuse à basse et moyenne altitude induit un refroidissement de la température terrestre (SLAT (échelle de droite, ligne en trait plein) =Surface Level Air Temperature). C'est ce que nous indique la Figure 5 de l'article.

laken3

 

"Anomalies observées aux latitudes moyennes (de 60°N à 30°S) de la couverture nuageuse moyenne (de 30 à 1000mb) (ligne en trait plein) et variations de la température de l'air à la surface (courbe en tireté)."

Une augmentation de la couverture nuageuse à basse et moyenne altitude s'accompagne d'une diminution de la température de surface. La durée des événements est de l'ordre de quelques jours et la réponse de la température semble quasi instantanée.

 

 

 

"Based on the relationships observed in this study, and assuming that there is no linear trend in the short-term GCR change, we speculate that little (0.088 °C/decade) systematic change in temperature at mid-latitudes has occurred over the last 50 years. However, at shorter time-scales this phenomenon may contribute to natural variability, potentially reducing detectability of an anthropogenic signal."

"Si on se base sur les relations observées dans cette étude et en supposant qu'il n'existe pas de tendance linéaire dans les variations à court terme du rayonnement cosmique galactique (GCR), nous spéculons que de faibles variations (0,088°C/décennie) (Ndt : Ce qui représente quand même une grosse proportion de la hausse de température SLAT observée depuis un siècle (0,12°C par décennie pour le globe) se sont produites aux latitudes moyennes depuis 50 ans. Cependant, pour des échelles de temps plus courtes, ce phénomène peut contribuer à la variabilité naturelle réduisant ainsi la possibilité de détecter le signal dû à l'activité humaine."

Ce langage, riche en litotes et un peu alambiqué, est tout à fait caractéristique de la littérature climatologique actuelle, notamment de la part des chercheurs qui, malgré les oppositions, persistent à vouloir publier des observations qui s'écartent du dogme en vigueur. On peut supposer que ce genre de précautions oratoires constitue le sésame qui permet d'obtenir l'imprimatur de la part des relecteurs...
La dernière phrase est un chef d'oeuvre en matière d'euphémisme : On vient de nous expliquer que le phénomène solaire observé peut se traduire par une "faible" variation de près de 0,09°/décennie tandis que la hausse globale observée n'est que de 0,12°C/décennie, ce qui, même si cette étude ne concerne que les latitudes moyennes, en représente une notable proportion. Puis, on vous explique, en termes choisis, que cette proportion importante de la variations de température résultant des effets solaires (indésirable !) pourrait gêner la détection du signal lié à l'activité humaine...

C'est vraiment le moins que l'on puisse dire, sans risquer de se voir écarter des juteux contrats attribués à la science climatique (post)moderne.
Curieuse science ! Vraiment.

La conclusion fait preuve d'une grande retenue tout en étant légèrement plus affirmative.

Conclusions
"This work has demonstrated the presence of a small but statistically significant influence of GCRs on Earth’s atmosphere over mid-latitude regions. This effect is present in both ISCCP satellite data and NCEP/NCAR reanalysis data for at least the last 20 years suggesting that small fluctuations in solar activity may be linked to changes in the Earth’s atmosphere via a relationship between the GCR flux and cloud cover; such a connection may amplify small changes in solar activity. In addition, a GCR – cloud relationship may also act in conjunction with other likely solar – terrestrial relationships concerning variations in solar UV (Haigh, 1996) and total solar irradiance (Meehl et al., 2009). The climatic forcings resulting from such solar – terrestrial links may have had a significant impact on climate prior to the onset of anthropogenic warming, accounting for the presence of solar cycle relationships detectable in palaeoclimatic records (e.g., Bond et al., 2001; Neff et al., 2001; Mauas et al., 2008)"...

Conclusions :
"Ce travail a démontré la présence d'une influence faible mais statistiquement significative du rayonnement cosmique galactique (GCR) sur l'atmosphère terrestre au dessus des régions à moyenne latitude. Cet effet est présent aussi bien dans les données satellitaires ISCCP que dans les données réanalysées du NCEP/NCAR, pour au moins les 20 dernières années, suggérant que de faibles fluctuations de l'activité solaire peuvent être liées aux variations de l'atmosphère terrestre via une relation entre le flux GCR et la couverture nuageuse, de telle façon qu'une telle connexion peut amplifier les faibles variations de l'activité solaire. De plus, cette relation GCR-nuages peut agir conjointement avec d'autres relations de causalité possibles entre le Soleil et la Terre, telles que les variations de la quantité d'UV produits par le soleil (Ndt : Dont on sait qu'ils varient considérablement durant les éruptions solaires) (Haigh 1996) et l'irradiance solaire totale (Meehl et al, 2009). Les forçages climatiques résultant de telles relations Soleil-Terre peuvent avoir eu un impact significatif sur le climat avant le déclenchement du réchauffement anthropique, rendant ainsi compte de la présence de relations avec les cycles solaires détectables dans les enregistrements paléoclimatiques (par ex. Bond et al, 2001; Neff et al, 2001; Mauas et al, 2008)"

La dernière phrase ("Les forçages climatiques résultant de telles relations Soleil-Terre peuvent avoir eu un impact significatif sur le climat avant le déclenchement du réchauffement anthropique") est étonnante . Selon les auteurs, l'influence solaire aurait eu un impact significatif "avant" le déclenchement du réchauffement anthropique. Outre le fait que cette phrase contredit directement la fin du paragraphe précédant la conclusion qui affirmait que " Ce phénomène peut contribuer à la variabilité naturelle réduisant ainsi la possibilité de détecter le signal dû à l'activité humaine" (qui est réputé significatif depuis 50 ans), elle nous explique que depuis que l'homme rejette du CO2 dans l'atmosphère, l'activité solaire aurait brusquement cessé d'avoir une influence significative sur le climat.
Ce qui serait, pour le moins, surprenant. Pour ne pas dire absurde.

En réalité, cette phrase est quelques autres du même genre que l'on retrouve dans nombre d'articles signés par les adhérents au GIEC et que j'ai épinglés à de nombreuses reprises, montre, une fois de plus, que
"la petite phrase magique" d'allégeance aux affirmations du GIEC, est restée quasi-obligatoire dans la littérature climatologique, comme l'avait expliqué Richard Lindzen. Il faut dire que le "pal review" (comme disent les sceptiques américains, au lieu du peer-review), c'est à dire la relecture par "les copains", ne contribue certainement pas à la liberté d'expression...

Il est évident que ni l'Université du Sussex, ni l'Institut d'Astrophysique des Canaries qui sont les maisons mères des auteurs de cet article, ne peuvent se permettre de publier, sans de subtiles précautions oratoires, un article qui va manifestement à l'encontre du dogme en vigueur et dans le sens de ce qu'ont expliqué et affirmé (voir l'expérience Internationale (sauf la France) CLOUD), depuis longtemps, les solaristes tels que Henrik Svensmark, parmi beaucoup d'autres.

Malheureusement pour les adhérents de la thèse anthropique en vigueur, les observations de l'influence de l'activité solaire sur le climat sont, une fois encore, là et bien là. Peu à peu, les variations climatiques naturelles deviennent apparentes, affaiblissant d'autant la portion anthropique. Hélas pour certains, les bases de données observationnelles ne cessent de croître et d'embellir.

Rappelons, à ce propos, que la micro-section correspondant à l'étude de l'influence solaire sur le climat du dernier rapport du GIEC (AR4 2007) ne faisait appel qu'à un seul auteur (Judith Lean) qui ne citait d'ailleurs que son propre travail, lequel écartait cette possibilité en évoquant, comme d'habitude, les variations (0,1%) yannsolgiecinsuffisantes de l'irradiance globale solaire (la TSI).
Exactement comme persistent encore à le faire les climatologues français lorsqu'on les interroge dans les médias sur ce sujet, en oubliant (?), au passage, que
le soleil fait bien d'autres choses que de nous éclairer comme nous l'avons déjà vu dans de nombreux articles rapportés sur ce site. Y compris dans celui évoqué dans ce billet.
Cette micro-section du
rapport du GIEC a provoqué d'énergiques protestations de la part de certains relecteurs attitrés, dont il ne fut d'ailleurs tenu aucun compte...à cause de délais imposés par la technique, leur a-t-on répondu.

A noter que les auteurs de l'article mentionné ici, remercient, entre autres, Arnold Wolfendale (Univ de Durham UK) avec lequel Laken a déjà plusieurs fois publié, pour ses conseils avisés. Wolfendale doit être plutôt mécontent de cet article qu'il a probablement refusé de cosigner. En effet, il faut savoir que Wolfendale est l'un des contradicteurs les plus acharnés de la théorie de Svensmark et al qui, comme vous le savez, implique l'effet du rayonnement galactique ionisant (GCR) sur le climat.

Il serait intéressant de savoir comment
Sir Wolfendale explique les innombrables empreintes des cycles solaires relevées dans une kyrielle de situations géographiques, recouvrant des espaces de temps allant des époques reculées jusqu'à nos jours, et sur non moins d'indicateurs climatiques (proxys) variés, telles que celles que j'ai rapportées dans cette page...

Cet article de Laken et al va très précisément dans le sens des idées de Svensmark et al et du projet CLOUD du CERN de Genève.
A noter que la copieuse équipe travaillant sur CLOUD vient de publier son premier article, fort encourageant, sur ces recherches en cours.
J'en ferai une brève description très prochainement.

A suivre, donc.

Stay tuned ! (restez à l'écoute !) comme disent les américains (du Nord)...

Inutile d'ajouter que l'article de Laken et al ne sera pas mentionné par les journaux francophones, à moins que l'AFP ne nous gratifie, une fois encore, d'un article délirant sur ses délicieux "rayons cosmétiques"...
__________________________________________________________________

A noter que Laken et al ne sont ni les seuls, ni les premiers à avoir observé des corrélations significatives entre les variations rapides de flux GCR et les propriétés de l'atmosphère. Tels, parmi d'autres :

-Irina Artamonova et Svetlana Veretenenko "Influence des variations des GCR sur la dynamique des systèmes de pression atmosphérique aux latitudes moyennes" JASTP (2010 / doi:10.1016/j.jastp.2010.05.004
-H.Svensmark et al " Les décroissances des rayons cosmiques modifient les aérosols atmosphériques et les nuages"." GRL 2009 (billet précédent)
-Tinsley et Deen : (Affaiblissement de la genèse de basses pressions durant les événement de Forbush -JGR 1991
-Pudovkin et al ( 1995, 1996, 1997) JASTP et Adv. Spac. Res.
-Veretenenko et Thejll (2004, 2005) JASTP et Adv. Spac. Res..
-....

...et le billet suivant de Septembre 2011 :


27 Septembre 2011 : Encore des observations de l'effet des rayons cosmiques sur les nuages qui vont dans le sens de la cosmoclimatologie de Svensmark.

Ce billet est directement lié aux deux billets précédents : Svensmark et al (2009) d'une part, et Laken et al (2010) , d'autre part. Il est évidemment en relation avec le projet CLOUD.

dragic1

Cet article est intitulé : "Relation entre les Décroissances de Forbush et les nuages à l'ère des détecteurs de neutrons."
Il résulte du travail d'une équipe de physiciens Serbes (spécialistes des particules à haute énergie) de l'Institut de Physique et de l'Université de Belgrade (Ils sont donc les successeurs d'un célèbre astro-physicien Serbe, Milutin Milankovitch)

Tout comme Svensmark et ses collègues, une équipe de physiciens Serbes se sont intéressés aux événements (ou décroissances) de Forbush qui résultent d'une forme particulière d'éruption solaire qui s'appelle la CME (Coronal Mass Ejection). En gros, de tels événements qui se reproduisent une ou deux fois par an, autour du maximum d'activité solaire de chaque cycle de Schwabe, consistent en une sorte de synchronisation d'éruptions qui apparaissent simultanément sur la couronne solaire. C'est un phénomène d'une grande intensité, bien connu des radio-amateurs et des gestionnaires de satellites.
Cette sorte d'éruption géante qui équivaut à l'éjection par le soleil d'une masse de matière considérable, provoque une décroissance rapide et plus ou moins intense de la quantité de rayons cosmiques impactant notre planète. Cette décroissance rapide qui apparaît comme un pic négatif pour les détecteurs de rayons cosmiques, est connue sous le nom d'événements (ou de Décroissances) de Forbush du nom du chercheur (Scott E. Forbush) qui identifia le phénomène en 1937. L'explication de cette décroissance n'a pu être donnée qu'en 2000. Il s'agirait d'un nuage plasmatique fugitif, résultant du CME, qui écranterait brièvement la Terre vis à vis des rayons cosmiques galactiques.

Il faut savoir que le climat est extrêmement sensible à la nébulosité. De faibles variations de la couverture nuageuse de l'ordre de quelques pour cent suffiraient à expliquer la totalité des variations de température que nous avons connues au siècle dernier. Ainsi, et si l'on veut montrer que les rayons cosmiques sont un des moteurs de cette variation (ou ne le sont pas), faudrait-il être en mesure de mesurer les variations de couverture nuageuse, très fluctuante et résultant de nombreuses causes, avec une précision (et une fidélité) meilleure que un pour-cent, ce qui est encore problématique même pour l'ISSCP (The International Satellite Cloud Climatology Project) qui a dû faire face à un certain nombre de problèmes de mise au point (notamment changement des détecteurs) au cours des années passées. Sans oublier que les rôles respectifs des nuages à haute, moyenne et basse altitude sont différents et techniquement difficiles à discerner. Tout cela est donc passablement délicat.
Ainsi, et toujours dans le but de savoir si les rayons cosmiques ont effectivement un effet (ou non) sur la couverture nuageuse, est-il avantageux de s'intéresser spécifiquement aux Décroissances de Forbush qui sont des décroissances brutales et relativement intenses du flux de rayons cosmiques qui impactent l'atmosphère de notre planète. Ce faisant et au vu de la brièveté et de l'intensité de ces événements, peut-on espérer "sortir du bruit" et des fluctuations naturelles qui restent inévitables lors de l'examen des corrélations de longues durées. Dit plus simplement, cela veut dire que si on veut identifier un signal significatif au sein d'un signal fluctuant, il vaut beaucoup mieux que la variation de ce signal soit intense, rapide et bien précise du point de vue temporel. C'est tout l'intérêt des événements de Forbush pour ce genre d'étude qui la distingue de plusieurs autres tentatives publiées dans la littérature.

La Version originale de l'article est en accès libre.
En voici le résumé, suivi d'une traduction en français :

Abstract. The proposed influence of cosmic rays on cloud formation is tested for the effect of sudden intensity changes of CR (Forbush decreases) on cloudiness. An attempt is made to widen the investigated period covered by satellite observation of cloudiness. As an indicator of cloud cover, the diurnal temperature range (DTR - a quantity anticorrelated with cloudiness) is used. The superposed epoch analysis on a set of isolated Forbush decreases is conducted and the results for a region of Europe are presented. The effect of Forbush decrease on DTR is statistically significant only if the analysis is restricted to high amplitude FDs (above the threshold value of 7% with the respect to undisturbed CR intensity). The magnitude of the effect on DTR is estimated to be (0.38±0.06) °C.

"Résumé : L'influence suggérée des rayons cosmiques sur la formation des nuages est testée pour analyser l'effet d'une variation brutale de l'intensité des rayons cosmiques (Décroissance de Forbush) sur la nébulosité. Nous effectuons une tentative pour élargir la période d'analyse de la nébulosité couverte par les observations satellitaires. Nous utilisons le différentiel de température journalier (DTR -Diurnal Température Range) - une quantité anticorrélée avec la nébulosité, comme indicateur de la couverture nuageuse. Nous effectuons une analyse temporelle de la superposition d'une série de décroissances de Forbush isolées et nous exposons les résultats, pour une région de l'Europe. L'effet des décroissances de Forbush sur l'écart de température journalier (DTR) est statistiquement significatif seulement si l'analyse est limitée aux décroissances de Forbush (FD) de grande amplitude (au dessus de la valeur seuil de 7% par rapport à l'intensité des rayons cosmiques non perturbée). La grandeur de l'effet sur l'écart de température journalier est estimé à (0.38±0.06) °C."

L'équipe de physiciens de Belgrade s'est posé la question fondamentale qui est à la base de la théorie de Svensmark et al. A savoir, le flux de rayonnement cosmique qui nous vient de l'espace et qui est plus ou moins dévié par les éruptions solaires, a-t-il un impact sur la nébulosité ou la couverture nuageuse terrestre ? Si c'est le cas, comme il le semble au vu d'un grand nombre d'empreintes plus ou moins fossiles, l'influence du soleil ne se fait pas seulement ressentir par la TSI (l'irradiance solaire totale, c'est à dire le flux lumineux qui impacte et réchauffe notre planète) mais aussi par des effets indirects très importants tels que la variation de couverture nuageuse comme le prévoit la théorie de Svensmark actuellement en cours de test au CERN de Genève. Cette théorie permettrait, entre autres, d'expliquer la multitude d'empreintes des cycles solaires sur le climat tels que celles qui sont mentionnées tout au long de cette (longue) page.

L'objectif de ce travail des physiciens serbes est donc de chercher des variations de nébulosité durant les (plus ou moins) fortes variations du flux des rayons cosmiques telles que celles que l'on peut observer durant les Décroissances de Forbush. Ce travail qui émane de chercheurs jusqu'alors peu impliqués dans les recherches de climatologie, repose essentiellement sur deux constatations intéressantes :

1) S'agissant de suivre l'évolution de la couverture nuageuse, et plutôt que d'utiliser les bases de données satellitaires globales telles que AERONET (aérosols) SSM/I (contenu en eau liquide des nuages), MODIS (fraction en eau liquide des nuages) et ISCCP (quantité de nuages détectés en IR), comme Svensmark, Dragic et ses collègues font la remarque suivante : Les nuages de basse altitude (l'effet est différent pour les nuages de haute altitude comme les cirrus) provoquent une baisse de température pendant la journée, en augmentant l'albedo de l'atmosphère, c'est à dire en réfléchissant une partie du flux incident vers la haute atmosphère, puis vers l'espace. Par contre, durant la nuit, les nuages limitent le refroidissement de la planète comme il est aisé de le constater. Ainsi, c'est un fait d'observation courante que les nuages refroidissent pendant les journées et réchauffent durant les nuits.
De fait, la présence d'une nébulosité importante résulte en une diminution (pour ces deux raisons convergentes) du différentiel des températures qui règnent durant la journée et durant la nuit. Les données (appelées DTR : Diurnal Temperature Range) de ce différentiel sont aisément accessibles auprès de tous les offices météorologiques de la planète. Ainsi,
Dragic et ses collègues ont-ils utilisés les mesures de DTR, c'est à dire les mesures du différentiel de température jour-nuit, comme indicateur (Proxy) de la couverture nuageuse. Il faut cependant être conscient du fait que le DTR dépend aussi des saisons, de la teneur en vapeur d'eau et de l'humidité des sols. S'il est assez aisé de tenir compte des saisons comme l'ont fait les auteurs, il est quasiment hors de portée (faute de données) de prendre en compte les autres facteurs qui interviennent alors comme des fluctuations ou du bruit dans les mesures.

A noter que cette idée est triplement astucieuse. D'une part, elle présente l'avantage de posséder une résolution temporelle très courte, égale à une journée, ce qui est indispensable s'agissant de comparer le DTR aux brefs événements de Forbush. D'autre part, elle est exempte des nombreuses difficultés liées aux mesures satellitaires globales de la nébulosité. Ces données DTR sont disponibles pour des zones parfaitement localisées et délimitées. Enfin, ces mesures DTR, tabulées par les offices météorologiques, s'affranchissent dans une grande mesure des nombreux problèmes qui affectent la mesure des températures moyennes (Emplacement et état des détecteurs etc.). Le différentiel de température jour-nuit est certainement moins sensible aux imperfections des instrumentations que la mesure absolue de la température moyenne.

2) La seconde "astuce" des chercheurs Serbes repose sur un constat dont, en tant que spécialistes des rayonnements cosmiques, ils sont très familiers : Du point de vue statistique, les événements (les décroissances) de Forbush interviennent de la manière suivante : Les événements de faible amplitude sont beaucoup plus nombreux que les événements de Forbush de grande amplitude, comme le montre la distribution statistique représentée sur le graphe suivant extrait de l'article en question. dragic4

Fig. 1." La distribution des amplitudes des Décroissances de Forbush. Les événements de faible amplitude se produisent plus fréquemment."

Cette simple observation n'est pas sans conséquence lorsque l'on veut savoir s'il existe une corrélation éventuelle entre les décroissances de Forbush et les variations de nébulosité ou de la couverture nuageuse.

En effet, si l'on prend en compte la totalité des Décroissances de Forbush, les très nombreuses petites et les rares grandes, comme l'on fait les équipes qui affirmaient contredire les résultats de Svensmark décrits ci-dessus, on superpose au signal significatif résultant des grandes Décroissances de Forbush, une grande quantité de signaux qui sont noyés dans les fluctuations naturelles de la nébulosité...et le signal utile disparaît, noyé dans le bruit.
C'est un procédé (peut-être peu scrupuleux) utilisé par certains pour conclure que la théorie de Svensmark ne correspondait pas aux observations

Ainsi, si le but poursuivi est de déterminer si les rayons cosmiques influent (ou n'influent pas) sur la formation de la couverture nuageuse, il est fondamental de ne considérer que les Décroissances de Forbush suffisamment intenses pour avoir des chances de conduire à un rapport signal/bruit acceptable, tout en s'assurant, bien entendu, que les résultats seront statistiquement significatifs. En langage commun, on dirait que cela équivaut à chercher une marguerite dans un champ d'herbes rases plutôt que dans un terrain d'herbes hautes.
C'est ainsi qu'ont raisonné les chercheurs de l'équipe de Belgrade. Et c'est d'ailleurs l'idée qui avait prévalu lors le travail de Svensmark publié en 2009.

Le travail des chercheurs Serbes a donc consisté à tracer une série de courbes indiquant les variations du différentiel de température jour-nuit, en fonction du temps, durant les quelques jours précédant et suivant les Décroissance de Forbush tabulées à l'Observatoire du Mont Washington. Et cette opération est répétée en prenant en compte une série d'événements de Forbush suffisamment intenses (au dessus d'un certain seuil et de fait au moins supérieurs à une décroissance de 7%) et ceci pour le nombre disponible (c'est à dire tabulé) des événements de Forbush.

Voici donc trois graphes significatifs, extraits de l'article en question. Le temps 0 correspond à l'époque de l'événement de Forbush. Les barres d'erreurs représentent les erreurs standards par rapport à la moyenne.

Comme l'ont fait les auteurs de l'article nous allons tout d'abord prendre en compte une grande partie des événements de Forbush, les nombreux petits et les rares grands.
Puis, nous ne retiendrons que les grands événements de Forbush.

dragic5

 

"Fig. 4. Analyse de la superposition temporelle pour toutes les Décroissances de Forbush dont l'amplitude est supérieure à 5% (81 événements). "

Comme on peut le constater, le DTR, le différentiel de température jour-nuit ne montre aucune variation significative suite aux décroissances de Forbush.
En réalité, le signal est noyé dans les fluctuations naturelles du DTR parce qu'on a inclus un grand nombre d'événements de Forbush peu actifs qui ne "ressortent" pas du bruit des mesures.
Beaucoup d'auteurs en auraient conclu que les rayons cosmiques n'ont aucune influence sur le DTR.



Les physiciens Serbes ont alors exclu tous les événements de Forbush dont l'amplitude était inférieure à 7%, ce qui d'après le diagramme de distribution montrée plus haut, exclut un nombre important d'événements peu actifs.
Bien entendu, comme on travaille avec un nombre d'événements moins important, il en résulte une augmentation de la marge d'erreur standard.
Cependant, le résultat est assez net comme on peut le voir sur les deux graphes ci-dessous :

dragic3

 

 

Fig. 5 : "Le graphe du haut montre une analyse temporelle de la superposition de toutes les décroissances de Forbush dont l'amplitude est comprise entre 7 et 10% (22 événements)

 

 

 

 

 

Le graphe du bas montre la même chose que le graphe du haut mais pour des événements d'amplitude plus grande que 10% (13 événements)."

 

 

 

 

 

 

Comme on le constate, la marge d'erreur a encore augmenté, mais la variation de DTR (différentiel de température jour-nuit) est nettement visible et atteint son maximum environ 4 jours après les événements de Forbush.
A noter que Svensmark qui, lui, utilisait les mesures satellitaires de la couverture nuageuse (et notamment du contenu en eau des nuages) et non pas le DTR, avait observé un retard de 5 jours environ.

Conclusion : Il semble donc bien que le différentiel de température jour-nuit qui est lié à la couverture nuageuse varie notablement en fonction de l'intensité des rayons cosmiques qui impactent l'atmosphère de notre planète. Ces observations sont évidemment en faveur de la théorie de Svensmark et al et sont en accord avec leur publication de 2009.
A vrai dire, on ne voit pas, pour l'instant, d'autre explication qui permette d'expliquer ces observations des chercheurs Serbes, ce qui ne signifie pas qu'il n'en existe aucune.

Cependant, comme le font remarquer les chercheurs de Belgrade,
ces résultats demandent à être confirmés notamment en étendant ces observations à l'ensemble du globe. Seules quelques 189 stations Européennes (choisies au hasard mais qui couvrent toute l'Europe) ont servi à élaborer les graphes présentés dans cet article. Compte-tenu du fait que la démarche des chercheurs serbes s'appuie sur des bases de données aisément accessibles, il serait étonnant que ces résultats ne soient pas rapidement dupliqués et confirmés ...ou démentis, par d'autres équipes.
Ainsi va la science.

A suivre, donc.

______________________________________________________________________________________________________

Note : Anthony Watts évoque aussi cet article de Dragic et al sur WUWT, en collationnant les billets de Nigel Calder et de Lubos Motl. En anglais-américain, bien sûr.


2 Novembre 2009 : Anneaux de croissance des arbres et rayons cosmiques : De nouvelles observations après celles de A.E. Douglass..

Toujours dans la longue série des publications qui montrent un lien possible entre l'activité éruptive solaire (et non pas seulement son irradiance) et le climat de la planète, voici deux articles très récents qui apportent de l'eau au moulin de la théorie de Svensmark et al.

J'ai mentionné, plus haut, les découvertes de A. E. Douglass qui est considéré comme le fondateur de la dendrochronologie. Dès 1909, A.E. Douglass affirmait avoir observé qu'on retrouvait le cycle de 11 ans dans les anneaux de croissance des arbres et que ceux-ci étaient reliés aux éruptions solaires. Il écrivit un livre à ce sujet, en 1919, qui était intitulé : " Cycles du climat et croissance des arbres : Une étude des anneaux de croissance des arbres en relation avec l'activité solaire." Douglass publia divers articles à ce sujet dont un dans Science en 1927, intitulé "Enregistrements du soleil dans la croissance des arbres." (Science, vol 65, 1679, page 220-221) qu'il est assez facile de retrouver.

Depuis cette époque et comme c'est souvent le cas lorsque les découvertes semblent étranges et inexpliquées, ces observations tombèrent dans l'oubli.

Près d'un siècle plus tard, en cet automne 2009, trois chercheurs de l'Université d'Edinburgh viennent de publier un article qui corrobore les découvertes de A.E. Douglass. Voici les références : New Phytologist. 2009 (Rapid report) Vol. 184, page 545-551. (14 sept 2009).

Le titre et le résumé de cet article nous disent tout. Je vous les traduis ci-dessous :

"Relation entre les radiations cosmiques galactiques et le anneaux de croissance des arbres"

Sigrid Dengel, Dominik Aeby and John Grace, Institute of Atmospheric and Environmental Science, School of GeoSciences, Crew Building, University of Edinburgh, EH9 3JN, UK
_______________________________________________________________

Résumé : (photo d'une coupe d'épicéa Sitka, ci-contre, crédit Sigrid Dengel) cuttree


 "Nous avons étudié la variation inter-annuelle des anneaux de croissance des épicéas Sitka (Picea Sitchensis) dans le nord des îles britanniques (55°N, 3°W) pendant la période 1961-2005 dans le but de discerner l'influence des variables atmosphériques actives pendant différentes époques de l'année.

La croissance annuelle des anneaux, mesurée le long d'un rayon dirigé vers le Nord, d'arbres fraîchement coupés et congelés ainsi que les données climatologiques recueillies dans un site proche, ont été l'objet de cette étude. L'étude des corrélations, faite en utilisant le coefficient de Pearson (NDT c'est une mesure classique de la qualité d'une corrélation) a porté sur l'analyse de l'anomalie de croissance des arbres et des observations climatiques et atmosphériques.

Des corrélations plutôt faibles entre ces variables ont été observées. Cependant, il existait une relation consistante et statistiquement significative entre la croissance des arbres et la densité du flux de radiation cosmique galactique. De plus, on a observé une périodicité sous-jacente dans la croissance des arbres avec 4 minimas depuis 1960, qui se rapproche des cycles de radiation cosmique galactique.

Nous discutons des hypothèses qui pourraient expliquer cette corrélation : la tendance des radiations cosmiques galactiques à produire des noyaux de condensation (NDT: en accord avec Svensmark et al) conduit à une augmentation de la composante diffuse de la lumière solaire et, ainsi, augmente la photosynthèse de la canopée de la forêt. "
_______________________________________________________________________________________________________________

Deux mois après la publication de cet article paraissait, dans ce même journal (New Phytologist, Volume 184 Issue 3 (November 2009)) (Markku Kulmala, Pertti Hari, Ilona Riipinen et Veli-Matti Kerminen) un commentaire sur la publication précédente. Les quatre chercheurs Finlandais ne remettent pas en question les découvertes du précédent article mais les étendent à une autre espèce (L'épicéa Norvégien : Picea abies) prélevés en Finlande et discutent sur l'hypothèse proposée dans le premier article. Ils indiquent que " Our analysis demonstrated that the association between the cosmic ray flux and tree growth might be a common phenomenon an not just a specificfeature of a single location." "Notre analyse montre que l'association entre le flux cosmique et la croissance des arbres pourrait être un phénomène courant et non pas un fait spécifique à une seule situation gégraphique."

Ces chercheurs finlandais discutent l'hypothèse de l'augmentation de la lumière diffuse à la lueur d'observations récentes plus ou moins contradictoires, sans conclure, et évoquent aussi la possibilité d'une influence directe des rayonnements cosmiques sur la croissance des arbres, ce que l'on ne peut exclure a priori, bien que l'on ait aucune idée sur le processus qui pourrait intervenir.

Commentaires :

1) Il existe des bases de données dendrochronologiques très riches et bien documentées. On peut se demander pourquoi une étude des corrélations possibles (rayons cosmiques/ croissance des arbres) n'y a pas été effectuée. Ne serait-ce que pour tester les affirmations de Douglass. On peut espérer que ces découvertes motiveront quelques recherches supplémentaires dans ce sens.

2) Le premier article cité est très instructif sur la manière dont fonctionne la (bonne) recherche : Voici trois chercheurs anglais qui ont entrepris un travail minutieux pour tenter de discriminer les influences relatives des paramètres climatiques (température, humidité etc.) sur une collection de tranches d'épicéas. Pour cela, ils collectent les données de la station météorologique la plus proche et comparent les résultats des mesures des anneaux de croissance avec les données climatiques.

Ils ne trouvent rien de ce qu'ils espéraient mais découvrent quelque chose qu'ils n'attendaient pas. Ils (re) découvrent la périodicité des cycles solaires dans la croissance des arbres.
Ce type de découverte porte le nom de sérendipité (de Serendip, le nom ancien du royaume de Sri Lanka).. C'est ainsi, par exemple, que Pasteur et son étudiant Hilaire de Chardonnet, découvrirent la rayonne, Röntgen les rayons X, Wallace Hume Carothers le nylon et dit-on, Alexander Fleming la pénicilline.

Tout cela nous rappelle la démarche de Tim Patterson (qui confesse avoir enseigné l'effet de serre du CO2 pendant longtemps et qui , maintenant, est "solariste") lequel nous disait qu'en relevant les données paléoclimatiques :fermi

"Au fur et à mesure que les résultats des mesures nous parvenaient, nous étions stupéfaits de constater que les enregistrements paléoclimatiques et de productivité (NDLR : en poissons) étaient remplis de cycles qui correspondaient aux différentes cycles des taches solaires."

Comme le grand physicien Enrico Fermi disait à ses élèves : "Il y a deux possibilités : Si le résultat confirme votre hypothèse vous avez fait une mesure. Si le résultat est contraire à votre hypothèse, alors vous avez fait une découverte."(cité dans Nuclear Principles in Engineering (2005) par T. Jevremovic, p. 397).


Bonne et heureuse année 2012 à toutes et à tous !

Janvier 2012 : Trois articles récents sur le lien climat-activité solaire et sur l'évolution future du soleil :

Comme je l'ai déjà mentionné, la littérature scientifique produit maintenant un nombre croissant d'articles qui s'écartent de la doxa du GIEC sur le climat. L'époque du "tout CO2" semble maintenant révolue et des chercheurs de plus en plus nombreux, s'intéressent à des phénomènes qui peuvent faire évoluer, de manière naturelle, le climat de notre planète. Si l'on ne peut que s'en réjouir, il n'en est pas moins vrai que, vu son abondance, il devient difficile de suivre le flot croissant de ce genre d'articles ou, du moins, d'en produire des compte-rendus.
Voici donc, pour me faire pardonner le hiatus des vacances de Noël et du jour de l'an, les compte-rendus de
trois articles très récents qui sont relatifs au soleil et à ses impacts sur le climat.

1) L'activité solaire et le climat : Cycles de 11 ans (Schwabe) ou cycles de 22 ans (Hale) ?

souza1

Le titre : "A propos de la relation entre d’une part, la température moyennée de l’air en surface aux niveaux planétaire, hémisphérique ou latitudinal (données du GISS) et d’autre part, l’activité solaire."

Publié en ligne le 22 Octobre 2011 dans le JASTP par une équipe de cinq chercheurs brésiliens et porto-ricains.

Le résumé en VO suivi d'une traduction en français :

Abstract : The air surface temperature is a basic meteorological parameter and its variation is aprimary measure of global, regional and local climate changes.In this work, the global, hemispheric and latitudinal averaged air surface temperature time series, obtained from the NASA/Goddard Institute for Space Studies (GISS), and the Sunspot Number (Rz) for the interval 1880–2005, are decomposed in frequency bands through wavelet multi-resolution analysis. We have found a very low correlation between global, hemispheric and latitudinal averaged air surface temperature and Rz in the 11 yr solar cycle band (8–16 years)from ~1880 to ~1950. Afterwards the correlation is higher.A very significant correlation (R ~0.57 to 0.80) is found in the ~22 yr solar Hale cycle band (16–32years) with lags from zero to four years between latitudinal averages air surface temperature and Rz. Therefore it seems that the 22 yr magneticfield solar cycle might have a higher effect on Earth’sclimate than solar variations related to the 11 yr sunspot cycle.

Résumé : La température de l'air en surface est un paramètre météorologique de base et ses variations constituent une mesure essentielle des changements climatiques globaux régionaux et locaux. Dans cette étude, les données de température du Goddard Institute pour les Etudes Spatiales (GISS) de la NASA ainsi que le Nombre de Taches solaires (Rz), pour la période 1880-2005 ont été décomposées en bandes de fréquences au moyen d'une analyse en ondelettes multi-résolue. Nous avons trouvé un coefficient de corrélation très faible entre la température moyenne de surface au niveau du globe, des hémisphères et à différentes latitudes et Rz dans la bande du cycle solaire de 11 ans (~8 à ~16 ans) de ~1850 à ~2005. Ensuite, la corrélation augmente. Une corrélation très significative (R~0,57 à 0,80) est trouvée pour la bande du cycle de Hale de 22 ans (16 à 32 ans).avec des retards qui varient entre zéro et quatre ans entre les températures moyennes de l'air en surface et Rz. Dès lors, il semble que le cycle magnétique solaire de 22 ans a un effet plus important sur le climat de la Terre que les variations du soleil relatives au cycle éruptif de 11 ans.

Je donne quelques graphiques significatifs extraits de l'article. En réalité, il s'agit d'une analyse dite "en ondelettes" qui constitue un puissant instrument pour la recherche des composantes cycliques d'une variable.

Souza et al, ont fait tourner leur programme pour différentes latitudes de la planète car un certain nombre d'articles semblaient montrer que l'effet des cycles solaires dépendait de la latitude, et pour différentes fourchettes de périodes. En voici deux exemples qui permettent d'avoir une idée, à l'oeil nu, de la pertinence des corrélations.
souza5

Recherche du cycle de Schwabe de 11 ans Décomposition entre 8 et 16 ans:

Fig. 4 . Diagramme des composantes de 8 à 16 ans, pour la température de l'air à la surface du Globe entier et des hémisphères Nord et Sud (de haut en bas).
Les composantes du nombre des taches solaires (en gris clair) sont reportées sur la figure..

 

 

 

souza3

Recherche du cycle de Hale de 22 ans : Décomposition entre 16 et 32 ans

Fig. 6. Diagramme des composantes de 16 à 32 ans, pour la température de l'air à la surface du Globe entier et des hémisphères Nord et Sud (de haut en bas).
Les composantes du nombre des taches solaires (en gris clair) sont reportées sur la figure..

 

 

Voici maintenant le tableau des coefficients de corrélation produits par cette analyse numérique, pour les différents intervalles choisis :

souza4

Table 3 : Coefficients (R) de corrélation croisée entre la température de l'air en surface et le nombre de taches solaires (Sunspot Number).

 

 

 

 

 

 

 

Comme on le voit et comme cela est précisé dans le résumé et la conclusion, les coefficient d'autocorrélation sont nettement plus élevés pour la Bande 4 (cycles de 22 ans) que pour la Bande 3 (cycles de 11 ans).
Voici les conclusions en anglais puis en français :

4. Conclusions
We have studied the spectral properties of the Global, hemi-spheric and latitudinal air surface temperature series from NASA/ GISS database and Sunspot Number. We have found several periodicities in the different latitudinal ranges. In the midst of these oscillations we have band-pass filtered temperature data around the 11 year and the 22 year periodicities. From the cross correlation between Rz and surface temperature we can conclude that 22 years solar cycle (enhanced activity on the Sun) apparently has a higher mpact over temperature than the 11 year cycle for all the geographic allocations studied (Table 3).
Although the physical mechanism that could explain the effects of solar variability on Earth’s climate cannot be determined by the present study, we can conclude that there are evidences pointing towards solar modulation of surface temperature at scales of the 22 years solar magnetic cycle. We can speculate on the fact that the 22 years signal is stronger than the 11 years in temperature time series may indicate that the mechanism could be more related to the solar magnetic field and solar wind variability, influencing Earth’s atmosphere, perhaps through galactic cosmic ray modulation of cloud cover and atmospheric electric field.This should be investigated in future works.

4- Conclusions :
Nous avons analysé les propriétés spectrales des données de température de surface du NASA/GISS pour le Globe, pour les hémisphères et à différentes latitudes, ainsi que le nombre des taches solaires. Nous avons trouvé plusieurs périodicités dans différents domaines de latitude. Nous avons appliqué des filtres passe-bandes centrés autour des périodes de 11 ans et 22 ans, au sein de ces oscillations. A partir des corrélations croisées entre Rz (NdT : C'est le Nombre de Wolf défini avec précision à partir du nombre de taches solaires apparentes) et la température de surface,
nous pouvons conclure que les cycles solaires de 22 ans (d'augmentation de l'activité solaire) ont apparemment un impact plus important sur la température que le cycle de 11 ans, et ceci pour toutes les situations géographiques que nous avons étudiées (Table 3).
Bien que les mécanismes physiques qui pourraient expliquer les effets de la variabilité solaire sur le climat terrestre ne peuvent être déterminés par notre étude, nous pouvons conclure qu'il existe des éléments de preuve qui pointent vers une modulation des températures de surface à l'échelle des 22 années du cycle magnétique solaire. Nous pouvons spéculer sur le fait que puisque le signal de 22 ans est plus fort que celui de 11 ans dans les données de température,
ceci peut montrer que le mécanisme pourrait être davantage lié au champ magnétique solaire et à la variabilité du vent solaire influant sur l'atmosphère terrestre, peut-être via une modulation du rayonnement cosmique galactique et du champ électrique atmosphérique. Ceci devrait faire l'objet d'études futures

Rappels : A noter que cette observation sur l'importance primordiale des cycles de 22 ans pour le climat, corrobore les résultats de plusieurs études antérieures telles que celles que j'ai mentionné dans plusieurs billets.

Il en va ainsi d'une étude R.V. Baker qui a publié un article particulièrement détaillé sur les corrélations entre les cycles solaires de 22 ans (2x11 cycles de Hale) et les fluctuations du SOI (Indice des oscillations Sud) de l'Est de l'Australie. Cet article est intitulé "Analyse exploratoire des similarités entre les phases magnétiques des cycles solaires et des fluctuations du SOI, dans l'Est de l'Australie".

De même, Will Alexander qui a analysé une grande quantité de données sur l'hydrologie, notamment, africaine, a identifié une nette périodicité de ~21 ans correspondant aux cycles solaires magnétiques de Hale. J'ai évoqué une petite fraction de ses résultats dans un billet antérieur.

Enfin,
comme le savent les lecteurs de ce site, Nicola Scafetta a décomposé, en spectre de puissances, les données de température du Hadley Center UK, les données HadCRUT. Entre autres, il a trouvé un pic significatif autour de la fréquence de 20-21 ans, proche de celui qu'ont trouvé les auteurs de l'article présenté dans ce billet pour les données de température GISS/NASA.
A noter également que ce cycle de 22 ans est à la base des prévisions météorologiques à moyen terme de Piers Corbyn.

Dans le prolongement de l'article de Souza et al, voici le tout récent article de Nicola Scafetta.

2) Cycles climatiques : Comparaison entre les modèles et les observations. Influence du soleil et des planètes.

La version complète du tout récent article de Scafetta (il est encore sous presse au JASTP) est disponible sur son site.

scaf1

Le titre : "Comparaison d'un modèle climatique empirique à l'échelle décennale basé sur des harmoniques astronomiques avec les modèles de circulation générale du GIEC (2007)"

Sous-presse au JASTP. Accepté le 10 Décembre 2011.

Le résumé de l'article de Scafetta est tout à fait explicite. Le voici en VO d'abord, puis en français :

Abstract : We compare the performance of a recently proposed empirical climate model based on astronomical harmonics against all CMIP3 available general circulation climate models (GCM) used by the IPCC (2007) to interpret the 20th century global surface temperature. The proposed astronomical empirical climate model assumes that the climate is resonating with, or synchronized to a set of natural harmonics that, in previous works (Scafetta, 2010b, 2011b), have been associated to the solar system planetary motion, which is mostly determined by Jupiter and Saturn. We show that the GCMs fail to reproduce the major decadal and multidecadal oscillations found in the global surface temperature record from 1850 to 2011. On the contrary, the proposed harmonic model (which herein uses cycles with 9.1, 10–10.5, 20–21, 60–62 year periods) is found to well reconstruct the observed climate oscillations from 1850 to 2011, and it is shown to be able to forecast the climate oscillations from 1950 to 2011 using the data covering the period 1850–1950, and vice versa. The 9.1-year cycle is shown to be likely related to a decadal Soli/Lunar tidal oscillation, while the 10–10.5, 20–21 and 60–62 year cycles are synchronous to solar and heliospheric planetary oscillations. We show that the IPCC GCM’s claim that all warming observed from 1970 to 2000 has been anthropogenically induced is erroneous because of the GCM failure in reconstructing the quasi 20-year and 60-year climatic cycles.
Finally, we show how the presence of these large natural cycles can be used to correct the IPCC projected anthropogenic warming trend for the 21st century. By combining this corrected trend with the natural cycles, we show that the temperature may not significantly increase during the next 30 years mostly because of the negative phase of the 60-year cycle. If multisecular natural cycles (which according to some authors have significantly contributed to the observed 1700–2010 warming and may contribute to an additional natural cooling by 2100) are ignored, the same IPCC projected anthropogenic emissions would imply a global warming by about 0.3–1.2 1C by 2100, contrary to the IPCC 1.0–3.6 1C projected warming. The results of this paper reinforce previous claims that the relevant physical mechanisms that explain the detected climatic cycles are still missing in the current GCMs and that climate variations at the multidecadal scales are astronomically induced and, in first approximation, can be forecast

Résumé : Nous comparons les performances d'un modèle climatique empirique proposé récemment avec tous les modèles climatiques de circulation générale (GCM) disponibles, les CMIP3, utilisés par le GIEC (2007) pour interpréter la température du globe durant le XXème siècle. Le modèle empirique basé sur des données astronomiques suppose que le climat est en résonance, ou synchronisé, avec un jeu d'harmoniques naturels qui, dans les modèles précédents (Scafetta, 2010b, 2011b) avaient été associés au mouvement planétaire du système solaire, lequel est essentiellement déterminé par Jupiter et Saturne.
Nous montrons que les modèles GCM échouent dans la reproduction des principales oscillations décennales et multidécennales trouvées dans les enregistrements de la température de 1880 à 2011.

A l'inverse, on trouve que le modèle harmonique proposé (qui, ici, utilise les cycles de périodes 9.1, 10-10.5, 20-21, 60-62 années) reconstruisent correctement les oscillations climatiques de 1850 à 2011. De plus, on montre que ce modèle est en mesure de prévoir les oscillations qui ont eu lieu de 1950 à 2011 en utilisant les données couvrant la période 1850-1950 , et vice-versa. On montre que le cycle de 9.1 années est probablement lié à l'oscillation soli-lunaire, tandis que les cycles de périodes 10-10.5, 20-21, 60-62 années sont synchronisés avec les oscillations planétaires solaires et héliosphériques. Nous montrons que l'affirmation des modèles GCM du GIEC selon laquelle tout le réchauffement observé de 1970 à 2000 aurait une origine humaine, est erronée du fait de l'échec des modèles GCM pour la reconstruction des cycles climatiques d'environ 20 ans et 60 ans.
Enfin, nous montrons comment la présence de ces importants cycles naturels peut être utilisée pour corriger la tendance au réchauffement anthropique projetée par le GIEC pour le XXIème siècle. En combinant cette tendance corrigée avec les cycles naturels, nous montrons que la température peut ne pas augmenter de manière significative pendant les 30 prochaines années, essentiellement du fait de la phase négative du cycle de 60 ans. Si les cycles multiséculaires naturels (qui selon certains auteurs ont largement contribué au réchauffement observé durant la période 1700-2000 et peuvent apporter un refroidissement significatif vers 2100) sont ignorés, les émissions anthropiques projetées par le GIEC impliqueraient un réchauffement climatique d'environ 0.3-1,2 °C vers 2100, contrairement au réchauffement projeté par le GIEC qui est de 1.0-3.6 °C.
Les résultats de ce travail renforcent les considérations précédentes selon lesquelles les mécanismes physiques fondamentaux qui expliquent les cycles climatiques observés, sont encore absents dans les modèles GCM actuels et que les variations climatiques à l'échelle multi-décennale sont induites par des effets astronomiques et, qu'en première approximation, elles peuvent être prédites.

Compte-tenu des restrictions de longueur imposées par les éditeurs de journaux scientifiques, il est maintenant d'usage d'accompagner l'article principal d'un "supplementary material" qui se révèle, fréquemment, contenir un grand nombre de données intéressantes. Celui de Scafetta ne fait pas exception à cette règle et de fait Le "matériel supplémentaire" y est particulièrement abondant. Il donne en particulier, toute une série de graphes comparant les résultats des modèles numériques utilisés par les grandes institutions (dont Météo-France et l'IPSL français) avec les données observées de température. J'en conseille vivement la lecture.

Le raisonnement de Scafetta qui est à la base de cette publication est assez direct. On peut l'expliquer à partir de quelques graphiques tirés de l'article original et de ses articles antérieurs.

scaf3

 

La décomposition en spectres de puissance des données de températures des principaux instituts HadCRUT3, GISTEMP, GHCH (à noter que les données satellitaires sont exclues parce qu'elles n'ont débuté qu'en 1979) montre nettement la présence de composantes cycliques de périodes 60-62 et 20-21 ans ainsi que des composantes de plus courtes périodes. Les trois spectres présentent les mêmes données cycliques.

 

 

Comme je l'ai rapporté dans un précédent billet, Scafetta et al, ont calculé la décomposition en spectre de puissance de la vitesse du soleil par rapport au centre de gravité du système solaire en fonction du temps (Le SSMC (Solar System Mass Center)). Ils ont comparé ce spectre à celui qu'ils avaient calculé à partir des données de température HadCRUT. Ils ont trouvé ceci :

scafetta1a

On retrouve, dans le spectre de vitesse du SSMC du système solaire, à très peu près, les mêmes fréquences fondamentales que dans le spectre des données de température.

Comme les données de température obtenues avec les autres bases de données, GISTEMP et GHCN présentent sensiblement le même spectre que le HadCRUT, Scafetta en conclut que les températures du globe sont influencées par la disposition des grandes planètes (Saturne, Jupiter) par rapport au soleil qui modulent la vitesse du SSMC.

S'agissant de corrélation (qui ne sont pas raison) il ne peut évidemment jamais être exclu qu'il s'agisse là d'une série de coïncidences fortuites. Néanmoins, si c'est le cas, et compte tenu du nombre de "coïncidences" il faudrait reconnaître que la Nature est plutôt facétieuse.

A noter que ce point de vue mis en avant par les travaux de Landsheidt et de Fairbridge est également défendu par plusieurs physiciens russes.

Remarquez, une fois encore, la présence des cycles de 60-62 ans (très souvent mentionnés dans ce site) et de 21 ans dont la période est très proche des cycles de Hale mentionnés dans l'article commenté ci-dessus.

Scafetta examine ensuite, de manière systématique, les résultats des modélisations des différents modèles GCM utilisés par le GIEC. Vous en trouverez la liste complète avec les graphes correspondants dans le "matériel supplémentaire" (section 2, pages 23-28) de l'article cité.
De fait, aucun des modèles numériques du GIEC ne reproduit de variation cyclique telle que celles qui sont observées dans l'analyse spectrale des températures mesurées par les grandes institutions (GISTEMP, UHCN, HadCRUT).

A titre d'exemple et s'agissant du public francophone, je me contente de reproduire ci-dessous les résultats obtenus avec de très gros ordinateurs, par le modèle CNRM-CM3 de Météo-France tels qu'on peut les trouver dans l'article, accompagné du commentaire de Scafetta.scaf5

 

La partie haute de ce graphique (en rouge) représente l'évolution de la température globale donnée par le HadCRUT3.

La partie basse (en bleu) donne les résultats des simulations numériques de Météo-France pour la même période.

 

Scafetta écrit : "Institution: Météo-France / Centre National de Recherches Météorologiques, France
Notez que les simulations croissent de manière tout à fait monotone sans aucune dynamique multidécennale.
Les importantes oscillations de 3 à 5 ans apparaissent totalement artificielles et sont sans rapport avec les oscillations ENSO réelles."

 

A noter qu'un peu plus loin dans le "matériel supplémentaire" de l'article, Scafetta reproduit les résultats du modèle CMI3 de l'IPSL (Dir. Le Treut, Jouzel) avec un commentaire analogue : "Notez que la simulation croît de manière tout à fait monotone avec une dynamique des fluctuations sans rapport avec les observations."

 

D'où, la conclusion de Scafetta : "le modèles GCM échouent dans la reproduction des principales oscillations décennales et multidécennales trouvées dans les enregistrements de la température de 1880 à 2011."

Dans le corps du texte, Scafetta écrit :

"Ainsi, on trouve que les mécanismes physiques importants pour les oscillations principales du climat sont absents des modèles climatiques obtenus par les simulations sur ordinateurs et adoptés par le GIEC (2007). Une conséquence importante de cette observation résulte dans le fait que ces modèles ont sérieusement défailli dans l'interprétation de la réalité en surestimant de manière significative la contribution anthropique, ainsi que d'autres auteurs l'ont affirmé récemment (Douglass et al., 2007; Lindzen and Choi, 2011; Spencer and Braswell, 2011). En conséquence, on ne peut pas faire confiance aux projections du GIEC pour le XXème siècle.

L'analyse en spectres de puissance permet également de tester la validité de la décomposition ainsi que d'effectuer des projections (des prévisions). C'est ainsi que Scafetta montre que si on avait connu cette décomposition spectrale en 1950, on aurait pu prévoir avec succès, la variation de la température de 1950 à 2011. Et vice versa, c'est à dire, selon Scafetta, que si l'on connaît les cycles donnés par la décomposition spectrale, et les températures de 1950 à 2011, on est capable de rétro-calculer les variations de températures des 80 années précédentes. scaf2

 

Utilisant ces données sur la décomposition spectrale et les données de température connues, Scafetta suggère une prévision pour les années à venir et les compare aux prévisions (scénarios, projections) du GIEC (en vert sur la figure ci-contre). A noter que les projections du GIEC sont constamment réactualisées (ici à partir de 2000), sans doute de manière à mieux coller à la réalité qui a été observée (!).

Malgré tout et comme on le voit, la divergence est très importante.

Pour ce qui en est de l'année 2100, Scafetta déclare "les émissions anthropiques projetées par le GIEC impliqueraient un réchauffement climatique d'environ 0.3-1,2 °C vers 2100 selon notre modèle, contrairement au réchauffement projeté par le GIEC qui est de 1.0-3.6 °C."

 

A noter que, pour ce qui concerne le débat actuel sur le climat, les cycles de 60 ans jouent un rôle crucial. En effet, la plupart des affirmations des supporters du GIEC (notamment pour ce qui concerne la fonte de l'arctique) ne remontent guère dans le temps au delà de 1979 parce que c'était le début de l'ère satellite. Or, comme on le voit, la période 1979-2000 correspond précisément à une arche montante de l'oscillation fondamentale de période 60 ans. Comme le dit Scafetta, cette oscillation naturelle est, au moins en grande partie, responsable du réchauffement (soi-disant "sans précédent" selon les médias et quelques autres), des trente dernières années du XXème siècle. De fait, il apparaît que la période récente (1979 -2000) qui correspond à une arche montante a été particulièrement favorable aux alarmistes du climat.
Par contre, il est patent que la période actuelle (depuis 2000) et la période suivante le seront probablement beaucoup moins. D'où, sans aucun doute, le sentiment d'urgence qui perfuse à travers les scientifiques impliqués et la totalité des médias francophones.

klyashtorina

Les lecteurs familiers de ce site me manqueront pas de noter la similitude de ce graphe de Scafetta avec celui de Klyashtorin et al (dont le graphe date de 2003) reproduit ci-contre, ainsi d'ailleurs qu'avec ceux de Shlesinger et Ramankutty, William Gray et al, S.I Akasofu, d'Aleo, et Mojib Latif tels que je les avais présentés dans cette chronique (2009).

Il faut préciser que Scafetta ne fait nullement mention de l'évolution à long et moyen terme de l'activité du soleil qui peut sérieusement altérer ses prévisions. C'est pour cette raison qu'il écrit prudemment dans son résumé que
" Si les cycles multiséculaires naturels (qui selon certains auteurs ont largement contribué au réchauffement observé durant la période 1700-2000 et peuvent apporter un refroidissement significatif vers 2100) sont ignorés..."

Parmi ces cycles naturels qui peuvent agir efficacement sur le climat, figurent l'évolution de l'activité solaire dans les années à venir. Comme je l'ai plusieurs fois indiqué dans ce site, de nombreux articles récents (voir ce billet et les suivants) prévoient, sur la base de multiples observations, une nette baisse de l'activité solaire dans les années et les décennies à venir. Une des questions qui fait débat est de savoir si nous risquons de rentrer dans un minimum du type Dalton (une période froide comme vers 1812) ou, plus profond et plus durable, de Maunder (une période froide comme vers 1650-1730).

Voici donc un (bref) compte-rendu d'un article qui vient de paraître sur ce sujet et qui vient compléter la longue liste des prévisions sur l'activité solaire à venir.

3) Selon Mike Lockwood et ses collègues, un Minimum du type Maunder semblerait se profiler à l'horizon...

lock1

L. Barnard, M. Lockwood, and M. J. Owens, Space Environment, Physics, Department of Meteorology, University of Reading. UK
C. J. Davis, RAL Space, Rutherford Appleton Laboratory, Harwell Campus, Chilton, Didcot, OX11 0QX, UK.
F. Steinhilber, Eawag: Swiss Federal Institute of Aquatic Science and Technology, Dübendorf, Switzerland.

Le titre : "La persistance des indicateurs de l'activité solaire et la descente du soleil dans des conditions du Minimum de Maunder."

Les lecteurs qui connaissent bien se site se souviennent qu'il a souvent été fait mention de Mike Lockwood (de l'Université de Reading UK) dans plusieurs billets. En particulier, il a participé (avec Claus Fröhlich) à une polémique assez vive avec Wilson et Scafetta, ainsi qu'avec Henrik Svensmark au sujet de l'utilisation des données PMOD au lieu et place des données ACRIM (mesures de la TSI (Total Solar Irradiance)) comme je l'avais évoqué dans ce billet. Mike Lockwood et Claus Fröhlich avaient carrément affirmé (rapporté par Nature) en 2007 que leurs travaux enfonceraient "the last nail in the coffin" comme disent les américains ( "le dernier clou dans le cercueil"), des tenants de la thèse des effets des cycles solaires sur la température terrestre. Ce qui était loin d'être le cas.

Et de fait, quelques années plus tard, peut-être motivé par la survenue du grand silence éruptif des années 2008-2009 Mike Lockwood (sans Claus Frohlich) a publié plusieurs articles montrant, à son tour, un lien effectif entre l'activité solaire et le climat (notamment dans l'hémisphère Nord et en hiver). A noter que Lockwood attribue les effets observés à la variation considérable des émissions solaires ultraviolettes durant les éruptions solaires. J'ai évoqué ces travaux dans ce billet.

On comprend dès lors que Mike Lockwood s'intéresse de très près aux prévisions sur l'activité future du Soleil dont il est d'ailleurs un des bons spécialistes..

Voici le résumé de cet article récent en VO suivi d'une traduction en français :

Abstract :
[1] The recent low and prolonged minimum of the solar cycle, along with the slow growth in activity of the new cycle, has led to suggestions that the Sun is entering a Grand Solar Minimum (GSMi), potentially as deep as the Maunder Minimum (MM). This raises questions about the persistence and predictability of solar activity. We study the autocorrelation functions and predictability R2L(t) of solar indices, particularly group sunspot number RG and heliospheric modulation potential F for which we have data during the descent into the MM. For RG and F, R2L(t) > 0.5 for times into the future of t ≈ 4 and ≈ 3 solar cycles, respectively: sufficient to allow prediction of a GSMi onset. The lower predictability of sunspot number RZ is discussed.
The current declines in peak and mean RG are the largest since the onset of the MM and exceed those around 1800 which failed to initiate a GSMi

Résumé :
[1] Le récent minimum de longue durée du cycle solaire, de concert avec la lente montée de l'activité du nouveau cycle a conduit à des suggestions que le Soleil est en passe d'entrer dans un Grand Minimum Solaire (GSMi) qui pourrait être aussi profond que le Minimum de Maunder (MM). Ceci soulève des questions quant à la persistance et à la prédictibilité de l'activité du Soleil.
Nous analysons les fonctions d'autocorrélation et de prédictibilité R2(t) des indices solaires, et en particulier le Nombre de Taches Groupé RG ainsi que le potentiel de modulation héliosphérique F pour lequel nous disposons de données lors de la descente dans le MM (Minimum de Maunder). Pour RG et F, R2 L(t)>0,5 pour des périodes futures à t ≈ 4 and ≈ 3 cycles, respectivement suffisantes pour autoriser une prévision de la venue d'une GSMi. La prédictibilité plus faible du Nombre de Taches RZ est discutée.
Le déclin actuel de la valeur au pic et en moyenne du RG est le plus grand depuis la survenue du Minimum de Maunder. Il excède ceux qui existaient vers 1800 (NdT : Le Minimum de Dalton) qui n'avaient pas réussi à déclencher un GSMi (Ndt : Un grand Minimum Solaire).

Ce résumé n'est certainement pas d'une grande clarté pour les non-spécialistes. Quelques précisions sont indispensables :

-Sur les Sunspot Number RZ (Nombre de Taches) et RG ( Nombre de Taches Groupées) :
Il existe au moins deux manières de définir l'indice de l'activité solaire mesuré par l'observation directe des éruptions solaires. Celle-ci est notamment compliquée par le fait qu'il est difficile de dénombrer des taches solaires qui se superposent en partie.
La solution la plus classique mais qui présente plusieurs inconvénients consiste à utiliser la définition (internationale) du Nombre Wolf, généralement dénoté par
Rz. Hoyt et Schatten (1998) ont proposé une caractérisation différente de l'indice de l'activité solaire en définissant une Nombre de Taches Groupées, RG qui est utilisé dans l'article de Mike Lockwood et al. Cette définition est plus précise et sans doute plus pertinente. Elle fait notamment intervenir le nombre d'observateurs indépendants qui suivent la progression des cycles solaires.

Le graphe suivant présente la variation du Nombre de Taches Groupées lors du passage d'un cycle au suivant, d'environ 1630 à l'an 2010. On pourrait dire qu'il s'agit d'une sorte de dérivée par rapport au temps (mais avec un incrément égal à une distance entre deux cycles successifs) du nombre de taches solaires aperçues dans chaque cycle successif.
On perçoit immédiatement, sur la gauche du graphique, aux alentours de 1630, la variation très importante de cette dérivée qui a accompagné la descente vers le Minimum de Maunder, de même que la fin du Minimum de Maunder (vers 1720) apparaît comme un grand pic positif. Le Minimum de Dalton (vers 1812) présente lui aussi une variation très nette, positive puis négative visible sur ce graphique. Comme on peut le constater; l'amplitude du pic correspondant au Minimum de Dalton (qui comme le disent Lockwood et al, n'a pas réussi à déclencher un GSM, Grand Solar Minimum) est moins importante que celle du pic observé lors du passage dans le Minimum de Maunder.
On peut considérer que ce type de représentation donne une image assez fidèle de ce que nous savons du passé.

Pour ce qui concerne la période actuelle, Lockwood et al ont reporté sur ce graphique les données connues jusques et y compris celles, prévues, du cycle solaire 24 en cours. Comme on peut l'observer sur la partie droite du graphique, nous assistons actuellement et depuis 1985 environ à une variation notable du Nombre de Taches Groupées d'un cycle à l'autre. L'amplitude observée est effectivement de l'ordre de celle qui fut observée lors de la descente dans le précédent Minimum de Maunder.

lock2

 

 

"Figure 5. Variations des changements du Sunspot Number groupé, d'un cycle au suivant (DRG) (NdT : Lire Delta R indice G, c'est à dire la variations du Nombre de Taches Groupé).
En rouge : les valeurs maximales.
En bleu : les valeurs minimales.
En noir : Les moyennes sur les cycles solaires. .


. Les bandes verticales grises (pair) et blanches (impair) symbolisent la parité du numéro du cycle.

Les cercles rouges et les points noirs avec les barres d'erreur ainsi que les lignes en tiretés rouges et noirs font usage des prédictions pour le cycle 24 de Owens et al [2011b] pour, respectivement, les valeurs aux pics et les valeurs moyennes.

 

S'agissant de prédictions du comportement du soleil, il convient d'être prudent. La physique du soleil est très loin d'être comprise.

D'ailleurs, les spécialistes ne sont pas d'accord sur ce sujet : Entre autres, Samir Solanki hésite mais penche plutôt pour une baisse d'activité limitée. Jager pour un Minimum de Dalton ou, mais c'est moins probable selon lui, un Minimum de Maunder...Bref, personne n'est sûr de rien.
Néanmoins et au vu de ce graphique, il se pourrait bien en effet que nous connaissions, dans un futur proche, une baisse considérable de l'activité solaire qui au moins d'un point de vue historique, se traduit par une période de refroidissement.
C'est ce qu'avait noté le professeur Liu comme je l'ai indiqué dans un récent billet : les périodes de faible activité solaire ont systématiquement correspondu à des périodes plus froides.

Nous verrons bien ! Ainsi va la science.
Wait and see, ce qui est, à mon humble avis, la seul attitude scientifique raisonnable.
____________________________________________________________________________

Note : Les résultats des mesures de la température globale moyenne (et mois par mois), pour l'année 2011, seront bientôt tous disponibles. Le prochain billet leur sera consacré.
En consultant les données officielles des différentes institutions, nous verrons que la température moyenne du globe a bien baissé au cours de l'année 2011 (par rapport aux années précédentes de ce siècle).

Ceci est à l'opposé de ce qu'a voulu vous faire croire (et parfois réussi, hélas) une campagne éhontée menée par un certain nombre (mais pas tous) de médias qui ont dissimulé au public le fait que les affirmations d'un simple bulletin de Météo-France ne concernaient guère que notre pays (c'est à dire peu plus d'un millième de la surface du globe) et non pas le Globe tout entier qui lui, au contraire, s'est refroidi.
C'est ainsi que de nombreux lecteurs, auditeurs, spectateurs ont été désinformés et s'imaginent encore que l'année 2011 a été particulièrement chaude pour le globe tout entier et que cela "prouve" la réalité du réchauffement climatique anthropique.
Il y a donc quelques bonnets d'âne en perspective...

06 Avril 2012 :Les recherches qui analysent l'influence de l'activité solaire sur le climat se multiplient ...

Parmi d'autres, et dans la ligne des trois précédents que j'avais analysés (ci-dessus) en Janvier 2012, voici encore six nouveaux exemples d'articles scientifiques, tous publiés récemment, qui (re)découvrent les effets "cachés" du soleil sur le climat.
_________________________________________________________________________________________________________

1) Cycles solaires et climat hivernal de l'hémisphère Nord

Pour tous ceux qui s'interrogent sur l'influence des variations de l'activité solaire sur le climat, l'article commenté ci-dessous constitue une première.
En effet, il s'agit ici d'analyse numérique, c'est à dire de modèles informatiques. Les auteurs qui relèvent du Hadley Center - Met Office (UK), de l'Université d'Oxford et de l'Imperial College of London, rapportent qu'en incluant les derniers résultats des mesures d'irradiance solaire, en tenant compte, dans les modèles, des grandes variations des ultraviolets émis lors des éruptions solaires, on retrouve des configurations de pression atmosphérique qui rappellent fortement celles de l'Oscillation Arctique dont on connaît l'influence sur le climat.

Jusqu'à présent, les effets possibles des variations de l'irradiance solaire sur le climat étaient plus ou moins ignorés ou laissés de côté (Voir le rapport AR4 du GIEC), parce que la variation globale de la TSI (le flux total intégré sur toutes les longueurs d'onde) est très faible (environ 0,1%) et qu'ils ne ressortaient pas des modèles informatiques du climat.
C'est donc un grand pas en avant publié dans Nature Geoscience, même si le résultat reste à confirmer.

solar2

Le titre : "Forçage solaire de la variabilité du climat hivernal dans l'hémisphère Nord."
Publié le 9 Oct. 2011

Voici le résumé original (les citations ont été retirées. Elles ne sont d'aucune utilité à moins de disposer de l'article complet (et payant)), suivi d'une traduction en français :

Abstract : An influence of solar irradiance variations on Earth’s surface climate has been repeatedly suggested, based on correlations between solar variability and meteorological variables. Specifically, weaker westerly winds have been observed in winters with a less active sun, for example at the minimum phase of the 11-year sunspot cycle.With some possible exceptions, it has proved difficult for climate models to consistently reproduce this signal. Spectral Irradiance Monitor satellite measurements indicate that variations in solar ultraviolet irradiance may be larger than previously thought. Here we drive an ocean–atmosphere climate model with ultraviolet irradiance variations based on these observations. We find that the model responds to the solar minimum with patterns in surface pressure and temperature that resemble the negative phase of the North Atlantic or Arctic Oscillation, of similar magnitude to observations. In our model, the anomalies descend through the depth of the extratropical winter atmosphere. If the updated measurements of solar ultraviolet irradiance are correct, low solar activity, as observed during recent years, drives cold winters in northern Europe and the United States, and mild winters over southern Europe and Canada, with little direct change in globally averaged temperature. Given the quasiregularity of the 11-year solar cycle, our findings may help improve decadal climate predictions for highly populated extratropical regions.

Résumé : Il a été suggéré, de manière répétée, qu'il existait une influence des variations de l'irradiance solaire sur le climat à la surface de la Terre. Ceci était basé sur des corrélations entre la variabilité solaire et les variables météorologiques. De manière plus spécifique, on a observé des vents d'ouest plus faibles en hiver lorsque le soleil était moins actif, par exemple lors de la phase minimale du cycle solaire de 11 ans. A quelques exceptions possibles près, les modèles climatiques ont éprouvé des difficultés à simuler ce signal de manière reproductible. Les mesures satellitaires du Suivi de l'Irradiance Spectrale (SIM) montrent que les variations dans l'ultraviolet peuvent être plus importantes qu'on ne le pensait auparavant.
Dans ce travail nous utilisons un modèle climatique océan-atmosphère avec des variations d'irradiance ultraviolette basés sur les observations.
Nous trouvons que le modèle répond au minimum solaire en produisant des structures de pression atmosphérique en surface et des températures qui ressemblent à la phase négative de l'Oscillation Nord Atlantique ou de l'Oscillation Arctique, de même amplitude que celles qui sont observées. Dans notre modèle, les anomalies traversent l'épaisseur de l'atmosphère extratropicale en hiver. Si les mesures mises à jour de l'irradiance ultraviolette sont correctes, une faible activité solaire, telle que celle qui a été observée durant les années récentes, détermine les hivers froids dans l'Europe du Nord et aux Etats -Unis ainsi que des hivers doux dans l'Europe du Sud et au Canada, avec une faible variation directe de la moyenne de la température globale. Etant donnée la quasi-régularité du cycle solaire de 11 ans, nos résultats peuvent contribuer à l'amélioration des prédictions décennales pour les régions extra-tropicales très peuplées.

Comme c'est souvent le cas, la fin de l'article rapporte quelques remarques intéressantes. Notamment, on peut y lire ceci :

"On decadal timescales the increase in the NAO from the 1960s to 1990s, itself known to be strongly connected to changes in winter stratospheric circulation, may also be partly explained by the upwards trend in solar activity evident in the open solar-flux record. There could also be confirmation of a leading role for the `top-down' influence of solar variability on surface climate during periods of prolonged low solar activity such as the Maunder minimum if the ultraviolet variations used here also apply to longer timescales."

[...] A l'échelle décennale, la croissance de la NAO de 1960 jusqu'aux années 1990, elle-même connue pour être fortement connectée aux variations de la circulation stratosphérique, peut aussi être en partie expliquée par la tendance à la hausse de l'activité solaire qui est clairement visible dans l'enregistrement du flux solaire ouvert (NdT : OSF, Open Solar Flux). Ceci pourrait également confirmer le rôle décisif de l'influence "du haut vers le bas" (NdT : Top-Down) de la variabilité solaire sur le climat de la surface (NdT : de la Terre) durant les périodes de faible activité solaire telles que durant le Minimum de Maunder, si les variations dans l'ultraviolet utilisées dans notre travail s'appliquent également sur de plus longues échelles de temps.

Dans le même numéro, Nature Geoscience publie, dans sa section "News and Views", un commentaire/explication des résultats obtenus par Ineson et al.

Voici, ci-dessous, l' en-ête de ce commentaire ("Cycle solaire et prédictions climatiques") illustré par une image qui décrit la situation de l'hémisphère Nord dans le cas d'une NAO négative. Dans sa phase négative, l'Oscillation Atlantique Nord (NAO) (ou l'Oscillation Arctique (AO), voir page "indicateurs") résulte en un affaiblissement des vents d'Ouest, doux et chargés d'humidité, et d'une descente d'air froid sur les Etats-Unis et l'Europe du Nord comme cela est représenté sur l'image ci-dessous à droite.
solar4solar3

Cycles solaires et prédictions climatiques :

Le texte de l'intitulé : "L'impact de l'activité solaire sur le climat est un sujet âprement débattu. Des simulations effectuées avec un modèle climatique et des observations récentes de la variabilité solaire suggèrent qu'il existe une influence substantielle sur le climat hivernal dans l'hémisphère Nord."

La légende de l'image ci-dessus, à droite, est la suivante :

"Phase négative de l'Oscillation Nord Atlantique. Quand l'indice NAO est faible, comme il l'a été durant les hivers de 2008/2009 à 2010/2011, la trajectoire des orages Nord Atlantique est peu marquée [NdT : Ce qui signifie que les perturbations adoucissantes venant de l'Atlantique sont affaiblies] et que l'Europe du Nord subit des hivers froids . Les simulations numériques du climat d'Ineson et de ses collègues suggèrent que la variation de l'irradiance UV quand on passe d'un maximum d'activité solaire à un minimum - estimés d'après les mesures de SORCE - poussent l'atmosphère de l'hémisphère Nord vers la phase négative de la NAO."

L'auteur de ce commentaire, Katja Matthes, attire l'attention sur le fait qu'il s'agit de résultats préliminaires qui demandent - bien sûr - confirmation.

______________________________________________________________________________________________________

2) Activité solaire et fluctuations hydroclimatiques

Voici maintenant un article tout récent, publié dans les GRL et intitulé "La composante hydrologique du climat du Nord-Est des Etats Unis est hautement sensible au forçage solaire."
Cet article attire l'attention sur le lien (maintes fois signalé par Will Alexander et d'autres (voir plus haut dans cette page)) qui existe entre la pluviométrie (niveau des lacs, débit des fleuves etc.) et l'activité solaire.

solar1
Publié le 29 Février 2012.

1Department of Geological Sciences, Brown University, Providence, Rhode Island, USA.
2Goddard Institute for Space Studies, New York, New York, USA.
3Lamont-Doherty Earth Observatory, Earth Institute at Columbia University, Palisades, New York, USA.

Abstract : Dramatic hydrological fluctuations strongly impact human society, but the driving mechanisms for these changes are unclear. One suggested driver is solar variability, but supporting paleoclimate evidence is lacking. Therefore, long, continuous, high-resolution records from strategic locations are crucial for resolving the scientific debate regarding sensitivity of climate to solar forcing. We present a 6800–year, decadally-resolved biomarker and multidecadally-resolved hydrogen isotope record of hydroclimate from a coastal Maine peatland, The Great Heath (TGH). Regional moisture balance responds strongly and consistently to solar forcing at centennial to millennial timescales, with solar minima concurrent with wet conditions. We propose that the Arctic/ North Atlantic Oscillation (AO/NAO) can amplify small solar fluctuations, producing the reconstructed hydrological variations. The Sun may be entering a weak phase, analogous to the Maunder minimum, which could lead to more frequent flooding in the northeastern US at this multidecadal timescale.

Résumé : Les fluctuations hydrologiques de grande amplitude ont un fort impact sur la société humaine mais les mécanismes qui sous-tendent ces variations ne sont pas clairs. Certains ont suggéré que le moteur est la variabilité solaire mais les preuves paléoclimatiques en faveur de cette hypothèse manquent. C'est pourquoi, des enregistrements sans interruptions et de longues durées, prélevés dans des endroits stratégiques, sont cruciaux pour la résolution du débat scientifique qui concerne la sensibilité au forçage solaire.
Nous présentons un enregistrement de 6800 ans, avec une résolution décennale, obtenus à partir de bio-marqueurs et des isotopes de l'hydrogène résolus à l'échelle multidécennale, des conditions climatiques hydrologiques tirées d'une tourbière du Maine, La Grande Bruyère (TGH : The Great Heath).
L'équilibre en humidité dans cette région, répond fortement et de manière reproductible au forçage solaire. Et ceci de l'échelle centenaire à l'échelle millénaire, avec des conditions humides lorsque l'activité solaire est minimale. Nous proposons que les Oscillations de l'Atlantique Nord (ou les Oscillations Arctiques) sont capables d'amplifier les faibles fluctuations du soleil, induisant ainsi les variations hydrologiques. Il est possible que le Soleil vienne à rentrer dans une phase peu active, analogue au Minimum de Maunder, ce qui pourrait conduire à des inondations plus fréquentes dans la partie Nord-Est des Etats-Unis à cette échelle multidécennale.

A noter que cet article qui, lui, résulte de données observationnelles, parvient à une conclusion assez voisine (c'est à dire sur l'effet amplificateur via la NAO et l'AO des effets du soleil lors des éruptions solaires) de celui qui précède et qui résultait, lui, d'une modélisation numérique.

Après une longue période de silence, voire de dénégation quant aux effets de l'activité solaire, il semble que l'on progresse du côté des laboratoires et des institutions traditionnellement proches du GIEC.

_________________________________________________________________________________________________________________

3) Activité solaire et climat (température et pluviométrie) au Brésil :

Voici encore un autre article récent qui établit le lien cycles solaires/climat. Il vient de paraître dans le JASTP (Journal of Atmospheric and Solar-Terrestrial Physics) sous la signature d'un groupe de chercheurs brésiliens.

Son titre : Variabilité des paramètres de la pluviométrie et de la température (1912-2008) mesurés à Santa Maria et leurs connexions avec l'ENSO et l'activité solaire.

solar9

Publié online le 24 décembre 2011.

a b s t r a c t :
In this work, we analyze the long term variability of rainfall and temperature (1912–2008) of Santa Maria (291S, 531W) and its possible connection with natural influences such as solar activity and ENSO. Temperature and rainfall present similar frequencies as revealed by spectral analyses. This analysis shows a large number of short periods between 2–8 years and periods of 11.8–12.3, 19.1–21.0, and 64.3–82.5 years. The cross correlation for rainfall and temperature versus Southern Oscillation Index (SOI) have higher cross-power around 2–8yr. Rainfall and temperature versus sunspot number (Rz) showed higher cross-power around the 11-yr solar cycle period. A high and continuous cross correlation was observed for Rz-22 yr versus rainfall and temperature. Furthermore, the power between 22-yr solar cycle and meteorological parameters was higher than that obtained with the 11-yr solar cycle, suggesting that the effect of Hale cycle on climate may be stronger than the Schwabe cycle effect. These results indicate that the variability of rainfall and temperature is closely related to the variation of the Southern Oscillation Index and solar activity, and that the El Nino Southern Oscillation and solar activity probably play an important role in the climate system over Southern Brazil
.

Résumé :
Dans ce travail nous analysons la variabilité à long terme de la pluviométrie et de la température (1912 - 2008) à Santa Maria ( 291 S, 531 W) et ses possibles connexions avec les influences naturelles telles que l'activité solaire et l'ENSO. La température et la pluviométrie présentent des fréquences similaires ainsi que cela est révélé par les analyses spectrales. Cette analyse montre un grand nombre de périodes courtes entre 2 et 8 ans, et des périodes de 11.8–12.3, 19.1–21.0, et de 64.3–82.5 années. La corrélation croisée pour la température et la pluviométrie par rapport à l'Indice SOI ont des puissances plus élevées vers 2-8 ans. La pluviométrie et la température par rapport au nombre des taches solaires (Rz) ont révélé des puissances plus élevées autour de la période du cycle solaire de 11 ans. Une forte et continue corrélation croisée a été observée pour le cycle Rz de 22 ans par rapport à la température et la pluviométrie. De plus, la puissance entre le cycle de 22 ans et les paramètres météorologiques a été plus élevée que celle obtenue avec le cycle solaire de 11 ans ce qui suggère que l'effet du cycle de Hale sur le climat peut-être plus fort que celui du cycle de Schwabe. Ces résultats montrent que la variabilité de la température et de la pluviométrie est étroitement lié à la variation de l'Indice SOI et à l'activité solaire et que l'ENSO et l'activité solaire jouent probablement un rôle important dans le climat qui règne dans le sud du Brésil.

En bref et selon cette étude :

  • La température et la pluviométrie présentent des fréquences similaires comme le montre l'analyse spectrale.
  • Dans le domaine des basses fréquences, le cycle de Hale (22 ans) est un facteur important dans la modulation du climat.
  • L'effet du cycle de Schwabe (11 ans) est aussi statistiquement significatif.
  • Dans le domaine des hautes fréquences, l'ENSO a une influence dominante sur la variabilité climatique.

A noter que cette observation sur l'importance primordiale des cycles de 22 ans (de Hale) pour le climat et surtout pour la pluviométrie, corrobore les résultats de plusieurs études antérieures telles que celles que j'ai mentionné dans plusieurs billets antérieurs.

Il en va ainsi d'une étude R.V. Baker qui avait publié un article particulièrement détaillé sur les corrélations entre les cycles solaires de 22 ans (2x11 cycles de Hale) et les fluctuations du SOI (Indice des oscillations Sud) de l'Est de l'Australie. Cet article est intitulé "Analyse exploratoire des similarités entre les phases magnétiques des cycles solaires et des fluctuations du SOI, dans l'Est de l'Australie".

De même, Will Alexander qui a analysé une grande quantité de données sur l'hydrologie, notamment, africaine, a identifié une nette périodicité de ~21 ans correspondant aux cycles solaires magnétiques de Hale. J'ai évoqué une petite fraction de ses résultats dans un billet précédent .

Enfin,
comme le savent les lecteurs de ce site, Nicola Scafetta a décomposé, en spectre de puissances, les données de température globales du Hadley Center UK, (HadCRUT3). Entre autres, il a trouvé un pic significatif autour de la fréquence de 20-21 ans, proche de celui qu'ont trouvé les auteurs de l'article présenté ci-dessus.

__________________________________________________________________________________________________

Voici maintenant une analyse intéressante des reconstructions des températures (et de salinité) de la surface de l'océan durant les 10.000 dernières années qui montre, entre autres, l'intervention des facteurs naturels durant l'Holocène et notamment ceux qui sont liés à l'activité solaire. Les lecteurs qui ont parcouru cette page savent que ce genre de signature a été rencontré à de multiples reprises dans un grand nombre d'indicateurs répartis sur toute la planète. Dans cet article, les indicateurs (les proxys) sont deux espèces planctoniques foraminifères.

4) Climat et cycles solaires durant les 10000 ans passés :

solar6

1Laboratoire des Sciences du Climat et de l’Environnement, CEACNRS-UVSQ/IPSL, Gif-sur-Yvette, France.
2Actuellement au Lamont-Doherty Earth Observatory, Columbia University, Palisades, New York, USA.
3Laboratoire de Morphodynamique Continentale et Côtière, Département de Géologie, Université de Rouen, UMR CNRS/INSU 6143,
Mont-Saint-Aignan, France.
4Department of Sedimentology and Marine Geology, FALW, VU University Amsterdam, Amsterdam, Netherlands.

L'introduction de cet article constitue un résumé pertinent de l'état des connaissances en matière de paléoclimatologie de l'Holocène qui est la période géologique qui couvre les quelques 10.000 dernières années. En voici deux larges extraits :

1. Introduction (extraits)
[...]
[2] The last decade of paleoclimate research has shown that the Holocene is not the stable, climatic event-free period as previously thought: both external and internal (oceanic) forcings have caused major climatic changes. Abrupt events such as the 8.2 ka event [Alley et al., 1997] or the end of the African Humid Period [de Menocal et al., 2000], periodic variability like the 1500 years Bond’s cycle [Bond et al., 1997] or the large shifts in Asian monsoon intensity [Wang et al., 2005] demonstrate the dynamic range of Holocene climate and make this epoch a particularly interesting target of study. On a shorter time scale, observations over about the last 50 years show interannual and decadal climate change. These fluctuations probably persisted throughout the Holocene, together with centennial to millennial variability.

[3] External climate forcing across the Holocene changed with both solar insolation and, on shorter timescales, solar irradiance (sun activity). At 30°N, changes in the configuration of the earth’s orbit from 10 to 0 ka resulted in a summer insolation decrease but a very weak mean annual insolation increase (+0,025 Watt/m2 [Laskar, 1990; Laskar et al., 2004]). On top of these orbital settings, solar irradiance varies on much shorter time scales. Its impact on Earth shows a high frequency variability of about 1 Watt/m2 over the last 9.3 ka [Steinhilber et al., 2009]. Recent events, like the Maunder Minimum (17th century), illustrated climate sensitivity to solar variation [Waple et al., 2002]. On the millennial time scale, periodicities of about 2250-year, 1000-year, 550-year, 400-year or 220-year [Debret et al., 2007; Dima and Lohmann, 2009; Knudsen et al., 2009; Rimbu et al., 2004; Steinhilber et al., 2010] have been attributed to solar variability. Model simulation [Swingedouw et al., 2011] and past reconstructions [Knudsen et al., 2009; Lohmann et al., 2004; Morley et al., 2011] support an ocean atmosphere mechanism amplifying the impact of small total irradiance change on the climate.[...]


Traduction :

[2] En matière de recherche paléoclimatique, la dernière décennie a reconnu que l'Holocène n'est pas une période stable, dépourvue d'événements climatiques ainsi qu'on le pensait auparavant : Tout à la fois, des forçages externes et internes (océaniques) ont été la cause de changements climatiques majeurs. Des événements brutaux tels que celui de 8,2kA (8200 ans) [Alley et al, 1997] ou la fin de Le Période Humide Africaine [de Menocal et al, 2000], une variabilité périodique telle que le cycle de Bond de 1500 ans [Bond et al, 1997] ou encore les grandes variations dans l'intensité des moussons en Asie [Wand et al, 2005] démontrent l'amplitude dynamique du climat de l'Holocène et font de cette époque un objet d'étude particulièrement intéressant. Sur une échelle de temps plus courte, des observations sur les 50 dernières années montrent un changement climatique à l'échelle interannuelle et décennale. Ces fluctuations ont probablement perduré tout au long de l'Holocène, accompagnant la variabilité centenaire et millénaire.

[3] Le forçage climatique externe, à travers l'Holocène, a varié, tout à la fois, du fait de l'insolation solaire et, sur des échelles de temps plus courtes, du fait de l'irradiance solaire (activité solaire). A 30° de latitude Nord, les variations dans la configuration orbitale de la Terre, de 10kA à 0 kA ont résulté en une décroissance de l'insolation estivale mais aussi en une très faible variation de l'insolation moyenne annuelle (+ 0;025 Watts/m2, [Laskar, 1990; Laskar et al., 2004]). Par dessus ces configurations orbitales, l'irradiance solaire varie sur des échelles de temps beaucoup plus courtes. Son impact sur la Terre montre une variabilité à haute fréquence d'environ 1 Watt/m2 durant les dernières 9,3 kA [Steinhilber et al., 2009]. Des événements récents, tels que le Minimum de Maunder (17ème siècle) ont illustré la sensibilité climatique aux variations du soleil [Waple et al., 2002]. A l'échelle millénaire, des périodicités d'environ 2250 ans, 1000 ans, 550 ans, 400 ans ou 220 ans [Debret et al., 2007; Dima and Lohmann, 2009; Knudsen et al., 2009; Rimbu et al., 2004; Steinhilber et al., 2010] ont été attribuées à la variabilité solaire. Des simulations numériques [Swingedouw et al., 2011] et des reconstructions du passé [Knudsen et al., 2009; Lohmann et al., 2004; Morley et al., 2011] vont dans le sens d'un mécanisme impliquant l'océan et l'atmosphère qui amplifient l'impact de faibles variations de l'irradiance totale sur le climat.[...]

A noter, en particulier, que, parmi d'autres, diverses versions des résultats de Knudsen et al, 2009 mentionnés ici, sont citées à plusieurs reprises, plus haut dans cette page.

Et enfin, voici la fin de la conclusion de cet article :

"In this paper, we present temperature and salinity reconstructions off Cape Hatteras (North Carolina, USA) that cover the last 10 ka and discuss variability at the centennial millennial time scale. We combined trace element and oxygen isotopic composition analyses on two planktonic foraminifera species to estimate past SST, past surface seawater oxygen isotopic values (a proxy for salinity) and upper thermocline conditions. We performed wavelet analysis on high-resolution surface reconstructions to find the periodicity embedded in our signals. In the discussion, we first compare our results with northeastern Atlantic climate reconstructions and evaluate NAO-like patterns. Second, we compare the paleo-hydrology off Cape Hatteras with a past reconstruction from a Great Bahamas Bank core, which represents the ‘pure’ Gulf Stream signal, and discuss the possible link with large-scale currents or MOC changes. Finally, we discuss the periodicities highlighted by the wavelet analysis and suggest a solar origin."

Dans cet article, nous présentons des reconstructions de température et de salinité au large du Cap Hatteras (Caroline du Nord, USA) qui couvre les 10.000 dernières années et nous discutons la variabilité à l'échelle centenaire et millénaire. Nous utilisons des combinaisons d'analyses d'éléments à l'état de trace et de la composition en isotopes de l'oxygène prélevés sur deux espèces planctoniques foraminifères, pour obtenir une estimation de la température de surface des mers (SST), une estimation des composantes isotopiques de l'oxygène de l'eau en surface lors des temps passés (c'est un indicateur pour la salinité) et les conditions de la thermocline supérieure. Nous effectuons une analyse en ondelettes sur les reconstructions de surface à haute résolution afin de trouver les périodicités présentes dans nos signaux. Lors de la discussion, nous comparons tout d'abord nos résultats avec les reconstructions du climat Nord-Atlantique et nous évaluons les structures de type NAO. Dans un second temps, nous comparons l'histoire paléo-hydrologique au large du Cap Hatteras avec une reconstruction du passé obtenu à partir du coeur de la Great Bahamas Bank (NdT : La berge des Grandes Bahamas), qui représente le signal "pur" du Gulf Stream et nous discutons le lien possible entre les courants à grande échelle ou avec les variations de la MOC (NdT : Meridional Overturning Circulation). Enfin , nous discutons sur les périodicités mises en lumière par l'analyse en ondelettes et suggérons une origine solaire.

___________________________________________________________________________________________

Les lecteurs attentifs se souviennent des travaux, publiés en 1991, de deux chercheurs Danois Friis-Christensen et Lassen (Science 254, 698, 1991). Ces chercheurs avaient publié un graphe remarquable qui mettait en évidence une corrélation possible entre l'évolution de la température et la durée des cycles solaires (de Hale). Bien que ces résultats, qui ont probablement donné naissance à ce que Svensmark a appelé la "cosmoclimatologie", aient été confirmés (et prolongés) par d'autres groupes de chercheurs (voir ici et ici), le doute a subsisté jusqu'à ce jour parce que la corrélation ne semblait pas se prolonger au delà des années 1990.

Voici un article tout récent qui confirme l'existence d'une corrélation 'durée des cycles solaires/ températures' jusqu'à nos jours, au moins pour plusieurs stations de l'hémisphère Nord. L'analyse montre que la corrélation requiert un retard de 11 ans environ.
A noter que l'un des auteurs, le climatologue norvégien Ole Humlum, gère l'excellent site des indicateurs climatiques (climate4you).

5) Durée des cycles solaires et températures dans l'hémisphère Nord.

solar10

Titre : " Le cycle solaire de longue durée N°23 prédit une baisse de température significative lors du cycle N°24."
Disponible online le 16 février 2012.

Abstract
Relations between the length of a sunspot cycle and the average temperature in the same and the next cycle are calculated for a number of meteorological stations in Norway and in the North Atlantic region. No significant trend is found between the length of a cycle and the average temperature in the same cycle, but a significant negative trend is found between the length of a cycle and the temperature in the next cycle.This provides a tool to predict an average temperature decrease of at least 1:0 1C from solar cycle 23 to solar cycle 24 for the stations and areas analyzed. We find for the Norwegian local stations investigated that 25–56% of the temperature increase the last 150 years may be attributed to the Sun. For 3 North Atlantic stations we get 63–72% solar contribution.This points to the Atlantic currents as reinforcing a solar signal.

Résumé :

Nous étudions les relations entre la longueur d'un cycle solaire et la température moyenne durant le même cycle et durant le cycle solaire suivant et ceci pour un certain nombre de stations météorologiques en Norvège et dans la région Nord Atlantique. On ne trouve aucune tendance significative entre la longueur d'un cycle solaire et la température moyenne durant le même cycle mais on trouve une tendance négative significative entre la durée d'un cycle et la température durant le cycle suivant. Ceci fournit un outil pour prédire une décroissance de la température moyenne d'au moins 1,0°C en allant du cycle 23 au cycle 24 pour les stations et les zones que nous avons analysées. Nous trouvons que pour les stations Norvégiennes étudiées, 25 à 56% de l'augmentation de température durant les 150 dernières années peuvent être attribués au Soleil. Pour trois stations situées dans l'Atlantique Nord, nous obtenons une contribution du soleil de 63 à 72%. Ceci indiquerait que ce sont les courants atlantiques qui renforcent le signal solaire.

Cette dernière phrase est cohérente avec les conclusions des deux premiers articles cités dans ce billet.

solar14

 

Les auteurs ont analysé les relevés de température de plusieurs stations météorologiques situées dans l'hémisphère Nord. Voici, ci-contre, les situations des 13 stations choisies pour la fiabilité de leurs relevés, impliquées par cette étude.

 

 

Comme on peut le constater, ces stations sont réparties entre le Groenland, l'Islande, L'Irlande (Armagh), La Norvège, la Russie, L'île de Svalbard etc.

 

 

Voici, ci-dessous et à titre d'exemple, les relevés effectués à la station de Torshavn. L'article rapporte des relevés similaires pour toutes les autres stations indiquées ci-dessus.

solar11

La partie centrale de ce groupe de graphes montre qu'il n'existe apparemment pas de corrélation entre les variations de température et la longueur du cycle de Schwabe (La température ne varie pas en fonction de la longueur du cycle, graphe de gauche). Par contre, on voit dans la partie droite du graphe (colorée en bleu par mes soins) qu'il existe une corrélation significative (à 95%, entre les lignes en pointillé, selon les auteurs) entre la durée du cycle précédant la mesure de température et cette dernière. Ce type de corrélation négative (c'est à dire que la température diminue quand la durée du cycle de Schwabe précédent s'allonge) se retrouve dans la totalité des treize stations météorologiques analysées.

Le graphe situé en haut indique le résidu des variations de températures lorsque l'on a soustrait la contribution des cycles solaires.

Celui du bas montre la variation de température de 1890 à 2008 (traits fins noir) à laquelle est superposée la tendance moyenne de la température. Le symbole "diamant" figurant sur la droite du graphique, indique la prévision des auteurs sur la température vers la fin du cycle 24.

 

 



En bref (au moins pour les zones étudiées dans cet article) :

  • Un cycle solaire plus long présage une température plus basse durant le cycle suivant.
  • Une baisse de température de 1°C ou plus est prédite pour la période 2009-2020 dans certaines zones.
  • L'activité solaire pourrait avoir contribué pour 40% ou plus pour la hausse des températures du siècle dernier.
  • Un retard de 11 ans donne une corrélation maximale entre la durée du cycle solaire et la température.

_______________________________________________________________________________________________________

Pour sa part, Nicola Scafetta poursuit ses recherches sur l'influence possible des grandes planètes (Jupiter et Saturne) qui gravitent autour du soleil comme je l'avais décrit dans un billet antérieur. Selon ses travaux (et ceux d'équipes Russes), ce sont les diverses configurations de ces planètes autour du soleil qui donneraient lieu aux variations climatiques cycliques (notamment le fameux cycle d'environ 60 ans souvent mentionné) observées sur la Terre.

6) Nicola Scafetta : Le soleil, Jupiter, Saturne et le climat sur Terre :

solar13

Disponible online 8 Mars 2012.

Titre : "Modèle harmonique multi-échelle pour les variations cycliques du climat durant l'Holocène, basé sur les fréquences des forces de marée Jupiter-Saturne plus le cycle de la dynamo solaire de 11 ans. "

Cet article fait allusion aux "forces des marées". En effet, Nicola Scafetta (et d'autres) envisage la possibilité que les mouvements des grandes planètes et leurs situations relatives autour du soleil, exercent, sur ce dernier, des forces analogues à celles qu'exerce la lune sur les océans terrestres. Cependant, la physique du soleil, et notamment celle de son activité éruptive, sont si mal connues qu'il est très difficile d'avancer un calcul précis sur les effets mis en jeu. Tout cela relève donc encore du domaine des hypothèses, bien confortées, il est vrai, par une série d'observations qui peuvent difficilement être considérées comme fortuites.

Le graphe suivant montre la superposition de la reconstruction de température de Ljungqvist (2010) qui couvre les 2000 dernières années avec les résultats de la superposition harmoniques (traits verticaux rouges) obtenue par Scafetta. La coïncidence est remarquable. solar12

 

 

RWP : Période chaude romaine.
DACP : Période froide (Dark age cold period)
MWP : Période chaude, Optimum Médiéval
LIA : Petit âge glaciaire.
CWP : Période chaude actuelle.

 

 

 

 

 

 

En bref (selon le JASTP) :

  • On reproduit la dynamique solaire de l'holocène à nos jours en utilisant les harmoniques de Jupiter/Saturne/Schwabe.
  • On reconstruit la variabilité climatique de l'holocène à nos jours, à partir des même harmoniques.
  • On trouve des harmoniques de battement des fréquences principales avec des périodes de 61, 115, 130 and 983 années.
  • On explique les grands minima solaires de Oort, Wolf, Spörer, Maunder et Dalton.
  • On prévoit qu'un nouveau grand minimum solaire (refroidissement du climat ?) devrait se produire en 2020–2045 A.D.

_____________________________________________________________________________________________________

Conclusion : La variabilité solaire, longtemps délaissée (négligée, oubliée ?) par les climatologues mainstream et notamment par le GIEC dans son dernier rapport AR4 (2007), semble actuellement faire l'objet d'un regain d'intérêt.
C'est ainsi que la climatologue
Judith Curry (très fréquemment citée dans ce site) a fait cette déclaration lors d'un récent interview :
curry3

" Je suis absolument convaincue que plus d'efforts doivent être consacrés à la détermination des effets du soleil sur notre climat. Le soleil fait l'objet d'un intérêt croissant (et les budgets aussi) et il y a actuellement un débat en cours sur l'interprétation des dernières mesures satellitaires (NdT : Judith Curry fait sans doute allusion aux derniers résultats de SORCE qui montrent que les variations dans l'ultraviolet, lors des éruptions, sont beaucoup plus importantes qu'on ne le pensait), quant à la reconstruction de l'activité solaire des temps passés et quant à la prédiction de la variabilité solaire pendant le XXIème siècle. Pratiquement tous les scientifiques spécialistes du soleil prédisent un certain refroidissement du soleil lors du siècle à venir (NdT : Judith veut évidemment parler du XXIème), mais l'amplitude du refroidissement possible ou probable est un sujet chaudement débattu et hautement incertain."

Wait and see !
Contre vents et marées, on progresse...

 

27 Octobre 2012 : L'Optimum Médiéval et le Petit Age Glaciaire retrouvés (une fois de plus)

Au cours des années précédentes, je n'ai qu'assez rarement évoqué l'affaire, pourtant emblématique, de la "Crosse de Hockey" (une reconstruction de l'évolution de la température moyenne du globe au cours des siècles écoulés) qui a été à l'origine d'une polémique persistante entre les tenants du GIEC et ses opposants durant plus d'une décennie, c'est à dire depuis 1998-1999 jusqu'à nos jours. De fait, la couverture de cette sorte de feuilleton à multiples épisodes, aurait fourni, à elle seule, matière à des sites encore plus fournis que celui-ci.

Il faut dire que cette affaire est d'importance, comme vous allez le voir.

Cependant, la résurgence toute récente d'une nouvelle crosse de hockey Australienne (qui concernait donc, cette fois-ci, l'hémisphère Sud alors que la crosse de hockey originelle ne concernait que l'hémisphère Nord) m'avait incité à rédiger un billet relativement détaillé sur ce sujet. Je vous y renvoie pour plus de détails techniques, notamment sur les méthodes statistiques assez "inhabituelles" utilisées et sévèrement remises en cause.

Ce billet me donne l'occasion de faire le point sur la situation en cette fin Octobre 2012.

1) Introduction. Quelques rappels (en bref) :

Que les connaisseurs me pardonnent, mais il est extrêmement difficile, sinon impossible, de résumer la longue et ténébreuse affaire de la crosse de hockey qui a précédé la publication de l'article commenté ci-dessous, en peu de mots. L'encart jaune qui suit est donc un peu copieux. Il est destiné aux nouveaux visiteurs. Les connaisseurs pourront passer directement au point 2.

Années 1990-2000 : Les deux premiers rapports du GIEC (Le FAR et le SAR, le First Assessment Report, et le Second Assessment Report), respectivement publiés en 1990 et 1995, ont tous les deux rapporté un graphe qui résumaient nos connaissances de l'époque sur l'évolution de la température du globe depuis l'an christian51000 de notre ère (AD). Le voici :

Comme on le voit, ce graphe identifie une période plus chaude vers 1000-1300 AD (baptisée l'Optimum Médiéval en Français et le MWP (Medieval Warm Period) suivi d'un refroidissement marqué connu sur le nom de "Petit Age Glaciaire" qui a perduré jusque vers 1850-1900. L'échelle indiquée sur la gauche correspond à environ 1°C entre les tiretés.

Les rapports FAR et SAR du GIEC étaient pour le moins elliptiques sur l'origine de cette figure, connue sur le nom de "Fig. 7c du rapport FAR" ou encore sous le nom de "Courbe de Lamb" du nom de Hubert H. Lamb (décédé en 1997). H. Lamb, un éminent climatologue britannique, a été le créateur et le directeur du célèbre CRU (Climate Research Unit) de l'Université d'East Anglia qui, plus tard, en 2009, allait devenir le siège du Climategate (les courriels piratés du CRU).
En 2008, Steve Mc Intyre a effectué des recherches afin d'en savoir plus sur l'origine de cette fameuse "courbe de Lamb" alias la "Fig. 7c du FAR du GIEC, 1990". Il a retracé l'histoire de cette courbe avant sa publication par le GIEC. Il a rédigé, à mon avis, le texte le plus complet sur cette question.

Il faut se souvenir que la paléo-climatologie était encore dans l'enfance à l'époque de la première publication de cette courbe. Les données connues en 1990 et remontant jusqu'à l'an mil, étaient essentiellement tirées d'une grande quantité des récits historiques, de la phénologie (les plantes, les dates des récoltes) et de quelques autres indicateurs. Ce graphe, généralement admis à cette époque, mettait clairement en évidence l'existence d'un Optimum Médiéval (ou de l'"Epoque Chaude Médiévale" (MWE) comme l'avait baptisée Lamb) et d'un petit âge glaciaire qui s'est prolongé jusque vers 1850-1900.

Cependant et comme on s'en doute, si les données historiques remontant jusqu'à l'an mil étaient relativement accessibles pour l'Europe du Nord, il n'en était pas de même pour une grande partie du globe et notamment pour l'hémisphère Sud où les données n'étaient que fragmentaires ou inaccessibles. Dès lors, et faute d'informations supplémentaires, il était relativement aisé de soutenir que l'OM et le PAG n'avaient guère été qu'un phénomène plus ou moins localisé autour de l'Europe du Nord (pour coller avec les récits relatifs aux Vikings qui avaient colonisé et cultivé une partie du Groenland vers l'an mil, et l'auraient baptisé "Terre Verte").
C'est ce qui fut fait par les participants du GIEC, notamment lors de la parution de la fameuse "crosse de hockey" en 1998 (jusqu'à 500 AD) puis en 1999 (jusqu'en l'an mil). Pour ces derniers, faute d'indication contraire et sans que personne en ait la moindre certitude; l'Optimum Médiéval n'aurait été qu'un phénomène strictement localisé et donc nullement global ni même hémisphérique. Par la suite, certains participants du GIEC et notamment les auteurs de la "crosse de hockey", sans doute pour accentuer le caractère "anormal" (sous-entendu "négligeable") de l'Optimum Médiéval, l'ont d'ailleurs assez subtilement rebaptisé du nom de MCA (Anomalie Climatique Médiévale) qui est une dénomination que l'on rencontre encore parfois sous la plume des certains tenants du GIEC..

C'est en 1998, puis 1999 que sont parus deux articles appelés MBH98 (Nature) et MBH99 (GRL) signés par la même équipe (Mann, Bradley, Hughes) qui remettaient fondamentalement en cause les connaissances que l'on possédait à l'époque sur l'évolution de la température moyenne mondiale durant le dernier millénaire.

L'article MBH99 faisait état de la courbe suivante, établie à partir de plusieurs indicateurs incluant essentiellement l'études des cernes des arbres plus ou moins distribués sur la surface de l'hémisphère Nord, jusque vers 1980, date à laquelle la thermométrie classique prenait le relais après un recouvrement depuis 1902. hockeymann

 

 

Mann et al en concluaient que le réchauffement actuel était sans précédent, depuis, au moins, mille ans. Ce n'était pas rien.

Le graphe ci-contre, connu sous le nom de "Crosse de hockey" parce qu'il en a la forme, effaçait purement et simplement l'Optimum Médiéval. C'était donc une véritable révolution pour ceux qui avaient passé des années à collecter une quantité de résultats résumés par H.H.Lamb et le GIEC lui-même dans ses rapports FAR et SAR de 1990 et 1995.

 

 

houghton2

Cette image, très parlante et compréhensible par tous, est alors devenue littéralement emblématique, pour ne pas dire iconique, dans le rapport TAR (Third Assessment Report, 2001) du GIEC, alors co-présidé par Sir John Houghton, que l'on voit sur l'image ci-contre commenter une projection de la crosse de hockey.

C'est ainsi que la "crosse de hockey" qui nous assurait que la température avait été pratiquement stable durant le dernier millénaire, que l'Optimum Médiéval n'avait pas existé à l'échelle du globe (alors que le graphe ne concernait que l'hémisphère Nord) sauf pendant le période récente, a certainement été utilisée pour convaincre nombre de décideurs de l'urgence qu'il y avait à prendre des mesures et notamment d'oeuvrer pour la réduction des émissions de CO2...

Années 2003 à aujourd'hui :
Bien que les articles de Mann et al (MBH98 et 99) constituent une véritable révolution remettant fondamentalement en cause les connaissance de l'époque, et à l'inverse de ce qui se produit en de telles occasions, le (petit) monde scientifique resta étrangement silencieux à ce propos. Apparemment, très peu nombreux furent ceux qui eurent le désir (le courage ?) de se plonger dans les arcanes des analyses dendroclimatiques publiées par ces auteurs. Ce silence, sans doute entretenu par la mise en exergue de ces publications par le GIEC (FAR 2001) se poursuivit jusqu'en 2003, date à laquelle Steve McIntyre (ingénieur des mines) et Ross McKitrick (Professeur de Statistiques) se sont penchés sérieusement sur la question et ont apporté de sévères critiques aussi bien sur les méthodes statistiques employées par Mann et al, que sur le choix des échantillons sélectionnés pour ces études. Ces même critiques ont d'ailleurs été reformulées récemment lors de la publication de Gergis et al (à présent définitivement retirée de la publication, pour cause "d'erreurs").

Compte tenu du caractère emblématique de la "Crosse de Hockey" dans le rapport TAR du GIEC et de ses inférences politiques, les critiques de McIntyre-McKitrick ont connu plusieurs développements, notamment en 2006 (soit 7 ans après les publications de Mann et al et quatre ans après les premières critiques de McIntyre-McKitrick) :

-La rédaction, par un comité d'experts, d'un rapport indépendant suite à la demande de la commission compétente du Sénat US, dit le "rapport Wegman" qui, en substance, confirmaient les graves critiques et l'invalidation formulées par McIntyre-McKitrick. Ce rapport est également instructif sur le fonctionnement de la dendroclimatologie autour de Michael Mann.
-L'analyse par le National Research Council qui, bien que moins sévère que le rapport Wegman, jetait un doute sur ces reconstructions remontant plus loin que les 4 siècles précédents, ce qui excluait donc l'Optimum Médiéval et les affirmations de Michael Mann et al du type "sans précédent depuis au moins mille ans".
-La tenue ( 06 Déc 2006) d'une séance de la commission sénatoriale US dédiée, d'un audit sur la question. C'est au cours de cette séance que le Dr. David Deming de l'Université d'Oklahoma fit un témoignage inquiétant, à propos d'un email qu'il avait reçu en 1995, donc peu de temps avant les publications de MBH98 et MBH99; de la part d'une "sommité en climatologie" (sic, sans préciser laquelle) lui affirmant que :"We have to get rid of the Medieval Warm Period" ("Nous devons nous débarrasser de la Période Chaude Médiévale").

Vous trouverez ici un résumé relativement exhaustif, rédigé en 2008, sur les multiples rebondissements de cette affaire (en anglais). L'auteur de ce résumé, Andrew Monford, a également publié un livre complet sur la polémique de la "crosse de hockey" qui a opposé d'une part Michael Mann (et al.) et Steve McIntyre -Ross Mckitrick, d'autre part, ainsi que sur les échanges (révélateurs) des courriels du Climategate, relatifs à la Crosse de Hockey. Ce livre a connu un certain succès. Il est assez complet et très bien écrit. Sa lecture est conseillée à ceux qui veulent approfondir le sujet.

De fait, cette ténébreuse affaire qui a connu de nombreux rebondissements, ne s'est pas achevée sur un accord ou une acceptation d'un côté ou de l'autre, chacun campant sur ses positions depuis lors. A noter que "la Crosse de Hockey" est le sujet d'une grande quantité d'échanges d'emails entre les protagonistes des Climategates 2009 et 2011. Il faut noter que certains commentaires des proches collègues de Michael Mann ne sont pas indulgents, pour ne pas dire qu'ils sont passablement critiques à son égard et sur l'obstination dont il a fait preuve sur ce sujet.

Ce qui a évolué depuis et sans aucun doute, c'est la quantité, et surtout, la qualité des reconstructions de la température des siècles passées publiées récemment. Les critiques formulées par les statisticiens sur la qualité des indicateurs et, surtout, sur les méthodes statistiques employées ont fini par porter leurs fruits et rares sont maintenant ceux qui s'aventurent à publier des articles (sauf Gergis et al, peut-être) sur ce sujet sans s'assurer qu'ils échappent au fameux "double dipping" ou "décentrage des composantes principales" (comme disait Wegman et al), tels que je les ai décrits dans ce billet.

Le corpus des reconstructions impliquant l'existence d'un Optimum Médiéval planétaire aussi chaud ou même plus chaud que la période actuelle est maintenant considérable. Une bibliographie et un dossier pratiquement exhaustifs, pour les hémisphères Sud et Nord, ont été réalisés et publiés sur ce site.
Dans son dernier rapport (AR4 2007), le GIEC, lui, s'en tenait aux publications successives de Michael Mann ou de ses proches dans lesquelles on observait la résurgence progressive, de publication en publication, d'un Optimum Médiéval, quoique d'une amplitude nettement moindre que la période actuelle.

Et de fait, c'est la pertinence et l'existence même du GIEC de l'ONU qui sont en jeu. En effet, que valent les théories et les modèles actuels, tous centrés sur l'influence du CO2 d'origine anthropique, si la température du globe a varié de manière équivalente, il y a près de mille ans (ou plus), hors de toute influence humaine significative et sans que l'on puisse l'expliquer de manière convaincante ?

 

2) 2012 - Les reconstructions "modernes" de la température moyenne de l'hémisphère Nord : Le retour de l'Optimum Médiéval et du Petit Age Glaciaire.

Voici les références d'un article assez remarquable, publié en Avril dernier dans la revue (estimée par les pairs) "Climate of the Past".

Clim. Past, 8, 765–786, 2012
www.clim-past.net/8/765/2012/
doi:10.5194/cp-8-765-2012
christian4

Pour une fois, l'article original en anglais est libre d'accès (l'article complet). Son titre :

"The extra-tropical Northern Hemisphere temperature in the last two millennia: reconstructions of low-frequency variability"

"La température extra-tropicale de l'hémisphère Nord durant les deux derniers millénaires : reconstructions de la variabilité à basse fréquence."

Les auteurs :
B. Christiansen1 and F. C. Ljungqvist2

Leurs affiliations :

1Danish Meteorological Institute, Copenhagen, Denmark
2Department of History, Stockholm University, Stockholm, Sweden

Article publié le 18 Avril 2012

Voici le résumé original en anglais suivi d'une traduction en français :

Abstract. We present two new multi-proxy reconstructions of the extra-tropical Northern Hemisphere (30–90° N) mean temperature: a two-millennia long reconstruction reaching back to 1AD and a 500-yr long reconstruction reaching back to 1500 AD. The reconstructions are based on compilations of 32 and 91 proxies, respectively, of which only little more than half pass a screening procedure and are included in the actual reconstructions. The proxies are of different types and of different resolutions (annual, annual-to-decadal, and decadal) but all have previously been shown to relate to local or regional temperature. We use a reconstruction method, LOCal (LOC), that recently has been shown to confidently reproduce low-frequency variability. Confidence intervals are obtained by an ensemble pseudo-proxy method that both estimates the variance and the bias of the reconstructions. The two-millennia long reconstruction shows a well defined Medieval Warm Period, with a peak warming ca. 950–1050AD reaching 0.6 °C relative to the reference period 1880–1960 AD. The 500-yr long reconstruction confirms previous results obtained with the LOC method applied to a smaller proxy compilation; in particular it shows the Little Ice Age cumulating in 1580–1720AD with a temperature minimum of −1.0 °C below the reference period. The reconstructed local temperatures, the magnitude of which are subject to wide confidence intervals, show a rather geographically homogeneous Little Ice Age, while more geographical inhomogeneities are found for the Medieval Warm Period. Reconstructions based on different subsets of proxies show only small differences, suggesting that LOC reconstructs 50-yr smoothed extra-tropical NH mean temperatures well and that low-frequency noise in the proxies is a relatively small problem.

Résumé : Nous présentons deux nouvelles reconstructions multi-indicateurs de la température moyenne de l'hémisphère Nord extra-tropical. Il s'agit d'une reconstruction sur une durée de 2 millénaires remontant à l'an 1 AD* et d'une reconstruction de 500 ans remontant à l'an 1500. Les reconstructions sont basées sur les compilations de, respectivement, 32 et 91 indicateurs, dont seulement un peu plus de la moitié sont passés par la procédure de filtrage (NdT : Voir les détails sur "le filtrage" dans le billet sur l'article de Gergis et al) et sont inclus dans les reconstructions présentées. Les indicateurs indirects (les proxys) sont de différente nature et de résolution différente (annuelle, annuelle à décennale et décennale) mais tous ont été préalablement démontrés comme suivant les températures locales ou régionales. Nous utilisons une méthode de reconstruction, LOCale (LOC) dont on a montré récemment qu'elle reproduit de manière satisfaisante la variabilité à basse fréquence. Les intervalles de confiance sont obtenus par une méthode d'ensemble de pseudo-indicateurs qui estiment à la fois la variance et le biais des reconstructions. La reconstruction sur les deux millénaires montre un pic de l'Optimum Médiéval bien défini avec un maximum situé vers 950-1050AD atteignant 0,6°C par rapport à la période de référence 1880-1960 AD. La reconstruction sur 500 ans confirme les résultats obtenus précédemment avec la méthode LOC appliquée à une population moins nombreuse d'indicateurs. En particulier, elle montre le Petit Age Glaciaire qui culmine en 1580-1720 AD avec une température minimale de -1°C en dessous de celle de la période de référence. Les températures reconstruites localement qui sont sujettes à de grands intervalles de confiance, montrent un Petit Age Glaciaire géographiquement distribué de manière assez homogène, tandis que plus d'inhomogénéités géographiques sont observées pour l'Optimum Médiéval. Les reconstructions basées sur différents sous-ensembles d'indicateurs ne montrent que de faibles différences ce qui suggère que les reconstructions par la méthode LOC de la température moyenne, lissée sur une période de 50 ans, de l'hémisphère Nord extra-tropical sont correctes et le bruit à basse fréquence des indicateurs constitue un problème relativement mineur.

*AD = Anno Domini. Après JC.

Comme je l'avait mentionné dans le billet sur l'article de Gergis et al, la principale difficulté que rencontrent les "reconstructeurs" de température relève du fait qu'il n'existe de comparaison possible et donc d'étalonnage, qu'avec les données thermométriques de la période récente , typiquement depuis 1850 (ce qui a d'ailleurs conduit à l'erreur de "décentrage des composantes principales" signalée par McIntyre-McKitrick, Wegman et beaucoup d'autres). Les auteurs de cet article en sont conscients et le mentionnent. Pour éviter ce biais, ou du moins, en partie, le contourner, les auteurs ont compilé un nombre impressionnant de mesures données par des indicateurs très variés, distribués dans tout l'hémisphère Nord. Les indicateurs (carottages glaciaires, stalactites dans les grottes, sédiments lacustres et marins, pollens, données historiques et cernes de arbres (densité et épaisseur). Il y a ainsi pas moins de 91 séries d'indicateurs remontant jusqu'en 1500 AD et 32 remontant jusqu'au début de l'ère chrétienne.

Après avoir mentionné les travaux précédents et notamment ceux de Michael Mann et al, les auteurs précisent que les précédentes reconstructions du climat ont "gravement sous-estimé" la variabilité et les tendances des températures durant les deux derniers millénaires.

Dans la conclusion, les deux auteurs écrivent que :

“The level of warmth during the peak of the MWP (Medieval Warm Period) in the second half of the 10th century, equaling or slightly exceeding the mid-20th century warming, is in agreement with the results from other more recent large-scale multi-proxy temperature reconstructions.”

"Le niveau de réchauffement au pic de l'Optimum Médiéval durant la seconde moitié du Xème siècle, lequel est identique ou dépasse légèrement le réchauffement partant de la moitié du XXème siècle, est en accord avec les autres résultats des reconstructions multi-indicateurs les plus récents et à plus grande échelle."

Comme on le voit sur les figures suivantes (tirées de la publication et accompagnées de leurs légendes) que voici :

christian2"Fig. 1. La situation géographique de tous les 91 indicateurs de la table (à gauche) et de ceux qui sont corrélés de manière significative avec les températures locales (du HadCRUT3v) dans la période commençant en 1880 et ceci jusqu'à la dernière année pour chaque indicateur (à droite). La résolution (annuelle, annuelle à décennale, décennale) est indiquée avec les symboles. Les indicateurs qui remontent au moins jusqu'à 300 AD sont marqués en bleu."

(NB : Pour occuper moins de place que la figure originale, j'ai replacé la figure qui était en bas dans l'original à droite sur cette image).

 

christian6

Extraits de la légende de la Fig. 5 (voir l'original pour le texte détaillé et complet )

"Reconstruction de la température de l'hémisphère Nord extratropical (en °C) basée sur les indicateurs ombrés en gris de la table 1 qui remonte jusqu'à au moins 300 AD. La période de calibration est 1880-1960 AD... Les courbes en trait fin représentent les valeurs annuelles ; Les courbes en trait épais représentent des moyennes lissées sur 50 ans.." .."La courbe en vert représente la température moyenne de l'hémisphère Nord extra-tropical observée. La courbe en jaune montre la moyenne des températures sur les cellules de grille des indicateurs considérés. Toutes les courbes sont relatives à zéro pour la période 1880-1960."

Note : Comme on peut le constater, selon les résultats de ce travail, d'une part, l'Optimum Médiéval, situé autour de l'an mil, est très apparent. Son amplitude est très comparable à celui de l'an 2000 et donc à celui de la décennie actuelle. D'autre part, et contrairement à ce qui est souvent affirmé par ailleurs, la vitesse du réchauffement actuel n'excède pas celle du réchauffement de l'Optimum Médiéval. A noter la présence très visible du Petit Age Glaciaire bien connu des historiens qui était également très apparente dans la "courbe de Lamb".

Comparaison avec les reconstructions antérieures : christian1

 

Fig. 6. "Quelques reconstructions antérieures de la température (Hegerl et al., 2007; Loehle and McCulloch, 2008; Huang et al., 2008; Mann et al., 2008, 2009; Ljungqvist, 2010; Christiansen and Ljungqvist, 2011) qui ont été par la suite publié dans le rapport AR4 du GIEC (Solomon et al., 2007) montrées avec les reconstructions LOC de cet article. Toutes les reconstructions sont reportées par rapport à la moyenne zéro de la période 1880–1960AD et ont été lissées sur 50 ans avec un filtre Gaussien. Les intervalles de confiance des reconstructions LOC de cet article (de la Fig. 5 à la Fig. 8) sont aussi indiquées (courbes en pointillés)."

 

 

 

Note : Comme on peut le constater, les reconstructions de Michael Mann et al. publiées jusqu'en 2008 et 2009 (vert et bleu roi), n'indiquent pratiquement aucun Optimum Médiéval, ce en quoi, elles sont assez proches de celle qu'ils avaient publiées en 1999...Elles diffèrent donc très nettement de celles des auteurs de l'article rapporté ici et d'une quantité d'autres reconstructions plus récentes.

De manière à remettre en question l'assertion fréquemment avancée par le GIEC et/ou par ses adhérents selon laquelle l'Optimum Médiéval n'aurait guère été qu'un phénomène localisé et non pas à l'échelle d'un hémisphère tout entier, Ljungqvist et al. montrent que :

“on centennial time-scales, the MWP is no less homogeneous than the Little Ice Age if all available proxy evidence, including low-resolution records are taken into consideration in order to give a better spatial data coverage.”

"à l'échelle centenaire, l'Optimum Médiéval n'est pas distribué de manière moins homogène que ne l'est le Petit Age Glaciaire si on prend en compte tous les indicateurs disponibles, y compris les indicateurs a basse résolution (NdT temporelle) de manière à obtenir une meilleure couverture spatiale."

---------------------

Il serait très fastidieux d'énumérer la longue litanie des articles parus récemment qui montrent que l'Optimum Médiéval a été plus chaud ou aussi chaud que la période actuelle tels qu'on peut en trouver les références sur le site mentionné plus haut. Cependant à titre d'exemple, on peut citer la toute récente publication suivante qui est paru en Juillet dernier dans le Quaternary Research :

A 1000-yr record of environmental change in NE China indicated by diatom assemblages from maar lake Erlongwan
Quaternary Research, Volume 78, Issue 1, July 2012, Pages 24-34
Luo Wang, Patrick Rioual, Virginia N. Panizzo, Houyuan Lu, Zhaoyan Gu, Guoqiang Chu, Deguang Yang, Jingtai Han, Jiaqi Liu, Anson W. Mackay

La conclusion de cet article qui concerne l'analyse des assemblages de diatomées (une sorte de pytoplancton) prelevés dans le fond d'un lac du Nord Est de la Chine, indique que :

"The diatom record suggests that the period between ca. AD 1150 and 1200 was the warmest interval of the past 1000 yr. The length of the seasons is also different between the MWP and the 20th century; during the MWP the duration of summer was longer while the spring and autumn were shorter than the 20th century."

Soit "Les données des diatomées suggèrent que la période située aux environs de 1150 et 1200 a été la période la plus chaude des 1000 dernières années. La durée des saisons est aussi différente entre l'Optimum Médiéval et le XXème siècle.. Durant l'Optimum Médiéval l'été était plus long tandis que le printemps et l'automne étaient plus courts que durant le XXème siècle."

Bien sûr, il ne s'agit que de l'Est de la Chine mais on peut penser qu'il est quand même assez difficile de considérer qu'elle fait partie de l'Europe du Nord qui, selon le GIEC et ses adhérents, était la seule partie du monde à avoir connu un Optimum Médiéval...

om2

A noter également que l'existence de plusieurs périodes chaudes (entre autres Médiévale, Romaine et Minoénne) durant les 5000 ans écoulés est également très apparente dans les carottages glaciaires du Groenland GISP2 tels que je l'avais rapporté dans ce billet dont voici une illustration :

 

 

 

 

christian7

Enfin, pour tenter d'avoir une vue d'ensemble des publications qui ont analysé l'évolution de la température depuis au moins l'an mil, le site CO2 Science qui suit cette affaire depuis des années, propose une statistique sur le nombre des articles publiés dans la littérature qui ont trouvé que l'Optimum Médiéval était plus chaud (MWP >CWP) (CWP = Current Warming Period), également chaud (MWP = CWP) ou moins chaud (MWP < CWP) que la période actuelle. Voici le graphe :

Comme on peut le constater et si on en croit cette statistique (il y en a une autre, plus quantitative, sur le site cité), les articles qui ont trouvé que la période médiévale (autour de l'an mil) était plus chaude ou aussi chaude que la période actuelles seraient donc plus de douze fois plus nombreux que ceux qui ont trouvé l'inverse. Bien entendu, ceci n'est que purement indicatif.

 

3 - Conclusion :

anncrosseinverse2

Comme je l'ai souvent écrit dans ces pages, la science progresse à petits pas, envers et contre tout. Il n'est pas douteux que les conflits qui ont vu le jour entre les chercheurs sur cette question des reconstructions de la température, locale, régionale, hémisphérique ou globale, s'atténueront peu à peu. Dans ce genre de situation, plus fréquente dans l'histoire des sciences qu'on ne le croit généralement, l'évidence finit par triompher. En réalité, il n'existe pas de preuve absolue en matière de science. Il n'existe que des points de vue que personne n'a été capable de contredire de manière crédible.

Cependant et pour ce qui est d'un Optimum Médiéval hémisphérique et même global, équivalent au réchauffement que nous connaissons, il apparaît que la balance des évidences accumulées penche de plus en plus en faveur de son existence. Il faudra bien que le GIEC le reconnaisse pour ce qu'il est et ne se contente pas de compiler les publications d'un petit groupe de chercheurs interconnectés. Dès lors, on pourra se poser la question à laquelle il faudra bien répondre un jour : Si la Nature, seule, a été capable de faire varier la température du globe de manière notable durant les millénaires précédents, pourquoi ne serait-elle plus capable de le faire de nos jours ? (h/t D.W).

Vous l'avez compris, sous-jacente à cette question, se trouve la lancinante interrogation sur notre compréhension notoirement insuffisante des variations naturelles du climat de la planète qu'il faudra bien résoudre un jour, pour pouvoir (enfin) déterminer, avec une meilleure certitude, quelle est exactement l'influence de l'homme sur le climat.

A suivre ! (évidemment)

 

__________________________________________________________________________________________
*********************************************************************************************************************

2007- Des compléments divers ...

  • Voici une compilation d'articles publiés dans des revues avec comité de lecture, (version courte en anglais, en format pdf) réalisée par Madhav L. Khandekar (consultant de Friends of Science au Canada) : "Questionning the Global Warming Science" remettant en question la théorie de l'effet de serre du CO2 prônée par le GIEC et consorts. Il existe, sur le site de FOS, une version longue, plus détaillée et très intéressante pour ceux qui sont déjà versés dans les sciences du climat. Pas moins de 66 articles très récents, sélectionnés parmi des centaines , tous publiés dans des revues à comité de lecture et qui remettent en question la réchauffement climatique anthropogénique, sont commentés.
  • Et les autres planètes ? En relation avec ce qui vient d'être dit au sujet des effets possibles du soleil sur le climat terrestre, il faut remarquer qu'un certain nombre d'autres planètes de notre système solaire sont également récemment rentrées dans une phase de réchauffement inhabituel ou de comportement surprenant... sans intervention de l'industrie humaine évidemment (à moins que l'on ne suppose que le simple atterrissage d'un petit engin spatial sur le sol de certaines de ces planètes induisent un réchauffement intense ! Ce qui est moins que probable, "Very unlikely" dirait le GIEC. En voici une liste abrégée tirée et complétée d'ici:

Le soleil : Activité éruptive plus intense depuis 1940 que durant les 1150 années qui ont précédé jusqu'à récemment, où il semble endormi.

Mercure : Découverte d'un surprenante glace polaire accompagnée d'un champ magnétique intrinsèque intense et inattendu pour ce que l'on supposait être une planète "morte".

Venus : Augmentation d'un facteur 25 (!) de la lumière de l'aurore et la plus grande variation de l'atmosphère globale en moins de 30 ans.

Mars : Réchauffement global, énormes tempêtes, disparition des glaces de pôles.(lien NASA).En 2005, la sonde spatiale américaine, Mars Global Surveyor qui surveille la planète en permanence note que la glace de CO2 du pôle sud a diminué pendant trois été consécutifs. Voir l'article au National Geographic News du 28/02/2007, ici. Cette observation du réchauffement sur Mars, concomitant avec celui de la Terre, renforce l'idée que le soleil est bien le responsable du réchauffement sur Terre comme sur Mars.

Jupiter : Doublement de la brillance des nuages de plasmas environnants. Apparition de large taches rouge et équateur en réchauffement de 10°F.

Saturne : Décroissance brutale des vitesses des vents équatoriaux, en seulement 20 ans, accompagnée par une étonnante augmentation de l'émission des rayons X de l'équateur.

Uranus : Très importantes variations de brillance accompagnées d'une activité nuageuse accrue.

Neptune : Augmentation de 40% de la brillance atmosphérique. Un article intéressant à ce sujet est paru en avril 2007. Cet article intitulé " Corrélation suggestive entre la brillance de Neptune, la variabilité solaire et la température terrestre " est signé par deux chercheurs américains, H. B. Hammel et G. W. Lockwood (Geophysical Research Letters , vol. 34, L08203, doi:10.1029/2006GL028764, 2007) (résumé ici). Ils rapportent, en particulier, le diagramme suivant :

neptuneLa courbe du haut montre les enregistrements photométriques de la lumière bleue émise par la planète Neptune (la planète la plus éloignée du soleil du système solaire) depuis une cinquantaine d'années.

 

En dessous sont représentées les courbes classiques de la température terrestre (avec son "trou" vers 1975), l'irradiance totale du soleil (notez que les variations ne sont que de 2% environ) tout comme le flux UV issu du soleil (courbe du bas). Personne ne niera que les variations de luminance de Neptune sont indépendantes du CO2 rejeté par l'homme !

 

Pourtant ces variations de températures terrestres et de luminance de Neptune (avec un retard de 9 ans pour que le système Neptunien se thermalise) semblent bien corrélées (et aussi avec le soleil).

Voici ce qu'en concluent nos deux checheurs qui sont tout à fait conscient de la faiblesse de la statistique sur une période aussi limitée : " Si les variations de brillance et de température de deux planètes sont corrélées, c'est qu'un changement climatique planétaire doit être dû à des variations dans l'environnement du système solaire" (NDLR cad : cela vient du soleil !)

Pluton : Réchauffement intense avec un triplement de la pression atmosphérique... alors que Pluton est en train de s'éloigner du soleil...

Toutes ces observations proviennent de sources sûres dont la NASA. Elles révèlent que non seulement la Terre, mais l'ensemble du système solaire, tout entier, est rentré dans une phase de changement et notamment de réchauffement intense. Quand on voit les énormes variations qui règnent sur nos compagnes du système solaire, on se dit qu'avec nos petits +0,6° C/100 ans, nous avons encore bien de la chance !

Bien entendu, les astrophysiciens et les chercheurs qui scrutent ces planètes à la loupe, cherchent des explications plus ou moins locales pour expliquer toutes ces variations. Quoiqu'il en soit, il est pour le moins surprenant que, de manière concomitante, les planètes du système solaire, y compris la nôtre, subissent d'assez brusques modifications de l'atmosphère, de la température, de la brillance etc. Il ne faut pas en tirer de conclusions trop hâtives, bien entendu, mais on ne peut s'empêcher de remarquer que toutes ces variations inattendues coïncident avec une recrudescence tout à fait exceptionnelle de l'activité de l'astre solaire qui devrait se terminer très prochainement, ce qui, disent certains, devrait refroidir très sérieusement notre planète dans les années à venir (et augmenter la pluviométrie) ...Mais, chez nous et seulement chez nous, bien sûr, comme nous le serinent les médias, les écologistes et le GIEC, c'est vous même et le CO2 que vous rejetez qui êtes les grands responsables !

Allez voir cette page pour en savoir plus sur les prévisions pour les années à venir ...

: Quelques articles supplémentaires qui mettent en défaut la thèse du GIEC:

Des chercheurs de l'effet de serre anthropique font évoluer les thèses en vigueur. D'autres les mettent en défaut...

En ce mois d'août 2007, nous assistons à un véritable tournant ("a tipping point" comme disent les alarmistes des glaces du Groenland) dans l'histoire de la science du réchauffement climatique. En effet, et exactement comme l'a déclaré récemment le Dr. Madhav L. Khandekar qui est un expert relecteur du dernier rapport du GIEC (voir ici) " ... un nombre croissant de scientifiques s'interrogent sur la validité de l'hypothèse du réchauffement de la surface terrestre par les gaz à effet de serre. Il suggèrent une plus forte participation que ce que l'on pensait, de la variabilité solaire et de la circulation atmosphérique à grande échelle sur les températures observées."
et de fait, la littérature scientifique sur ce sujet, montre une certaine évolution, pour ne pas dire une révolution : Les scientifiques se posent de graves questions surtout quand un grand nombre de publications récentes démentent carrément les prédictions des modèles d'effet de serre...

1) On garde l'effet de serre mais on lui ajoute un zest de variabilité naturelle :

Un article tout à fait révélateur à ce sujet (parmi d'autres), vient de paraître dans la revue Science du 11 août 2007. Cet article intitulé " Improved surface température prediction for the coming decade from a global climate model" (en français : Prédiction améliorée de la température de surface pour la décennie à venir à partir d'un modèle climatique global". Bien que le titre fasse un peu "pompeux", les auteurs (Smith, Cusak, Colman, Folland, Harris et Murphy du Met Office Hadley Centre) proposent rien moins que de "compléter" l'effet de serre du CO2 atmosphérique en tenant compte de la "variabilité naturelle" du climat. Publié dans une revue célèbre entre toutes pour son adhésion à la pensée unique climatologique (comme Nature et dont l'éditeur en chef, Donald Kennedy, n'hésitait pas à intituler son récent éditorial par un tonitruant " Climate : The game is over " (en français : "la partie est jouée" ! autrement dit, la cause est entendue, les sceptiques n'ont qu'à se taire ), la chose est d'importance. En effet, le GIEC et ses thuriféraires ont toujours, contre vents et marées, et souvent contre l'évidence, tenus à garder le cap exclusif de l'effet de serre du CO2...Point de salut pour les autres effets (activité solaire et oscillations océaniques, entre autres) qui étaient tenus pour totalement négligeables...bien qu'ils aient manifestement joué un grand rôle dans le passé. Bref, il semble que nous avons vécu la période du "Tout CO2" qui, sous la férule du Dr Pachauri, directeur du GIEC, avait de nombreuses implications économiques et politiques, comme vous le savez.

Que dit cet article qui marque une ouverture notable ( mais encore timide) de la science climatologique officielle ?

Je ne peux, hélas, vous décortiquer l'ensemble de cet article. Compte tenu de la complexité des modèles, ce serait bien trop lourd pour ce site. Mais voici quelques phrase significatives, extraites de l'article en question et que je vais vous commenter point par point :

  • "On this time scale, climate could be dominated by internal variability arising from unforced natural changes in the climate system such as El Niño, fluctuations in the thermohaline circulation, and anomalies of ocean heat content."
    En français : " A cette échelle de temps ( NDLR : pendant la prochaine décennie soit, 2008-2018), le climat pourrait être dominé par la variabilité interne due à des changements climatique naturels, non provoqués (NDLR: sous entendu, par l'effet de serre anthropogénique) du système climatique tels que El Niño, des fluctuations dans la circulation thermo-haline et des anomalies du contenu thermique des océans "

    Commentaires et explications:
    • Les climatologues impliqués dans l'effet de serre sont manifestement inquiets de la tendance actuelle des températures et notamment celle qui, depuis les 8 dernières années (depuis El Niño 1998), indique que les températures se sont stabilisées ou ont décrues alors que les émissions de CO2 ont continuées à croître comme auparavant. Le paragraphe précédent constitue donc une sorte de mesure de précaution par rapport au déclin possible des températures à venir...En gros, le message c'est "même si les températures venaient à baisser, cela ne voudrait pas dire qu'il n'y a pas d'effet de serre anthropogénique!". J'ai trouvé plusieurs autres articles qui vont exactement dans le même sens. En termes de stratégie militaire on appelle cela un "repli élastique ". En voici un exemple typique sur le site de TF1 (bien sûr) : On ne sait pas encore comment gérer les modèles informatique du douteux effet de serre anthropogénique, mais on n'hésite pas à le complexifier davantage pour annoncer qu'il fera chaud de 2009 à 2012 !
    • El Niño (et sa soeur, la Niña) sont des courants marins du pacifique connus pour influer largement sur les températures terrestres comme en 1998, par exemple. La "circulation thermo-haline" fait allusion aux courants marins et notamment aux effets qui sont liés aux différences de salinité entre les différentes nappes. Les "anomalies du contenu thermique des océans" sont, en effet, un casse tête pour les ordinateurs de l'effet de serre. Les océans se refroidissent depuis quelques années sans que les tenants de l'effet de serre puissent l'expliquer d'aucune manière ! En conséquence, ils considèrent ce phénomène naturel comme une "anomalie" parce qu'il dément leurs modèles d'ordinateurs...En bref, ce qui est anormal, c'est ce qui met en défaut les prédictions des ordinateurs du GIEC. Ce ne sont évidemment pas les programmes d'ordinateurs qui sont en cause ! Non ! C'est la Nature qui se trompe.

  • "Global climate models have been used to make predictions of climate change on decadal or longer time scales , but these only accounted for projections of external forcing, neglecting initial condition information needed to predict internal variability. We examined the potential skill of decadal predictions using the newly developed Decadal Climate Prediction System (DePreSys), based on the Hadley Centre Coupled Model, version 3 (HadCM3) , a dynamical global climate model (GCM). DePreSys takes into account the observed state of the atmosphere and ocean in order to predict internal variability, together with plausible changes in anthropogenic sources of greenhouse gases and aerosol concentrations and projected changes in solar irradiance and volcanic aerosol" .
    En français :
    "Les modèles du climat du globe ont été utilisés pour effectuer des prédictions du changement climatique sur des échelles de temps de 10 ans ou plus (NDLR : jusqu'à 100 ans !) mais ces modèles ne tenaient compte que du forçage externe ( NDLR : c'est à dire du forçage dû au CO2 ajouté par l'homme) en négligeant les informations dues aux conditions initiales indispensables pour inclure la variabilité naturelle. Nous examinons les possibilités de prédictions à 10 ans du modèle DePreSys, récemment développé et basé sur la version 3 du Modèle Couplé du Centre Hadley qui est une modélisation dynamique du climat du globe (GCM = Global Climate Model, modèle climatique du globe). DePreSys prend en compte l'état observé de l'atmosphère et des océans de manière à prédire la variabilité interne en y incluant des changements possibles des sources de gaz à effet de serre anthropogénique, des concentrations en aérosols et les changements projetés de l'irradiance solaire et des aérosols dus aux volcans."

    femmeCommentaires et explications :
    • La première phrase rappelle que, jusqu'à présent, tous les modèles prenaient exclusivement en compte le CO2 anthropogénique, à l'exclusion de toute variation naturelle... et qu'ils se permettaient des prédictions à 10 ans et jusqu'à 100 ans. C'est une dure critique pour les modèles en vigueur au GIEC. Je me demande comment Donald Kennedy, l'éditeur en chef de Science a laissé passer cela. Lui qui nous dit que, question climat, l'affaire est entendue...
    • La phrase suivante explique que le Hadley Centre qui est le laboratoire des auteurs de l'article, préparait depuis quelque temps, une version plus réaliste que les modèles actuels. Nous en somme ravis !
    • Le modèle en question (DePreSys) prend effectivement en compte, une partie de la variabilité naturelle, comme l'effet des océans (NAO, north atlantic oscillation et AMO, atlantic multidecadal oscillation) et l'irradiance solaire (mais absolument pas l'effet des éruptions solaires qui peuvent agir comme expliqué ci-dessus) non plus que l'influence de l'ennuagement. Les derniers mots de ce texte doivent faire s'esclaffer les géologues et les géophysiciens qui sont toujours dans la plus totale incapacité de prévoir les éruptions volcaniques sur la planète en dépit des lourds crédits consacrés et des nombreuses années passées à les étudier. Nous apprenons avec un grand plaisir et avec stupéfaction que les gens du Hadley Centre sont capables d'inclure dans leurs modèles à 10 ans, les futures éruptions volcaniques, alors que personne n'avait prévu ni Le Pinatubo de 1998 ni El Chichon de 1983 ! Mais sans doute ne font-ils allusion qu'aux éruptions passées ? Dans ce cas, leur texte est "misleading" (fallacieux) et j'espère pour leur modèle (et pour l'humanité) qu'il n'y en aura pas d'autres dans les dix années à venir !

Le corps du texte explique essentiellement les incertitudes du modèle et les calculs d'erreur effectués pour montrer que le modèleDePreSys est meilleur que celui en vigueur au GIEC. Le modèle classique est appelé "NoAssim" et le modèle amélioré 'DePreSys" dans la figure suivante extraite de l'article modele1en question.

Ce graphe parle de lui-même. Il compare (entre 1983 et 2003) les températures de surface observées (trait noir) avec les prédictions du modèle classique (en bleu) qui utilise uniquement (ou presque, avec quelques rétroactions "adaptées" dont les aérosols du Pinatubo) l'effet de serre dû au CO2 et avec les prédictions du modèle DePreSys. On voit que lorsque l'on prend en compte l'effet des "anomalies" des océans et d'El Niño, on améliore notablement les choses.

Autrement dit, lorsqu'on tient un peu mieux compte de la variabilité naturelle du climat, on améliore les graphes. Mais, il s'agit bien entendu du climat du passé. Qu'en est-il des prédictions pour les années à venir ? Les auteurs de l'article estiment qu'il est difficile de prévoir la variabilité naturelle du climat au dela de dix ans. Ils prévoient d'ailleurs qu'après une période courte dans lequelle la variabilité naturelle du climat prend le dessus, l'effet de serre reprendrait la main à partir de 2009. C'est donc un réchauffement qu'ils prédisent à partir de cette date.
N'oubliez pas que les "solaristes " voir ci-dessus, eux, prédisent, au contraire, un prochain refroidissement.
C'est parfait ! Nous verrons ainsi qui a raison !

2)L'effet "iris" : Les expériences réelles démentent les données introduites dans les ordinateurs de l'effet de serre !

Tout bien pesé, l'effet de serre, seul, dû au CO2 atmosphérique, naturel et ajouté, ne devrait pas (disent les ordinateurs puisqu'il n'y a aucune théorie physique pour cela, voir ici ) faire monter la température de plus de 1, 2°C pour un doublement du taux de CO2. Ce qui est bien faible, vous en conviendrez et ne suffirait certainement à motiver une révision drastique de l'industrie par les gouvernements de la planète...
Pour accroître l'influence de l'effet de serre, les modélisateurs du GIEC ont introduit, dans les programmes, toute une série de ce que l'on appelle communément des rétroactions positives. On peut ainsi, toujours à l'aide des modèles d'ordinateurs arriver à obtenir les chiffres alarmants que l'on connaît, c'est à dire, par exemple, +3°C au lieu de +1,2%C , ce qui fait l'affaire du bureau du GIEC et des tenants de l'effet de serre (s'il existe).

Qu'est ce qu'une rétroaction positive ?
C'est une sorte d'effet d'amplification de l'effet de serre dû au CO2 atmosphérique. En revanche, une rétroaction négative correspond à un affaiblissement de l'effet de serre. Le problème majeur est que nous ignorons presque tout de la manière dont la Terre, la biosphère et l'atmosphère (et surtout les nuages) réagiront à une augmentation de le température due à l'effet de serre. Dans le doute, les modélisateurs du GIEC ont pratiquement toujours choisi les hypothèses les plus alarmantes. Il faut vous dire que du point de vue général, une rétroaction positive ou une amplification peut en venir à diverger (exactement comme l'effet Larsen connu en Hi-Fi) et à tendre, en principe vers un "tipping point" , un point de. basculement dont sont très friands les alarmistes...C'est très inquiétant et c'est bien le but recherché. En voici un exemple particulièrement frappant qui vient dêtre démenti par les mesures réelles :

On pense que les nuages de haute altitude, les cirrus, sont, à la différence des nuages de basse altitude, capables de piéger les rayonnements infra cirrusrouges et, donc, de produire de l'effet de serre et donc de réchauffer la planète. Il est donc crucial de comprendre comment l'atmosphère va réagir en présence du réchauffement climatique. En l'absence de toute certitude sur ce sujet, les modélisateurs du GIEC ont pré-supposé que le réchauffement de la planète provoquerait une augmentation de la quantité de cirrus de haute altitude entraînant ainsi un surcroît de réchauffement. Ils ont donc introduit, dans les programmes d'ordinateurs, une rétroaction positive, ce qui conduit aux chiffres alarmants que l'on connaît...

Manque de chance pour les modélisateurs du GIEC ! Un article vient de paraître dans les Geophysical Research Letters (édition du 9 août 07) qui nous dit très exactement le contraire. Les cirrus présents en altitude au dessus de la planète disparaissent (où s'écartent), au dessus des zones de la planète dont la température à augmenté, permettant ainsi à la chaleur accumulée sur la Terre de s'évacuer vers l'espace. C'est donc une rétroaction manifestement négative et non positive ! Cela produit un refroidissement et non un réchauffement..
Cette étude menée par Roy Spencer et des chercheurs de l'Université de l'Alabama-Hunstville; a été effectuée avec l'aide de trois satellites de la NASA et de la NOOA, convenablement équipés pour effectuer toutes les mesures pertinentes de l'atmosphère et des nuages. Le résultat est très significatif. Voici ce qu'en dit Roy Spencer, le responsable de l'équipe :
"Pour donner une idée de la très grande efficacité de ce mécanisme de refroidissement dû à la disparition des cirrus, (je dirai que) cela réduirait de 75% les estimations d'élévation de température des modèles climatiques en vigueur"... Ce n'est pas un détail, loin de là ! Voici donc encore une prédiction alarmiste des modélisateurs du climat mise en défaut. Cela nous rappelle une autre histoire de pseudo-rétroaction positive qui devait venir des planctons dans les océans réchauffés par l'effet de serre. Là encore, des mesures récentes ont montré qu'il n'en était rien, bien au contraire, et que les planctons réagissent, très astucieusement, en se protégeant de l'ardeur du soleil comme vous le verrez ici. Ce qui constitue une autre rétroaction négative...

En passant, tirons un coup de chapeau au physicien du climat du (MIT) Massachussets Institute of Technology; Richard Lindzen (voir ici) , qui avait prévu et décrit cet effet qu'il avait baptisé "l'effet Iris" (parce que les cirrus s'écartent comme les lames d'un iris photographique), dès 2001. Personne ne l'avait écouté car comme chacun sait, Lindzen est un grand (sinon le plus grand) sceptique des modèles de l'effet de serre du CO2 atmosphérique....

Toujours au sujet de ces affaires, très disputées de rétroactions positives (qui amplifient les conséquences de l'effet de serre) ou négatives (qui atténuent les conséquences de l'effet de serre), j'ai trouvé sous la plume de Steven Milloy une remarque qui me paraît frappée au coin du bon sens. Je vous la livre avec quelques considérations supplémentaires : Il s'agit de la bouffée de chaleur qu'a connue la planète en 1998. Cette année détient actuellement le record absolu des températures relevées au cours du siècle ( Notez qu'il n'en est pas de même aux USA où 1934 a été plus chaude, selon les dernières corrections des fichiers de la NASA). Tout le monde semble d'accord pour attribuer cette brutale augmentation de température au courant El Niño, exceptionnellement puissant cette année-là. Ce réchauffement intense, mais assez bref (durée d'environ un an et demi), se voit parfaitement bien sur les relevés de températures terrestres comme sur les relevés satellitaires RSS des températures de la basse atmosphère qui sont assez proches de celles de la planète et qui sont aussi probablement plus fiables parce qu'elles sont globales et dénuées des difficultés liées à la prise des températures par des sondes distribuées sur la Terre. Steven Milloy fait remarquer que la température est brusquement retombée à sa valeur antérieure, voire à une valeur inférieure à ce qu'elle était avant le phénomène El Ninõ, après la fin de celui-ci.

overshootSi la planète réagissait avec une rétroaction positive à un réchauffement, cela devrait se voir par un retour plus lent vers la température moyenne. Dans les cas extrêmes on peut même imaginer que la température continuerait à augmenter après la fin d'El Niño et non pas, comme cela est observé sur les statistiques de température de la World Meteorological Organisation, par une diminution de la température après la fin d'El Niño. On aperçoit clairement un "overshoot" comme disent les scientifiques, c'est à dire un effet de rétroactions négatives, comme cela est illustré sur le schéma de droite. De manière générale, les rétroactions positives auront tendance à vouloir garder la mémoire des réchauffements rapides, voire à les accentuer. Au contraire, les rétroactions négatives auront tendance à faire baisser rapidement les températures après le "pic" jusqu'à parvenir à une température inférieure à celle de départ, comme cela se perçoit sur la courbe ci-contre.
Cette remarque, toute simple mais qui s'appuie sur des données réellement observées, met en défaut les modèles des ordinateurs du GIEC qui ont une tendance exagérée à considérer que la planète réagit toujours en amplifiant les phénomènes de réchauffement.. ce qui ne semble pas être le cas de manière globale; pas plus d'ailleurs que pour les cirrus comme l'indique l'article cité ci-dessus de Roy Spencer et al..

Enfin, pour conclure ce paragraphe sur les rétroactions globales de la planète, on peut faire remarquer que la Terre, depuis des temps reculés, a subi de graves perturbations telles que la chute de météorites (dont l'une, il y a 65 millions d'années, gigantesque aurait fini par faire disparaître les dinosaures après avoir avoir obscurci les rayons du soleil pendant des années), d'énormes éruptions volcaniques en chaîne (que l'on soupçonne aussi d'avoir fait disparaître les dinosaures) etc. Que constate-t-on après ces graves perturbations ? Le climat de la Terre n'a pas divergé. Après des oscillations diverses, les températures se sont gentiment stabilisées autour des valeurs que nous connaissons aujourd'hui. Autrement dit, la Terre doit bénéficier d'un thermostat très efficace... C'est plutôt rassurant, vu sous cet angle.

3) Le test expérimental d'un modèle récent de l'effet de serre, dément gravement les prédictions des ordinateurs.

Il s'agit, cette fois encore, d'un article paru dans la prestigieuse revue Science du 13 Juillet 2007. Il est signé par Frank J. Wentz et collaborateurs qui sont des chercheurs bien connus de la tendance actuelle de l'effet de serre anthropogénique. Wentz est donc tout sauf un "sceptique". Cet article est intitulé "How much more rain will global warming bring ?".
boumSoit, " Quelle augmentation de la pluviosité va nous apporter le réchauffement global ?"

C'est, en effet, une bonne question ! Le modèle utilisé par F. J. Wentz et al est un des tout derniers avatars des modèles améliorés de l'effet de serre sur ordinateur dont sont friands les climatologues, les écologistes et les alarmistes de toutes sortes. Selon les créateurs de ces modèles qui y croient dur comme fer, on ne doit attendre que des bonnes choses d'une telle sophistication, bien qu'elle multiplie encore le nombre de paramètres inconnus. En l'occurrence, c'est à dire en matière de prédiction du niveau de pluviométrie pour les années à venir, il va falloir trouver autre chose de plus convainquant. Voyez vous-même :

  • La confrontation du fameux modèle baptisé "Coupled Model Intercomparison Project", entre ses "prédictions" et les mesures réelles de pluviométrie du globe, observées par des méthodes satellites fiables et incontestables pour la période 1987-2006 conduit à une erreur comprise entre 230 et 700% ! Le modèle prévoyait une augmentation de la pluviométrie de 1 à 3% par degré centigrade d'augmentation de la température. Le résultat des mesures indique que la pluviométrie a augmenté, en réalité, de 7% par degré. C'est à dire entre 2,3 et 7 fois plus que le modèle. C'est plutôt gênant pour le "top-model" des climatologues... Mais ce n'est pas tout...
  • Frank J. Wentz et ses collaborateurs supputent, avec force arguments théoriques, que cette énorme différence entre les prédictions de leur modèle et la réalité ne peut s'expliquer que par un déclin marqué de la vitesse des vents pendant cette période de 1987 à 2006.
  • Frank J. Wentz et ses collaborateurs décident alors de vérifier qu'il en a bien été ainsi en utilisant les bases de données officielles, très bien documentées, sur la variation de la vitesse des vents pendant cette période. Encore un manque de chance pour eux : la vitesse des vents a, au contraire, nettement augmenté pendant cette même période !
    pluiePour un modélisateur du climat, il n'y a pas pire comme situation. Les auteurs concluent justement qu'on est très loin du compte en matière de modélisation du climat.

En tant que scientifique, je pense que même si Frank J. Wentz et al n'ont pas fait la preuve de la validité de leur modèle, (c'est plutôt le contraire), on ne peut que les féliciter d'avoir eu le courage et l'honnêteté de publier dans Science de tels résultats qui contredisent pourtant tous leurs efforts. C'est comme cela que la science progresse, par échecs et succès, et les échecs nous en apprennent souvent autant que les succès. L'attitude de Wentz est devenue beaucoup trop rare par les temps qui courent, surtout en matière de climatologie..Mais il est certain qu'il doit y avoir quelque chose de complètement faux dans le modèle d'effet de serre (voir ici) à moins que ce soit dans la mesure des températures moyennes !

4) La sensibilité climatique par rapport à l'ajout de CO2 atmosphérique est beaucoup plus faible que l'on pensait...

Stephen E. Schwartz est un chercheur reconnu de la Division des Sciences Atmosphériques du Laboratoire National de Brookhaven (Upton, NY). Il a inscrit ses travaux dans la perspective classique de l'influence des gaz à effet de serre sur le climat sur laquelle il a déjà publié de nombreux articles. Il n'est donc, en aucune manière, un "sceptique" et il fait, au contraire, partie du "mainstream" (le courant principal) comme disent les américains. Pourtant, il fait paraître un article révolutionnaire qui remet très sérieusement en cause les conclusions et les perspectives officielles du GIEC. L'article a été publié au prestigieux Journal of Geophysical Research mais vous pourrez en trouver un preprint ici. La référence exacte de l'article publié dans JGR est la suivante : " Heat capacity, time constant, and sensitivity of Earth's climate system". Schwartz S. E. J. Geophys. Res. , D24S05 (2007). doi:10.1029/2007JD008746.
Voici, en substance ce que dit cet article qui devrait sérieusement perturber le sommeil du bureau du GIEC et de ses zélateurs.

Tout d'abord, ce travail part de considérations purement thermodynamiques comme la capacité calorifique du système global (entre autres, celle des océans de la planète) ainsi que du temps de relaxation du système (c'est le temps que le climat met pour réagir à une variation du taux de CO2 dans l'atmosphère) . La sensibilité climatique (définie comme l'augmentation de température du globe pour un doublement du CO2 atmosphérique) est alors donnée par le rapport du temps de relaxation du système climatique sur la capacité calorifique du système global.

Stephen E. Schwartz a calculé ces différentes données à partir des mesures réelles obtenues dans les expériences réelles effectuées pendant la période 1880-2004. Les mesures du temps de relaxation ( le temps de réaction du climat aux variations de taux de CO2) sont obtenues, ici encore, par autocorrélation des mesures réelles réalisées sur le terrain. S. E. Schwartz n'utilise donc que des données expérimentales incontestables et admises par tous et non point des modèles d'ordinateurs qui exigent l'utilisation d'un grand nombre de paramètres et d'hypothèses comme expliqué ci-dessus.

  • Schwartz trouve que le temps de relaxation (de réponse) du système climatique n'est que 5 (+ ou- 1) années (comme le dit Tom V. Segalstad, ici), ce qui est beaucoup plus petit que ce qu'affirme le GIEC qui soutient que les diminutions du taux de CO2 que l'on pourrait induire maintenant n'auront des conséquences que dans des dizaines d'années, au mieux, (s'il n'est pas déjà trop tard ! ajoutent-ils). Les mesures réelles contredisent donc clairement les prévisions officielles...
  • D'autre part, Schwartz trouve que la sensibilité climatique au doublement du CO2 est beaucoup plus faible que celle qui est proclamée par les ordinateurs du GIEC, au point que le réchauffement de la planète (toujours dans l'hypothèse de l'effet de serre) ne serait que de 1,1 °C pour un doublement du CO2, à comparer avec les 3°C (en fait entre 2 et 4,5°) répercutés par les médias et que l'on trouve dans les rapports récents du GIEC qui, nous dit-on, a beaucoup affiné ses prévisions ! Ceci correspond à une élévation de température plus faible de 63% que l'élévation de température "officielle".
    Voici qui contredit encore gravement les discours de la pensée unique, sans compter les exagérations d'Al Gore et des autres écologistes renommés. Un astronome, le Dr. Ian Wilson déclare après avoir lu cet article que “Anthropogenic (man-made) global warming bites the dust,”"Le réchauffement anthropogénique du globe mord la poussière".

Venant d'un climatologue sceptique (il y en a beaucoup : allez voir ici), cet article aurait eu beaucoup de difficultés à passer le barrage des referees des revues renommées et aurait sans doute connu le même sort que tous les articles qui remettent en cause les chiffres officiels. C'est à dire, le silence et l'indifférence la plus totale de la part des médias. Mais venant d'un climatologue du "mainstream" qui a déjà beaucoup publié avec ses confrères "réchauffistes" voilà qui constitue un véritable pavé dans la mare. Autant dire, qu'une augmentation de 1,1°C, si nous doublons le CO2 en 100 ans, nous laissera largement le temps de nous adapter d'autant plus que les réserves de combustibles fossiles ne dureront, paraît-il, que 50 ans...Et les protocoles comme Kyoto et ses successeurs ne sont plus que des châteaux de sables, sans avenir, parce qu'on ne voit pas pourquoi il faudrait dépenser des dizaines ou des centaines de milliards de dollars pour contrecarrer une montée des températures aussi faible...si c'est possible. A condition que cet article pourtant publié dans une prestigieuse revue à comité de lecture, ne soit pas purement et simplement ignoré, comme beaucoup de ses prédécesseurs qui ne s'inscrivent pas dans le sens de la pensée unique.
Pauvre Science !

5) La sensibilité climatique (à l'ajout de CO2) est deux fois plus petite que celle revendiquée par les modèles du GIEC, si l'on tient compte de la diminution effective des aérosols dans l'atmosphère.

Et vlan ! Voici, encore, un article saignant pour les tenants de l'effet de serre du CO2 !
chylekCet article vient de paraître dans le très sérieux Journal of Geophysical Research, Vol 112, 112, D24S04, doi:10.1029/2007JD008740, 2007 sous la signature de chercheurs Américains et Suisses, on ne peut plus sérieux et compétents : Petr Chylek (Los Alamos National Laboratory, Los Alamos, New Mexico, USA), Ulrike Lohmann (Institute for Atmospheric and Climate Science, ETH Zurich, Zurich, Switzerland), Manvendra Dubey ( Earth and Environmental Sciences, Los Alamos National Laboratory, Los Alamos, New Mexico, USA), Michael Mishchenko ( NASA Goddard Institute for Space Studies, New York, New York, USA), Ralph Kahn (Jet Propulsion Laboratory, California Institute of Technology, Pasadena, California, USA), Atsumu Ohmura ( Institute for Atmospheric and Climate Science, ETH Zurich, Zurich).

Vous trouverez l'article complet (si vous êtes abonné) et le résumé (si vous ne l'êtes pas) ici. A noter, en passant que Mishchenko travaille dans le même Institut (Goddard à la NASA) que le célèbre James Hansen, le grand prêtre du renouveau de la saga de l'effet de serre du CO2...ça doit chauffer à la NASA...

Que nous dit cet article qui fait encore un énorme trou dans le fanion (en lambeaux) de l'effet de serre du XXème siècle ?

Tout simplement que si l'on tient compte (ce qui est nécessaire) du fait que le taux d'aérosols a considérablement diminué dans l'atmosphère depuis quelques années (ce qui a eu tendance à réchauffer la planète) , la sensibilité réelle du climat de la planète au doublement du CO2 atmosphérique doit être divisée, au moins, par un facteur 2. Pour parler comme les adorateurs du GIEC, cela signifie qu'au lieu du fameux 1Watt/m2 affirmé par le GIEC, il faudra se contenter d'un maigre irradiance comprise entre 0,29 et 0,48 watt/m2, ce qui fait évidemment lourdement chuter les prévisions catastrophistes de température du GIEC... Soit entre +0,5°C et + 1,2°C à la fin du XXIème siècle et pas 5 ou 6°C.

Ouille ! Ca doit faire très mal ! D'autant plus qu'on ne voit pas comment les thuriféraires de James Hansen et du GIEC pourraient échapper à ces deboerévidences liées aux mesures directes par satellites. On comprend mieux la crise de larmes d'Yvo de Boer (responsable climat de l'ONU) ci-contre à gauche près de Ban Ki Moon, lors de la dernière conférence sur le climat de Bali. Il devait se dire qu'en 2009, lors de la prochaine conférence, il auront du mal à éluder tous ces résultats comme il l'ont fait en décembre 2007 en décidant que les résultats de recherche postérieurs à Mai 2005 ne devaient pas rentrer en ligne de compte !

 

6)Toutes les variations des températures du XXième siècle ainsi que les variations d'El Niño peuvent être expliquées sans l'intervention de l'effet de serre du CO2 atmosphérique.

tsonisNous disent les auteurs Anastasios A. Tsonis, Kyle Swanson, et Sergey Kravtsov (Atmospheric Sciences group, University of Wisconsin-Milwaukee) dans un article (A new dynamical mechanism for major climate shifts , "Un nouveau mécanisme pour expliquer les changements majeurs du climat") publié dans l'incontournable revue à comité de lecture Geophysical Research Letters (vol 34, 12 Juillet 2007) . Utilisant les données expérimentales sur 100 ans, sur l'oscillation décennale (à 10 ans) du Pacifique, l'oscillation de l'Atlantique Nord, l'oscillation El Niño/Sud et l'oscillation du nord pacifique, les auteurs montrent que ces variations naturelles se sont synchronisées à plusieurs reprises. Dans certains cas, cette synchronisation a été suivie par un accroissement de la force de couplage qui a entraîné une destruction de cette synchronisation. A la suite de ces évènements, on a assisté à une variation de la température globale et une variabilité du courant El Niño. Les variations envisagées concordent avec les variations observées au XXième siècle.
Voilà encore des climatologues patentés qui n'ont pas besoin de l'effet de serre du CO2 pour expliquer les variations de température et qui publient dans les revues à comité de lecture. Alors Naomi Oreskes (voir ici), toujours partisante du consensus de 100% après ces citations tirées d'articles "peer-reviewed" ?

7) Les mesures directes des variations de température de l'atmosphère contredisent gravement les modèles de l'effet de serre !

Voici un article tout frais (décembre 2007) qui fait littéralement hurler les tenants de l'effet de serre anthropogénique. Paru dans le prestigieux "International Journal of Climotogy" de la Royal Meteorological Society (DOI : 10.10.1002/joc.1651), cet article est signé par quatre chercheurs américains spécialistes des mesures de températures par ballon sondes ou satellites : David H. Douglass, John R. Christy, Benjamin D. Pearson et S. Fred Singer, des universités de Rochester (NY), Hunstville (Alabama), Charlottsville (Virginie).
Il est intitulé " Comparaison des tendances de températures sur les tropiques avec les prédictions des modèles (NDLR: de l'effet de serre anthropogénique)"

Les chercheurs ont comparé les résultats de pas moins de 67 runs (utilisations) de 22 modèles d'ordinateurs de l'effet de serre, mis au point par de grandes institutions internationales, pour la plupart, affiliées au GIEC. La liste des modèles de ces dernières est instructive :
modelesghg

On reconnait, sur cette liste les modèles GISS du Goddard Institute (NASA) de James Hansen ainsi que ceux du célèbre Hadley Center en Angleterre.
Pour ce qui est de la France, deux institutions travaillent sur ces simulations numériques de haute volée : L'institut Pierre Simon Laplace (Directeur Jean Jouzel, chimiste de formation et membre du bureau du GIEC). A noter que cet Institut issu de l'ancien laboratoire d'Aréonomie du CNRS est le pilier des théories de l'effet de serre en France, tout comme il était le fer de lance lors de l'affaire du trou dans la couche d'ozone (années 90) alors sous la direction de Gerard Megie (décédé depuis). Le centre Météo-France est formé de nombreux polytechniciens et centraliens tous adeptes fervents des modèles d'ordinateur plus que de mesures sur le terrain.

En fait de mesures sur le terrain et comme il s'agit d'étudier les variations de température de l'atmosphère (en degrés/10 ans, en général), les quatre chercheurs américains ont utilisé les données disponibles réalisées à la surface et en basse et moyenne altitude (jusqu'à 14 km) fournies par pas moins de 87 stations de ballons sondes ainsi que par les tous les satellites équipés pour ce faire (MSU , microwave sounding units). Bref, on ne peut faire mieux, actuellement.

Je rappelle que tous les modèles impliquent que les gaz à effet de serre présents dans l'atmosphère doivent se réchauffer plus vite que la surface de la planète et ceci, tout particulièrement, au dessus de l'équateur et des tropiques. Cette caractéristique constitue la "signature" de l'effet de serre. Prouver ou démentir son existence constitue un teste absolument crucial pour les théories en vigueur de l'effet de serre...

Las ! Que nous dit la comparaison des mesures convergentes et obtenues par différents instruments avec les modèles théoriques ?

En bref : Une catastrophe pour les modèles ! Voici les courbes tirées de l'article en question :

tropic1

En rouge, les résultats des 22 modèles dans différents cas de figure voir la légende et l'article en question)

En bleu et vert, les observations réalisées avec les ballons sondes et les satellites pour l'atmosphère et par des stations de surface pour la Terre.

On voit immédiatement que si les mesures et les modèles sont en accord pour la surface terrestre, il existe un désaccord marqué entre les mesures et les modèles lorsqu'on s'élève un tant soit peu en altitude. A noter que jusqu'à près de 6 km d'altitude (échelle horizontale du haut), les modèles prévoient un réchauffement alors qu'en réalité, la température diminue ! De même, entre 8 et 10km d'altitude, la température devrait rester contsante ou augmenter et patatrac ! la température diminue..

Autrement dit, l'atmopshère ne se réchauffe pas du tout comme le prédisent les modèles de l'effet de serre (anthropogénique ou pas). Il y a comme un gros défaut !

Si vous regardez maintenant l'échelle de température située sur la gauche de ce graphique, vous constatez que les erreurs théorie-mesures réelles sont de de l'ordre de 200% à 300% ! Ce qui est énorme... surtout pour des modèles qui ont coûtés à la collectivité des millions sinon des milliards de dollars !

L'article, écrit dans des termes très mesurés comme toujours dans ce type de publications; se termine quand même par une phrase qui en dit quand on connait la prudence des scientifiques : "We suggest, therefore, that projections of future climate based on theses models be viewed with much caution." Autrement dit " C'est pourquoi nous suggérons que les prévisions du climat dans le futur, basées sur ces modèles, soient considérées avec le maximum de circonspection."

28 décembre 2007 : Les mesures de températures terrestres sont-elles fiables ?

Deux chercheurs déjà connus des lecteurs de ce site, Ross McKitrick (statisticien célèbre entre autres pour avoir débusqué la fa(u)meuse "crosse de hockey" de Michael Mann et al, avec Steve McIntyre) et Patrick Michaels (ex-climatologue d'état, récemment viré pour "non-conformisme" avec la pensée unique climatique) viennent de publier un article intitulé " Quantifying the influence of anthropogenic surface processes and inhomogeneities on gridded global climate data" Soit " Evaluation de l'influence de l'utilisation des sols par l'homme et inhomogénéités sur la grille des données climatiques globales" (Journal of Geophysical Research., Vol. 112, No. D24, D24S09, 10.1029/2007JD008465, 14 December 2007, texte complet pdf ici).

Cet article s'adresse au problème récurrent de la mesure effective de la température globale à partir des données terrestres. Il s'agit d'un problème particulièrement épineux mais évidemment crucial. En effet, les milliers de sondes de températures qui sont réparties de manière très inégales autour du globe et qui sont censées nous donner une estimation de la température avec une précision qui laisse rêveur (au centième de degré près !), sont finalement collationnés par le NASA Goddard Institute (James Hansen) qui est chargé d'en informer le monde entier. Ces données sont également utilisées par le UKMet (Le Hadley Center Anglais). Il est à noter que les résultats de ces deux agences ( GISS et UKMet) sont assez systématiquement plus alarmistes que les mesures satellitaires produites par deux orgnaismes (UAH et RSS).
En bref, le réchauffement climatique dont on nous rebat les oreilles depuis quelques années, est basé sur les mesures de températures thermométriques du GISS et du Hadley Center. La question est évidemment de savoir si ces mesures sont fiables et correctes.

En particulier, il est très souvent reproché à ces mesures locales et terrestres de température d'être perturbées par la proximité de bâtiments, de routes en asphalte et d'autres points chauds liés à l'activité humaine, susceptibles de provoquer une erreur (à la hausse) importante sur les mesures effectuées. Il va de soi que si l'on désire évaluer l'effet réel des gaz à effet de serre, il est essentiel de se débarrasser de ces "Urban heat islands" (les effets d'îlot de chaleur urbains). Un autre facteur déterminant sur la qualité des mesures de températures réside dans la qualité de l'entretien de toutes ces petites stations réparties dans le monde entier. Ainsi et par exemple, il est essentiel de s'assurer que les peintures blanches de ces constructions météorologiques sont conservées en bon état. Si elles noircissent sous l'effet du vieillissement ou d'un mauvais entretien, il va de soi que les mesures de température seront surestimées du fait du réchauffement inévitable du boîtier de protection des thermomètres. Un ex- météorologue (Anthony Watts) s'est chargé de la rude besogne qui consiste à évaluer la qualité des mesures thermométriques en surface sur tous les Etats-Unis. Les résultats qu'il a publié sont consternants. Un grand nombre de ces installations surestiment la température de manière grotesque.

Comme on s'en doute, tout cela est extrêmement difficile à quantifier sérieusement. Pourtant le GIEC, comme toujours fort de ses certitudes, assure que les erreurs entraînées par ces vices d'emplacement ou d'entretien, ne dépassent pas 10%, bien que, sans qu'il puisse l'expliquer, les mesures de surfaces diffèrent sensiblement (en les surestimant, bien entendu) des mesures de températures de la basse atmosphère réalisées par les satellites dont la précision et la globalité ne peuvent être mises en doute.mesureT

 

Voici, ci-contre, une petite image de deux de ces constructions traditionnellement utilisées pour mesurer la température du globe. Celle de gauche est visiblement en piteux état (sans peinture) et donc impropre à la mesure précise de la température.
En France, on trouve souvent ce genre de dispositif à proximité des aérodromes... et quelquefois à proximité du tarmac (hélas)!

De manière générale, l'implantation de ces systèmes de mesure doit être faite avec soin. Même la qualité du sol à de l'importance. Sans parler de l'environnement urbain immédiat, de son exposition aux vents etc.

 

Pour évaluer la "contamination" des systèmes de mesures dû à la mauvaise installation, au mauvais entretien et à la proximité d'îlots urbains, Ross McKitrick et Patrick Michaels ont eu une idée originale et sans aucun doute, très astucieuse.

Leur idée de base repose sur le constat, hautement crédible, que l'entretien et la qualité des mesures des stations thermométriques doit dépendre du niveau de vie et d'un certain nombre de facteurs socio-économiques (jusqu'à la compétence des observateurs), des pays qui en ont la charge. Ainsi et c'est presqu'un jeu d'enfant pour un statisticien professionnel comme McKitrick, il doit être possible de discerner dans l'ensemble des bases de données mondiales des relevés de température des contaminations qui reflètent le revenu moyen des pays, leur taux de croissance de population, le nombre de relevés de températures manquants, le taux de croissance économique, et le taux de croissance dans l'utilisation du charbon ainsi que le degré d'éducation de la population.

Ainsi et si le réchauffement a bien un caractère global comme on le pense parce qu'il serait dû à l'effet de serre du CO2, on devrait, si les mesures sont effectuées partout correctement, n'observer aucune corrélation entre l'accroissement de la température (en degre °C /par décennie) et les facteurs socio-économiques mentionnés ci-dessus. Autrement dit, bien que les températures soient évidemment différentes d'un point à l'autre du globe, le réchauffement global implique que leur accroissement (la dérivée permière de la température par rapport au temps) doit être la même partout. McKitrick et Michaels ont tout d'abord testé leur modèle sans a priori et ils ont trouvé que la probabilité qu'il n'existe aucune corrélation entre les températures mesurées et ces différents facteurs est de ... 10 puissance -13 ! Autrement dit : il y a forcément une corrélation significative. Si, maintenant, on cherche le degré de corrélation entre les facteurs socio-économiques et les erreurs de température sur l'ensemble des stations du globe en utilisant une grille au pas très fin, on trouve que les écarts à la moyenne (autrement dit les anomalies de mesures) représentés avec un code des couleurs se présentent de la manière suivante :

L'échelle de droite indique, avec un code des couleurs, les écarts entre les températures mesurées et la valeur correcte.
On voit qu'il existe beaucoup de points (rouges) qui signifient un écart de +0,7°C.

grid

La couleur verte indique des mesures correctes. On l'observe aux Etats Unis , sur la partie peuplée périphérique de l'Australie et en Europe de l'Est (mais pas vraiment en France!) (Pour mieux voir, allez cherche l'article original). Par contre, les pays de l'hémisphère sud semblent assez mal lotis en matière de mesures thermométriques. Il est connu aussi que les mesures sur les océans (à bord des bateaux) sont entachées d'erreur, presque toutes des surestimations.
La Chine centrale est particulièrement peu performante.


A noter aussi que le pas de la grille utilisée pour les calculs est nettement plus fin que la taille des carrés de couleur.

En outre, il ne faut guère se faire d'illusions sur les mesures effectuées dans certains pays développés comme les Etats-Unis qui regroupent à eux seuls 20% des capteurs mondiaux. Comme je l'ai déjà signalé ci-dessus, un ancien météorologue, Anthony Watts, outre son excellent blog, a mis sur pied, avec un groupe de bénévoles, une commission d'audit de la totalité des stations US (site). Les résultats obtenus selon les méthodes scientifiques en vigueur pour ce genre d'installation, sont pour le moins inquiétants. Un ami lecteur attentif, Jacques Corbin, a réalisé une présentation Power-Point en français tout à fait étonnante, à partir des travaux d'Anthony Watts. Cette présentation est disponible ici. Merci à lui !

Ceci étant dit, Ross McKitrick et Patrick Michaels ont effectué une reconstruction des accroissements de températures corrigées dans le différents points du globe. Autrement dit, ce que des stations, normalement lues, entretenues et disposées, auraient donné comme résultat.
Voici le diagramme des résultat qu'ils ont obtenus, avec, bien entendu, la distribution des écarts propres à ce genre de calcul statistique très élaboré.
En abscisse, l'échelle représente la variation de température en °C par décennie.

trends

La courbe du haut représente la distribution des bases de données brutes indiquées par les thermomètres et utilisées telles que par le GIEC.

 

La courbe du milieu représente les résultat des données satellitaires dans la basse troposphère.

 

La courbe du bas donne la distribution de tendances de température des données corrigées des erreurs de mesures par le calcul statistique de McKitrick et Michaels.

 

On observe immédiatement que les distributions des données satellitaires d'une part et celle des données corrigées par McKitrick et Michaels sont beaucoup moins étalées que celles des mesures brutes enregistrées par le GIEC.
Ce qui est encore plus intéressant c'est que les données corrigées des statisticiens sont beaucoup plus proches des donnés satellitaires que ne le sont les données brutes. Observons aussi que la valeur centrale (ou la valeur moyenne) des données utilisées par le GIEC est nettement plus élevée que celles données par les satellites ou les données corrigées de McKitrick et Michaels.

Tous calculs faits, nos deux statisticiens en déduisent que le GIEC (et donc le NASA Goddard Institute , c'est à dire James Hansen) aurait surestimé la hausse des températures de 1980 à 2002 d'un bon facteur 2 (et pas 10% comme l'affirme le GIEC! ).

Ceci étant dit, restons prudents : Les statistiques c'est un peu comme les programmes de simulation sur ordinateurs : Il est difficile d'évaluer la signification de ce qui en sort. Il n'est pas impossible que ces corrélations trouvées par nos deux statisticiens soient, elles-mêmes, le résultat d'autres corrélations. Il n'en reste pas moins que la réduction de la largeur de la distribution d'une part et la réconciliation des mesures corrigées et des mesures satellitaires, plaident vraiment en faveur de ces résultats. Cela ne peut que difficilement être fortuit.

Cet article porte (encore) un rude coup aux tenants de l'effet de serre anthropogénique. Croyez vous que nos journalistes scientifiques en ont parlé ? Rien. Pas un mot ! Pour celui-là comme pour tous ceux qui précèdent et beaucoup d'autres, silence radio quand on ne va pas dans le sens de la pensée unique ! Curieuse conception du métier de journaliste...

 

17 août 2008 : Une étude qui jette un froid glacial sur les modèles informatiques du GIEC :

"Au sujet de la crédibilité des prédictions climatiques"pluieGIEC

C'est le titre d'un article (source) qui est paru en août 2008 au journal "peer-reviewed" "Hydrological Sciences - Journal des Sciences Hydrologiques 53(4) p. 671, Août 2008 sous la signature de 4 chercheurs spécialisés dans les ressources en eau de l'université d'Athènes : D. Koutsoyiannis, A. Efstratiadis, N. Mamassis et A. Christofides.

 

En voici le résumé (caractères engraissés par l'auteur du site):

"Résumé : Des prévisions distribuées dans l’espace du climat futur, obtenues à l’aide de modèles climatiques, sont largement utilisées en hydrologie et dans de nombreuses autres disciplines, en général sans évaluation de leur confiance. Nous comparons ici les sorties de plusieurs modèles aux observations de température et de précipitation de huit stations réparties sur la planète qui disposent de longues chroniques (plus de 100 ans). Les résultats montrent que les modèles ont de faibles performances, y compris à une échelle climatique (30 ans). Les projections locales des modélisations ne peuvent donc pas être crédibles, alors que l’argument courant selon lequel les modèles ont de meilleures performances à des échelles spatiales plus larges n’est pas vérifié."

Ces quatre chercheurs ont comparé les résultats des mesures effectives de température et de pluviométrie données par les sites officiels pour 8 stations locales répartis sur une grande partie de la planète avec les prédictions des modèles informatiques du GIEC (TAR 2001 et AR4 2007). Tous ces modèles du GIEC sont issus de diverses sources officielles affiliées au GIEC. Bien entendu, ces modèles font un usage intensif de l'effet de serre et des modèles GCM (Global Climate Model). Voici la liste des sites choisis comme témoins pour cette étude.

Albany (USA), Athens (Greece), Alice Springs (Australia), Colfax (USA), Khartoum (Sudan), Manaus (Brasil), Masumoto (Japan),Vancouver (USA).

Après avoir montré que les modèles utilisés par le GIEC sont déjà en profond désaccord entre eux sur les prédictions locales, ce qui avait déjà été signalé dans le rapport NIPCC (ici), les auteurs confrontent les prédictions des modèles avec la réalité objective. Le résultat de cette confrontation est gravement négatif pour la capacité des modèles à effectuer des prédictions correctes. L'article de Koutsoyiannis et al reproduit deux figures (6 et 7) qui illustrent cette conclusion de manière frappante.

Voici un extrait de la conclusion des auteurs :

"Aussi bien à l'échelle annuelle que climatique (30 ans), les séries interpolées (NDLR : Parce que les modèles GCM travaillent sur une grille dont les points ne tombent pas exactement sur les sites choisis, il faut travailler par interpolation avec les points voisins de la grille) ne rendent pas compte de la réalité. Les modèles GCM ne reproduisent pas les fluctuations naturelles de durées supérieures à l'année et sous estiment la variabilité et le coefficient de Hurst des séries observées. Ce qui est plus grave encore c'est que quand le séries temporelles GCM impliquent un coefficient de Hurst supérieur à 0,5, ceci résulte d'une variation monotonique alors que dans les données historiques le valeurs élevées du coefficient de Hurst résultent de fluctuations à grande échelle et de durée supérieure à une année (c'est à dire d'une succession de tendances à la montée et à la descente). Les très grandes valeurs négatives des coefficients d'efficacité montrent que les prédictions des modèles sont beaucoup moins bonnes qu'une prédiction élémentaire basée sur une simple moyenne effectuée sur le temps. Ceci implique que les projections du climat futur pour les sites sélectionnés ne sont pas crédibles. Savoir si ces conclusions peuvent être généralisées à d'autre sites requiert un prolongement de cette étude. Ce que nous avons planifié. Cependant, les performances des modèles GCM sur les 8 sites choisis laissent peu d'espoir, pour ne pas dire aucun. L'argument qui consisterait à dire que les performances médiocres des modèles GCM ne concernent que les points choisis pour la comparaison et qu'une extension à plus grande échelle pourrait montrer que les sorties des modèles GCM sont crédibles, repose sur une hypothèses non prouvée et, selon nous, fallacieuse. "

NDLR : le coefficient de Hurst (ou Hurst-Kolgomorov) est un exposant qui provient de la théorie du chaos et des fractales. Entre autres, Il a été beaucoup utilisé en hydrologie ( les auteurs sont hydrologues). En théorie, il est directement relié à la dimension fractale. On peut simplifier en disant que l'exposant de Hurst permet de "mesurer" le taux de prédictabilité d'un ensemble complexe ou, encore, sa mémoire à long terme. Pour en savoir (beaucoup) plus sur cet exposant lisez ceci.

Inutile de dire que cet article a fait des vagues parmi les tenants des modèles informatiques du GIEC...Pourtant et même sur RealClimate, je n'ai trouvé aucun argument convaincant démontant sérieusement les conclusions des cet article...
On ne peut s'empêcher de penser que les modèles GCM utilisés en climatologie n'ont pratiquement jamais été confrontés à la réalité puisqu'il s'agit, au moins pour le GIEC, de prédictions à long terme que peu d'entre nous pourront vérifier...Tester ces modèles sur les climats passés, comme les auteurs de cet article l'on fait, semble donc être une excellente idée. Mais, ouille ! Le résultat fait très mal à la crédibilité des affirmations péremptoires et définitives du GIEC et de ses thuriféraires.

On a déjà de très sérieux doutes sur la sensibilité du climat au CO2 atmosphérique (voir ci-dessus).
Alors, si en plus les modèles de base GCM sont gravement déficients...
Où va t-on ?

 

gray"Le changement climatique est déterminé par les océans et non par l'activité humaine" (source).

Tel est le titre de la conférence présentée par le Professeur William (Bill) Gray lors de la deuxième conférence Internationale sur le Climat qui s'est tenue à New York du 8 au 10 mars 2009 (Textes des conférences, vidéo, ppt etc. disponibles ici)

Bill Gray est Professeur émérite au laboratoire de Sciences Atmosphériques de l'Université de l'Etat du Colorado. Il est, et a été; sans conteste, l'expert mondial N°1 des ouragans de la planète. Il a formé et dirigé des dizaines de chercheurs durant sa longue et prestigieuse carrière.
Ci-contre le Prof. Bill Gray et un des ses collaborateurs, le Dr. Phil Klotzbach

En tant qu'expert des phénomènes cycloniques, Bill Gray possède une connaissance approfondie de la modélisation numérique de l'atmosphère ainsi qu'une très bonne compétence des phénomènes océaniques. Et de fait son article, très documenté, se divise en deux grandes parties.

La première partie est consacrée à une critique élaborée des modélisations de l'atmosphère utilisées par le GIEC et ses affidés. Leurs modèles utilisent ce que l'on appelle communément les GCM (les modèles de circulation générale). La discrétisation, imposée par le traitement informatique se fait sur une quadrillage plaqué sur l'image de la Terre et de son atmosphère ("The grid" en anglais, la grille en français). La puissance de traitement des très puissants ordinateurs actuels ne permet cependant pas de modéliser l'atmosphère avec un pas de grille inférieur à la centaine de kilomètres. Afin d'obtenir une représentation réaliste du climat de la planète, il est alors indispensable de remplir les trous de la grille avec une série de mécanismes "sub-grid", c'est à dire d'extension inférieures aux pas de la grille.
Parmi ces phénomènes très importants (qu'en réalité, on ne sait pas encore modéliser) se trouvent les nuages et notamment les cumulus et les cumulonimbus (avec les puissantes convections associées et la détermination de la teneur en vapeur d'eau de l'atmosphère) qui jouent un rôle essentiel sur les projections climatiques du GIEC. Bill Gray fait remarquer que la modélisation physique très généralement utilisée pour ces phénomènes à l'échelle "sub-grid" est beaucoup trop simpliste et que l'on sait depuis longtemps que toutes les tentatives qui ont été effectuées dans ce domaine se sont soldées par des échecs.

Ce point est absolument essentiel car la teneur réelle en vapeur d'eau de la haute atmosphère ( c'est à dire vers 7 à 10 km d'altitude où se trouve le fameux point chaud (hotspot)) d'où les rayonnements peuvent s'évacuer dans l'espace (voir à ce sujet l'article de Richard Lindzen qui est, à mon avis et de loin, la présentation la plus réaliste de l'effet de serre. Elle est notablement différente de celle que l'on vous expose sur certains sites "pseudo" scientifiques francophones)) est absolument déterminante pour les prédictions catastrophistes du GIEC. La vapeur d'eau est un très puissant gaz à effet de serre, beaucoup plus efficace que le CO2 qui, s'il était seul, ne produirait qu'un réchauffement quasiment imperceptible de la planète. On voit donc que les problèmes de l'échelle "sub-grid" sont déterminants comme cela a déjà été indiqué par John Theon et de nombreux autres chercheurs.

Bill Gray s'intéresse donc tout particulièrement aux projections, effectuées et utilisées par les modèles du GIEC, sur la teneur en vapeur d'eau de l'atmosphère. Cette teneur en vapeur d'eau se caractérise, entre autres, par ce que l'on appelle l'humidité spécifique (specific humidity, c'est à dire la masse de vapeur d'eau par unité de masse d'air, exprimée en g/kg) . Ce paramètre essentiel a fait l'objet de nombreux ajustements, depuis de nombreuses années. Notamment par James Hansen dont Bill Gray démonte systématiquement les modéles. Ce n'est que récemment que des mesures précises ont pu être effectuées à l'aide de satellites équipés de détecteurs appropriés.
Pour que les prédictions catastrophistes du GIEC soient correctes, il faudrait que l'humidité spécifique de la haute atmosphère (mais pas nécessairement de la basse atmosphère) augmente à mesure que le taux de CO2 augmente. Autrement dit et comme cela a souvent été répété dans ce site, il faudrait que la vapeur d'eau produise une rétroaction positive au forçage radiatif dû au gaz carbonique. Il m'est impossible de rentrer dans tous les détails de l'article de Bill Gray (dont je recommande vivement la lecture car il est compréhensible et très bien rédigé). En voici un graphe typique commenté :

gray1

Figure 6 de l'article de Bill Gray : Analyse d'après le NCEP/NCAR des anomalies du contenu en vapeur d'eau (c'est à dire l'humidité spécifique) à 400mb (autour de 7,5km d'altitude) (Courbe en bleu) et Radiation à grande longueur d'onde sortante (OLR : Outgoing Longwave Radiation (OLR) de 1950 à 2008. (Ce sont les rayons infra rouges)
NCEP/NCAR c'est le National Center for Environmental Prediction / National Center for Atmospheric Research.

Les modèles GCM utilisés pour les projections du GIEC supposent que l'humidité spécifique doit être croissante comme l'est la courbe de l'OLR qui augmente en proportion du CO2 en fonction du temps.

C'est exactement le contraire de ce qui est observé : Le deux courbes sont contra-variantes. Autrement dit la rétroaction de la vapeur d'eau s'avère négative et non positive comme le supposent tous les modèles du GIEC...Il faut se souvenir que cette rétroaction supposée positive par le GIEC est à l'origine des projections catastrophistes d'un réchauffement de 2 à 6°C/100 ans. Sans cette rétroaction supposée positive de manière erronée, l'effet du CO2 seul est totalement négligeable.
Bill Gray conclut cette partie de son exposé en expliquant qu'en réalité, en l'état actuel de nos connaissances, il est vain d'espérer obtenir une prédiction réaliste pour le climat avec les modèles qui sont utilisés par le GIEC (les GCM).

Après avoir gravement mis en défaut le fondement même des prévisions du GIEC, Bill Gray consacre la seconde partie de son article à l'étude des processus naturels qui peuvent expliquer les variations climatiques que nous avons connues. Selon lui, et comme nous l'avons signalé à plusieurs reprises (ici et ici) , il existe une corrélation incontournable entre les phénomènes océaniques et les variations de température de la planète.

Bill Gray propose de prendre en considération la circulation profonde des océans comme par exemple la THC (Thermohaline circulation) de l'atlantique nord. Cette dernière est évidemment couplée avec les oscillations déjà citées telles que la PDO et l'AMO. Le dessin ci-dessous représente un schéma simplifié de ce que les MOCscientifiques appellent la MOC (qui est en fait la somme de la THC et des subsidences antarctiques représentes par des X) c'est à dire le tapis roulant des océans du globe. En tant qu'expert des ouragans et donc connaisseur des océans, Bill Gray explique avec beaucoup de détails comment l'évolution de ces courants chauds (tel que le Gulf Stream) ou froids peuvent expliquer l'évolution du climat passé. Il précise notamment que la réactivation brutale et récente de la pompe arctique (en haut du graphique) que j'ai commentée dans cette page, indique probablement que l'on est passé par un maximum de température globale.

Ici encore, il m'est impossible de rentrer dans les détails de la démonstration de Bill Gray. Je reproduis ci-dessous un des graphes qui me semble significatif de sa démonstration.

 

gray3

En haut de ce graphique, la figure 22 de l'article de Bill Gray. Cette figure montre que la courbe des températures de la planète depuis 1880 se décompose en cycle successifs de refroidissements et de réchauffements avec une demi-période d'environ 30 ans. On y voit, par exemple, le refroidissement qui s'est produit de 1945 à 1976 et qui avait fait craindre un âge glaciaire (!)

Cette décomposition est effectuée par Bill Gray à partir de l'étude des circulations océaniques (MOC, THC etc) dont Gray (en tant que spécialiste des cyclones) est un expert.
Le graphe de Bill Gray indique, en tiretés rouges et bleus, les erreurs
que l'on peut commettre si on extrapole à partir d'une période limitée de l'histoire des températures ...ce que vont volontiers les alarmistes.

Les gros points bleus et rouges qui marquent des basculement de l'orientation des températures correspondent à des modifications importantes de la circulation océnanique, selon Gray.

A titre d'illustration, j'ai superposé le graphe de Bill Gray à celui de Klyashtorin et Lyubushin (2003) qui avait été présenté dans cette page. Le graphe de Klyashtorin et al a été obtenu à partir d'une simple analyse statistique des températures (prolongée depuis 1100 ! ) sans aucune analyse sur la physique des phénomènes.

La superposition de ces deux graphes est intéressante. On y observe la même périodicité et la même prévision pour les 20 ou 30 années à venir, c'est à dire un refroidissement pour les décennies futures. (indiqué FCST = forecast, par Bill Gray). A noter que ces prévisions ne sont pas très éloignées de celles de Keenlyside et al (voir ici) du GIEC qui ont (à mots soigneusement pesés) prévu un refroidissement ou une stagnation des températures à venir : Tout simplement parce qu'ils ont (enfin) incorporé l'influence des océans dans leurs modèles.

De fait, on observe, chez Bill Gray comme chez Klyashtorin et al, une légère montée sous-jacente des températures depuis 1860 (Klyashtorin) 1880 pour Gray, c'est à dire depuis une époque ou le CO2 anthropique était très faible. Cette montée sous jacente des températures est de l'ordre de +0,35°C/100 ans ce qui équivaut (si cette montée est due au CO2) à une sensibilité au CO2 comprise entre 1/4 et 1/6ème de la sensibilité (rétroactions incluses) moyenne proposée par le GIEC, ce qui conduirait à un réchauffement négligeable de la planète . A noter que cette sensibilité est assez proche de ce qu'ont trouvé, indépendamment, R. Lindzen ou encore R. Spencer par des méthodes totalement différentes. Pour sa part, S-Y Akasofu pense que cette montée sous-jacente n'est pas due au CO2 mais à la sortie du petit âge glaciaire qui s'est achevé vers 1715 (article très documenté de Akasofu sur ce sujet) et analyse d'un autre article d'Akasofu (sur cette page) : Les résultats d'Akasofu sont très proches des conclusions de Bill Gray et de Klyashtorin et Lyubushin

Bill Gray en conclut que le CO2 ne serait responsable que de 0,1 à 0,2°C des 0,6 à 0,7°C de la variation passée de la température globale de la planète. En supposant que le taux de CO2 soit doublé à la fin du XXIème siècle, il attribue au CO2 la responsabilité d'un réchauffement qui serait compris entre 0,3 et 0,5°C, ce qui est très en dessous des estimations du GIEC (2 à 5°C). A noter comme je l'ai déjà fait remarquer dans cette page, que cette explication n'est absolument pas exclusive de l'influence de variations du soleil (TSI et cycles) sur le climat global. C'est bien ce dernier qui fournit l'énergie nécessaire à la MOC, la circulation océanique du globe.

Le 16 Octobre 2009 : Bill Gray a fait paraître une comparaison détaillée entre la réalité observée depuis 13 ans et ses prédictions, basées sur le modèle précédent, faites lors d'une conférence donnée en 1996. Le résultat est éloquent : 100% de réussite, sans aucun effet de serre anthropique !
Lisez ce document-bilan de Bill Gray.

Comme toujours, ne vous attendez pas à retrouver cette analyse ni d'ailleurs aucune autre des 70 conférences qui ont été données devant les 700 participants de la seconde Conférence Internationale des sciences du Climat de New York dont le thème était :
" The Global Warming : Was It Ever Really a Crisis" ?" (La quasi totalité des prodeedings est disponible ici)
dans les médias traditionnels.
Dès qu'il s'agit de scientifiques qui ne sont pas d'accord avec la pensée-unique, c'est motus et bouche cousue dans les grands médias.
Chhhuttttt... Surtout pas de bruit, n'est-ce-pas ?
ça pourrait faire exploser la bulle...

A propos de bulle, la Nature nous dira elle même qui a raison, dans peu de temps.... D'ailleurs elle a déjà commencé à la faire depuis 1998 comme on le voit sur les courbes de températures globales officielles du Hadley Center, qui elles aussi sont soigneusement cachées au public avec un tour de passe-passe digne du jeu de bonneteau... (voir cette page)

 

Mise à jour du 31 Mars 2009 : D'après le Professeur Lindzen du MIT, les rétroactions au réchauffement de la planète sont négatives et non positives comme l'affirme le GIEC ! Et il le prouve à partir d'observations directes.

Voici l'analyse d'un texte que Lindzen a envoyé récemment à de nombreux collègues, comme suite à la dernière réunion de l'International Conférence on Climate Change qui s'est tenue du 8 au 10 mars à New York

Quelques mots de rappels au sujet des rétroactions : Comme vous le savez si vous avez lu attentivement le contenu de ce site, l'effet de serre direct du CO2 serait, en fait, très faible. Les modèles du GIEC indiquent que, sans rétroactions, c'est à dire sans effets secondaires, un doublement du taux de CO2 de l'atmosphère ne pourrait guère réchauffer notre planète que de moins de 1°C, ce qui pourrait demander plus de 100 ans de consommation d'énergie fossile et serait certainement noyé dans le bruit des fluctuations naturelles.

De fait, les affidés du GIEC n'ignorent pas ce fait d'évidence. Dès lors comment font-ils pour prédire des augmentations de température aussi élevées que +6°C à la fin du siècle ?

Tout simplement, en invoquant l'idée que le faible réchauffement induit par le CO2 entraîne de facto, disent-ils, une suite d'événements qui vont dans le sens de l'aggravation de la hausse de température. Autrement dit, ils affirment que le réchauffement de la planète est un processus catastrophique, à cause de mécanismes du type de celui-ci : Si on réchauffe la planète, l'eau des océans s'évapore et la vapeur d'eau ainsi ajoutée dans l'atmosphère augmente l'effet de serre (H20 est un puissant gaz à effet de serre, plus puissant que le CO2). Ceci est une rétroaction positive. Certains,comme James Hansen évoquent l'idée que ce processus agit de manière constructive, c'est à dire que ce processus ( plus ça chauffe, plus de vapeur d'eau, plus d'effet de serre, plus de chaleur etc...) peut faire basculer la Terre dans un climat analogue à celui de Venus...d'où l'idée du "tipping point" qui fait si peur aux politiques et au grand public.
La question relative aux rétroactions est donc cruciale. Sans elles, l'effet du CO2 qui n'est guère qu'une allumette, serait minime ou négligeable.

Lindzen, qui est aussi un bon pédagogue, donne une image pedaleamusante et très compréhensible pour expliquer ce qu'est une rétroaction. Il nous dit que, dans une voiture, la pédale de frein et l'accélérateur sont utilisés comme des rétroactions négatives. En effet, on appuie sur l'accélérateur si on trouve que l'on va trop lentement, et on appuie sur le frein si on trouve que l'on va trop vite. Bref, l'action exercée par le pied sur les pédales d'une voiture vise (normalement) à maîtriser la vitesse de la voiture. Pour cela vous exercez des rétroactions négatives.

Imaginez maintenant qu'un mauvais plaisant ait eu l'idée saugrenue d'invertir vos pédales. Vous allez maintenant agir en dépit du bon sens : accélérer quand vous voulez ralentir et freiner lorsque vous trouvez que votre vitesse est trop lente. Ce faisant vous exercez des rétroactions positives et vous risquez fort de finir dans un mur (comme le "point de basculement" du climat, cher à James Hansen). C'est ce que nous prédisent les affidés du GIEC. Ils supposent (car rien n'est prouvé sur ce point là) que les rétroactions sont toujours positives, d'où leurs prédictions catastrophistes.

Mais le climat a-t-il des pédales inversées ? Les rétroactions du climat au léger réchauffement induit par la faible proportion de CO2 ajouté par l'homme, sont-elles réellement positives ? A cette question, Richard Lindzen répond fermement que NON ! Et il utilise des données fournies parcontre1 l'observation directe.

Lindzen s'appuie, entre autres, sur le graphe ci-contre.

Sur ce graphe, la courbe en rouge représente les résultats des mesures satellitaires du flux Infra Rouge ( marqué LW, long wave) rayonné par la Terre en direction de l'espace. A noter que ce flux est mesuré à l'extérieur de l'atmosphère terrestre et qu'ainsi il mesure le flux sortant qui, s'échappant dans l'espace, contribue au refroidissement de la planète. Comme on peut le constater, ce flux sortant suit assez fidèlement la variation de la température du globe. On y perçoit très bien le réchauffement dû au El Niño de 1998.

La courbe en pointillés, entourée de sa zone grise ( la marge d'erreur) représente, à la même échelle, les prévisions des modèles climatiques du GIEC. Comme on le voit, les modèles prévoient que le flux s'échappant vers l'espace ne varie que très peu de 1985 à 1999. On constate aussi que la courbe rouge ( les observations) et la courbe en pointillés noirs sont confondues de 1985 à 1990, ce qui n'est pas étonnant puisque les modèles ont été ajustés dans ce but.

En bref, les modèles supposent que les rétroactions atmosphériques établissent un véritable couvercle vis à vis du flux infrarouge qui devrait normalement s'échapper dans l'espace. Ceci impose évidemment que la Terre ne pouvant se refroidir, doit se réchauffer (selon les modèles du GIEC).

Manque de chance pour les modèles et pour les fans du GIEC, Les mesures réelles des flux infra-rouges sortant montrent que bien, au contraire, le couvercle n'est pas fermé et très loin de là. Les flux de chaleur s'évacuent facilement dans l'espace. Le rapport qui peut aller jusqu'à 7 entre les mesures réelles et les modèles montrent que les rétroactions sont, en réalité, fortement négatives nous dit Lindzen qui fait remarquer qu'un rapport de 2 à 3 entre les mesures et les modèles indiquerait déjà que les rétroactions sont nulles.

Richard Lindzen conclut donc que les rétroactions actions réelles sont nettement négatives et que la sensibilité climatique au doublement du CO2 ( rétroactions incluses) n'est que de l'ordre de 0,3°C. Ce qui est évidemment négligeable par rapport aux fluctuations naturelles. Lindzen note aussi que pas moins de quatre équipes (affiliées au GIEC) qui se sont penché sur ces courbes n'en ont pas tiré les conclusions qui crèvent les yeux...(lien).

__________________________________________________________________________________________________________________________

Mise à jour du 30 Juillet 2009 de l'article précédent : Richard Lindzen persiste et signe : Alors que les simulations numériques de tous les modèles des affidés au GIEC prédisent une rétroaction positive, les mesures réelles montrent clairement que celle-ci est négative !

Dans un article actuellement sous presse au GRL ( pdf disponible) Lindzen, R. S., and Y.-S. Choi (2009),
On the determination of climate feedbacks from ERBE data
Geophys. Res. Lett., doi:10.1029/2009GL039628, in press. (accepted 20 July 2009)

Un compte rendu plus complet de ce travail a été présenté à Erice lors de la " 42ND SESSION OF THE INTERNATIONAL SEMINARS ON PLANETARY EMERGENCIES, Erice, 19-23 August 2009.

Entre autres, Lindzen et Choi montrent un ensemble de graphiques qui en disent long sur les contradictions fondamentales qui existent entre les "prédictions" des modèles du GIEC et les mesures réelles des flux sortants effectués par ERBE (Earth Radiation Budget Experiment, Expérience sur le budget radiatif de la Terre) à bord du satellite ERBS de la NASA. lindzenERBE2

Sur les 12 graphiques ci-contre :

L'échelle horizontale est graduée en degrés celsius. Elle indique la température moyenne de la surface des océans (SST)

L'échelle verticale indique la valeur du flux énergétique sortant de l'atmosphère en direction de l'espace.

Les onze graphiques à fond blanc représentent les résultats des onze principaux modèles du climat utilisés (et lourdement financés) par le GIEC et les états participants. En particulier, on retrouve le modèle GISS-ER (de Hansen-Schmidt), le modèle UKMO-HadGEM1 (Hadley Center, UK) et, pour les lecteurs français, le modèle IPSL-CM4 de l'Institut Pierre Simon Laplace (Jouzel, le Treut)....

Tous ces modèles numériques décident ou prévoient que lorsque la température des océans augmente, le flux s'échappant de l'atmosphère terrestre vers l'espace doit diminuer : Ce serait donc une rétroaction positive car un réchauffement de la planète conduirait encore à une augmentation du réchauffement par réduction de la fuite de chaleur vers l'espace. Ceci est l'argument N°1 qui permet au GIEC de prévoir des hausses de température de 2 à 6° C en 2100. Sans cet argument (mis ici en défaut), le réchauffement induit par le CO2 seul, serait insignifiant...

Mais que se passe-t-il en réalité ?

La réalité est indiquée sur le douzième graphique (dont j'ai colorié le fond en jaune, en haut à gauche) qui, lui, est tracé directement à partir des mesures de flux effectuées par la mission ERBE. En opposition avec tous les modèles d'ordinateurs du GIEC, le flux de chaleur émergent de la planète CROIT quand la température de surface de la planète (ici, la SST) augmente. Ce qui signifie que l'atmosphère devient plus transparente quand la Terre s'échauffe. Ceci évite que notre bonne vieille planète ne se réchauffe davantage et provoque même un refroidissement. Il s'agit donc d'une rétroaction négative qui, au contraire des prévisions catastrophiques du GIEC, thermostate gentiment notre planète si celle-ci vient à se réchauffer, comme l'ont d'ailleurs prévu plusieurs auteurs en accord avec Lindzen. Ceci signifie en clair que l'idée généralement propagée par les activistes qu'un réchauffement des océans envoie plus de vapeur d'eau dans l'atmosphère et, donc, augmente l'effet de serre, est... idiote. La nature, la Terre et son atmosphère réagissent selon le principe cher à Le Chatelier (voir ici ou ) qui nous dit que la nature cherche toujours à minimiser les effets des perturbations qui lui sont imposées. Autrement dit, la nature préfère les rétroactions négatives aux positives. C'est une manière un peu cavalière de parler, bien sûr...

Autrement dit, Lindzen et Choi ont trouvé et utilisé une méthode très astucieuse pour mesurer les rétroactions réelles de l'atmosphère lorsque la température de la Terre varie. Le résultat est sans appel : les modèles sont tous faux et, par conséquent, les "prévisions" "prédictions" "scénarios" du GIEC des +2 à +6°C ... aussi !

D'autre part, Lindzen et Choi ont, en outre, fait une observation essentielle. Voici ce qu'ils disent dans le résumé : " Results also show, the feedback in ERBE is mostly from shortwave radiation while the feedback in the models is mostly from longwave radiation. Although such a test does not distinguish the mechanisms, this is important since the inconsistency of climate feedbacks constitutes a very fundamental problem in climate prediction."
Soit "
Les résultats montrent aussi que la rétroaction vue par ERBE résulte essentiellement de radiations à courtes longueurs d'onde (NDT : c'est à dire en lumière visible ou UV) tandis que la rétroaction introduite dans les modèles résulte essentiellement des grandes longueurs d'onde (c'est à dire des infrarouges). Bien que notre expérience ne puisse pas distinguer entre les mécanismes, ceci est important parce que l'incohérence des rétroactions climatiques constitue un problème fondamental en climatologie."

En fait -j'ose à peine l'écrire- cette dernière observation de Lindzen et Choi montre que non seulement les prédictions des ordinateurs du GIEC sont fausses mais, ce qui est encore beaucoup plus grave, que les prémisses du calcul sont erronées. En d'autres termes, les modèles du GIEC souffrent très certainement d'un ou de plusieurs défauts conceptuels (entre autres, de "l 'oubli" de l'albedo des nuages ce qui expliquerait que, dans la réalité, l'émission sortante est majoritairement à courte longueur d'onde et non à grandes longueurs d'onde comme dans les modèles). En bref, la théorie qui sous-tend ces modèles est très probablement (very likely) fausse.

Remarques complémentaires :

  • Les modèles du GIEC démontrent, une fois de plus, leur incapacité à rendre compte de la réalité. Il est inquiétant que sur des points aussi essentiels que celui-ci, les rapports entre les valeurs réelles et les valeurs calculées atteignent presqu'un facteur 10 sans que cela provoque une remise en question des modèles. Et que dire quand les prédictions varient en sens inverse de la réalité comme dans les derniers graphiques publiés ?
    Il semble que l'idée même de remettre en question un modèle soit intolérable. Ainsi, les quelques chercheurs qui ont constaté les faits mentionnés ci-dessus, ont attribué ces énormes divergences ... à l'effet des nuages dont on sait très bien qu'ils demeurent terra incognita pour les climatologues. C'est un processus commode : Dès que les mesures réelles divergent des prévisions, vous invoquez les inconnues des nuages, ou encore, les aérosols. Et le jour est joué.
  • Mais comment est-il possible que 11 modèles différents, mis au point par des institutions différentes, puissent-ils, tous, se tromper ? La réponse est simple : Ces modèles informatiques utilisent tous le même modèle GCM et les mêmes hypothèses. Les différences entre eux sont minimes. C'est encore un des effets pervers de la pensée unique qui n'a jamais donné rien de bon en matière de Science.

    Je tiens à rassurer mes lecteurs qui ont de l'estime pour la vraie Science : Il n'y a qu'en climatologie que ça se passe comme ça.
    Dans tout autre domaine de la science, cela aurait immédiatement soulevé un tollé et remis les modèles en question...


  • Supposer que le climat obéit à des rétroactions positives comme le font le GIEC et James Hansen, implique que le climat de la planète serait fondamentalement instable vis à vis de petites perturbations (comme l'ajout de quelques 0,02% de CO2 à son atmosphère). Compte tenu des énormes bouleversements qu'a subi notre atmosphère depuis 4 milliards d'années, nous devrions, si c'était vrai et depuis très longtemps, faire concurrence à la planète Venus (460°C) en termes de température. Certains, comme le maître de conférence en sciences économiques de Bordeaux Alain Coustou, qui sévit sur le WEB et qui est modestement l'auteur d'une "théorie synthétique du climat", est un grand supporter des rétroactions positives. Il les a cumulées dans un graphique absolument délirant qui a certainement effrayé plus d'un gogo (Appréciez le schéma (!) et les prévisions qui doivent beaucoup plaire à Hansen)
    Par contre, l'observation de Richard Lindzen et Choi est compatible avec l'idée que la planète dispose des mécanismes nécessaires ( tels que l'effet Iris) pour thermostater son climat. Ce qui explique que la Terre ait constamment retrouvé un climat raisonnable à plusieurs reprises au cours de son histoire mouvementée et que le système n'ait jamais divergé de manière définitive. Cette idée est partagée, au vu des observations, par de nombreux climatologues dont Roy Spencer, Miskolczi et beaucoup d'autres.

  • A noter que la faible sensibilité climatique évoquée par Lindzen est très proche de celles avancées indépendamment, entre autres, par les profs Akasofu, Spencer, Klyashtorin et Lyubushin, et Bill Gray.

____________________________________________________________________________________________________________________

Addendum du 18 Jan 2010 : Un article intitulé " Relationships between tropical sea surface temperature and top-of-atmosphere radiation (Relation entre la température de surface de la mer des tropiques et les radiations au sommet de l'atmosphère) a été accepté aux GRL. Il est actuellement sous presse. Il est signé de Kevin Trenberth et al.
Kevin Trenberth, chercheur au UCAR, est un des protagonistes de l'affaire du hacking du CRU, nommée maintenant Climategate . Il est l'auteur d'un schéma de bilan radiatif célèbre (publié en 1997) qui fait les beaux jours des rapports du GIEC. Pourtant, il déclarait tout récemment dans un de ses courriers adressés à Michael Mann (le hockey man), le 14 oct. 2009 :

"Comment se fait-il que tu ne sois pas d'accord avec une affirmation qui dit que nous sommes loin de savoir où l'énergie s'en va ou de savoir si les nuages évoluent pour rendre la planète plus brillante ? Nous ne sommes pas près d'équilibrer le bilan énergétique. Le fait que nous ne puissions pas rendre compte de ce qu'il se passe dans le système climatique rend n'importe quelle considération en géoingeniering tout à fait sans espoir parce que nous ne pourrons jamais dire si ce sera un réussite ou non ! C'est grotesque !" ref : 1255523796.txt

Et aussi, Trenberth, dans un autre courrier adressé à Michael Mann, le 12 octobre 2009 : " Le fait est que nous ne savons pas expliquer l’absence de réchauffement actuel et c’est grotesque." ( Réf :1255352257.txt)

Ce qui relève somme toute de l'évidence et du bon sens. Malgré ses convictions intimes sur l'impossibilité actuelle de mettre en place un bilan réaliste des échanges terre-océan-atmosphère, (qu'il ne confie qu'à ses collègues proches), Kevin Trenberth effectue une critique en règle des découvertes de Lindzen et Choi, citées plus haut, qui démolissent les modèles sur lesquels Trenberth semble avoir quelques réticences. Ainsi, Trenberth suggère que l'ENSO et l'explosion du Pinatubo (1992) ont joué un rôle majeur dans l'établissement de la TOA (top of atmosphere radiation) perturbant gravement les résultats observés par Lindzen et Choi.
Trenberth reproche aussi à Lindzen de ne pas avoir utilisé la formule de Planck (ou, plus précisément, la loi de Stefan-Boltzmann en T4) pour l'atmosphère tropicale. Comme je l'ai longuement exposé dans cette page, l'application de cette loi des corps noirs à l'atmosphère (qui n'en est pas un), pose de sérieux problèmes aux physiciens. Et visiblement, parmi eux, à Richard Lindzen. Mais pas aux climatologues comme Kevin Trenberth et Michael Mann qui l'utilisent en toute circonstance, quoiqu'il arrive.

Cependant, telle quelle est, la critique de l'article de Lindzen et Choi par Trenberth et al, fait tout à fait partie du débat scientifique normal. Elle oblige à réfléchir et à affiner. C'est comme cela que progressent les sciences. Il n'y a rien à y redire.
Il suffit simplement d'attendre la réponse de Lindzen et Choi qui ne va certainement pas tarder....et effectivement :
____________________________________________________________________________________________________

Compléments du 18 février 2010 : Suite à l'article de Trenberth et al (dont Wong), Richard Lindzen a écrit ceci : "Thanks [to Revkin] for passing on the paper [by Trenberth et al.]. I had not seen it. However, Wong had communicated much of the material independently, and some of it is certainly valid. However, we have addressed the criticisms and have shown that the results remain — especially the profound disconnect between models and observations. We are currently preparing a new version, and it should be ready shortly."
Soit :
"Merci [à Revkin, NDT; du New York Times] pour m'avoir fait passer le papier [de Trenberth et al]. Je ne l'avais pas vu. Cependant Wong m'avait communiqué, indépendamment, l'essentiel du contenu et une partie de celui-ci est certainement valide. Cependant, nous nous sommes occupés des critiques et avons montré que les résultats demeurent - tout particulièrement le désaccord profond entre les modèles et les observations. Nous somme actuellement en train de préparer une nouvelle version qui devrait être prête sous peu."

___________________________________________________________________________________________________________

Note du 11/03/10 : Vous trouverez ici une conférence du Professeur Lindzen au FermiLab, en date du 10 février 2010 dans laquelle il évoque cette question (après la première moitié) après avoir tenu compte des corrections qui lui ont été suggérées. Effectivement, les modèles ne collent toujours pas avec les observations... (Merci au lecteur attentif qui me l'a signalée).
___________________________________________________________________________________________________________

lindzentalk.

Note du 23/11/10 : Richard Lindzen a été invité à témoigner devant la chambre des Représentants US le 17 Nov. 2010.


"Testimony: House Subcommittee on Science and Technology hearing on A Rational Discussion of Climate Change: the Science, the Evidence, the Response".


Sa présentation en pdf est ici. On y trouve la diapositive ci-contre qui rappelle les résultats essentiels des mesures de CERES et ERBE décrites ci-dessus (après corrections suggérées par Trenberth) : Lindzen, persiste et signe.

Contrairement aux hypothèses introduites dans les modèles, les rétroactions sont globalement négatives. Or, comme chacun le sait, le réchauffement qui résulterait du CO2 seul, serait faible et les prédictions apocalyptiques du GIEC reposent sur l'introduction de rétroactions positives hypothétiques.
En d'autres termes, selon Lindzen, le réchauffement induit par l'effet de serre anthropique, est négligeable...
_________________________________________________________________________________________

Mise à jour, Juin 2011 : Richard Lindzen et son coauteur Choi, ont publié un nouvel article ( "Au sujet de la détermination de la sensibilité climatique et de ses implications") réaffirmant et raffinant les résultats mentionnés ci-dessus.
Il est disponible sur le site au MIT de R. Lindzen. (Lindzen, R.S.; Choi, Y.-S. On the observational determination of climate sensitivity and its
implications. Asia-Pacific J. Atmos. Sci. 2011, in press.)
La publication de ce nouvel article a donné lieu à un sérieux conflit avec l'éditeur du PNAS (la revue de l'Académie des Sciences US dont Lindzen est membre élu depuis 1977 (il a été élu à 37 ans (!)) quant au choix des examinateurs (qui doivent être impartiaux et indépendants, ce qui n'est pas si facile à trouver par les temps qui courent). L'éditeur du PNAS proposait les noms de Solomon, Trenberth et Schmidt, qui sont les principaux acteurs du GIEC et des opposants obstinés aux articles de Lindzen. Comme le note, avec humour, l'un des participants au blog de Steve McIntyre sur ce sujet

" La suggestion du PNAS de choisir Solomon, Trenberth et Schmidt comme referees de l'article de Lindzen revient à demander à trois vieux cardinaux de rapporter sur un article qui fournit des preuves qui remettent sérieusement en question la possibilité de marcher sur de l'eau".

Au sujet de cet article, Richard Lindzen rappelle que les données ne sont évidemment pas totalement fiables, cependant, il ajoute :"Néanmoins, un certain nombre de choses sont claires : " les modèles divergent fortement des observations. La simple corrélation entre le flux sortant et la température de surface donnera une représentation fausse de la sensibilité climatique et les observations suggèrent des rétroactions négatives plutôt que positives".

C'est assez précisément ce que démontre, d'une autre manière, un article, publié en Juillet 2011, basé sur les observations satellitaires.
Cet article sera le sujet d'un billet ultérieur.



17 Novembre 2012 : L'influence du CO2 anthropique est (et probablement restera) indétectable dans l'analyse du bilan des flux d'énergie : Elle est noyée dans les grandes fluctuations naturelles et les incertitudes...

Que les lecteurs(trices) me pardonnent (une fois encore) mais cet article peut sembler un peu "technique". Néanmoins, il est important parce qu'il situe assez précisément les limites actuelles de la recherche dans le domaine de la modélisation et de la compréhension du climat, notamment, à partir des diagrammes fondamentaux des échanges énergétiques.
Cependant, rassurez-vous. En réalité, son contenu est tout à fait compréhensible même pour les non-experts. Comme toujours, ce billet vous fournira le résumé, les graphes pertinents ainsi que quelques éléments marquants des conclusions d'un article révélateur, récemment publié dans la revue Nature Geo. qui servira de base à l'exposé, .

1) Introduction et quelques brefs rappels sur les bilans énergétiques.

La Terre en "équilibre énergétique" ?

Toute le monde le sait : Un système est en équilibre si "ce qui rentre est égal à ce qui sort (+ ce qui y reste)". Cependant, s'agissant d'un système aussi complexe que notre planète, les choses ne sont pas aussi simples...

Il est généralement tenu pour certain, (à moins qu''il ne s'agisse d'une hypothèse accommodante) que la température moyenne de la Terre (atmosphère comprise) resterait stable si l'énergie qu'elle reçoit en provenance du soleil, pendant un temps donné, compense exactement celle qu'elle perd par rayonnement, vers l'espace sidéral, pendant le même temps. Outre le fait qu'on peut s'interroger sur la signification réelle de la définition de la température moyenne d'un objet aussi complexe et hétérogène que la Terre (et son atmosphère), on constate que ce postulat (rarement remis en cause) d'équilibre énergétique planétaire est à la base des calculs généraux sur le climat de la planète.

Si on reste superficiel, cela peut sembler convaincant.
C'est en effet un concept que vous pouvez, par exemple, appliquer à une plaque de métal peinte en noir, exposée au soleil : L'énergie qui est absorbée est égale à celle qui est émise quand la plaque a atteint sa température d'équilibre, ce qui permet de calculer cette dernière. De même, on peut calculer, tout aussi aisément, le temps nécessaire pour que la plaque atteigne sa température d'équilibre à partir du moment où vous la mettez au soleil. C'est ce qu'on peut appeler le "temps de réponse". Ce temps de réponse qui est le temps nécessaire pour parvenir à l'équilibre thermique, c'est à dire pour que la température de la plaque reste constante, est notamment fonction de la capacité calorifique du corps exposé, de sa forme, de son volume etc.

Comme on s'en doute, les choses se compliquent énormément lorsqu'il s'agit d'un système aussi complexe et hétérogène que la Terre et son atmosphère. Les temps de réponse à une variation de l'irradiation sont très différents, par exemple, pour les océans, les continents, la végétation etc. et il varie aussi énormément avec la longueur d'onde de la radiation incidente.
Ainsi et à titre d'exemple, les radiations infrarouges n'affectent qu'une mince couche superficielle des océans, laquelle est constamment agitée et évaporée par les vents dominants ce qui implique des temps de réponse relativement courts. A l'inverse, les radiations de courte longueur d'onde (Visible et UV) pénètrent profondément sous la surface (notamment les UV) des océans et, compte tenu de l'inertie thermique considérable des masses océaniques, les temps de réponse, pour parvenir à l'équilibre thermique, peuvent être extrêmement longs.
En réalité, les temps de réponse des diverses composantes du système Terre-atmosphère s'échelonnent sur un grand nombre d'ordres de grandeur.

De plus, comme l'on sait, les océans et l'atmosphère sont sujets à des courants puissants qui redistribuent en permanence les flux et les gradients de températures. Il est bien connu et observé que les températures océaniques sont soumises à des variations cycliques, avec des périodes allant du pluriannuel au pluridécennal comme les NAO, PDO, AMO, ENSO etc. souvent évoqués dans la page../oceans.html. Ces oscillations sont plus ou moins couplées d'un bassin océanique à l'autre, comme cela a été décrit en détail dans ce billet ("La Ola") basé sur les travaux de A. Tsonis et al.
Pour ce qui est de l'atmosphère ou plus exactement de la troposphère qui est directement en contact avec la Terre, il suffit d'écouter ce qu'en disait Pierre Morel, le fondateur du LMD (un des labos de la galaxie de l'IPSL) , lors d'une de ses récentes conférences :

" La troposphère est un endroit excessivement complexe. Il s'y passe des tas de choses que l'on ne décrit pas très bien même avec les meilleurs moyens d'observation et que l'on modélise encore moins bien"[....] "On a évidemment de gros doutes sur les nuages. Ça se passe dans la troposphère donc on ne comprend rien."


En bref, rien n'est jamais stable dans le système Terre-atmosphère.Tout évolue en permanence avec des tendances plus ou moins cycliques ou, parfois, en apparence, erratiques. En outre, les temps de réponse dépendent énormément des sous-systèmes considérés. Pour dire la vérité, et comme tout évolue en permanence et que tout est couplé et ne peut atteindre son équilibre énergétique qu'avec des temps de réponses très variés, on ne peut probablement pas réellement définir ce qu'est exactement la situation "d'équilibre énergétique". Dans ces conditions, appliquer le principe de "l'équilibre énergétique" mentionné ci-dessus est une réelle gageure. Tout au moins, faudrait-il être capable d'indiquer, au moins, deux précisions :

-Atteindre l'équilibre énergétique ? A combien près ? (C'est, en filigrane, ce dont nous allons parler ci-dessous).
-L'équilibre énergétique atteint en combien de temps ? En effet, il pourrait y avoir de "l'énergie cachée", par exemple au fond des océans qui pourrait ne reparaître que beaucoup plus tard et même dans plusieurs centaines d'années, comme certains l'ont suggéré et notamment Kevin Trenberth du NCAR.
Voir par exemple, le billet "à la recherche de la chaleur perdue." et la discussion par email qui a eu lieu lors des échanges des courriels du CRU (Le Climategate). C'est ainsi que Kevin Trenberth, s'adressant à Michael Mann (le créateur de la crosse de hockey), lui écrivait le 14 Oct. 2009 (caractères engraissés par l'auteur de ce site) :

"Comment se fait-il que tu ne sois pas d'accord avec une affirmation qui dit que nous sommes loin de savoir où l'énergie s'en va ou de savoir si les nuages évoluent pour rendre la planète plus brillante ? Nous ne sommes pas près d'équilibrer le bilan énergétique. Le fait que nous ne puissions pas rendre compte de ce qui se passe dans le système climatique rend n'importe quelle considération en géoingénierie tout à fait sans espoir parce que nous ne pourrons jamais dire si ce sera une réussite ou non ! C'est grotesque !"
Kevin (NdT : Courrier du 14 oct 2009)


De fait, stricto sensu et du point de vue d'un physicien un peu scrupuleux, le postulat de l'équilibre énergétique n'est absolument pas garanti pour un système aussi hétérogène et à la dynamique aussi complexe que celui de notre planète et son atmosphère. Il est fort possible, sinon probable, qu'un tel équilibre ne soit jamais atteint, ou atteint sporadiquement, et que le bilan global (si on peut le calculer) effectue des oscillations plus ou moins compliquées, avec des amplitudes et des périodes très variables, autour d'une situation d'équilibre virtuelle, sans jamais y stationner. En bref, il est possible sinon probable que le concept d'équilibre énergétique qui sous-tend un grand nombre de considérations sur le climat de la planète soit une vue de l'esprit, sans réelle matérialité.

Dans son témoignage auprès de la Chambre des Représentants US (Le 17 Nov. 2010) ), la climatologue Judith Curry, fréquemment mentionnée dans ce site, qualifiait le changement climatique de "wicked problem" soit approximativement de "problème insoluble" (voir le sens particulier de "a wicked problem" h/t Ian (h/t ="hat tip" = "coup de chapeau à"). Ce qualificatif pertinent, très parlant en anglais, a d'ailleurs été repris, lors de son récent témoignage (25 Août 2012) auprès du Sénat US, par John Christy qui notait que :

"Ainsi la mesure fondamentale pour détecter le réchauffement dû aux gaz à effet de serre consiste à déterminer combien de Joules d’énergie s’accumulent dans le système climatique en plus de ceux qui se seraient accumulés naturellement. Ceci est un problème réellement "insoluble" (voir le témoignage auprès de la Chambre des Représentants, Dr. Judith Curry, 17 Nov. 2010) car nous ne savons pas combien de chaleur peut-être accumulée de manière naturelle.

Autrement dit, nous ne savons pas si le système n'est pas constamment en déséquilibre pour des raisons parfaitement naturelles. Cela rejoint les considérations énoncées ci-dessus sur la matérialité douteuse de la notion "d'équilibre énergétique".

Du point de vue des observations et des estimations que l'on pourrait tirer des modélisations, ce constat doit se traduire, au minimum, par des marges d'erreurs ou des incertitudes conséquentes sur les échanges des flux entre les différentes composantes du système Terre-atmosphère-environnement. Il semblerait que ce point essentiel ait été négligé par les premiers promoteurs des "bilans énergétiques" comme nous allons le voir ci-dessous.
Par contre, l'article que je commenterai ci-après, lui, fournit des estimations de ces incertitudes. C'est donc un grand progrès, d'autant plus qu'il a fallu attendre près de 15 années pour que la climatologie "mainstream", prenne tout cela en compte et en tire (enfin) les conclusions qui s'imposent.

A ma connaissance, après plusieurs tentatives antérieures, les premiers bilans relativement détaillés des échanges énergétiques de la planète et de son atmosphère ont été publiés en 1997. Notamment, les travaux de Kiehl et Trenberth (publiés dans le BAMS) étaient cités dans le Troisième Rapport du GIEC (IPCC TAR 2001).Les résultats de ces travaux figurent dans nombre de publications subséquentes sous la forme d'un dessin qui est représenté ci-dessous, avec sa légende traduite en Français.
L'image ci-contre, publiée dans un article "résumé" par Trenberth, Fasullo et Kiehl en 2009, est beaucoup plus récente que les tentatives précédentes (1997). Cependant, elle n'en diffère que très peu.steph4

Le voici. La légende est explicite.

 

"Fig. 1. Le budget moyen annuel de l'énergie de la Terre pour la période allant de Mars 2000 à Mai 2004 (en W.m-2 Les flèches épaisses donnent, selon leur épaisseur, une indication schématique de la proportion relative des flux en fonction de leur importance."

Ce graphique peut surprendre un observateur attentif. Il y est notamment indiqué (en bas) que la planète absorbe en permanence 0,9 W.m-2.
C'est ce déséquilibre, dont la valeur peut varier selon les auteurs, qui est censé résulter de l'effet de serre additionnel introduit, notamment, par l'activité humaine.
Selon le schéma, et si le budget énergétique est bouclé comme il est censé l'être, ces 0,9 W.m-2 résultent de la différence des flux entrants et sortants. Sachant que ces derniers sont de l'ordre de 400 W.m-2, ceci impliquerait que chacun de ces flux rentrants et sortants doivent être estimés avec une incertitude bien inférieure au W.m-2 c'est à dire de l'ordre de un pour mille. Autrement dit, afin de pouvoir estimer la valeur (et même le sens) du forçage dû à l'effet de serre additionnel qui résulte du calcul de la différence de deux puissants flux, il faudrait pouvoir connaître ces derniers avec une précision qui est évidemment (et actuellement) hors d'atteinte, comme le démontre l'article analysé ci-dessous. Et encore, faudrait-il supposer que "l'équilibre énergétique" existe, c'est à dire qu'il n'est pas qu'image virtuelle jamais réalisée dans la réalité (voir ci-dessus) parce que le système est éminemment instable.

Comme on peut le constater, le dessin ci-dessus ne comporte aucune indication d'incertitude et de marges d'erreurs, ce qui peut sembler extrêmement hasardeux et jette un doute sérieux sur la signification réelle de l'effet de serre additionnel résultant de ce genre de diagramme, lequel a pourtant figuré (sans le moindre commentaire à ce sujet) en bonne place, dans plusieurs rapports scientifiques du GIEC.

De même, les lecteurs (très) attentifs pourront se souvenir que les flux infrarouges émis par les gaz à effet de serre ne résultent pas d'un champ de vecteurs comme l'est, par exemple, le flux en provenance directe du soleil, ce qui, du point de vue théorique, met à mal (notamment) l'idée d'appliquer des lois de conservation des flux dans une représentation 1D comme dans le dessin ci-dessus et comme cela avait été noté auparavant.
En effet, chaque molécule de gaz émettrice d'infrarouges constitue un point source qui irradie de manière isotrope. De fait, on peut, très approximativement, visualiser les radiations infrarouges émises par les gaz à effet de serre contenus dans l'atmosphère comme celles qui sont émises, dans le visible, par un brouillard épais éclairé par le soleil. Cela n'a rien d'un éclairement unidirectionnel analogue à celui des rayons lumineux en provenance directe du soleil. Pour en avoir l'intuition il suffit d'observer que le soleil direct crée des ombres tandis que la lumière diffusée par un brouillard n'en crée pas. Ainsi, de ce fait et du point de vue d'un physicien rigoureux, le bilan des flux d'énergie est un problème 3D non réductible en une représentation 1D.

Cependant, rassurons-nous, les ouvrages de physique de l'atmosphère nous affirment que, s'agissant de la limite des fortes absorptions (absorption quasi saturée, comme c'est le cas pour le CO2 dans la troposphère où ce sont les bandes latérales de l'absorption qui jouent un rôle primordial) ce sont les transferts verticaux qui prennent le dessus comme dans l'image 1D représentée ci-dessus. Ceci peut être compris en réalisant que l'absorption, notamment par le CO2, est un peu "moins saturée" (si l'on peut dire) dans la direction où le trajet optique dans l'atmosphère est le plus petit, c'est à dire à la verticale.
Mais il faut bien se souvenir que la réduction du problème réel 3D en un problème 1D résulte d'une "puissante approximation" (sic) comme on peut le lire à la page 231 de cet ouvrage récent destiné à l'enseignement de la physique de l'atmosphère et du climat.

Il n'en reste pas moins que les approximations diverses, l'absence des marges d'erreurs et les considérations générales sur la réalité de "l'équilibre énergétique" posaient quelques questions épineuses quant à la robustesse scientifique des bilans énergétiques tels que celui qui est représenté ci-dessus et que critique l'article présenté ci-dessous.
C'est, sans doute, ce qui a poussé une équipe de chercheurs US et UK à en savoir un peu plus et, surtout, à essayer de travailler avec un peu plus de rigueur. Ils ont, tout récemment (le 23 Sept. 2012), publié l'article particulièrement instructif que voici :

2) L'article qui vient de paraître dans Nature Geoscience :

steph5

Le titre en français : "Une mise à jour sur l'équilibre énergétique de la Terre au vu des plus récentes observations satellitaires"

Voici les affiliations des auteurs :

1Center for Climate Sciences, Jet Propulsion Laboratory, California Institute of Technology, 4800 Oak Grove Drive, Pasadena, California 91109, USA, 2Institute for Atmospheric and Climate Science, ETH Zurich, Universitätsstrasse 16, CH-8092, Zurich, Switzerland,
3Phyiscal Oceanography Department, Woods Hole Oceanographic Institution, 266 Woods Hole Road, Massachusetts 02543, USA,
4NASA Langley Research Center, 21 Langley Boulevard, Hampton, Virginia 23681, USA,
5Department of Atmospheric Sciences, University of Wisconsin, Madison, Wisconsin 80523, USA,
6UK Met Office, FitzRoy Road, Exeter, Devon EX1 3PB, UK.

Voici le résumé original en Anglais suivi d'une traduction en Français, dans le cadre jaune.

Abstract : Climate change is governed by changes to the global energy balance. At the top of the atmosphere, this balance is monitored globally by satellite sensors that provide measurements of energy flowing to and from Earth. By contrast, observations at the surface are limited mostly to land areas. As a result, the global balance of energy fluxes within the atmosphere or at Earth’s surface cannot be derived directly from measured fluxes, and is therefore uncertain. This lack of precise knowledge of surface energy fluxes profoundly affects our ability to understand how Earth’s climate responds to increasing concentrations of greenhouse gases. In light of compilations of up-to-date surface and satellite data, the surface energy balance needs to be revised. Specifically, the longwave radiation received at the surface is estimated to be significantly larger, by between 10 and 17 Wm–2, than earlier model-based estimates. Moreover, the latest satellite observations of global precipitation indicate that more precipitation is generated than previously thought. This additional precipitation is sustained by more energy leaving the surface by evaporation — that is, in the form of latent heat flux — and thereby offsets much of the increase in longwave flux to the surface.

Résumé : Le changement climatique est déterminé par les variations du bilan global de l'énergie. Au sommet de l'atmosphère, le bilan est analysé de manière globale par les détecteurs des satellites qui renseignent sur les flux d'énergie qui entrent et sortent de la Terre. A l'opposé, les observations à la surface (NdT de la Terre) sont essentiellement limitées aux surfaces continentales. Il en résulte que l'équilibre global des flux énergétiques dans l'atmosphère ou à la surface de la Terre ne peuvent pas être déduit directement des flux mesurés et, de ce fait, il demeure incertain. L'absence d'une connaissance précise des flux énergétiques à la surface affecte profondément notre capacité à comprendre comment le climat de la Terre répond à une augmentation des concentrations des gaz à effet de serre. A la lumière des compilations des données les plus récentes des satellites et des mesures en surface (NdT de la Terre), il apparaît que le bilan des énergies en surface (NdT : de la Terre) doit être révisé. De manière plus spécifique, on estime que les radiations de grande longueur d'ondes (NdT : i.e. les infrarouges) reçues par la surface sont nettement plus importantes (c'est à dire d'environ de 10 à 17 W.m-2) que les dernières estimations basées sur les modèles. De plus, les dernières observations satellitaires des précipitations sur le globe montrent qu'une plus grande quantité de précipitations est générée, qu'on le pensait auparavant. Cette pluviométrie additionnelle est accompagnée d'une plus grande quantité d'énergie émergeant de la surface du fait de l'évaporation - c'est à dire sous forme de flux de chaleur latente - qui, de ce fait, compense une grande partie de l'augmentation du flux de grande longueur d'onde vers la surface.

Ce résumé est très clair. Cependant et au vu du texte de l'article, on peut ajouter les considération suivantes :

-On pense que la Terre (et l'atmosphère), en moyenne (avec les restrictions énumérées ci-dessus), équilibre l'énergie qu'elle reçoit du soleil, d'une part en émettant des radiations infrarouges vers l'espace sidéral et d'autre part en réfléchissant une partie des rayons solaires incidents. Les satellites actuels sont maintenant équipés de détecteurs relativement précis et fiables capables de mesurer, avec une précision acceptable (disons 1% pour les flux infrarouges et 3 pour dix-mille pour le flux solaire incident, qui à cette échelle, n'est pas constant (du fait de l'activité solaire)), les flux sortants "Outgoing" au sommet de l'atmosphère (TOA : Top of Atmosphere).
De fait, les flux incidents, réfléchis et sortants au sommet de l'atmosphère sont convenablement mesurés. Ce ne sont pas eux qui posent les plus gros problèmes, sauf peut-être en ce qui concerne le flux réfléchi qui est mesuré à ±2 W.m-2 près ce qui est quand même bien supérieur aux 0,6 W.m-2 censés résulter de l'augmentation de l'effet de serre.

- Par contre, les échanges qui impliquent la surface terrestre (océans, continents, végétation etc.) et la troposphère (nuages, aérosols etc.) sont très difficiles, pour ne pas dire impossibles à évaluer avec une précision acceptable. Comme le déclare fort justement le résumé de l'article de Stephens et al, l'incertitude systémique qui pèse sur ces données a une grave conséquence : "L'absence d'une connaissance précise des flux énergétiques à la surface affecte profondément notre capacité à comprendre comment le climat de la Terre répond à une augmentation des concentrations des gaz à effet de serre".

On le comprendra aisément. Ceci s'inscrit directement en faux contre les affirmations propagées ici ou là par les tenants de la thèse du GIEC en vigueur , selon lesquelles "The science is settled ", "la science est comprise". C'est, en d'autres termes, la même idée de "science insoluble" avancée par Judith Curry et John Christy, ci-dessus.
A l'évidence, cette science n'est pas comprise ni avérée et n'est pas près de l'être, comme nous allons voir.

Voici une figure maîtresse de l'article de Graeme Stephens et al. La légende est traduite de l'anglais.

steph1

"Figure B1 : Le bilan annuel global de la Terre pour une période approximative de 2000-2010. Tous les flux sont exprimés en W.m–2. les flux issus du soleil sont en jaune et les flux infrarouges en rose. Les quatre quantités de flux dans les cadres grisés en violet représentent les composantes principales de l'équilibre énergétique atmosphérique. "

 

 

 

 

Voici une version un peu plus explicite du même diagramme (tirée du même article).
Cette fois-ci sont indiquées les valeurs ajustées des modèles CMIP5.

En haut, le budget au TOA (au sommet de l'atmosphère), assez précisément évalué, comme on le voit. Les incertitudes sont de l'ordre du pour cent.
En bas, le budget à la surface de la planète qui montre de grandes incertitudes. A noter tout particulièrement, dans le bas du dessin, la "surface imbalance", "le déséquilibre" à la surface qui est évalué à 0,6 ± 17 W/m2, ce qui signifie que le déséquilibre énergétique à la surface peut évoluer entre +17,6 et -16,4 W.m-2. En bref, ce déséquilibre à la surface peut tout aussi bien impliquer un réchauffement (signe +) ...qu'un refroidissement (signe -) de notre planète !

Ci-dessous, la figure originale avec sa légende traduite en français (cadre jaune):

steph2

Figure 1 : "Equilibre énergétique en surface. Les flux observés et déduits des modèles climatiques (tous en W.m–2) rentrants et sortants de la TOA (a)(Top of Atmosphère = le sommet de l'atmosphère) et à la surface de la Terre (b).
Les flux observés (incluant les marges d'erreur estimées) sont tirés de la Fig. B1 et les flux déduits des modèles climatiques résultent des simulations archivées de la phase 5 du projet CMIP5 ( Word Climate Research Programme's coupled Intercomparison Project Phase 5) pour le XXème siècle.
Les flux résultant d'un ensemble de 16 modèles sont résumés en termes d'extension des résultats (du flux maximum au flux minimum) avec la valeur de la moyenne de l'ensemble des flux indiquée entre parenthèses. .

SW in’ et ‘SW out’ font référence aux flux solaires rentrant et sortant (réfléchi) au sommet de l'atmosphère.
'LW out ' est le flux sortant de radiation infrarouge.
De même, ‘SW down’et ‘SW up’ font référence aux flux incidents à courte longueur d'onde, et réfléchis à la surface (de la Terre).
LW up’ et ‘LW down’ font référence au flux infrarouge émis vers le haut par la surface (de la Terre) et au flux infrarouge incident sur la Terre émis par l'atmosphère vers la surface.
'SH' et 'LH' font respectivement référence aux flux de chaleur sensible et latente."

Rappels : Chaleur sensible (SH, sensible heat) et chaleur latente (LH latent heat):
La "chaleur sensible" (littéralement, "la chaleur que l'on ressent") est la chaleur échangée par un corps dont le seul résultat est un changement de température. Par opposition, la "chaleur latente" (littéralement, "la chaleur cachée") est la quantité de chaleur échangée qui intervient à température constante, lors d'un changement de phase (par exemple, lors de la fonte de la glace où de l'ébullition de l'eau).

Comme on le constate et comme le précise le texte de l'article, les précisions des mesures relatives à la surface sont hors de proportion avec celles qui seraient nécessaires pour pouvoir évaluer directement l'amplitude et même le signe de la variation de l'effet de serre.

Ainsi, l'article de Stephens et al. précise que :

"The net energy balance is the sum of individual fluxes. The current uncertainty in this net surface energy balance is large, and amounts to approximately 17 Wm–2. This uncertainty is an order of magnitude larger than the changes to the net surface fluxes associated with increasing greenhouse gases in the atmosphere (Fig. 2b).The uncertainty is also approximately an order of magnitude larger than the current estimates of the net surface energy imbalance of 0.6 ±0.4 Wm–2 inferred from the rise in OHC."

L'équilibre énergétique net résulte de la somme des flux individuels. L'incertitude actuelle sur l'équilibre énergétique net à la surface est importante et elle se monte à environ 17W.m-2. Cette incertitude est d'un ordre de grandeur plus grand que les variations nettes des flux en surface associés à l'augmentation des gaz à effet de serre dans l'atmosphère (Fig. 2b). Cette incertitude est également approximativement d'un ordre de grandeur plus grande que l'estimation actuelle du déséquilibre énergétique à la surface qui est de 0.6 ±0.4 W.m–2, tel que déduit de l'augmentation du contenu thermique des océans (NdT : OHC = Ocean Heat Content).

Stephens et al en tirent les conclusions qui s'imposent :
"Surface energy budgets, like the one reported here, are at present constructed from information about individual fluxes created independently by different groups. Inconsistencies typically arise when these different components are brought together to form a balance. Because previous energy-balance studies have generally failed to address the uncertainties in these flux components, subsequent adjustments to surface fluxes to achieve balance have little merit. As well as information on OHC, other sources of typically unused information exist about different combinations of these fluxes that could be better exploited. For example, information about the atmospheric water balance from measurements of water vapour and winds provides a way of constraining regional differences between precipitation and evaporation, as do ocean salinity measurements. The measurement of gravity fluctuations from the Gravity Recovery and Climate Experiment mission also provide information about accumulation of snow over vast ice masses and an alternative way of constraining the contribution of snow to the latent heat flux (Supplementary Information), among other uses. To produce a more accurate depiction of the energy balance of Earth, all such available resources need to be integrated, together with more sophisticated ways of assimilating these data and appropriate constraints. Essential observations such as precipitation, TOA radiative fluxes, ocean surface winds, and clouds have to be sustained if progress is to continue. But even with these steps in place, the precision needed to monitor the changes in fluxes associated with forced climate change remains a significant challenge."

"Les bilans des échanges énergétiques, tels que celui qui est rapporté ici, sont actuellement construits à partir des flux séparés créés de manière indépendante par des groupes différents. Les incohérences apparaissent typiquement lorsque l'on cherche à construire un bilan équilibré. La défaillance des études précédentes sur l'équilibre énergétique pour la prise en compte des incertitudes des composantes des flux font que les ajustements effectués pour parvenir à l'équilibre budgétaire n'ont que peu de sens*. Tout autant que les informations sur le Contenu Thermique des Océans (OHC), d'autres sources d'information classiquement non utilisées qui consistent en d'autres combinaisons de ces flux pourraient être mieux exploitées. Par exemple, des informations au sujet de l'équilibre de la teneur en eau de l'atmosphère à partir des mesures de la vapeur d'eau et des vents, fournissent un moyen de préciser les différences régionales entre les précipitations et l'évaporation, comme le font les mesures de la salinité des océans. Les mesures des fluctuations de la gravité à partir de la mission "Gravity Recovery and Climate Experiment" (NdT : C'est la mission GRACE) peuvent aussi fournir des informations sur l'accumulation des neiges sur de vastes masses de glace et une technique alternative pour préciser la contribution de la neige au flux de chaleur latente (Documents complémentaires), entre autres utilisations possibles. De manière à fournir une description plus précise du bilan énergétique de la Terre, on doit impliquer toutes les ressources disponibles de cette nature avec des techniques plus sophistiquées pour prendre en compte ces données et les limitations adaptées. Les observations essentielles telles que les précipitations, les flux radiatif en TOA, les vents à la surface des océans et les nuages doivent être poursuivies si on veut continuer à progresser. Mais même lorsque tout cela aura été pris en compte, la précision exigée pour mettre en évidence les flux associés à un forçage dû au changement climatique, reste une gageure très difficile."

Spephens et al. donnent quelques conseils judicieux pour essayer d'améliorer la situation tout en adressant une critique sans concessions aux travaux précédents tels que ceux de Trenberth (auteur principal au GIEC) et al. qui figuraient dans les rapports du GIEC (diagramme cité plus haut) De plus, les auteurs conviennent que même si ces progrès sont réalisés, il a peu d'espoir de parvenir jamais à une mise en évidence directe de l'effet des gaz à effet de serre.
De plus, compte tenu de ce que nous avons écrit ci-dessus sur la matérialité du concept d'équilibre énergétique et quelle que soit la précision des mesures, il y a en effet peu d'espoir que l'on soit jamais à même de détecter une variation de l'ordre du W.m-2 à la surface de la planète qui restera indiscernable parmi les fluctuations naturelles, comme l'a déclaré John Christy.

Remarques de Judith Curry sur l'article de Stephens et al.

Dans son forum (Climate etc.), la climatologue Judith Curry apprécié et félicite (comme moi) le travail de "Graeme", comme elle dit. Aux USA et aussi en France, les chercheurs s'appellent volontiers par leurs prénoms, voire par leurs surnoms, notamment pour désigner le premier auteur d'un l'article cité (lorsqu'on le connaît personnellement).
Judith Curry est parfaitement consciente des nombreuses imprécisions/incertitudes qui affectent les mesures des flux. Elle s'étonne même que les marges d'erreurs rapportées par Stephens et al, ne soient pas plus importantes, en se référant à sa propre expérience et à ses propres publications dans ce domaine. Elle précise - ce qui est exact - que le bilan énergétique n'intervient pas dans la constitution des modèles GCM (Global Climate Model). Cependant, s'il n'intervient pas, a priori,dans les modèles, ces derniers devraient être capables de rendre compte du bilan énergétique en équilibre en incluant le déséquilibre introduit pas les gaz à effet de serre anthropiques. Compte tenu des erreurs signalées ci-dessus, dans les observations comme dans les modèles (erreurs de l'ordre de 15 à 20 W.m-2) , ceci est impossible.

3) Différences entre les résultats des modèles et les observations selon le rapport AR4 du GIEC (2007) :

Du fait de la flexibilité des paramètres ajustables utilisés par les modèles pour décrire des phénomènes complexes (tels, par exemple, que l'ennuagement) dont on sait bien qu'ils sont plus ou moins bien modélisés, il est pratiquement toujours possible de "tuner" les modèles pour qu'ils rendent approximativement compte, en moyenne et pour le globe pris dans son ensemble, de la réalité des observations des flux.
Par contre et le test est beaucoup plus discriminant, on réalise que le "tuning" qui fonctionne à peu près, pour les moyennes globales (et pour cause), conduit à des évaluations carrément erronée dès que l'on descend à des échelles plus petites et que l'on regarde les choses un peu plus en détail.
Ceci signifie, sans aucun doute que les paramètres qui ont servi au "tuning" étaient certes "adhoc" pour une vision globale mais aussi qu'ils ne représentaient pas les véritables paramètres du système climatique, ou, -c'est une possibilité- que les modélisations sont erronées. De fait, si les modèles étaient corrects et une fois les paramètres ajustés pour le globe, la descente à des échelles un peu plus petites que celle du globe devrait conduire à des observations conformes aux résultats des modélisations. Ce n'est pas le cas, comme nous allons le voir.

A ce sujet, on peut se remémorer le contenu de la section qui traite de l'équilibre énergétique dans dernier rapport du GIEC AR4 (2007) (IPCC- AR4 -WG1). celui-ci nous présente la Fig. 8.4 reportée ci-dessous, avec sa légende traduite en français.
Cette figure nous donne la moyenne quadratique des erreurs existantes (RMS) entre les sorties de modèles numériques GCM et les mesures satellitaires correspondantes, en fonction de la latitude. A noter que cette Fig. 8.4 a également été présentée récemment par le prof. Murry Salby (Macquarie Univ, Aus.)lors de sa deuxième conférence au Sydney Intitute avec des constats assez proches de ceux que je rapporte ci-dessous.

Il faut se rappeler également que, s'agissant de moyennes quadratiques, les erreurs indiquées ci-dessous sont évidemment toujours positives (bien qu'elles puissent être négatives dans la réalité). C'est l'élévation au carré de la RMS qui en est responsable. Comme on le sait, le signe de l'erreur est perdu dans l'opération.

La légende ci-dessous est une traduction de celle qui figure dans le rapport AR4 du GIEC. steph3

 

 

"Figure 8.4. Valeur quadratique moyenne (Root-mean-square (RMS)) des erreurs des modèles en fonction de la latitude dans les simulations de (a) le flux de courte longueur d'onde réfléchi dans l'espace et (b) le flux sortant infrarouge. La valeur quadratique moyenne est calculée sur toutes les longitudes pour 12 mois d'une climatologie basée sur des données sur plusieurs années.

La statistique appelée "Mean Model" (modèle moyen) est calculée en calculant d'abord les champs moyens des multi-modèles mensuels, puis en calculant les erreurs de la valeur quadratique moyenne (c'est à dire qu'il ne s'agit pas de la moyenne des erreurs des différents modèles). On utilise ici les observations de l'Expérience de Mesure du Budget Radiatif de la Terre (Earth Radiation Budget Experiment (ERBE; Barkstrom et al., 1989)), pour la période allant de 1985 à 1989 obtenus avec des radiomètres à bord des satellites.

Les résultats des modèles sont pour la même période des simulations du XXème siècle dans le MMD de PCMDI (NdT : Une référence des modèles utilisés par le GIEC). Voir la Table 8.1 pour les descriptions des modèles. Les résultats pour les différentes modèles peuvent être vus dans le Supplementary Material, Figures S8.5 à S8.8."

Le graphe du haut est relatif aux flux de courte longueur d'onde (SW, Visible et UV) réfléchi vers l'espace. Comme on peut l'observer, les erreurs entre les prédictions des modèles et les mesures (ERBE) sont de l'ordre de quelques 20 W.m-2, ce qui est considérable par rapport aux 0,6 W.m-2 de l'effet de serre additionnel. Nul doute que la modélisation hasardeuse de l'ennuagement (haute et basse altitude) qui dépend beaucoup de la latitude est en grande partie responsable de ces erreurs.

Le graphe du bas est relatif au flux émergeant infrarouge (LW) , toujours au sommet de l'atmosphère (ce sont des mesures satellitaires). Comme on peut le voir, les erreurs dans la zone équatoriale-tropicale qui joue un rôle proéminent dans la théorie de l'effet de serre, sont aussi de l'ordre de 15 à 20 W.m-2, ce qui est totalement rédhibitoire pour le but recherché.

J'ajouterai que l'article de Stephens et al. constitue (enfin) une approche scientifiquement honnête vers une tentative de mise en place d'un bilan des échanges énergétiques de notre planète avec son environnement quelles ques soient les critiques que l'on peut porter, par ailleurs, à l'égard de ce genre d'approche. S'il est vrai que l'article de Stephens et al tire profit des plus récentes mesures satellitaires qui ont permis d'affiner et de rectifier le bilan énergétique (notamment pour ce qui est de la pluviosité largement sous estimée dans les modèles du GIEC, comme dans les mesures), on se demande quand même pour quelle raison il a fallu attendre près de 15 ans pour que des marges d'erreurs apparaissent, enfin, sur les diagrammes publiés dans la littérature et repris dans les rapports scientifiques du GIEC.

Il est hautement probable que vous n'entendrez ni de verrez aucun des médias francophones évoquer l'article de Stephens et al. publié dans Nature Geo. résumé ci-dessus. Cet article est pourtant important et il est dûment publié dans une revue réputée, mais il remet en question un certain nombre de "certitudes", comme le font beaucoup d'autres articles scientifiques présentés dans ce site.
Cependant, certains journalistes de la "grande presse" n'hésiteront pas à accuser ceux qui s'en font l'écho (pourtant rapporté avec le résumé original, les citations originales, les conclusions originales, les figures originales etc.) de propager "des rumeurs de quartier" ou des "buzz sur Internet" comme cela a été fait récemment lors d'une conférence.
Comme toujours, c'est à vous de juger.

En attendant, la science progresse dans le bons sens. Lentement mais sûrement.
Stay tuned : Restez à l'écoute !



Août 2011 : Encore un scoop : Observations contre modèles du GIEC : Le flux de chaleur s'échappant du sommet de l'atmosphère (et qui donc refroidit la terre) est largement sous estimé par les modèles du GIEC. D'autre part, les mesures traditionnelles des taux de rétroaction sont aussi erronées qu'irréalisables, nous démontrent, observations et modèle à l'appui, Roy Spencer (avec Will Braswell), le responsable des mesures satellitaires de la NASA à l'Université d'Alabama Huntsville (UAH).

Autrement dit, les observations satellitaires montrent que le piégeage de la chaleur par l'effet de serre atmosphérique est beaucoup moins efficace que prévu par les modèles qui utilisent un taux de rétroaction surestimé. Roy Spencer et son collègue à l'UAH, Braswell, nous expliquent pourquoi et comment.

Introduction et rappels :

L'article que nous examinons plus bas dans ce billet fait suite à un article précédent des mêmes auteurs
(Spencer, R.W.; Braswell, W.D.
"A propos du diagnostic des rétroactions radiatives en présence d'un forçage radiatif inconnu."

On the diagnosis of radiative feedback in the presence of unknown radiative forcing.
J. Geophys. Res. 2010, 115, D16109.

Qui est, lui-même, une extension d'un précédent article paru dans Journal of Climate (2008) (accessible en ligne)

Leur approche précédente avait été critiquée par un article subséquent de Dessler
"Dessler, A.E. A determination of the cloud feedback from climate variations over the past decade."
Science 2010, 330, 1523-1527.

D'une certaine manière et avec une présentation notablement différente de celle des articles précédents, le nouvel article de Spencer et Brasswell constitue un démenti et une critique de la méthodologie utilisée par Dessler et donc, par les modélisateurs du GIEC.
___________________________________________________________________________________________________

- L'article, sujet de ce billet : Voici donc une brève analyse de ce nouvel article de Spencer et Braswell qui constitue une sérieuse pierre dans le jardin des modélisateurs du GIEC :

Cet article est paru dans la revue Remote Sensing des spécialistes des mesures satellitaires (ou par ballons sondes) dont les lecteurs de ce site savent que Spencer est l'un des principaux initiateurs et l'un des principaux responsables. De ce fait, Spencer dispose de la totalité des bases de données des mesures par satellites. Il en est évidemment un fin connaisseur et il n'est guère surprenant qu'il publie dans cette revue, un article qui traite, en premier lieu, de la signification réelle des mesures satellitaires.

"A propos du diagnostic erroné des rétroactions dues à la température de surface à partir des variations de l'équilibre énergétique radiatif de la Terre."

On the Misdiagnosis of Surface Temperature Feedbacks from
Variations in Earth’s Radiant Energy Balance
(accessible en pdf ici)

Roy W. Spencer * and William D. Braswell
ESSC-UAH, University of Alabama in Huntsville, Cramer Hall, Huntsville, AL 35899, USA

_________________________________________________________________________

Abstract: The sensitivity of the climate system to an imposed radiative imbalance remains the largest source of uncertainty in projections of future anthropogenic climate change. Here we present further evidence that this uncertainty from an observational perspective is largely due to the masking of the radiative feedback signal by internal radiative forcing, probably due to natural cloud variations. That these internal radiative forcings exist and
likely corrupt feedback diagnosis is demonstrated with lag regression analysis of satellite and coupled climate model data, interpreted with a simple forcing-feedback model. While the satellite-based metrics for the period 2000–2010 depart substantially in the direction of lower climate sensitivity from those similarly computed from coupled climate models, we find that, with traditional methods, it is not possible to accurately quantify this discrepancy in terms of the feedbacks which determine climate sensitivity. It is concluded that atmospheric feedback diagnosis of the climate system remains an unsolved problem, due primarily to the inability to distinguish between radiative forcing and radiative feedback in satellite radiative budget observations.

Résumé : La sensibilité du système climatique en réponse à un déséquilibre radiatif demeure la plus grande source d'incertitudes dans les projections sur le changement climatique anthropique. Dans cet article nous présentons une preuve supplémentaire que cette incertitude, du point de vue des observations, est en grande partie due au masquage du signal de rétroaction radiative par un forçage radiatif interne, probablement dû aux variations naturelles de la couverture nuageuse. Le fait que ces forçages radiatifs naturels existent et, probablement, corrompent le diagnostic des rétroactions, est démontré en effectuant une analyse retardée des données satellitaires et des modèles climatiques, interprétés à l'aide d'un modèle simple de forçage-rétroaction. Tandis que les mesures satellitaires pour la période 2000-2010 s'écartent sensiblement -dans le sens d'une sensibilité climatique plus faible - des valeurs calculées de la même manière à partir des modèles climatiques couplés, nous trouvons qu'en utilisant les méthodes traditionnelles, il n'est pas possible de quantifier avec précision ce désaccord au sujet des rétroactions qui déterminent la sensibilité climatique. On en conclut que le diagnostic des rétroactions atmosphériques du système climatique demeure un problème non résolu. Ceci résulte principalement de l'incapacité des observations satellitaires du bilan radiatif à distinguer entre le forçage radiatif et la rétroaction radiative.
__________________________________________________________________________

Pour bien comprendre ce qui va suivre, il est bon de se remémorer la distinction (introduite par les climatologues modélisateurs proches du GIEC) qui est faite entre le "forçage" et la "rétroaction". Le forçage résulte de l'action directe sur le climat (par exemple sur la température globale) d'un agent externe tel que l'irradiation solaires ou encore l'augmentation atmosphérique du CO2 d'origine anthropique. C'est du moins ce que postulent les modèles en vigueur.
Une rétroaction climatique constitue une réponse à un forçage climatique c'est à dire, par exemple, une réponse à un réchauffement de la planète.. Un exemple fréquemment utilisé est le suivant : Si le taux de CO2 atmosphérique (c'est un forçage, selon le GIEC) augmente, la terre se réchauffe (par effet de serre). Toujours selon le GIEC, ce réchauffement provoque à son tour une augmentation de la concentration (c'est une rétroaction) de l'atmosphère en vapeur d'eau qui est un autre gaz à effet de serre. Lequel induit un réchauffement supplémentaire et ainsi de suite.
Comme l'a rappelé Richard Lindzen (dont les conclusions rejoignent sensiblement celles de Spencer et Braswell) (voir notamment ce billet précédent), le forçage direct induit par le CO2 anthropique est négligeable (environ 1°C /100 ans). Ce sont les rétroactions supposées (par exemple de la vapeur d'eau) qui permettent aux modélisateurs du GIEC d'avancer des projections d'augmentation de température de quelques 2 à 6°C en l'an 2100.

On comprend immédiatement que la question des rétroactions est absolument primordiale. C'est celle à laquelle s'intéressent Lindzen et Choi, comme Spencer et Braswell.

Note : Du point de vue de la physique théorique, les choses se présentent de manière un peu différente et nécessairement plus formelle. De fait le système climatique, comme la plupart des systèmes complexes, est décrit par un certain nombre d'équations différentielles dépendantes du temps (et non-linéaires) couplées, qui ne sont rien d'autre que l'expression mathématique de "tout dépend de tout, à chaque instant". Autrement dit, du point de vue du physicien, il n'existe a priori pas de maître ni d'esclave. Il n'existe pas de "forçage" distinct des "rétroactions". Il n'existe que des phénomènes couplés. De fait, créer a priori cette distinction maître-esclave (ou forçage-rétroaction) revient à supposer, d'emblée, qu'un certain nombre de couplages (les termes dits croisés) existant entre les équations différentielles couplées qui régissent le système, sont négligeables ou inexistants.
En toute rigueur, il est nécessaire de résoudre le système d'équations différentielles complet
avant d'en tirer de telles conclusions. Ce n'est que lorsque l'on connaît les solutions détaillées d'un système complexe qu'il est possible de remonter la chaîne et de simplifier le jeu des équations initiales.
Dans le cas de la climatologie (et aussi dans le cas d'autres problèmes physiques ou physico-chimiques), on a fait le contraire. On suppose a priori que certains facteurs sont les "maîtres" (les forçages) et que d'autres, les esclaves (les rétroactions) n'en sont que les conséquences. Ce genre d'approximation, faite a priori, repose sur des hypothèses et notamment sur l'hypothèse qu'on a, au moins en partie, compris comment fonctionnait le système, avant de résoudre les équations. A strictement parler, ce ne sont que des hypothèses qu'il est nécessaire de valider (si possible) par l'observation (Voir le point de vue équivalent d'un autre physicien, sur ce site).
salby

Un exemple particulièrement frappant du degré d'incertitude qui existe, quoiqu'en disent certains, entre les notions introduites artificiellement et a priori telles que les "forçage" et les "rétroactions" peut être donné en se référant à une communication récente du Professeur Murry Salby au SydneyInstitute. Murry Salby (ci-contre) est, entre autres, le responsable de la Climatologie à l'Université de Macquarie (Australie). Ce dernier a réanalysé avec soin les données relatives à l'origine du CO2 dont on mesure la concentration dans l'atmosphère, par exemple à Mauna Loa. Il est maintenant convaincu que la majeure partie (96%) de ce dernier provient non pas des émissions humaines mais des émissions naturelles des biotas, de la végétation, des phytoplanctons et des océans eux-mêmes, qui varient en fonction du réchauffement actuel de la planète. Comme chacun le sait, le CO2 constitue, pour les chercheurs proches du GIEC, un forçage. C'est à dire un (et même le) maître qui détermine l'évolution du climat.
Les récentes déclarations de Murry Salby, si elles sont vérifiées, montreraient qu'au contraire, le CO2 atmosphérique serait une rétroaction climatique due au réchauffement de la planète provoqué par un forçage naturel qui pourrait résulter de la variation de la couverture nuageuse résultant d'un processus externe comme celui qui est proposé par le Dr Svensmark, souvent mentionné ci-dessus, dans cette page.
Inutile de dire que, si cela se vérifie (un article a été peer-reviouvé favorablement et va paraître sous peu), la modélisation climatique sera totalement bouleversée. Murry Salby déclare aussi que "Quiconque pense que la science de cette affaire complexe est comprise, vit dans un rêve."
A ce propos, Judith Curry qui est une ancienne collègue de Salby et qui est souvent mentionnée dans ce site, parle à ce sujet d'une possible "révolution" de la science climatique. Judy note aussi qu'il est fort dommage que les lancements du satellite US OCO aient avortés (deux crashes successifs et plus d'argent pour recommencer !). Leurs mesures auraient permis de résoudre cette question absolument fondamentale. Elles auraient sans doute permis, entre autres, de situer les véritables sources du CO2 atmosphérique.


Que les lecteurs me pardonnent la longue digression (l'encart jaune ci-dessus) qui précède mais il m'a semblé important d'insister sur le fait que le sujet des rétroactions auquel se sont intéressés Spencer et Braswell, tout comme d'ailleurs Lindzen et Choi, est fondamental pour notre compréhension du climat.

Revenons maintenant à l'article de Spencer et Braswell.
Leur article s'adresse manifestement à des spécialistes déjà bien avertis du problème en question. De ce fait et à mon sens, cet article est peut-être rédigé de manière moins pédagogique que ce que nous propose généralement Spencer.
Je me permets donc de vous le présenter de manière un peu différente, peut-être plus "intuitive" que l'article initial en espérant que la compréhension de cet article (qui semble important à beaucoup) en sera facilitée. Les citations tirées de l'article original seront écrites en italique (à l'exception des légendes des figures, des résumés et de quelques autres citations).

Comme dans leurs articles précédents et en se basant sur les observations satellitaires (comme on va le voir), Spencer et Braswell considèrent que les variations de la température de la surface terrestre et surtout de la surface des océans, ΔT, répondent aux diverses sollicitations (forçage radiatif N(t) , forçage non radiatif S(t)) par l'intermédiaire d'une simple équation (1) dépendante du temps, telle que la suivante :

Cp dΔT/dt = S(t) + N(t) − λΔT (Eq. 1)

Les auteurs expliquent :

"L'Equation (1) indique que les sources, dépendantes du temps, de forçage non-radiatif S et de forçage radiatif N, provoquent une variation de température dépendante du temps du système climatique dont la capacité thermique est Cp. Cette variation de température l'écarte de son état d'équilibre (dΔT/dt), avec une "force de restauration" radiative résultante (NdT: c'est à dire une rétroaction radiative) agissant pour stabiliser le système. ".

De fait, cette équation n'a rien de mystérieux ni de révolutionnaire. Au terme de rétroaction près (-λΔT), c'est l'équation standard qui indique l'évolution temporelle de la température d'un corps soumis à forçage radiatif N et à un forçage non radiatif S (convectif, par exemple), telle qu'on peut la retrouver, entre autres, dans cet exercice pédagogique destiné à faire prendre conscience aux étudiants de l'importances relative des pertes par radiation et par convection, d'un corps chauffé.
Cependant, et par rapport aux techniques traditionnelles destinées à évaluer les taux de rétroactions, notamment ceux qui sont utilisés par les modèles climatiques, cette équation (1) présente l'intérêt de mettre en évidence l'effet retardateur (on dirait plutôt "intégrateur" en terme de description d'un circuit RC en électronique) joué par la capacité thermique Cp de la couche supérieure des océans. L'équation (1) dépendante du temps, tient compte du fait que la réponse en température est, en réalité, une forme d'intégrale des sollicitations radiatives et non radiatives. Ce qui, exprimé en langage courant, traduit le fait que la couche active des océans (ici, les quelques dizaines de premiers mètres) doit stocker l'énergie incidente (à l'image d'un condensateur en électronique) avant que la température de la surface s'élève et que l'énergie ainsi stockée ne se dissipe par rayonnement/convection (et mutatis mutandis pour le refroidissement de la surface). En langage imagé on dirait que quand vous allumez le gaz sous une casserole pleine d'eau, il faut un certain temps pour que l'eau atteigne sa température maximale et que les pertes finissent par équilibrer la quantité de chaleur apportée par le gaz. Pour ce qui est des océans, le délai de quelques mois qui en résulte, joue un rôle fondamental dans la démonstration de Spencer et Braswell et dans la critique que font les auteurs des méthodes traditionnellement utilisées par le GIEC, comme nous allons le voir ci-dessous.

1 - La forme de l'équation (1) est directement visible dans les relevés satellitaires :

La relation "intégro-différentielle" qui existe entre les variations de température et les flux émis et absorbés mesurés par le satellite Terra CERES est immédiatement perceptible si on considère la Figure 2 de l'article de Spencer et Braswell. La voici, accompagnée de sa légende.

spencer4

 

 

 

"Figure 2. Séries temporelles des anomalies moyennes mensuelles pour le globe.
Dans (a) des températures de surface selon le HadCRUT3,

 

et dans (b) des flux radiatifs selon le satellite Terra CERES SSF Edition 2.5,

pour la période allant de Mars 2000 à Juin 2011. Toutes les séries temporelles ont subi un lissage 1-2-1 de manière à réduire le bruit d'échantillonnage. "

 

 

 

Comme on le constate de visu, les graphes qui montrent la variation temporelle des flux émis par les océans (en rouge : en lumière infra-rouge, en bleu : en lumière visible et en noir : le flux net émis (valeurs positives) ou absorbé (valeurs négatives)), sont nettement plus "chahutés" que les variations correspondantes de température reportées dans le graphe (a) situé au dessus. A première vue, on pourrait dire que la variation temporelle des flux émis et absorbés ressemble grossièrement à la dérivée de la courbe des températures (a), ce qui est bien cohérent avec la forme de l'équation (1).

2 - Les mesures directes des flux radiatif qui ne tiennent pas compte du retard (notamment) induit par les océans, c'est à dire les mesures qui sont faites au temps 0, conduisent à une évaluation erronée du taux de rétroaction :

Il est important de se souvenir que les instruments de mesure du satellite ne sont sensibles qu'aux flux radiatifs (N− λΔT) et non pas aux échanges non-radiatifs (S).
Spencer et Braswell le précisent dans les termes suivant et avec l'aide d'un graphique tiré directement de la représentation graphique de l'équation (1) :

"Il est utile de rappeler que le bilan radiatif mesuré par les satellites est une mesure des effets combinés des termes radiatifs de l'équation (ci-dessus), c'est à dire du forçage radiatif N et du facteur de rétroaction (− λΔT).Le fait que la présence de N a un impact considérable sur le diagnostic de la rétroaction est facilement démontré à partir d'un simple modèle dépendant du temps, basé sur l'équation (1). Si nous supposons que la valeur de Cp (NdT : la capacité calorifique) est celle d'une couche d'océan de 25m, que le paramètre de rétroaction net est λ = 3, et qu'un forçage sinusoïdal de période de un an est appliqué, la réponse de la température sera celle indiquée sur la figure 1."

spencer6

 

 

Figure 1. "Démonstration à partir d'un modèle simple de forçage-rétroaction du fait que les mesures instrumentales du budget radiatif du flux net radiatif (forçage + rétroaction) à l'aide des satellites sont très différentes de ce qui est requis pour diagnostiquer le paramètre de rétroaction net (c'est à dire de la rétroaction seule)."

En rouge : Forçage radiatif direct N.
En noir : forçage radiatif mesuré qui résulte de la somme du forçage radiatif direct et de la rétroaction.
En bleu : le "feedback" c'est à dire la rétroaction.

Dans ce graphe, on suppose qu'il n'existe que des forçages radiatifs. C'est-à-dire qu'on suppose qu'il n'existe pas d'autre cause de réchauffement ou de refroidissement non-radiatifs tels que l'évaporation ou la convection (Ce qui est évidemment peu réaliste.)

Le graphe suivant montre ce qui se passe quand on introduit, (comme c'est le cas dans la réalité), un forçage non radiatif (convection, chaleur latente d'évaporation etc.) spencer7

 

 

Figure 4. "Variation des coefficients de régression décalés (NdT : voir l'explication de cette expression difficile à traduire, ci-dessous) entre la température et le flux radiatif déduits du modèle simple (NdT : équation ci-dessus) forçage/rétroaction résolu pour trois cas de forçages : forçage purement non-radiatif (ligne en pointillés) ; forçage purement radiatif (ligne en tiretés) et un mélange de forçage radiatif à 70% /forçage non-radiatif à 30%. Un paramètre de rétroaction de 3 W m−2 K−1 et une profondeur de 25m pour le mélange océanique ont été utilisés pour toutes les simulations qui ont tourné, chacune, pour une durée de 500 ans de temps de simulation."

Sur son site, Spencer nous explique le sens de l'expression "coefficients de régression décalés" exprimés en W/m2/°C utilisée aussi bien dans le graphe ci-contre que dans les graphes suivants :

"Les courbes des graphes suivants (c'est à dire les Fig. 3 et 4) sont des coefficients de régression retardés lesquels peuvent être compris comme le taux de gain (ou de perte) d'énergie radiative par degré Celsius de changement de température, mesurés à différents décalages de temps. Un décalage temporel de zéro mois peut être vu comme le mois où la température est maximale (ou minimale). J'ai effectivement vérifié cette interprétation en examinant des événements chauds et froids à partir d'itérations de modèles climatiques CNRM-CM3 qui montraient une activité intense El Niño et La Niña."

Les figures 1 et 4 montrent clairement que l'estimation de la valeur du taux de rétroaction est impossible au temps zéro, parce que le flux mesuré dépend grandement des divers facteurs qui forcent la variation de température de surface, que ceux-ci soient d'origine radiative ou non-radiative. Comme Spencer le précise lui-même dans son site et dans son article, le décalage temporel entre les forçages radiatifs et la réponse en température (identique à la courbe en pointillés des forçages non-radiatifs, ci-dessus), rend impossible l'évaluation du facteur de rétroaction qui peut être estimé positif, alors qu'il est négatif, ou l'inverse. Tout cela est illustré par les courbes précédentes.

Je rappelle que Richard Lindzen a déclaré, en conclusion de son dernier article, que : "les modèles divergent fortement des observations. La simple corrélation entre le flux sortant et la température de surface donnera une représentation fausse de la sensibilité climatique et les observations suggèrent des rétroactions négatives plutôt que positives".
C'est à dire que Lindzen et Choi parviennent, par d'autres moyens, sensiblement aux mêmes conclusions que Spencer et Braswell.

Voyons maintenant ce que donnent la comparaison des mesures effectives des flux radiatifs (globaux et océaniques) avec les résultats des modèles du GIEC, toujours selon l'article de Spencer et Braswell.

3 - La mesure des flux radiatifs réellement émis par la planète et, notamment, par les océans, diffèrent considérablement de ceux qui résultent des modèles du GIEC. Les pertes de chaleur sont supérieures à celles qui sont calculées.

spencer5

 

 

 

Figure 3. Coefficients de régression retardés et avancés entre les températures mensuelles de surface et les anomalies de flux radiatif net selon les observations (courbes en vert) et les modèles climatiques couplés.
En rouge pour les deux modèles les plus sensibles au CO2, (dont celui de l'IPSL français), et en bleu pour les modèles les moins sensibles.

(a) Pour les moyennes globales.

 

 

 

 

 

(b) Pour les moyennes océaniques globales de 60°N à 60°S.

 

 

 

 

 

 

 

 

Comme on peut le voir du premier coup d'oeil, les variations observées ont des apparences conformes à celles du modèle (équation 1) de Spencer et Braswell. On voit aussi immédiatement que si les modèles restituent, approximativement, une forme qui s'apparente à celle des observations et du modèle "décalé" de Spencer et Braswell, les amplitudes sont nettement différentes. En bref, on constate que les modèles "piègent" nettement plus de chaleur que la réalité objective. Autrement dit, les océans et la planète libèrent plus de chaleur vers l'espace que ne le croient les modélisateurs. En d'autres termes, comme Richard Lindzen et Choi, Spencer et Braswell observe que les sensibilités climatiques des modèles du GIEC sont exagérées.

Concernant les graphes ci-dessus, Spencer ajoute ce commentaire, sur son site:

"Le graphe ci-dessus est peut-être une représentation plus intuitive pour analyser les données que celle des "diagrammes de phase" que j'ai mis en avant durant ces dernières années. Un des éléments CLEF que cela montre est qu'effectuer ces régressions seulement au temps zéro (Comme Dessler l'a fait récemment dans son article de 2010 sur les rétroactions des nuages de même que tous les chercheurs avant lui qui ont tenté de le faire), n'a en réalité que peu de sens. Du fait des temps de retard (ou d'avance) dans la réponse de la température au déséquilibre radiatif, on DOIT effectuer ces analyses en prenant en compte le comportement retardé (ou avancé) si on veut avoir quelque espoir de diagnostiquer les rétroactions. Au temps t=0, il ne reste que très peu de signal à analyser."

4) Voici quelques extraits des conclusions de Spencer et Braswell : (caractères engraissés par R. Pielke Sr)

“We have shown clear evidence from the CERES instrument that global temperature variations during 2000–2010 were largely radiatively forced. Lag regression analysis supports the interpretation that net radiative gain (loss) precedes, and radiative loss (gain) follows temperature maxima (minima). This behavior is also seen in the IPCC AR4 climate models.”

“…..we are…… faced with a rather large discrepancy in the time-lagged regression coefficients between the radiative signatures displayed by the real climate system in satellite data versus the climate models. While this discrepancy is nominally in the direction of lower climate sensitivity of the real climate system, there are a variety of parameters other than feedback affecting the lag regression statistics which make accurate feedback diagnosis difficult.”

“….much of the temperature variability during 2000–2010 was due to ENSO…, we conclude that ENSO-related temperature variations are partly radiatively forced. We hypothesize that changes in the coupled ocean-atmosphere circulation during the El Niño and La Niña phases of ENSO cause differing changes in cloud cover, which then modulate the radiative balance of the climate system. As seen in Figure 3(b) for the ocean-only data, the signature of radiative forcing is stronger over the oceans than in the global average, suggesting a primarily oceanic origin.”

En français :

"Nous avons montré un élément de preuve évident, tiré des données des instruments CERES que les variations de température globale pendant la période 2000-2010 (NdT : CERES n'existait pas auparavant) étaient largement d'origine radiative. Une analyse des relations en fonction du temps supportent l'interprétation que le gain radiatif net (ou la perte) précède et que les pertes radiatives (ou les gains) suivent les maxima (minima) de température. Ce comportement est également observé dans les modèles numériques du rapport AR4 du GIEC."

"Nous sommes ...confrontés avec un assez grand désaccord entre les coefficients de régression retardés entre les signatures radiatives du système climatique réel, mises en évidence par les satellites et les modèles climatiques. Alors que ce désaccord est globalement en direction d'une plus faible sensibilité du système climatique réel, il existe une variété d'autres paramètres que les rétroactions affectant la statistique des régressions retardées qui rendent un diagnostic fiable des rétroactions difficiles." (NdT ; Roger Pielke Sr a sans doute souligné cette phrase parce qu'il pense que les paramètres qui affectent le climat sont loin d'être inclus dans les modèles, tels que l'utilisation des sols par exemple).

"...La plupart de la variabilité de la température de 2000 à 2010 résulte de l'ENSO...Nous concluons que les variations de températures en relation avec l'ENSO sont partiellement radiativement forcées. Nous avançons l'hypothèse que les variations de la circulation couplée océans-atmosphère durant les phases El Niño et La Niña provoquent différentes modifications de la couverture nuageuse qui, à leur tour, modulent l'équilibre radiatif du système climatique. Comme on le voit dans la figure 3(b) pour les données relatives aux océans, la signature du forçage radiatif est plus forte sur les océans que dans la moyenne du globe ce qui suggère une origine surtout océanique."
___________________________________________________________________________________________________

En bref en en résumé pour ceux qui n'auraient pas eu le courage ou la patience (on les comprend !) de lire ce billet in extenso, voici ce que l'on peut tirer de cet article de Spencer et Braswell :

1) Les variations observées (et calculées) des flux radiatifs ne sont pas en phase avec les variations de température observées (et calculées). Ceci provient de l'inertie thermique (de l'ordre de quelques mois) de la surface terrestre ou océanique. Cette inertie résulte de la capacité thermique non nulle de la fraction de la couche superficielle terrestre ou océanique réchauffée (ou refroidie). Il est donc indispensable d'effectuer une analyse temporelle détaillée des échanges de flux et des variations de température afin d'établir un diagnostic correct des échanges énergétiques.

2) Même si on effectue cette analyse temporelle, il apparaît qu'il est impossible d'obtenir, à partir des mesures satellitaires, une estimation correcte du paramètre de rétroaction qui joue un rôle absolument décisif pour les scénarios climatiques du futur.

3) La comparaison des résultats des modèles du GIEC avec les observations montre que les modèles sous-estiment la quantité de chaleur qui est irradiée vers l'espace. Autrement dit, la terre se refroidit plus et plus vite que ne le croient les modèles.

_____________________________________________________________________________________________________________

6) Des échos dans la presse et diverses réactions :

A la différence de nombre des articles "contrariants" que j'ai eu l'occasion d'analyser dans les pages de ce site, il semble que l'article de Spencer et Braswell ait suscité quelques échos dans la presse grand public (anglophone, bien sûr). Même dans la presse qui, d'ordinaire reste silencieuse lors de la publication d'articles qui s'écartent du dogme en vigueur. Il semble que le cas de l'article de Spencer et Braswell ne soit d'ailleurs plus un cas isolé. D'autres articles "dérangeants" ont, tout récemment,. également bénéficié d'une certaine diffusion médiatique (anglophone).C'est bon signe.

En voici quelques exemples, non exhaustifs :

Forbes.com : "De nouvelles données de la NASA creusent un trou béant dans l'alarmisme au réchauffement climatique."

Mail (online) : "Le changement climatique est beaucoup moins sérieux que les "alarmistes" le disent, déclare un scientifique de la NASA.

Yahoo news fr :(reprend Forbes).

Slashdots (forum anglophone très fréquenté): " De nouvelles données de la NASA jettent le doute sur les modèles du réchauffement climatique."

Prof R. Pielke Sr : "...l'étude de Spencer and Braswell est une très importante contribution au débat sur la science du climat. Si, comme ils l'ont montré, les modèles sont incapables de rendre compte correctement de la façon dont le système climatique répond à un déséquilibre radiatif sur des périodes temps courtes, ceci soulève indubitablement de sérieuses questions sur la robustesse des modèles en termes de modélisation par la physique, ce qui résulterait nécessairement dans des simulations numériques erronées sur des échelles de temps multi-décennales. "

Judith Curry donne un rapport assez complet (plutôt sympathique pour S et B) sur diverses réactions suscitées par la publication de cet article. Elle rapporte, en particulier, les propos de Kerry Emanuel (collègue de R. Lindzen au MIT). Voici ce qu'a dit Kerry Emanuel (non sceptique) : " Les bloggers et d'autres ne reflètent pas les vraies découvertes de Spencer. Emanuel a dit que le travail (de Spencer et Braswell) était précautionneux et essentiellement limité à la mise en évidence de problèmes liés à la prédiction des rétroactions de chaleur. Il a déclaré que ce qui était écrit à propos de l'étude de Spencer par des non-scientifiques, n'avait aucun rapport avec la réalité. "

Il est inutile de préciser que cet article qui prend gravement en défaut le coeur même des modèles des gaz à effet de serre du GIEC, a soulevé une tempête de protestations de la part des tenants du dogme en vigueur (tels Gavin Schmidt, Michael Mann, Kevin Trenberth, comme d'habitude).
D'autre part on trouve dans une dépêche de l'AP (l'Agence Associated Press), un article de Seth Borenstein qui ne semble pas avoir lu ni compris cet article. De même dans The Salon, un blog "dans la ligne du GIEC" publie un texte qui n'hésite pas à ressortir les clichés injurieux habituels. On y apprend que Spencer serait financé par Exxon-Mobil, alors que l'étude de Spencer est financée par le DOE, c'est à dire par le Département de l'Energie des Etats Unis.
On peut trouver d'autres exemples révélateurs d'attaques plus ou moins en dessous du niveau requis, cités sur le blog de Roy Spencer et bien entendu,yanntruth sur Real Climate (le blog de Gavin Schmidt et de Michael Mann).

En réponse (partielle) à certaines de ces attaques, Spencer écrit sur son blog :

"..Si vous essayez, vous aurez un "faux positif", même si la rétroaction est fortement négative.

La démonstration est simple et persuasive. Elle est comprise par Dick Lindzen du MIT, Isaac Held de Princeton (qui est loin d'être un sceptique) et de beaucoup d'autres qui ont pris le temps de chercher à la comprendre. Il n'est pas nécessaire que vous croyiez que "ce sont les nuages qui provoquent le changement climatique" (comme je le pense), parce que c'est le retard temporel -qui est sans ambiguïté - qui est la cause du problème de l'estimation de la rétroaction."

Visiblement cet article dérange énormément l'Establishment médiatico-politico-scientifique. C'est un indice qui ne trompe pas. Cependant, en cette occasion et une fois encore, beaucoup des détracteurs proches du GIEC ont visiblement dépassé et de loin, les limites acceptables du débat scientifique.
Lequel semble décidément impossible lorsqu'il s'agit de "sciences du climat".

Comme Roy Spencer et Will Braswell, nous attendons, avec impatience, un article scientifique étayé qui nous expliquerait en quoi et comment cet article qui se base sur un modèle simple corroboré par des observations directes (et non pas sur des modèles informatiques), serait inapproprié ou erroné...

A suivre donc.

Stay Tuned !

24 Octobre 2010 : Atmosphère : Observations vs Modèles : A la recherche du hotspot perdu...

Dans la (longue) série des articles publiés récemment (Le hotspot, Le flux sortant TOA, la "chaleur perdue" etc.) qui montrent que les quelques 22 modèles du GIEC sont régulièrement contredits par les observations, je vais vous décrire une publication récente parue dans la revue (peer-reviewée) des spécialistes des mesures à distance (Remote Sensing : satellites, ballons sondes etc.) sous la signature de 9 climatologues avérés. La publication analysée dans ce billet fait suite à celle qui concernait le "hotspot", le point chaud, que l'on devrait trouver, selon les modèles de l'effet de serre, dans l'atmosphère au dessus des tropiques et que les mesures directes par satellites et ballons sondes ne trouvaient pas en 2007... et ne trouvent toujours pas en cette année 2010.

Pour replacer l'article qui est l'objet de ce billet dans son contexte, un rappel historique s'impose.

1) Historique de la situation antérieure :

  • Le "hotspot"

Comme tous les lecteurs de ce site le savent le "hotspot", c'est à dire "le point chaud" est le nom donné à une vaste zone de l'atmosphère située dans la région des tropiques, à quelques 8-10 km d'altitude, prévu par les modèles du GIEC.
christy4

Une représentation imagée en est donnée sur la figure ci-contre. Sa lecture est immédiate :

L'axe des abscisses donne la latitude du point de l'atmosphère considéré. EQ signifie l'équateur, 30N signifie la latitude 30 degrés Nord et ainsi de suite.

L'axe des ordonnées indique l'altitude de la tranche d'atmosphère (la troposphère) considérée. Cet axe est gradué unité de pression c'est à dire en hPa (hectopascal) suivant une notation chère aux météorologues.
La correspondance entre les données de pression en hPa et l'altitude est indiquée sur le graphique du paragraphe suivant. 400 hPa correspondent à environ 6,8 km d'altitude. 150 hPa est la pression qui règne au dessus des tropiques à environ 13 km d'altitude.

Comme on le voit à l'aide du code des couleurs, et comme son nom l'indique, les modèles utilisés par le GIEC et ses adhérents, prévoient tous, l'existence d'une zone plus chaude, d'un "hotspot", situé au dessus de l'équateur et recouvrant une vaste zone s'étendant d'environ 30 degré Sud à 30 degrés Nord. Le tout est centré à une altitude d'environ 10km, c'est à dire en dessous de la tropopause qui se trouve à environ 16 km au dessus des tropiques, à environ 12 km à 30 degrés Nord ou Sud, et à environ 8 km au dessus des pôles. En réalité et toujours selon les modèles, cette zone de l'atmosphère devrait se réchauffer nettement plus vite que la surface de la planète.

  • 2007 : A la recherche du "hotspot"...

Le graphique précédent, quasi-emblématique de l'effet de serre, est tiré d'un article de Richard Lindzen du MIT, intitulé "Taking global warming seriously" ("Considérer sérieusement l'effet de serre"). Cet article, dont je vous recommande une lecture attentive, critique sévèrement les présentations simplistes (et erronées) de l'effet de serre (style effet "pull-over") répercutées par les médias et certains forums sur Internet. Sans oublier l'Académie des Sciences Américaine, elle-même (!). Lindzen y présente une explication physique rationnelle et compréhensible de l'effet de serre. Ce qui n'est pas courant.
Voici ce que nous dit Lindzen à propos de plusieurs de ces graphiques de "hotspot" qu'il a fait tracer tout spécialement pour son article : "De plus, tous les modèles ont tourné jusqu'à ce que l'équilibre soit atteint plutôt que de les faire tourner en mode transitoire de manière à simuler le passé. De cette façon, ils isolent le réchauffement par effet de serre des autres choses qui pourraient intervenir."
Ce que nous voyons dans le graphique ci-dessus est donc bien la signature de l'effet de serre, et de rien d'autre.

En 2007, Lindzen écrivait dans l'article cité si-dessus :

"La Figure 5 est la plus récente description des tendances (NdT : de la température) basées sur des mesures par ballon du Hadley Center (UK) et qui incorpore les ajustements suggérés par les études précédentes (Ndt : Notamment les corrections liées à la dérive des ballons). Nous voyons que la tendance dans la troposphère présente effectivement un maximum autour de 300 hPa d'environ 0,1°C par décennie et, si on en juge par les résultats de la figure 5, ceci devrait être associé à une tendance à la surface (NdT : de la Terre) comprise entre 0,033 et un peu moins de 0,05°C par décennie. Contrairement à l'affirmation emblématique du dernier rapport " Résumé pour les décideurs" (SPM du rapport de 2007) du GIEC, ceci n'est que de l'ordre du tiers de la tendance observée à la surface (NdT : de la Terre) et suggère que le réchauffement est d'environ 0,4 degrés par siècle. Il faut préciser que ceci constitue une limite (Ndt : supérieure) et non une estimation. Le réchauffement par effet de serre doit apparaître autour de 300 hPa, mais le réchauffement autour de 300 hPa ne résulte pas nécessairement du réchauffement par effet de serre."

Autrement dit, le réchauffement observé dans la troposphère par les ballons du Hadley Center est compatible avec un réchauffement de la planète, très faible, de l'ordre de 0,4°C en cent ans (alors que la température terrestre aurait augmenté de 0,8°C en cent ans, selon le GIEC). Mais ce léger réchauffement observé pourrait fort bien provenir d'autres causes que de l'effet de serre. De fait cette mesure était inférieure, d'un bon facteur 2 à 3, aux prédictions des ordinateurs du GIEC. A noter que cette estimation ancienne de Richard Lindzen (soit 0,1°C par décennie pour le réchauffement de la troposphère) est assez proche, quoique légèrement supérieure, aux résultats des toutes récentes mesures publiées en 2010, comme vous le verrez ci-dessous, au paragraphe 2..

En décembre 2007 est paru un article, publié dans le prestigieux International Journal of Climatology, DOI: 10.1002/joc.1651, qui a sérieusement entamé la confiance que que l'on pouvait avoir dans les modélisations du climat réalisées par le modélisateurs du GIEC. Cet article était intitulé " A comparison of tropical temperature trends with model predictions" soit :


"Une comparaison des tendances de températures aux tropiques avec les christy0prédictions des modèles".


Ses auteurs étaient Douglass, D.H., J.R. Christy, B.D. Pearson, and S.F. Singer. Parmi ces derniers, John Christy (photo ci-contre) est un expert éminent et l'inventeur (pionnier) des mesures de température par satellites et par ballons sondes. C'est à ce titre qu'il a reçu (avec son collaborateur Roy Spencer) plusieurs distinctions remarquables (Médaille de la NASA pour une percée scientifique exceptionnelle, Récompense spéciale de l'AMS)


Voici, ci-dessous, une courbe extraite de cet article (déjà évoqué dans un ancien billet rédigé en 2007).
Ce graphe donne une évaluation quantitative du "hotspot" tel qu'il est imagé ci-dessus.
En accord avec ce qu'avait obtenu
Lindzen à partir des mesures par ballons sondes du Hadley Center (UK), ce graphe démontrait qu'il existe des différences considérables entre les résultats des mesures effectuées par satellites et ballons sondes avec les prévisions théoriques des modèles du GIEC qui, de fait, surestiment considérablement le réchauffement provoqué par l'effet de serre.

Il faut se souvenir que selon les modèles d'effet de serre, c'est le gaz carbonique contenu dans l'atmosphère qui réchauffe cette dernière qui, par contrecoup, réchauffe à son tour notre planète. On comprend dès lors que ces modèles de l'effet de serre impliquent qu'en cas de déséquilibre (tel celui introduit par l'utilisation des énergies fossiles), l'atmosphère doit se réchauffer plus intensément que la Terre. C'est ce qu'affirment les modèles.

Comme nous le verrons ci-dessous, et selon les mesures rapportées en 2010, ce n'est pas ce que l'on observe...

tropic1

En abscisse sont indiquées les altitudes (en hPa (en bas) et en km (en haut))

Les ronds et carrés arrondis rouges à fond blancs indiquent les résultats des 22 modèles informatiques du GIEC, encadrés par les marges d'incertitude.
Comme on le constate, les modèles prévoient comme dans le diagramme ci-dessus, une augmentation nette du réchauffement au dessus des tropiques, entre 6 et 13 km d'altitude. A noter également que les modèles prévoient une augmentation monotone de la température par rapport à la normale jusqu'à environ 10 km d'altitude.
Les carrés verts et les triangles, losanges, cercles bleus représentent les données résultants des observations selon les sources indiqués dans le cartouche du bas. Notez que, selon les observations et à l'inverse des modèles, la température de l'atmosphère décroît ou reste stable jusque vers 5 à 6 km. Elle décroît aussi beaucoup plus rapidement que prévu dans les modèles, à partir de 8 à 9 km.

Comme on le constate immédiatement, les observations par satellites et ballons sondes, publiées en 2007, différaient très notablement (d'un facteur supérieur à 2) des prédictions issues des modèles du GIEC.

De fait, l'observation de l'absence ou la présence d'un réchauffement rapide (c'est à dire plus rapide que celui de la Terre) de l'atmosphère au dessus des tropiques constitue un test déterminant pour les modèles de l'effet de serre du GIEC.

Inutile de vous dire que cette publication remettait gravement en question le fondement même des affirmations (notamment sur les rétroactions) et les modèles du GIEC. Comme on s'en doute, les chercheurs affiliés au GIEC ne pouvaient l'accepter. C'est l'édifice tout entier qui menaçait de s'écrouler si ces mesures de températures n'étaient pas démenties. Il fallait réagir sans tarder...
La riposte n'était pas aisée parce que les mesures directes des températures de l'atmosphère sont toutes réalisées par une kyrielle de systèmes embarqués sur des satellites et par plusieurs radio-sondes embarquées à bord des ballons. Les deux ensembles de mesures convergent de manière satisfaisante pourvu que des corrections rendues nécessaires notamment par le "drift" (la dérive) provoqué par le vent en altitude, soient appliquées. Ce qui avait été déterminé lors d'une réunion dite de "réconciliation" qui s'était tenue en 2006. Il fallait trouver autre chose...

C'est ce qui fut fait. Ainsi, quelques mois plus tard...

  • 2008 : Les pro-GIEC contre-attaquent ...

La méthode de mesure des températures dans la haute troposphère, imaginée pour l'occasion, ne manque pas d'astuce, même si elle est quelque peu problématique comme nous allons le voir. L'idée avancée par Steven Sherwood et son collègue Robert Allen, consiste à utiliser les variations des vitesses de vents mesurées (parcimonieusement) en altitude pour en déduire les températures. Ainsi, comme nous l'expliquent les auteurs de l'article (Christy et al) commenté ci-dessous :

"Par exemple, si, dans l'hémisphère Nord, le vent zonal (Ndt : ou latitudinal, voir ce billet sur le LOD ) situé à un niveau est accéléré pendant les 30 années plus fortement que celui du niveau inférieur, ceci implique une tendance à l'augmentation de température vers l'équateur, dans cette couche."

Le calcul des vitesses des variations de température se fait alors en utilisant les équations de vent thermal (TWE : thermal wind equations).Vous trouverez les explications et les équationsTWE dans cette page. Inutile de préciser que la circulation des vents dans l'atmosphère est nettement plus compliquée que celle qui résulte des équations simplistes du "vent thermal". De ce fait, les corrections, les hypothèses et les incertitudes sont nombreuses... et les résultats hasardeux, comme nous le verrons ci-dessous. *

Voici les références de l'article devenu quasi emblématique pour les supporters du GIEC :

Allen, R.J.; Sherwood, S.C. Warming maximum in the tropical upper troposphere deduced from thermal winds.
Nature Geosci. 2008, doi: 10.1038/ngeo208.

A noter que compte tenu du caractère "acrobatique" de ce type de mesures indirectes, les auteurs (Allen et Sherwood) de cet article ne se font guère d'illusions. Bien qu'ils concluent dans le sens du GIEC, ils rapportent dans leur article que l'incertitude est de ±0,29°C. Ce qui est énorme par rapport aux quantités mesurées (typiquement 0,1°C)..
Voici un extrait de leur conclusion dont la formulation laisse rêveur :

" We conclude that the peak warming in the upper troposphere is highly significant for both time periods, and that our data do not seem to be consistent with a lack of upper-tropospheric warming in the tropics. The degree of warming remains fairly uncertain, but is within the range simulated by climate models, albeit with some discrepancies near the tropopause."
Soit " Nous concluons que le réchauffement maximum dans la haute troposphère est hautement significatif pour les deux périodes et que nos données ne semblent pas être cohérentes avec l'absence d'un réchauffement de la haute troposphère dans les tropiques. Le degré de réchauffement reste passablement incertain mais se trouve dans le domaine des simulations des modèles climatiques, cependant avec quelques divergences près de la tropopause."

Notez la prudence du texte ( ce qui est justifié. Les auteurs marchent sur des oeufs, comme l'on dit) :" nos données ne semblent pas être cohérentes avec l'absence d'un réchauffement de la haute troposphère dans les tropiques" qui ne s'exprime que par négation de négation, ce qui est assez étonnant dans un article scientifique....Les auteurs affirment pourtant que, selon eux, cela est "hautement significatif".
Certains chercheurs semblent être passés maîtres dans l'art de la dialectique et certains referees ont oublié les bases de leur travail.
Comme nous le verrons ci-dessous, ces résultats, obtenus de manière aussi indirecte qu'acrobatique et avec des incertitudes considérables, divergent considérablement (d'un facteur 3) par rapport à toutes les autres mesures disponibles....Disons que c'est un "outsider".

Nous verrons ci-dessous ce qu'en pensent les auteurs de l'article qui est le sujet de ce billet et dont voici une présentation :

_____________________________________________________________________________________________________________________

2) Septembre 2010 : Les Satellites et les ballons affinent leurs observations, persistent et signent. Un article concernant les mesures directes par satellites et ballons sondes des températures de la troposphère tropicale montre, de nouveau et clairement, que les mesures observées diffèrent grandement des prévisions des modèles. Ici encore, les modèles du GIEC surestiment considérablement le réchauffement de cette partie de l'atmosphère.
De plus, cet article analyse soigneusement les erreurs et les causes d'incertitudes. Il démonte sévèrement les mesures indirectes obtenues au moyen "des vents thermiques", mises en avant par les émules du GIEC pour contredire les résultats des mesures directes obtenues précédemment par les satellites et les ballons sondes.

Cet article est intitulé :

"Que nous disent les données, tirées des observations, au sujet des modèles de tendances de températures de la troposphère depuis 1979 ?" "What Do Observational Datasets Say about Modeled Tropospheric Temperature Trends since 1979?"

Voici sa référence. ( Cette publication, destinée à un numéro spécial sur ces sujets, est, actuellement, en libre accès sur le site de "Remote Sensing".)

Remote Sensing 2010, 2, 2148-2169; doi:10.3390/rs2092148
John R. Christy 1,*, Benjamin Herman 2, Roger Pielke, Sr. 3, Philip Klotzbach 4, Richard T. McNider 1, Justin J. Hnilo 1, Roy W. Spencer 1, Thomas Chase 3 and David Douglass 5
1 ESSC-UAH, University of Alabama in Huntsville, Cramer Hall, Huntsville AL 35899, USA;
2 Atmospheric Physics, University of Arizona, Tucson, AZ 85821, USA;
3 University of Colorado, Stadium 255-16, Boulder, CO 80309, USA;
4 Department of Atmospheric Science, Colorado State University, Fort Collins, CO 80523, USA;
5 Department of Physics and Astronomy, Rochester University, Bausch & Lomb Hall, P.O. Box 270171, 500 Wilson Blvd., Rochester, NY 14627-0171, USA;

publié le 15 septembre 2010.

Pour situer précisément le domaine des mesures rapportées dans cet article, je commencerai par rapporter l'introduction de l'article, en version originale qui sera suivie d'une traduction en français. Idem pour le résumé qui suivra.

1. Introduction The temperature of the tropical lower troposphere (TLT, 20°S–20°N) figures prominently in discussions of climate variability and change because it (a) represents a major geographic portion of the global atmosphere (about one third) and (b) responds significantly to various forcings. For example, when the El Niño-Southern Oscillation mode is active, TLT displays a highly coupled, though few-month delayed, response, with a general warming of the tropical troposphere experienced during El Niño events [1]. The TLT also responds readily to the impact of solar scattering anomalies when substantial volcanic aerosols shade the Earth following major volcanic eruptions such as El Chichon (1982) and Mt. Pinatubo (1991). In terms of climate change due to increasing greenhouse gases from (primarily) energy production, climate models project a prominent warming of the TLT which in magnitude is on average twice as large near 300–200 hPa as changes projected for the surface [2].

"1. Introduction : La température de la basse troposphère tropicale (TLT, 20°S–20°N) constitue un sujet de discussion privilégié de la variabilité climatique et ses évolutions parce que (a) celle-ci représente une proportion géographique majeure de l'atmosphère globale (environ 1/3) et (b) parce qu'elle répond de manière significative à des forçages divers. Par exemple, quand le mode El Niño/Oscillation Sud est actif, la TLT montre une réponse fortement couplée, avec un retard de quelques mois, via un réchauffement général de la troposphère tropicale durant les événements El Niño [1]. La TLT répond aussi rapidement à l'impact des anomalies de la diffusion des rayons solaires quand les aérosols volcaniques majeures font de l'ombre à la terre comme cela a été le cas pour El Chichon (1982) ou le Mont Pinatubo (1991). En termes de changement climatique dû à l'augmentation de gaz à effet de serre résultant (majoritairement) de la production énergétique, les modèles du climat projettent un réchauffement majeur de la TLT qui, du point de vue de l'amplitude est en moyenne deux fois plus important, vers le niveau 300-200 hPa que les variations projetées pour la surface. (Ndt : soit vers 8 à 10 km d'altitude ce qui , selon Christy et al, est dans le domaine des mesures TLT puisque la troposphère s'élève à 16 km au dessus de l'équateur. En réalité, c'est encore le domaine du "hotspot" évoqué plus haut)."

Voici, maintenant, le résumé de l'article :

"Abstract: Updated tropical lower tropospheric temperature datasets covering the period 1979–2009 are presented and assessed for accuracy based upon recent publications and several analyses conducted here. We conclude that the lower tropospheric temperature (TLT) trend over these 31 years is +0.09 ± 0.03 °C decade−1. Given that the surface temperature (Tsfc) trends from three different groups agree extremely closely among themselves (~ +0.12 °C decade−1) this indicates that the “scaling ratio” (SR, or ratio of atmospheric trend to surface trend: TLT/Tsfc) of the observations is ~0.8 ± 0.3. This is significantly different from the average SR calculated from the IPCC AR4 model simulations which is ~1.4. This result indicates the majority of AR4 simulations tend to portray significantly greater warming in the troposphere relative to the surface than is found in observations. The SR, as an internal, normalized metric of model behavior, largely avoids the confounding influence of short-term fluctuations such as El Niños which make direct comparison of trend magnitudes less confident, even over multi-decadal periods."

Résumé : " Les données mesurées et mises à jour de la température de la basse troposphère tropicale, couvrant la période 1979-2009, sont présentées et leur précision est examinée à la lumière de publications récentes et de plusieurs analyses qui sont rapportées dans cet article. Nous en concluons que la tendance des températures de la basse troposphère (TLT) durant ces 31 années est de +0.09 ± 0.03 °C par décennie. Etant donné que la variation de la température de surface (Tsfc) donnée les trois groupes différents sont très proches les unes des autres (~ +0.12 °C par décennie), ceci indique que que le "facteur d'échelle".(SR soit le rapport entre la tendance dans l'atmosphère et celle de la surface : TLT/Tsfc) résultant de ces observations est de ~0.8 ± 0.3. Ceci est, de manière significative, différent de la valeur moyenne du SR calculée avec les simulations des modèles du rapport AR4 du GIEC et qui est de ~1.4. Ce résultat montre que la majorité des simulations du rapport AR4 (du GIEC) tendant à dépeindre un réchauffement de la troposphère par rapport à la surface nettement plus important que celui qui est observé. L'utilisation du facteur SR en tant que paramètre interne et normalisé du comportement des modèles, s'affranchit, dans une grande mesure, de la confusion entre l'influence des fluctuations à court terme telles que les El Niños qui rendent les comparaisons directes entre les valeurs des tendances moins crédibles, même sur les périodes multi-décennales."

Note :

Christy et al font remarquer, dans ce résumé comme dans l'article, que les tendances de température de surface, mesurées par les trois institutions officielles : ERSST, GISS et HadCRUT donnent des indications très semblables (soit environ +0,12°C par décennie). Cette convergence des indications de variations de températures à la surface de la planète ne doit cependant pas faire illusion. En réalité, ces trois mesures sont très loin d'être indépendantes. Christy et al précisent (un peu perfidement) dans leur article que "The three datasets are extremely close in trend magnitude, +0.122, +0.119 and +0.109 °C decade−1 respectively for ERSST, HadCRUT and GISS, which is not surprising since, as reported in [18], the best estimate that has been reported is that 90–95% of the raw data available for each of the analyses is the same (P. Jones, personal communication, 2003)". Soit : "les trois jeux de données sont extrêmement proches du point de vue des tendances +0.122, +0.119 and +0.109 °C par décennie, respectivement pour ERSST, HadCRUT and GISS, ce qui n'est pas surprenant quand on sait que, comme cela est rapporté dans [18], la meilleur estimation publiée montre que 90-95% des données brutes disponibles pour chacune de ces analyses sont les mêmes ( Phil Jones, communication personnelle, 2003)."

Pour le lecteurs attentifs et sans rentrer dans les détails techniques qu'ils pourront retrouver dans l'article original, voici la liste des différentes sources de mesures prises en compte dans ces article :

Radiosondes: HadAT, RATPAC, RAOBCORE, RICH
Satellites: UAH, RSS
Vents thermiques : AS08, C10
Surface : ERSST, HadCRUT, GISS.
C'est à dire la totalité des mesures disponibles.

Voici quelques figures importantes tirées de l'article, accompagnées de leur légende traduite en français :

christy2

 

"Figure 3. Amplitude des variations pour les mesures de TLT (8 valeurs, à gauche) et de Tsfc (3 valeurs à droite), utilisées dans cet article. Toutes les tendances débutent en 1979 et se terminent dans l'année indiquée."

J'ai colorié en rouge les données des tendances de température obtenues à partir du "vent thermique" C10 et AS08. Comme on le constate, ces évaluations sont très nettement supérieures à toutes les autres mesures.
A noter qu'en outre, les auteurs de l'article au "Remote Sensing" démontrent, en accord avec Allen et Sherwood, que l'incertitude de ces mesures de variations de température à partir du "vent thermique" est d'environ ±0,29°C, c'est à dire...plus de trois fois la variation de température de la troposphère rapportée dans cet article !

Autant dire que les mesures de "vent thermique", avec un rapport (sigma) signal/bruit très nettement inférieur à un, sont inutilisables dans cet objectif.

C'est très exactement ce qu'écrivent, en langage plus châtié, Christy et al dans leur article de 2010 :

"Given these comparisons and taking the weight of evidence in several other publications regarding system intercomparisons (e.g., in [6,9,21]), we conclude that these trends calculated from the TWE, as applied for AS08 and here (C10), using the current radiosonde coverage and observational limitations (consistency, accuracy, etc.) do not produce results reliable enough for studies such as ours. In particular, AS08 and C10, with TLT trends of +0.29 and +0.28 °C decade−1 are almost three times that of the mean of the directly measured systems, and are values that are, in our view, simply not consistent with the countervailing, directly-measured evidence."

Soit : "A partir de ces comparaisons et utilisant le poids de l'évidence de plusieurs autres publications qui concernent les inter-comparaisons entre les systèmes de mesures (e.g., dans[6,9,21]), nous en concluons que ces tendances, calculées à partir des TWE (Ndt : Equations du vent thermique), telles qu'elles sont utilisées pour les données AS08 et ici (C10), utilisant la couverture des radiosondes et les limitations observationnelles (cohérence, précision etc.) ne donnent pas des résultats suffisamment fiables pour des études telles que les nôtres.
En particulier, AS08 et C10 donnent des tendances de +0,29 et +0,28°C par décennie,
pratiquement égales à 3 fois celles de la moyenne des méthodes de mesures directes. Ces estimations sont, de notre point de vue, tout simplement incompatibles avec les éléments probants et opposés, apportés par les différentes autres mesures directes disponibles."

C'est pourtant l'article d'Allen et Sherwood utilisant ces "mesures de vent thermique" truffées d'incertitudes et de données manquantes, qui a été mis en avant par les supporters du GIEC pour affirmer que le hotspot existait bel et bien, comme prédit pas les modèles et que cela confirmait les modèles du GIEC...

Voici maintenant les résultats essentiels publiés par John Christy et ses 8 coauteurs dans l'article de 2010, obtenus à partir des données des différents instruments des mesures directes énoncés ci-dessus (vents thermiques exclus). Ce graphique compare les résultats des mesures avec les prédictions des modèles du GIEC.

christy1

"Figure 10. Relation entre Tsfc et TLT. Carrés remplis : Les résultats des 21 modèles de 1979 à 1999. Les résultats des observations des satellites sont représentés par des cercles. Ceux des ballons par des diamants (voir la table 2). Les boites représentent les domaines d'excursion des rapports SR calculés à partir des observations de cette étude [6,26]."

Note : J'ai colorié l'intérieur des boites (symbolisant les marges d'erreurs) pour une meilleure visualisation.
Boite jaune : Les résultats des modèles du GIEC
Boite verte : Les résultats des mesures effectives.

 

 

 

 

Remarques et conclusion :

Comme on le voit ici, les auteurs de cet article trouvent que le "hotspot", s'il existe, (ce serait plutôt un coldspot (!), en l'occurence) ne se réchauffe guère plus vite (et même plutôt moins vite) que la surface de la planète, ce qui est en contradiction flagrante avec ce qui est prévu par les modèles du GIEC.
Christy et al écrivent que " This suggests that on average, the model amplification of surface temperature trends is overdone, and that the observed atmosphere manages to adjust to heating processes without allowing (over decades) a temperature change in the troposphere at a higher rate than it changes near the surface.".

Soit "Ceci suggère qu'en moyenne, l'amplification prévue par les modèles de la température de surface est exagérée et que l'atmosphère, telle qu'elle est observée, s'organise pour s'adapter au processus de réchauffement sans permettre (sur des décennies) une variation de température plus rapide que les variations qui se produisent en surface."

Ainsi et si on fait le bilan des résultats présentés dans ce billet et de ceux que j'ai évoqués dans le billet intitulé "A la recherche de la chaleur perdue", on constate que :

-Une fraction très importante de la chaleur résultant de l'effet de serre (selon les modèles du GIEC), qu'auraient dû emmagasiner nos océans , ne s'y trouve pas.
-L'atmosphère qui aurait dû se réchauffer plus vite que la planète du fait de l'effet de serre, selon les modèles du GIEC, ne l'a pas fait.

Visiblement et dit plus crûment, les ordinateurs des partisans du GIEC se réchauffent nettement plus vite que l'atmosphère et les océans (entre autres).

En toute autre circonstance, ces constats destructeurs auraient dû forcer les chercheurs du WGI qui travaillent sur ces sujets qu'ils considèrent comme "une science achevée", à remettre sérieusement en question les modèles ainsi que la physique sous-jacente et à faire ce que faisait le savant cher à Boris Vian (dans la java des bombes atomiques) :

"Il y a quelque chose qui cloche là-dedans, j'y retourne immédiatement..."

C'est vraiment le moins que l'on puisse faire....

Ci-contre, un nouveau dessin (à facettes) de Yann Goap (Jean le moqueur, en breton) que lui a inspiré les événements que je vous ai racontés. Si vous aimez les dessins humoristiques, voyez aussi cette page.

Tout cela n'a évidemment pas fait la une des journaux ou des médias , ni même une "brève", puisqu'ils ne l'ont jamais évoqué. Comme d'habitude, le silence règne sur les questions qui dérangent.
Pourtant ce sont des sujets d'une importance cruciale puisqu'ils s'agit de tests directs, en situation réelle, des modèles avancés par le GIEC de l'ONU sur la base desquels ces derniers prévoient une série de catastrophes apocalyptiques pour les décennies à venir...
__________________________________________________________

Après les mesures de températures de l'atmosphère vues par les "vents thermiques" pour essayer de contrer les résultats de l'article de 2007, je me demande ce qu'ils vont bien pouvoir inventer pour contrer ceux de l'article de Christy et al (2010).
Ces derniers ont utilisé toutes les bases de données disponibles...

ça va être dur.
A suivre...
___________________________________________________________

Addendum 04 mars 2011 : Voici les résultats auxquels est parvenu le Climatologue Ole Humlum, qui a rédigé l'excellent et très complet site climate4you, à partir des bases de données officielles :climat4youequator

 

 

 

 

 

 

 

 

 

La légende : Diagramme indiquant les variations décennales observées à la surface, à 300 hPa, et à 200 hPa , entre 20N et 20S (Ndt : au dessus de l'équateur et des tropiques) depuis 1979. Sources de données : HadAT et HadCRUT3. Cliquez ici pour compare avec les températures en altitude modélisées pour un doublement du C02 atmosphérique. Le dernier mois inclus dans cette analyse est Décembre 2010. La mise à jour du dernier diagramme (NdT à droite) est le 6 février 2011. Notez que, faute de personnel, le Met Office Hadley Centre nous informe qu'aucune mise à jour des données HadAT sera faite après le début 2012 (NdT : Dommage !).

Suivi par le texte suivant : "Ainsi ces données météorologiques issues des radiosondes et des mesures de surface pour la région équatoriale ne montrent pas, pour l'instant,la signature d'une augmentation de l'effet de serre. Avec les 0,128°C/décennie observés, on se serait attendu à un réchauffement de 0,25-0,36°C/ décennie pour les niveaux 200hPa et 300hPa pour satisfaire les pronostics résultants de l'hypothèse CO2. (NdT : Les rectangles en pointillés roses, ci-dessus)"

Ce qui est cohérent avec les résultats des articles analysés ci-dessus et ci-dessous.

Dur, dur pour les modèles de l'effet de serre sur lesquels repose toute cette affaire...

 


7 Octobre 2011 : Encore à la recherche du hotspot (toujours absent !)

Ce billet est directement lié à celui qui le précède (Octobre 2010) lequel concernait, en particulier, les résultats des travaux remarquablement fouillés, sur le même sujet de John Christy, Roy Spencer et al. A noter que l'article de Christy et al, publié en Septembre 2010 était paru dans "Remote Sensing" qui est une revue essentiellement dédiée aux techniques et aux résultats des mesures à distance (satellites et ballons sondes).
Et de fait, cet article qui rapportait de multiples observations concordantes remettant gravement en question les fondements mêmes des modèles climatiques (GCM), n'a reçu que très peu d'écho de la part des climatologues mainstream, proches du GIEC. Et, bien entendu, il en a été de même pour la "presse scientifique" grand public, notamment francophone.

Par contre, l'article qui est le sujet de ce billet est, lui, paru dans les Geophysical Research Letters qui est une des top-revues de la climatologie, et de plus sous la signature du père fondateur de la modélisation climatique, comme nous allons le voir. On peut penser qu'à la différence de l'article de Christy et al, l'article qui est le sujet de ce billet sera beaucoup plus difficile à "oublier" dans le prochain rapport AR5 du GIEC.
Du moins, peut-on l'espérer...

Voici donc l'article en question, qui retrouve, avec une technique un peu différente, sensiblement les mêmes résultats qu'avaient publiés John Christy et ses coauteurs, l'année dernière.

"Au sujet du réchauffement de la haute troposphère tropicale : Les modèles comparés aux observations"
"On the warming in the tropical upper troposphere: Models versus observations"
Qiang Fu, Syukuro Manabe, and Celeste M. Johanson

GEOPHYSICAL RESEARCH LETTERS, VOL. 38, L15704, doi:10.1029/2011GL048101, 2011
publié le 4 Août 2011.

Affiliation des auteurs :
Q. Fu and C. M. Johanson, Department of Atmospheric Sciences, University of Washington, USA.
S. Manabe, Atmospheric and Oceanic Program, Princeton University,USA.

Comme on le constate, l'un des trois auteurs n'est autre que Syukuro Manabe qui est un scientifique très célèbre (et apprécié) dans le microcosme de la modélisation du climat. S. Manabe mérite un encart spécifique :manabe

Voici un extrait d'une brève (et correcte) description de la contribution de Syukuro Manabe à la climatologie, telle qu'on peut la trouver sur Wikipedia.

"C'est en 1967 que Syukuro Manabe et Richard Wetherald* démontrèrent que les concentrations croissantes de dioxyde de carbone auraient pour conséquence une augmentation de l'altitude à laquelle la terre émet sa chaleur vers l'espace. (NdT : Une idée souvent évoquée ici et qui est chère, entre autres, à R. Lindzen). En 1969, Manabe et Kirk Bryan ont publié les premières simulations du climat d'une planète incluant des modèles couplés océans-atmosphère, précisant le rôle du transport océanique de la chaleur dans la détermination du climat du globe. Tout au long des années 1970 et 1980, le groupe de recherche de Manabe publia des articles fondateurs (NdT : en anglais, "seminal papers") destinés à explorer la sensibilité du climat de la Terre vis à vis des variations des concentrations des gaz à effet de serre. Ces articles constituent une part prépondérante des premières évaluations globales du changement climatique publiées par le GIEC."

Après avoir longtemps travaillé pour la NOAA, Syukuro Manabe est actuellement et depuis plusieurs années, chercheur invité du programme AOS (Atmospheric et Oceanic Sciences) à l'Université de Princeton, NJ, USA. Il est membre de l'Université de Tokyo.
_______________________
[*]S. Manabe and R.Wetherald, "Equilibre thermique de l'atmosphère avec une distribution donnée de l'humidité relative", Journal of Atmospheric Sciences, 24, N°3, 241-259, 1967

Voici le résumé/conclusion de cet article. Ils nous disent tout.
La version originale d'abord, suivie d'une traduction en français.

"5. Summary and Conclusions

[20] One of the striking features in GCM‐predicted climate change due to the increase of greenhouse gases is the much enhanced warming in the tropical upper troposphere. Here we examine this feature by using satellite MSU/AMSUderived deep‐layer temperatures in the tropical upper‐ (T24) and lower‐ (T2LT) middle troposphere for 1979–2010. It is shown that T24‐T2LT trends from both RSS and UAH are significantly smaller than those from AR4 GCMs. This indicates possible common errors among GCMs although we cannot exclude the possibility that the discrepancy between models and observations is partly caused by biases in satellite data.
[21] IPCC AR4 GCMs overestimate the warming in the tropics for 1979–2010, which is partly responsible for the larger T24‐T2LT trends in GCMs. It is found that the discrepancy between model and observations is also caused by the trend ratio of T24 to T2LT, which is ∼1.2 from models but ∼1.1 from observations. While strong observational evidence indicates that tropical deep‐layer troposphere warms faster than surface, this study suggests that the AR4 GCMs may exaggerate the increase in static stability between tropical middle and upper troposphere in the last three decades. In view of the importance of the enhanced tropical upper tropospheric warming to the climate sensitivity and to the change of atmospheric circulations, it is critically important to understand the causes responsible for the discrepancy between the models and observations.
"

"5. Résumé et Conclusions

[20] Un des aspects remarquables du changement climatique dû à l'augmentation des gaz à effet de serre, prédit par les GCM (NdT : Global Climate (ou Circulation) Model, Modèles Globaux du Climat) est la grande augmentation du réchauffement dans la haute troposphère tropicale. Dans cet article, nous étudions cette caractéristique en utilisant la température de la couche épaisse de la haute troposphère tropicale (T24) et de la basse et moyenne troposphère tropicale (T2LT), en utilisant les données satellitaires MSU/AMSU, de 1979 à 2010. On montre que les tendances de T24-T2LT aussi bien pour les données RSS que UAH sont significativement plus petites que celles des modèles GCM du rapport AR4 (NdT : du GIEC). Ceci indique qu'il existe des erreurs communes aux différents modèles GCM, bien que nous ne pouvons exclure la possibilité que cette divergence entre les modèles et les observations soient, en partie, causées par des biais dans les données satellitaires.
(NdT : A noter que John Christy et ses coauteurs ont montré, notamment en 2010, que les données satellitaires sont conformes aux mesures (HadAT, RATPAC, RAOBCORE, RICH), effectuées par ballons sondes)
[21] Les modèles GCM du rapport AR4 du GIEC surestiment le réchauffement dans les tropiques de 1979 à 2010 qui est partiellement responsable des tendances plus marquées T24-T2LT dans les modèles GCM. On trouve que le désaccord entre les modèles et les observations est aussi dû à la tendance du rapport entre T24 et T2LT, lequel est ∼1.2 pour les modèles mais ∼1.1 pour les observations. Bien que de solides évidences observationnelles montrent que la couche épaisse de la troposphère tropicale se réchauffe plus vite que la surface (NdT : A noter que cette affirmation apparaît contradictoire avec les relevés satellites reportés dans la figure 3 ci-dessous, dans laquelle on observe que la température de la couche épaisse de la haute troposphère (T24-T2LT, n'a que très peu varié de 1979 à 2010), cette étude suggère qu'il est possible que les modèles GCM du rapport AR4 exagèrent l'augmentation de la stabilité statique entre la moyenne et la haute troposphère durant les trois dernières décennies. Au vu de l'importance de l'évaluation de l'augmentation du réchauffement de la haute troposphère tropicale vis à vis de la sensibilité climatique et de l'évolution des circulations atmosphériques, il est d'une importance cruciale de comprendre les causes possibles du désaccord entre les modèles et les observations."
_________________________________________________________________________________________________________

manab2

Voici maintenant quelques explications concernant la méthode utilisée par Fu, Manabe et Johanson pour parvenir à leurs résultats :

Comme l'écrivent les auteurs de cet article, les modèles GCM prévoient tous qu'un HOTSPOT (un point chaud, c'est à dire une zone qui devrait se réchauffer nettement plus vite que la surface de la planète) doit se trouver dans une zone tropicale située à une altitude où la pression est d'environ 200 hPa comme indiqué dans le billet précédent (et quelques autres).

Comme on le sait, par exemple en consultant le site officiel RSS-MSU/AMSU, les satellites (qui mesurent la température par voie optique) ne mesurent pas spécifiquement la température en un point donné de l'atmosphère, mais plutôt sur une certaine épaisseur de l'atmosphère avec un coefficient de réponse qui dépend de l'altitude et de la position (orientation) du satellite.
De manière classique on distingue trois principales séries de mesures, nommées TLT (Température de la basse troposphère), TMT (Température de la moyenne troposphère) et TLS (Température de la basse stratosphère).

De manière à cibler plus spécifiquement la zone intéressante où devrait se trouver le hospot, Fu, Manabe et Johanson, les auteurs de l'article auquel se rapporte ce billet, ont utilisé des combinaisons linéaires des différentes observations MSU/AMSU des satellites d'observation.

Ils ont, en particulier, tiré profit de travaux antérieurs de John Christy et ses collaborateurs qui ont proposé d'utiliser une mesure appelée T2LT qui permet d'atténuer la fraction gênante émise par la stratosphère -donc impropre à l'usage recherché- du canal 2 des mesures MSU/AMSU.
Sans rentrer dans les détails techniques explicités dans l'article, les auteurs ont choisi d'utiliser la combinaison des composantes T24-T2LT (T24 fait référence aux canaux 2 et 4) dont ils écrivent que " ils constituent des produits idéaux pour étudier le réchauffement beaucoup plus intense de la haute troposphère tropicale, tel qu'il est prédit par les modèles GCM."

Ci-contre, une reproduction de la Figure 1 de l'article, accompagnée de sa légende que voici :

Figure 1. Les fonctions de pondération de T24 et T2LT. La tropopause tropicale est placée à 100 hPa.

 

La figure maîtresse de l'article qui reflète les conclusions de l'article exposées ci-dessus est la Fig. 3. La voici accompagnée de sa légende.

manab1

 

 

 

 

 

 

 

 

 

 

"Figure 3. Différences entre les séries temporelles T24 et T2LT au dessus des tropiques ( de 20°N à 20°S) tirées des jeux de données résultant des observations du RSS (ligne fine rouge) et de l'UAH (ligne fine bleue) avec la moyenne des résultats de l'ensemble des modèles (ligne noire épaisse)"

Comme on le constate et comme le font remarquer les auteurs, les mesures RSS et UAH de 1979 à 2010 sont très proches l'une de l'autre.
On observe sur cette figure que les mesures n'indiquent qu'une très faible tendance à la hausse (proche de 0,05 °C pour trente années). Ces mesures divergent notablement de la moyenne des modèles climatiques pour lesquels la tendance est d'environ 0,15°C (ou K)/trente ans. De plus, le désaccord modèles/mesure augmente notablement avec le temps qui passe.
Ce désaccord sur la tendance est proche d'un facteur 3, ce qui est très significatif et qui justifie la phrase de la conclusion de l'article : "Ceci indique qu'il existe des erreurs communes aux différents modèles GCM" ce qui est également corroboré par un tableau qui montre que la totalité des modèles indique une augmentation de tendance plus forte que celle qui est mesurée.

A noter que Richard Lindzen (cf. sa récente communication) qui est, bien entendu, informé depuis longtemps de ce désaccord, mais qui semble réticent à supposer que les modèles puissent être erronés, a plusieurs fois avancé l'hypothèse que celui-ci ne pouvait probablement être expliqué que par une connaissance erronée des variations de la température terrestre, qui donc aurait beaucoup moins varié qu'on ne l'a dit.
Fred Singer
est du même avis que Lindzen. Il fait remarquer que tous les modèles climatiques figurant "dans les livres" (les fameux text-books) prévoient que la température de la haute troposphère tropicale doit augmenter nettement plus vite que la surface et qu'il est difficile de remettre cela en question.

Cependant, comme vient de le déclarer le tout récent récipiendaire du Prix Nobel de Chimie, Daniel Schetchman (découvreur de quasi-cristaux dont l'existence était auparavant réputée impossible) :
"Un bon scientifique est un scientifique humble et à l'écoute et non pas quelqu'un qui est sûr à 100 pour 100 de ce qui est écrit dans les livres".

Et de fait, comme on le constate à la lecture de l'article sujet de ce billet, Syukuro Manabe et ses collègues envisagent, eux, la possibilité que les modèles GCM soient erronés...

_______________________________________________________________________________
Remarques et Conclusion :

Comme on l'a constaté, Syukuro Manabe est, en quelque sorte, le grand "totem" des simulations numériques du changement climatique (dû à l'effet de serre des GES), revendiqué (et popularisé) par les climatologues proches du GIEC.
Le fait que S. Manabe soit l'auteur d'un article qui envisage, lui-même, la possibilité que les modèles GCM seraient erronés et qui met en lumière les divergences évidentes entre les (ses) modèles et les observations, pourtant déjà signalées à maintes reprises, mais jusqu'ici ignorées par la climatologie mainstream, en dit long sur l'obstination de l'Establishment climatique à refuser, à tout prix, toute remise en cause de ses convictions préétablies. Même au prix du démenti par l'observation objective.

Dans tout autre domaine de la science où les observations et les mesures priment sur toute modélisation théorique, cela aurait amplement suffi pour que les chercheurs remettent en question leurs théories. Ce n'est pas (encore ?) le cas en climatologie, semble-t-il.

Richard Feynman, le très célèbre physicien Nobélisé, n'avait-il pas dit que : "Le fait que votre théorie soit belle n'a aucune importance. Le fait que vous soyez intelligent n'a aucune importance. Si la théorie n'est pas d'accord avec l'expérience, c'est qu'elle est fausse. "

Comme le disent les auteurs de l'article, ce désaccord entre les modèles et les mesures est un problème crucial qui doit impérativement être résolu.
En réalité, tous les modèles utilisés par le GIEC et l'existence même du "changement climatique anthropique", que certains médias ou politiques se plaisent à nommer le "dérèglement climatique" ou encore "la catastrophe climatique", en dépendent directement.

C'est donc une affaire d'une grande importance... dont aucun grand média francophone ne vous a parlé.
Ainsi et entre autres, sur ce sujet :

Libération : Rien.
Le Monde : Rien
Le Figaro : Rien
L'AFP : Rien.

S'agissant d'un article récemment publié dans les Geophysical Research Letters par "le pape " des modèles climatiques, c'est curieux, n'est-ce-pas ?

Stay tuned ! A suivre, donc.

2 Sept. 2009 : Une observation astucieuse : Le reflet de la Terre sur la lune nous montre que l'albedo de la Terre (résultant de ses nuages) est corrélée aux températures terrestres. Encore des observations qui vont dans le même sens que celles des articles précédents et, notamment, de celui, ci-dessus, de Lindzen et Choi...

Nous avons souvent pu constater que les chercheurs ont plus d'un tour dans leur sac quand il s'agit d'obtenir des informations sur notre planète. S'agissant de l'albedo (le pouvoir réflecteur) de notre planète et ses nuages, plusieurs astrophysiciens ont eu une idée astucieuse qui consiste à utiliser ce que les anglophones appellent l"Earthshine", c'est à dire "le reflet de la Terre", plus poétiquement nommé "reflet cendré" par les francophones (merci au lecteur qui me l'a signalé). lune1

De quoi s'agit-il ?

Lorsque la lune est en début de phase croissante, comme chacun le sait, la zone fortement éclairée par le soleil est un croissant très brillant tel qu'on le voit sur la photo ci-contre. Ce que peu de gens savent c'est que si on regarde un peu plus attentivement le disque lunaire, on s'aperçoit que la partie manquante, non éclairée par le soleil, n'est pas totalement noire. Dans les situations favorables, ont peut même percevoir l'ensemble du disque lunaire comme on le voit sur cette photo.

Sachant que la lune est un corps froid qui n'émet pas de lumière visible, on peut se demander d'où provient cet éclairage...

earthshine

La réponse est simple. Cet éclairage de la partie sombre de la lune provient de la partie éclairée de notre planète, comme cela est expliqué dans le schéma ci-contre (source). La Terre éclaire la lune exactement comme le soleil nous éclaire. C'est ce que l'on appelle le "Earthshine" symbolisé par la flèche B sur ce dessin. L'observation sur Terre, indiquée par la flèche C, de la partie sombre du disque lunaire, donne donc une indication directe du pouvoir réflecteur de la Terre et de son atmosphère, c'est à dire de son albedo. Nous savons que les variations de l'albedo de la Terre en lumière visible (SW short wave, par opposition aux infrarouges LW, long wave) dépendent principalement de la couverture nuageuse de notre planète. Le dessus des nuages agit comme un miroir qui réfléchit la lumière incidente.

L'intérêt récent porté à l'étude du climat de la Terre qui dépend essentiellement de l'ensoleillement reçu par cette dernière et donc de sa couverture nuageuse, a poussé deux Instituts d'Astrophysique à lancer un projet commun. Ce projet est appelé "The Earthshine Project ". Il collecte les informations de deux plateformes dédiées à cette étude.:

 

BBSO

L'une, la plus ancienne, est américaine (photo ci-contre). Elle fait partie du vaste ensemble du BBSO (Big Bear Solar Observatory ) et est située à Newark (New Jersey, USA). Elle est placée sous la responsabilité du professeur Phil Goode. (source ).


L'autre, plus récente, est située dans les îles Canaries, près de Tenériffe. Elle est dirigée par le le Dr. Enric Pallé. Ces plateformes sont à présent équipées de détecteurs robotisés.
Ces deux stations permettent d'obtenir une couverture globale. Certains résultats proviennent aussi d'une station moins sophistiquée qui se trouve à l'Observatoire Astrophysique de Crimée. Les lecteurs intéressés par ces observations pourront obtenir des détails ici.
Des équipes françaises telles que celle de l'OHP (Observatoire de Haute Provence) se sont aussi lancée dans l 'analyse du "Earthshine" qui donne également des informations sur la végétation terrestre.(source) en détectant la lumière rouge ou proche Infrarouge. A noter aussi que cette technique a été envisagée pour la détection de la vie sur d'autres planètes.

Pallé et Goode ont publié plusieurs articles tirés de leurs observations. En particulier, tout récemment, en 2009 :

Pallé, E., P. R. Goode, and P. Montañés-Rodrıguez (2009), Interannual variations in Earth’s reflectance 1999–2007, (Variations internanuelles de la réflectance de la Terre de 1999 à 2007).
J. Geophys. Res., 114, D00D03, doi:10.1029/2008JD010734

qui fait suite et complète un article précédent des mêmes auteurs, paru dans la revue Science en 2004.

Pallé et al, Changes in Earth's Reflectance over the Past Two Decades, (Variations de la réflectance de la Terre dans les deux dernières décennies), Science 28 May 2004: 1299-1301
DOI: 10.1126/science.1094070

Ce dernier article qui combinait les résultats des mesures récentes obtenus par le "Earthshine" avec les mesures satellitaires (plus anciennes), montrait que la réflectance (alias l'albedo, alias le pouvoir réflecteur) de la Terre avait subi une décroissance nette depuis 1984 jusque vers 1997-1998 puis que celle-ci était repartie à la hausse jusqu'en 2004, comme on le voit sur ce graphique tiré de l'article de 2004.

pallefig1

Comme les variations de la réflectance de la Terre, vue de la lune, résultent essentiellement de sa couverture nuageuse, cela signifie que la couverture nuageuse de notre globe a décru de 1984 à 1997-1998 puis s'est remise à croître jusqu'en 2004.

En noir, les résultats des mesures satellitaires du ISCCP ( International Satellite Cloud Climatology Project).
En bleu, les résultats obtenus par Pallé et Good à partir des mesures du Earthshine. Ces dernières mesures, plus récentes, se révèlent plus "directes" que celles obtenues par les divers systèmes satellitaires du ISCCP dont les étalonnages sont délicats. A noter qu'une révision récente des mesures du ISCCP met en évidence une augmentation nette de la réflectance terrestre suite à l'explosion du Pinatubo en 1991, comme on pouvait s'y attendre. Cependant la tendance décroissante globale jusqu'en 1997-1998 reste identique à celle de l'article de 2004.

 

L'article de 2009 de Pallé et al, étend le domaine d'étude jusqu'en fin 2007. Voici la courbe maîtresse de cet article paru dans le JGR.palle2009

 

Cette figure couvre la période allant du second semestre de 1999 au second semestre de l'année 2007.

De nouveau, en bleu, les résultats des mesures de l'Earthshine. En noir les résultats du ISCCP FD (Flux Data). En rouge, les résultats obtenus par le CERES (Clouds and the Earth’s Radiant Energy System, d'un satellite à basse altitude).

Comme on le voit, les résultats de ces trois mesures récentes, bien qu'entachées de larges barres d'erreur inévitables, convergent pour nous montrer que l'albedo de notre planète a bien augmenté, depuis 2000 jusqu'à la fin de l'été 2007. Nous attendons avec intérêt les prochaines publications de Goode et Pallé.

Comme je vous l'ai dit, les variations de l'albedo de la planète, vue de la lune, résultent des variations de l'ennuagement de notre atmosphère. A ce sujet, voici un bref extrait du résumé de l'article de Pallé et al de 2009 :

"Using satellite cloud data and Earth reflectance models, we also show that the decadal-scale changes in Earth’s reflectance measured by earthshine are reliable and are caused by changes in the properties of clouds rather than any spurious signal, such as changes in the Sun-Earth-Moon geometry."

Soit : " En utilisant les données sur les nuages issues des satellites ainsi que les modèles de reflectance de la Terre, nous montrons aussi que les variations à l'échelle des décennies, mesurées par Earthshine, résultent des variations des propriétés des nuages plutôt que de tout autre signal parasite, tels que les changements dans la géométrie du système Soleil-Lune-Terre."

Tous les lecteurs (trices) qui fréquentent ce site sont familiers avec la page des indicateurs dans laquelle sont rassemblées, entre autres, les données officielles sur les mesures de température du globe terrestre, mois après mois. Ils savent certainement que la température mesurée par les quatre organismes officiels a augmenté de 1984 (et avant) jusqu'en 1998, puis a décru ou est restée stable jusqu'à nos jours. Voici, par exemple, le graphique de l'évolution des températures de 1984 à la mi-2009, réalisé à partir des données du HadCrut (du Hadley Center UK, affilié au GIEC).hadcrut1

 

Les données brutes officielles sont représentées par la courbe en rouge. Une tendance moyenne est représentée en gros traits bleus. Comme on peut le voir, les variations de température ont suivi assez fidèlement les variations de l'ennuagement trouvées par Pallé et Goode.

De 1984 à 1997-98, l'ennuagement a diminué et la température du globe a augmenté.

De 2000 à la mi-2007, l'ennuagement a augmenté et la température du globe a stagné ou diminué.

Tout cela est cohérent avec l'hypothèse de Svensmark et Shaviv sur le rôle fondamental joué par les nuages , ainsi qu'avec les observations rapportées dans les articles décrits dans la deuxième partie de cette page.

De même, les résultats de Lindzen et al qui ont montré (mission ERBE) que l'émission de la Terre et de son atmosphère se situent majoritairement dans le visible (réflexion par les nuages) sont cohérents avec cette observation du Earthshine et des satellites du ISCCP.

En bref, et au vu de ces observations, les variations de l'ennuagement de la Terre correspondant à ces variations d'irradiation de l'ordre de 5 à 10 watts/m2 , seraient responsables des variations de température que nous avons connues récemment et que nous connaissons actuellement.

Il n'est nul besoin d'invoquer l'effet de serre du CO2 pour expliquer tout cela !

Note complémentaire : Selon leur altitude et leurs caractéristiques, les nuages peuvent provoquer un réchauffement (e.g. les cirrus) ou un refroidissement (les cumulo-nimbus etc...) de la planète. Pour les détails, voir ici. Pris dans sa globalité, la couverture nuageuse augmente l'albedo et provoque un refroidissement.

 

18 Novembre 2009 : Encore une nouvelle rassurante et étonnante ! L'atmosphère terrestre contient toujours la même proportion du CO2 que nous émettons. Et ceci est vrai de 1850 jusqu'à nos jours.
Autrement dit, les puits de carbone terrestres sont toujours aussi efficaces et ne sont nullement saturés ou en voie de saturation.

Et pourtant que n'avons nous entendu comme déclarations ultra-alarmistes répercutées au centuple par les médias de la planète sur ce sujet ?
En substance, le message était le suivant : "La terre et les océans sont saturés de CO2. Ils ne sont plus capables d'absorber le CO2 que nous émettons. et donc le taux de CO2 atmosphérique va diverger. Il faut tout arrêter! C'est la catastrophe ! Nous allons rôtir comme dans une poêle à frire (Rocard, Al Gore, Hansen etc ) ! etc..."

Voici un exemple typique de ce genre d'affirmation qui mériterait un bonnet dâne.
Cette citation est tirée de Science et Vie (N° 1071 de décembre 2006, page 69, encadré) :

Actuellement les émissions des gaz à effet de serre d'origine humaine augmentent chaque année de 2% (pas seulement du CO2)...Or nous émettons d'ores et déjà DEUX FOIS PLUS que l'océan et la biomasse de la planète ne (sic) parviennent à absorber."

 

On se demande comment ils en sont arrivés à ce genre de certitude. Avec les modèles, sans doute...


Comme très souvent, nous allons voir que la réalité est bien plus rassurante et que ces déclarations comme les articles qui vont avec, ne sont rien d'autres que des affirmations ultra-alarmistes infondées, motivées par des convictions peu scientifiques...
Ce qui est, hélas, très fréquent par les temps qui courent.

Alors que nous disent les derniers résultats de la recherche sur ce sujet ?
Voici une analyse d'un article, particulièrement soigné, qui vient de paraître il y a quelques jours :
________________________________________________________________________________________

Is the airborne fraction of anthropogenic CO2 emissions increasing?
La proportion dans l'atmosphère du CO2 d'origine anthropique est-elle en augmentation ?
knorr

Geophys. Res. Lett., 36, L21710, doi:10.1029/2009GL040613. Publié le 7 Nov. 2009.

Wolfgang Knorr (photo ci-contre)

Département des Sciences de la Terre, Université de Bristol, Bristol, UK

La réponse au titre de l'article est NON !
Comme à l'accoutumé, je ne peux mieux faire que de vous traduire le résumé de l'article de
W. Knorr .
Le voici :

Résumé :

Plusieurs études récentes ont attiré l'attention sur la possibilité que les écosystèmes terrestres et océaniques aient commencé à perdre une partie de leur capacité à retenir une grande proportion des émissions anthropiques de CO2. Il s'agit d'une affirmation importante parce que jusqu'à présent seulement 40% de ces émissions étaient restées dans l'atmosphère, ce qui avait enrayé un accroissement du changement climatique. La présente étude réexamine les données disponibles en matière de CO2 atmosphérique ainsi que les données sur les émissions en tenant compte de leurs incertitudes. On montre que, dans la limite de ces incertitudes, l'évolution de la fraction (NDT : du CO2 anthropique) résidant dans l'atmosphère, depuis 1850, est de 0,7 ± 1,4 % par décennie, c'est à dire proche de, et non significativement, différente de zéro. De plus, l'analyse montre que le modèle statistique de la fraction ( (NDT: du CO2) atmosphérique s'accorde mieux avec les données si les émissions résultant de la modification de l'usage des sols sont abaissées à 82% ou moins, par rapport aux estimations initiales. En dépit des prédictions des modèles couplés climat/cycle du carbone, aucune évolution de la fraction (NDT: du CO2) atmosphérique ne peut être observée.

Voici la version originale :

Several recent studies have highlighted the possibility that the oceans and terrestrial ecosystems have started loosing part of their ability to sequester a large proportion of the anthropogenic CO2 emissions. This is an important claim, because so far only about 40% of those emissions have stayed in the atmosphere, which has prevented additional climate change. This study re-examines the available atmospheric CO2 and emissions data including their uncertainties. It is shown that with those uncertainties, the trend in the airborne fraction since 1850 has been 0.7 ± 1.4% per decade, i.e. close to and not significantly different from zero. The analysis further shows that the statistical model of a constant airborne fraction agrees best with the available data if emissions from land use change are scaled down to 82% or less of their original estimates. Despite the predictions of coupled climate-carbon cycle models, no trend in the airborne fraction can be found.

En clair, cette étude qui a pris soigneusement en compte les incertitudes qui affectent les différents paramètres mesurables, nous dit que la proportion du CO2 relâché par les activités humaines et qui se retrouve dans l'atmosphère n'a pas varié depuis 1850 jusqu'à nos jours.

C'est à dire que la Nature s'arrange toujours (sans que nous sachions comment elle procède) pour envoyer et garder dans l'atmosphère toujours la même fraction (43%) du CO2 que nous émettons par nos diverses activités, et ceci qu'elle que soit la quantité que nous envoyons ! Autrement dit, et encore, les biotas, la végétation et les océans adaptent leurs capacités d'absorptions du CO2 quelle que soit la quantité émise, pour conserver un rapport constant entre la quantité de CO2 absorbé et la quantité de CO2 qui va dans l'atmosphère.
Il va de soi que cette observation exclut absolument l'existence d'une quelconque saturation des puits de carbone sur notre planète. Et comme il n'y aucun signe de défaillance à cette règle, une prochaine saturation des puits de carbone est hautement improbable. Voilà qui rejette aux oubliettes les affirmations alarmistes du GIEC et de ses affidés qui prévoient une saturation des puits de carbone dans leurs modèles apocalyptiques.

Un exemple précis pour vous faire sentir à quel point cette découverte est étonnante :

-Pendant l'année 1850, nous émettions 2 Gt de CO2. La proportion de ce CO2 montant dans l'atmosphère était de 43% .
-Pendant l'année 2009, nous émettons 35 Gt de CO2..Soit 17,5 fois plus. La proportion de ce CO2 montant dans l'atmosphère est toujours de 43% ! Avouez que c'est stupéfiant. On dirait que la Nature adapte ses capacités d'absorption sur terre pour garder cette proportion de 43% constante, quoiqu'il arrive !

L'article de W. Knorr explique les méthodes sophistiquées et rigoureuses qu'il a utilisées pour parvenir à ce résultat. On peut comprendre sa démarche en examinant la figure suivante, extraite de son article.

airborneSur la courbe du bas, la partie en trait continu fin donne l'augmentation du CO2 ( en GtC/ par an) en faisant la moyenne des mesures à Hawaï (Mauna Loa), au Pôle Sud et avec deux carottages glaciaires. La courbe en pointillés fins donne les résultats de la station de Siple. Celle en tiretés fins vient du Law Dome en Antarctique.

La courbe du haut, en trait épais continu, représente la totalité des émissions anthropiques (mesurée en GtC/an) depuis 1850. GtC signifie milliards de tonnes de carbone contenu dans le CO2 émis. A noter que cette courbe est très proche de celle utilisée par Klyashtorin et Lyubushin en 2003 pour leur article sur l'analyse statistique de la température.

La courbe du bas en tiretés épais noir représente 46% des émissions totales de CO2. C'est donc l'homologue de la courbe en trait épais noir dont les ordonnées ont été multipliées par 0,46. Une analyse plus précise des données donne un facteur multiplicatif de 43%. Des analyses utilisant différentes hypothèses donneraient un facteur autour de 0,4 et 0,5.

Comme on le voit immédiatement, la courbe en tiretés épais passe bien au milieu des fluctuations des trois sections représentant les taux de CO2 atmosphériques mesurés dans les différents sites.
La conclusion est évidente : La proportion de CO2 relâché sur terre et qui s'échappe dans l'atmosphère est de 43%. Elle n'a pas varié depuis 1850 !

Le communiqué de Presse de l'Université de Bristol est encore plus explicite (même s'il faut toujours se méfier des communiqués de presse (voir ce petit dessin révélateur ), mais celui-ci est fidèle au contenu de l'article de Knorr). Voici un extrait de ce communiqué :

"Titre : Les données récentes montrent que l'équilibre entre la fraction atmosphérique et la fraction absorbée du dioxyde de carbone, est restée approximativement stable depuis 1850. Et ceci malgré une élévation des émissions de CO2 de près de 2 milliards de tonnes en 1850 par an, jusqu'à 35 milliard de tonnes par an actuellement.

Ceci suggère que les écosystèmes terrestres et les océans possèdent une plus grande capacité d'absorption qu'on ne le pensait auparavant.

Ce résultat est opposé à celui d'un nombre significatif de travaux de recherches récents qui prévoient que la capacité des écosystèmes et des océans d'absorber le CO2 devrait commencer à diminuer à mesure que les émission de CO2 s'accroissent, permettant ainsi aux concentrations de gaz à effets de serre de diverger. Le Dr Wolfgang Knorr de l'Université de Bristol a trouvé, qu'en fait, l'évolution de la fraction (NDT: du CO2) atmosphérique, depuis 1850, a seulement été de 0,7 ± 1.4% par décennie, c'est à dire, en pratique, nulle.

Le mérite de cette nouvelle étude, publiée au Geophysical Research Letters (online) réside dans le fait qu'elle s'appuie exclusivement sur des résultats de mesures et des évaluations statistiques, y compris d'enregistrements historiques extraits de la glace Antarctique, et ne repose aucunement sur des calculs issus de modèles climatiques complexes.[...]

Un autre résultat important qui ressort de cette étude montre que les émissions résultant de la déforestation ont été surestimées d'un facteur compris entre 18 et75%. Ceci serait en accord avec des résultats publiés la semaine dernière dans Nature Géosciences par une équipe dirigée par Guido van der Werf de l'Université VU d'Amsterdam. Ces chercheurs ont revu les données sur la déforestation et conclu que les émissions ont été surestimées d'au moins, un facteur 2."
_____________________________________________________________________________

En conclusion, voici, une fois encore, une étude utilisant des mesures directes qui réfute totalement les estimations de plusieurs modèles informatiques du GIEC et les multiples affirmations alarmistes au sujet de la pseudo-saturation des puits de carbone. Tout comme celles que j'ai rapportées ci-dessus. Cette divergence répétée entre les modèles et les observations devrait faire réfléchir..

Quant au fond même de cette découverte, je ne vous cache pas que, comme Wolfgang Knorr, je le trouve étonnant. En effet, comment se fait-il que la Nature adapte sa capacité d'absorption à la quantité de CO2 que nous émettons de manière à conserver un rapport constant entre la quantité de CO2 émis et celui qui entre dans la composition de l'atmosphère ?
A mon humble avis, mais ceci n'est nullement prouvé, on pourrait penser qu'il existe une rétroaction effective qui augmente la capacité d'absorption de la planète quand le taux d'émission augmente.
Comment cela ? Nous n'en savons rien mais nous pouvons imaginer, par exemple, que plus de CO2 émis favorise la croissance de la végétation et celles des biotas marins qui, à leur tour, constituent des puits de carbone de plus en plus efficaces. Peut-être existe-t-il aussi une explication relevant de la physique de l'atmosphère que nous n'avons pas encore réalisée. Tout est possible.
Par contre, il est parfaitement clair qu'au contraire de ce que pensent les modélisateurs du GIEC, nous sommes loin d'avoir compris comment fonctionnent les échanges (écosystèmes + océans) avec l'atmosphère.Très loin de là . C'est un démenti flagrant pour ceux qui affirment que "la Science est comprise".
Cet article ouvre des pistes de recherche intéressantes.

Note :
Pour éviter les confusions, je rappelle que de 1GtC = (44/12)x GtCO2.= 3,67 GtCO2

 

10 Janvier 2010 : Un article récent vient (enfin) de répondre à une question souvent posée :

Est-il possible d'expliquer les variations de la température moyenne du globe, depuis des époques anciennes et notamment lors des minima de Maunder et de Dalton, jusqu'à nos jours, et ceci avec un seul modèle basé sur le soleil ?

"Analyse empirique de la contribution du soleil aux variations de température moyenne de l'air à la surface du scafetta0globe."

Tel est le titre d'un article récent de Nicola Scafetta, (photo ci-contre) chercheur au Département de Physique de l'Université de Duke (Durham, NC 27708, USA) qui vient de paraître dans le JASTP (Journal of Atmospheric and Solar-Terrestrial Physics) (71, (décembre 2009) 1916-1923). Nicola Scafetta a déjà été mentionné plusieurs fois dans ce site (voir par exemple ici)
Je rappelle qu'une analyse empirique est fondamentalement basée sur des résultats d'observations expérimentales.
Dans le cas présent, l'analyse empirique proposée par Nicola Scafetta consiste simplement à comparer les résultats de la mesure de la température globale aux variations observées de l'irradiance solaire totale, sans préjuger des mécanismes mis en jeu . Du point de vue conceptuel, une analyse empirique est à l'opposé des modélisations numériques. L'empirisme considère que la connaissance se fonde sur l'accumulation d'observations et de faits mesurables dont on peut extraire des lois générales par un raisonnement inductif. A l'inverse, les modélisations, telles que celles du GIEC, sont déductives. Ces dernières présupposent la compréhension complète des mécanismes sous-jacents. Ce que, s'agissant du climat, beaucoup considèrent comme excessivement optimiste ...
Cette analyse empirique porte sur 400 ans : de 1600 à 2000 environ. C'est à dire qu'elle inclut le minimum de Maunder (quasi absence d'éruptions solaires pendant 70 ans, de 1645 à 1715 ainsi que le minimum de Dalton (affaiblissement marqué des cycles solaires) qui se produisit autour de 1820. Ces deux séquences ont été, toutes deux, marquées par des périodes de refroidissement abondamment documentées dans la littérature historique..

Voici le résumé de l'article de Scafetta, traduit en français :

"La contribution du soleil à la température de l'air au voisinage de la surface du globe est analysée en utilisant un modèle empirique à deux échelles, caractérisé par deux temps de réponses, lent et rapide, au forçage solaire : Tau1 = 0,4 ± 0,1 années et Tau2 = 8 ± 2 années à Tau2 = 12 ± 3 années. Depuis 1980, la contribution solaire au changement climatique est incertaine du fait de graves incertitudes dans les mesures composites satellitaires de l'irradiance solaire totale (NDT : TSI). Le soleil peut avoir provoqué un léger refroidissement si les composites PMOD TSI sont utilisés, ou un réchauffement significatif (jusqu'à 65% du réchauffement observé) si les données ACRIM ou celles d'autres composites TSI sont utilisées. Ce modèle est uniquement calibré sur la signature du cycle solaire de 11 ans par rapport à la température du globe mesurée depuis 1980. Ce modèle reconstruit les variations marquantes de la température pendant la durée des 400 années des changements de température induits par le soleil, ainsi qu'on les retrouve dans les récents enregistrements paléoclimatiques de température."

Note : Le résumé original utilise naturellement, les lettres grecques tau que j'ai retranscrites pour éviter les problèmes de lecture rencontrés sur divers navigateurs.

Nicola Scafetta s'est d'abord préoccupé de résoudre la question délicate qui concerne les bases de données de l'irradiance solaire. Comme le savent ceux qui ont suivi la polémique Lockwood-Fröhlich versus Svensmark que j'ai évoquée ci-dessus et qui a eu lieu en Juin-Octobre 2007, l'utilisation des bases de données PMOD (d'ailleurs gérées et "corrigées" par Lockwood et Fröhlich, eux-mêmes) indiquait une diminution de l'irradiance solaire depuis 1980 jusqu'à 2000, incompatible avec la hausse des températures globales observées pendant la même époque. Par ailleurs, d'autres bases de données de l'irradiance solaire (telles que ACRIM et quelques autres moins complètes), indiquaient, au contraire, une hausse marquée de l'irradiance de 1980 à 2000 compatible avec les mesures de température.

Dans cet article, Scafetta reprend brièvement l'analyse des différentes bases de données de l'irradiance solaire (PMOD TSI, ACRIM et autres) qu'il avait présentée devant l'Environnmental Protection Agency (l'EPA qui allait déclarer que le CO2 était un gaz "polluant") US en février 2009. Vous trouverez ici l'enregistrement vidéo de cette présentation dont les diapositives, nettement plus lisibles, sont disponibles ici. Sa démonstration est sans appel : le traitement appliqué par Lockwood et Fröhlich aux données PMOD est inapproprié. Ce traitement est d'ailleurs désavoué par les responsables de la mission PMOD, dont on peut voir les attestations écrites, dans la présentation de Scafetta. Par contre, Scafetta démontre que les données ACRIM sont compatibles avec les autres données obtenues par divers autres composites mesurant la TSI. Je rappelle que la démarche du GIEC qui écarte d'emblée, l'effet de l'influence solaire sur le climat depuis 1950, parce que jugée insignifiante, est basée sur les données PMOD TSI, remises en cause par Scafetta.
Cependant, et sans doute pour éviter de retomber dans les arcanes de la polémique ACRIM-PMOD, Scafetta a décidé d'utiliser, pour ce travail, et pour la période post- 1980, les données issues directement de l'observation des cycles solaires. On sait depuis longtemps que les faibles fluctuations de l'irradiance solaire (de l'ordre de 0,1%) résultent directement des éruptions solaires. Contrairement à une opinion assez répandue, les maxima d'irradiance solaires sont obtenus lors des maxima éruptifs du soleil et non l'inverse; bien que les éruptions apparaissent souvent comme des taches noires sur l'astre solaire.sn1600

 


Voici, ci-contre, un graphe classique montrant la succession des cycles solaires, dont la périodicité est d'environ onze ans, depuis 1620 jusqu'en 2008.Je rappelle que les observations directes des taches solaires ont commencé dès le début du XVIIème siècle. La période correspondant au minimum de Maunder a fait l'objet d'une observation attentive de la part de ses contemporains.

 

 

scafetta5

 

 

Ci-contre, trois enregistrements de la TSI (Irradiance Solaire Totale) selon des sources différentes, complétés par les reconstructions de TSI compilées par l'équipe de Solanki en 2007 (Krivova et al, Astron. Astrophys. 467, 335-346). Les composites B et C ont été abaissés de 5 et 10 w/m2 pour être visibles.

 

 

 



scafetta4

Comme cela a été expliqué dans des articles précédents, (Scafetta (2008), Schwartz (2008)), le climat apparaît géré par deux constantes de temps (nommées Tau1 et Tau2 dans le résumé), l'une de courte durée : Tau1 = 0,4 ± 0,1 années (près de 5 mois) et l'autre décennale, allant de Tau2 = 8 ± 2 années à Tau2 = 12 ± 3 années.

La courbe ci-contre indique la contribution à la température du forçage solaire des deux effets du soleil. L'un de courte constante de temps ESS1 (Pour Tau1) et l'autre, ESS2, de longue constante de temps Tau2 . Comme on peut l'observer sur ce graphe tiré de l'article de Scafetta (à part les rappels des minima de Maunder et de Dalton que j'ai ajoutés sur ce dessin), la contribution de ESS1 est beaucoup plus faible que la contribution "décennale" ESS2.
Les contributions ESS1 et ESS2 sont tracées en gris, tandis que la somme des deux contributions est tracée en trait noir.


scafetta3

Il s'agit maintenant de comparer la courbe en noir du graphe précédent aux mesures effectives de températures. Ceci est effectué sur le graphe ci-contre.

En ordonnée, les anomalies de températures :

Mesures récentes (en traits gris épais) qui prolongent les reconstructions paléoclimatiques de Moberg et al (2005, Nature, 433, 613-617), en traits fins gris.
Les deux courbes ESS (curve #1 et #2) correspondent à des données et à des constantes de temps différentes.
Il apparaît sur ce graphe que la courbe d'irradiance solaire affectée de la constante de temps de 12 ans (courbe en trait noir épais) est très proche des observations et meilleure que celle dont la constante de temps est de 8 ans (courbe en trait noir fin).

La conclusion de Nicola Scafetta nous dit tout :

"A propos des résultats représentés dans la Fig. 6 (NDT : La dernière figure, ci-dessus à droite), La courbe ESS a été calculée en calibrant le modèle bi-échelle proposé en utilisant les informations déduites 1) des relevés instrumentaux des températures et des enregistrements du soleil depuis 1980 sur la signature du cycle solaire de 11 ans sur le climat 2) des résultats obtenus par Scafetta (2008) et Schwartz ( 2008) sur les temps de réponses courts et longs déduits de modèles (NDT : empiriques) autorégressifs.
Les données de température résultant des reconstructions paléoclimatiques n'ont pas été utilisées pour la calibration comme cela avait été le cas dans l'article de Scafetta et West (2007). Ainsi, les résultats indiqués dans la Fig. 6 au sujet de l'ère préindustrielle ont aussi un sens prédictif. Ceci implique que le climat, avant l'ère préindustrielle, présentait une grande variabilité, ce qui est incompatible avec un graphique de température du type "crosse de hockey"."

Il faut reconnaître que la superposition des courbes de l'irradiance solaire avec celle des variations de température, sur 4 siècles, proposée par Scafetta est impressionnante.
S'agissant d'une analyse empirique, aucune analyse des processus sous-jacents n'est avancée et l'argument du GIEC au sujet de la faiblesse des variations relatives de la TSI ne peut-être ignoré. Comme vous le savez si vous avez lu cette page, c'est pour résoudre ce problème que plusieurs groupes de chercheurs (comme Svensmark et al ) ont cherché et proposé des mécanismes amplificateurs au rôle du soleil dont on voit un nombre croissant de signatures dans les variations du climat de notre planète et ceci dans les configurations et les situations les plus variées.
Je vous rappelle que l'existence d'un indispensable mécanisme amplificateur a été mis en évidence, entre autres, par Nir Shaviv, à partir d'une analyse calorimétrique. Lequel soutient le modèle de Svensmark.

Ces résultats de Nicola Scafetta, comme de beaucoup d'autres, devraient interpeller les affidés du GIEC. N'y comptez pas !

Ne comptez pas non plus trouver une analyse de cet article remarquable dans un ou plusieurs de nos grands journaux sous la plume des journalistes dits scientifiques. Non plus que de le voir évoquer dans les médias ni dans certains sites pseudo-scientifiques ou d'autres revues du même genre.
Il est vrai que cet article ne fait jamais mention du CO2 et qu'il a ainsi échappé au filtrage des dépêches AFP ( l'agence qui a découvert les rayons cosmétiques) Pourtant il s'agit d'un article écrit par un physicien reconnu de l'excellente Université de Duke et publié dans une revue prestigieuse à comité de lecture (le JASTP) revue par les pairs...

Alors, encore une fois : Pourquoi ? Pourquoi ce grand silence sur tous les articles scientifiques publiés dans la bonne littérature scientifique qui analysent le climat mais ne parlent pas du CO2 ?
C'est très précisément cela, la Pensée Unique...

 

2 Mai 2010 : Climat et activité solaire : Le soleil nous refroidit !
"Les hivers froids en Europe sont-ils associés à une faible activité solaire ? "

Tel est le titre d'un article récent qui vient de paraître, sous la signature d'auteurs plutôt inattendus, dans Environnemental Research Letters qui est une publication de l'IOP (L'institute of Physics UK) revue par les pairs. Cet article accessible à tous (ce sont les institutions des auteurs qui payent pour publier; à l'inverse de ce qui se pratique habituellement), porte la référence suivante : Environ. Res. Lett. 5, (2010) 024001.

Je ne vous fais pas attendre : La réponse, est "Oui, les hivers froids sont associés à une faible activité solaire", selon les auteurs de cette publication. En soi, la réponse à cette question n'a rien n'inattendu pour ceux qui ont déjà ouvert des livres d'histoire et qui savent que le minimum d'activité solaire de Maunder ou encore, celui de Dalton, ont été caractérisés par des périodes de grande froidure, au moins dans les pays où l'on trouve des archives détaillées, c'est à dire, essentiellement, en Europe. scafetta33

Pour illustrer cette affirmation, je reproduis le graphe du billet précédent qui donne la superposition des courbes de températures (reconstruction de Moberg prolongée par les mesures de températures récentes) et du forçage solaire, donné par N. Scafetta (voir article précédent). On y distingue très bien les minima de températures observées de 1650 à 1730 (minimum de Maunder, quasi disparition des taches solaires) et dans les années 1800-1830 (Minimum de Dalton : activité solaire très réduite).

Les auteurs de l'article que nous évoquons ici sont :

M Lockwood, R G Harrison, T Woollings and S K Solanki.

Mike Lockwood, Regis G Harrison et T Woollings font partie du Space Environment Physics Group, Department of Meteorology, Université de Reading (Royaume Uni)
Samir Solanki est un chercheur allemand spécialiste du soleil au sein de l'Institut Max Planck en Allemagne.

A l'exception de T Woolings (de Reading) , les lecteurs attentifs reconnaîtront trois chercheurs que nous avons déjà mentionnés dans les pages de ce site. Il s'agit de Mike Lockwood, de Regis Harrison et de Samir Solanki.

Compte tenu du fait que l'article récent que je commente ici, s'inscrit en fait dans la longue bataille qui opposent les solaristes ("c'est le soleil qui est en grande partie responsable des variations de températures") aux scientifiques mainstream du GIEC ("ce sont les gaz à effets de serre"), je crois qu'il est utile de faire quelques rappels préliminaires pour percevoir les ressorts cachés derrière cet article qui sous une apparence anodine est, en réalité, très révélateur de certaines démarches....
________________________________________________________________________________________________________________________

1) Mike Lockwood (Université de Reading) s'est récemment illustré (au moins pour nous) en cosignant, en 2007, un article avec Claus Fröhlich (un chercheur suisse) mentionné dans la revue Nature sous le titre " No solar hiding place for greenhouse sceptics" : " Le soleil ne fournit plus de refuge pour les sceptiques de l'effet de serre" (par Quirin Schiermeier) et qui "démontrait" que pour les 25 dernières années, le lien activité solaire-température était brisé (alors qu'il fonctionnait jusque là) parce que, selon eux, l'irradiance solaire aurait diminué tandis que les températures augmentaient. Interviewé, Mike Lockwood n'hésitait pas à affirmer haut et fort que son étude était "another nail in the coffin of the notion that solar activity is responsible for global warming". Soit "un autre clou dans le cercueil de la notion que l'activité solaire est responsable du réchauffement climatique". Ou encore "voilà qui devrait clore le débat" (voir cet article de BBC News)
J'ai commenté cet article de Lockwood et Fröhlich pour lesquels l'activité solaire n'a rien à voir avec le "réchauffement climatiquelockwood", en son temps.

Ce que nous ne savions pas à l'époque c'est que les mesures de l'irradiance solaire TSI (total solar irradiance) utilisées par Lockwood et Fröhlich et qui montraient une décroissance de la TSI depuis les années 1980 environ, résultaient, en fait, d'une adaptation personnelle (essentiellement effectuée par Fröhlich), nommée "PMOD TSI Composite", des données satellitaires fournies par l'équipe chargée des mesures satellitaires ACRIM et VIRGO. C'est cette base de données modifiées, PMOD, qui a servi à Lockwood et Fröhlich pour "démontrer" la brisure du lien température/Soleil.

Il faut reconnaître qu'il n'est pas aisé de "recoller" des données issues de campagnes de mesures différentes, utilisant des satellites et des capteurs différents et que tout cela peut prêter à controverse. D'autant plus que les variations relatives de TSI en cause sont très faibles.. Les résultats de ces combinaisons s'appellent des composites. Par exemple le PMOD TSI Composite de Fröhlich indique une décroissance des minima d'activité solaire des cycles 21 à 23, de -007% par décennie tandis que le ACRIM TSI Composite indique une croissance, pour la même période, de +0,037% par décennie.

Nikola Scafetta, au cours d'une récente conférence (vidéo et diapositives plus lisibles)(suivie d'un article à GRL et à JASTP 2009) donnée à l'EPA (Environnemental Protection Agency US), a consacré une partie importante de son exposé à démonter les données PMOD utilisées par Lockwood et Fröhlich qui indiquaient une baisse de la TSI alors que les données "TSI ACRIM Composite" non modifiées, montraient, au contraire, une augmentation de TSI en accord avec la théorie solariste ainsi qu'avec d'autres observables comme le champ magnétique. En particulier, et entre autres arguments développés au cours de cette conférence, Scafetta a fait état d'attestations officielles représentées sur l'image suivante, émanant des responsables de la mission ACRIM chargée de ces mesures qui protestent énergiquement contre les modifications des données qui ont conduit aux données composites PMOD de Lockwood et Fröhlich.
scafetta6

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


Le contenu de ces courriers est transparent. Il est très critique sur les modifications des données (PMOD) effectuées par Fröhlich et utilisées par Fröhlich et Lockwood
-La lettre à gauche de Richard Wilson, chercheur principal de la mission des :mesures ACRIM, déclare " Fröhlich a effectué des ajustements non autorisés et incorrects, aux mesures ACRIM1 et ACRIM2..."
-La lettre à droite de Douglas Hoyt, autre participant actif de cette mission, déclare entre autre que "Ainsi, le TSI composite PMOD de Fröhlich est incompatible avec les données internes et la physique du radiomètre de la cavité Nimbus 7"..

En bref, Fröhlich avait considéré que la sensibilité des radiomètres avait dû augmenter (c'est en général l'inverse qui se produit) pendant la série des mesures satellitaires et avait corrigé la mesure de la TSI en conséquence... à la baisse, évidemment. Ce qui avait permis à Lockwood et Frölich de "démontrer" que le lien soleil/température était brisé puisqu'ainsi, la TSI diminuait tandis que la température augmentait, depuis 1980 (seulement)...Il est inutile d'ajouter que le TSI Composite ACRIM augmente tout comme la température l'a fait. Il n'y a donc pas d'opposition de tendance.

En réponse à ces affirmations de Fröhlich, Nicola Scafetta et Richard Wilson ont pubié un article dans GRL intitulé “ACRIM-gap and Total Solar Irradiance (TSI) trend issue resolved using a surface magnetic flux TSI proxy model”, soit : " Le problème des données ACRIM et de la tendance de la TSI résolu en utilisant un imodèle de TSI par le champ magnétique surfacique". Ce qui, en langage clair, signifie que le composite de Fröhlich étaient erroné tout comme les déclarations de Lockwood et Fröhlich, sur l'absence de lien activité solaire/températures.

En réalité, il ne s'agit de rien d'autre qu'un des très nombreux conflits qui se produisent au sujet des mesures ou des données utilisées par les scientifiques du climat. Il conviendrait donc d'être très prudent quant aux conclusions que l'on peut tirer à partir de données affectées de telles incertitudes. Ce que Lockwood et Fröhlich, entre autres, semblent avoir oublié...
harrison1

2) Regis Gile Harrison (aussi de l'Université de Reading) était autrefois un ferme opposant à la théorie de Svensmark et aux observations de Henri Svensmark et Eigil Friis-Christensen (1997), au point d'avoir rédigé, en 1999, un rapport très critique sur l'idée que les rayonnements ionisants pouvaient provoquer la formation de nuages à basse altitude. Probablement dans le but de démonter les idées de Svensmark. Regis Harrison aidé par Stephenson, avait entrepris (en 2005) de collecter les données d'ennuagement au dessus de l'Angleterre et de les comparer avec les mesures des quantités de rayons ionisants reçus par la terre pendant la même période. A sa grande surprise et au cours des travaux qu'il effectua avec Stephenson, il observa une corrélation assez nette entre ces deux observables ainsi que le l'ai rapporté ici et encore ici ce qui allait dans le sens de la théorie qu'ils voulaient sans doute démonter. Leurs études couvraient la période s'étendant de 1947 à 2004.
solanki

3) Samir Solanki (spécialiste du soleil à l'Institut Max Planck) a donné une conférence lors du récent congrès de l'AGU (American Geophysical Union, 14-18 décembre 2009, San Francisco) dont j'ai rapporté quelques extraits significatifs dans ce billet. A noter que, durant cette conférence (vidéo et diapositives), Solanki montre les données du TSI composite PMOD de Fröhlich et indique qu'il existe un conflit à ce sujet, tout en démontrant, par la suite, que les mesures du champ magnétique solaire sont incompatibles avec un article récent de Fröhlich à ce sujet, tout comme l'avait fait Scafetta lors de son exposé mentionné ci-dessus. En conclusion de son exposé, Samir Solanki nous explique pourquoi nous devons nous attendre à un minimum du type Dalton et non pas à un minimum du type Maunder, dans les décennies à venir.
_________________________________________________________________________________________________________

Voici de le résumé de l'article commenté dans ce billet. En version originale d'abord, puis une traduction en français :

Abstract. Solar activity during the current sunspot minimum has fallen to levels unknown since the start of the 20th century. The Maunder minimum (about 1650–1700) was a prolonged episode of low solar activity which coincided with more severe winters in the United Kingdom and continental Europe. Motivated by recent relatively cold winters in the UK, we investigate the possible connection with solar activity. We identify regionally anomalous cold winters by detrending the Central England temperature (CET) record using reconstructions of the northern hemisphere mean temperature. We show that cold winter excursions from the hemispheric trend occur more commonly in the UK during low solar activity, consistent with the solar influence on the occurrence of persistent blocking events in the eastern Atlantic. We stress that this is a regional and seasonal effect relating to European winters and not a global effect. Average solar activity has declined rapidly since 1985 and cosmogenic isotopes suggest an 8% chance of a return to Maunder minimum conditions within the next 50 years (Lockwood 2010 Proc. R. Soc. A 466 303–29): the results presented here indicate that, despite hemispheric warming, the UK and Europe could experience more cold winters than during recent decades.

"Résumé : L'activité solaire, durant le minimum éruptif actuel, a atteint les niveaux les plus faibles depuis le début du 20ème siècle. Le minimum de Maunder (vers 1650-1700) fut une période de longue durée de faible activité solaire qui a coïncidé avec des hivers plus sévères au Royaume Uni et en Europe continentale. Motivés par les récents hivers relativement froids au Royaume Uni, nous étudions leur possible connexion avec l'activité solaire. Nous identifions des hivers régionalement anormalement froids en décomposant les tendances des enregistrements du "Central England Temperatures" (CET)" (NDT : Le centre qui collecte les températures du Royaume Uni depuis 1659. Il est, affirment les auteurs, le plus ancien au monde. Ces données locales ne couvrent qu'une zone de l'ordre de 300km au carré) à partir des reconstructions de la température moyenne de l'hémisphère Nord. Nous montrons que les interventions des hivers froids par rapport à la tendance hémisphérique se produisent plus fréquemment au Royaume Uni pendant les périodes de faible activité solaire, ce qui est cohérent avec l'influence solaire sur l'occurrence d'événements de blocages persistants dans l'Atlantique Est. Nous insistons sur le fait qu'il s'agit d'événements régionaux et d'effets saisonniers en relation avec les hivers Européens et non d'un effet global. L'activité solaire moyenne a décliné rapidement depuis 1985 et les isotopes cosmogéniques suggèrent qu'il existe 8% de chance que nous retournions vers un minimum de Maunder dans les cinquante prochaines années (Lockwood 2010, Proc. R. Soc. A 466 303-29); Les résultats présentés ici indiquent que, malgré un réchauffement de l'hémisphère, le Royaume Uni et l'Europe pourraient subir plus d'hivers froids que durant les dernières décennies."

Comme je l'ai écrit ci-dessus, il n'y a rien de très nouveau dans ces observations qui ne font que recouper ce que nous avons déjà, à un niveau guère supérieur, et même plutôt inférieur, à ce qu'on pouvait déjà lire dans un article publié en 2001 dans Science (294, 2149-2152), intitulé "Solar forcing of regional climate change during the Maunder minimum" qui s'achevait par cette phrase : " These results provide evidence that relatively small solar forcing may play a significant role in century-scale NH winter climate change. This suggests that colder winter temperatures over the NH continents during portions of the 15th through the 17th centuries (sometimes called the Little Ice Age) and warmer temperatures during the 12th through 14th centuries (the putative Medieval Warm Period) may have been influenced by longterm solar variations."

Soit "Ces résultats apportent des éléments de preuve qu'un forçage solaire relativement faible peut jouer un rôle significatif dans le changement climatique hivernal, à l'échelle du siècle, dans l'hémisphère Nord. Ceci suggère que les températures hivernales plus froides sur les continents de l'hémisphère Nord pendant des portions du 15ème au 17ème siècles (quelquefois appelé le Petit Age Glaciaire) et les températures plus chaudes du 12ème au 14ème siècle (le supposé Optimum Médiéval) peuvent avoir été influencés par les variations du soleil" (NDT : Les auteurs ne semblent pas savoir que l'OM se situe plutôt autour de l'an mil et que le Petit Age Glaciaire s'est prolongé bien au delà du 17ème siècle) ."
La conclusion de cet article de Science est plutôt étonnante quand on sait que les auteurs ne sont autres que des chercheurs bien connus du GISS de la NASA (D. T. Shindel, Gavin A. Schmidt) assistés du célèbre Michael Mann de l'UVA (Université de Virginie, à l'époque), l'inventeur de la crosse de hockey qui effaçait aussi bien l'Optimum Médiéval que le Petit Age Glaciaire. Mike Mann doit certainement être l'auteur de la petite phrase "the putative Medieval Warm Period".

L'article de Lockwood et al qui est le sujet de ce billet consiste essentiellement en une analyse statistique, soignée de la corrélation nette [activité solaire/températures] sur laquelle je ne m'étendrai pas.. Compte tenu du règlement plutôt sévère de l'IOP en ce qui concerne le copyright, il ne m'est pas possible de recopier les graphiques de cet article que vous pourrez pourtant trouver, en libre accès, sur leur site des Environ. Research Letters.

Mais, ce qui est plus intéressant dans l'article de Lockwood et al, ce sont les interprétations avancées pour expliquer cette baisse de température due au soleil, avérée et limitée dans le temps et dans l'espace, selon les auteurs, c''est à dire à la saison hivernale et au Royaume Uni (généreusement étendu à l'Europe Continentale).

Ainsi selon Lockwood et al, ( paragraphe 5 : Discussion et implications pour le futur) " A number of mechanisms are possible. For example, enhanced cooling through an increase in maritime clouds may have resulted from the cosmic ray flux increase [25]. Alternatively, tropospheric jet streams have been shown to be sensitive to the solar forcing of stratospheric temperatures [26]"...Soit

"Un certain nombre de mécanismes (NDT : pour expliquer que le hivers froids en Europe sont associés avec une faible activité solaire). Par exemple un accroissement du refroidissement dû à l'augmentation des nuages maritimes peut-être le résultat de l'augmentation du flux cosmique [25]...
NDT : Nul n'ignore qu'il s'agit là de la théorie pressentie par Wilson en 1927 (L'inventeur de la chambre à bulles) et défendue depuis plus de dix ans par Henrik Svensmark et Nir Shaviv (entre autres) et sur laquelle repose l'expérience CLOUD actuellement en cours au CERN de Genève.
Pourtant, l'article de Lockwood et al ne cite aucun des travaux de ces chercheurs qui ne sont donc jamais mentionnés. La référence [25] est celle d'un coauteur de l'article de Lockwood et al, Regis Harrison de l'Université de Reading qui n'a guère soutenu cette théorie et qui n'a fait qu'en observer les effets au dessus de l'Angleterre. Cette auto-citation est plutôt étonnante et reflète, sans aucun doute, un certain parti-pris à l'encontre des travaux de Svensmark, ce qui n'est pas très scientifique. On n'évite pas de citer les travaux d'un collègue manifestement en pointe dans un domaine parce qu'on n'est pas d'accord avec lui. D'ailleurs et plutôt que de creuser le sujet plus avant à la lumière des travaux publiés par Svensmark et al, cette hypothèse est immédiatement abandonnée au profit d'une autre qui avait déjà les faveurs de l'article de Science (2001)et qui provient des collègues et amis des auteurs, cité plus haut.

Lockwood et al nous expliquent ensuite ce qui est très connu dans le petit monde de la météorologie et qui est relatif aux indices AO/NAO (Arctic oscillation/North Atlantic Oscillation). J'en ai donné une brève description dans la page ../indicateurs. Voici, ci-dessous, deux images qui permettent de comprendre comment une inversion des pressions barométriques entre la zone des Açores au sud et le Nord de l'Islande peuvent conduire, en hiver, à une entrée d'air froid dans l'hémisphère nord (et pas seulement en UK ou en Europe) : NAO+

NAO-

 

 

 

 

 

 

 

En situation normale (image de droite) (fréquente en été et au printemps), la zone des Açores est plutôt anticyclonique, tandis que celle du Nord de L'Islande subit des basses pressions (zone cylonique). Dans cette situation, le Jet Stream habituel s'écoule d'Ouest en Est ce qui a pour résultat d'apporter sur les continents de l'hémisphère Nord, de l'air doux, provoquant une hausse de température. Dans ce cas l'indice AO/NAO est positif.

En situation inversée, (image de gauche, comme cela s'est produit fréquemment durant l'hiver dernier), la zone des Açores est en dépression et la zone Islandaise en surpression. Ceci a pour conséquence de perturber gravement l'écoulement du Jet Stream qui laisse alors pénétrer des flux d'air polaire froid dans la plus grande partie de l'hémisphère Nord et non pas seulement sur l'Angleterre et l'Europe. Dans ce cas l'indice AO/NAO est négatif

L'hypothèse défendue par Lockwood et ses coauteurs, serait que l'activité solaire serait directement responsable de la modificiation du Jet Stream (via l'action des UV sur la stratosphère) tel qu'elle est représenté sur l'image de gauche. A l'appui de leurs affirmations, Lockwood et al citent un certain nombre d'observations annexes mais dont l'ensemble ne constitue pas ce que l'on appelle une théorie. Rien n'est quantifié, ou théorisé.. Ce ne sont, pour l'instant, guère plus que des explications plausibles.

Lockwood et al nous affirment dans leur résumé, que l'effet de l'affaiblissement de l'activité solaire est purement régional (UK et Europe) et n'est effectif qu'en hiver....

"We stress that this is a regional and seasonal effect relating to European winters and not a global effect":

"Nous insistons sur le fait que ceci est un effet régional et saisonnier qui concerne les hivers Européens et nons pas un effet global ":

Un effet régional qui ne concerne que l'Europe ?
hiver09-10

Le refroidissement observé est très loin d'avoir un caractère aussi local que l'affirment Lockwood et al dans leur article, à moins que l'Europe ne se prolonge jusqu'au Japon et à la Sibérie Orientale.

Ceci se voit très bien sur la carte NOAA/ESRL des anomalies de températures d'une grande partie de l'hémisphère Nord durant l'hiver dernier (du 1er déc 2009 au 16 février 2010). On constate que si l'Angleterre et l'Europe ont effectivement subi une anomalie froide, elle n'est rien en comparaison de celle qu'a subi la Chine du Nord et la Russie qui aurait battu tous les records de froid, cet hiver.
Et les deux hivers précédents étaient presqu'aussi rudes en Eurasie.

 

De plus, le froid de cet hiver (et des précédents) ne s'est pas contenté d'affecter l'Eurasie. Il a aussi largement concerné les Etats-Unis. d'Amérique.


usawinter2009La majeure partie des Etats-Unis a aussi subi des températures anormalement froides durant cet hiver comme on le voit sur la carte de la NOAA, ci-contre. Comme d'habitude, l'échelle des bleus indique les anomalies de froid ( par rapport à la normale des hivers aux USA) en allant du plus foncé (record absolu de froid) au plus clair (en dessous de la normale). Notons que ces vagues de froid n'ont pas affecté la pointe Nord Ouest des USA et l'ouest du Canada où se trouve Vancouver.

Au vu de ces cartes, il est difficile d'affirmer qu'il s'agit d'un effet régional réservé à l'Angleterre et à l'Europe. La réalité ne serait-elle pas plutôt que les bases de données du CET (Central England Temperature) utilisées par les auteurs de cet article, ne couvrent qu'une petite partie de l'hémisphère Nord et qu'il était donc impossible de se prononcer sur le reste de l'hémishère ? Alors pourquoi et comment s'assurer de ce que cette observation du lien [activité solaire/ températures hivernale] ne peut être valable sur tout l'hémisphère Nord ? (Alors que l'article cité de Science de 2001 concernait l'hémisphère Nord, sans restriction).

D'autre part,

Le lien [activité solaire/températures] n'est qu'un effet saisonnier, limité à l'hiver, nous affirment Lockwood et ses coauteurs...
Là encore, on ne voit pas, dans cet article, ce qui permet aux auteurs d'affirmer une telle chose. De fait, ils n'ont pas étudié l'existence possible d'un lien [activité solaire/température estivale]. Dès lors, comment l'exclure d'emblée, alors qu'il existe une grand nombre de manifestations de l'existence de ce lien, aussi bien dans l'hémisphère Sud (Amérique du Sud, Afrique du Sud etc...) que dans l'hémisphère Nord, et sans distinction de saisons, telles que je les ai rapportées dans cette longue page ?

Il apparaît ainsi évident que les auteurs de cet article tiennent pour assurée, (sans qu'elle le soit), l'explication qui passe par une modification directe du Jet Stream et donc de celle des indices AO/NAO qui ne sont effectivement actifs que pendant l'hiver boréal.

Lockwood et ses coauteurs ont promis d'effectuer une étude analogue pour l'été. En effet, en été, les températures sont peu, ou pas du tout, déterminées par les indice AO/NAO, autrement dit par le différentiel barométrique Islande/Nord des Açores. Si leur hypothèse stratosphérique est justifiée, ils devraient avoir du mal observer de telles corrélations [activité solaire/climat estival ]...

Au sujet des saisons et tout en remarquant que Lockwood et ses collaborateurs prennent vraiment grand soin de préciser (comme l'avaient fait leurs prédécesseurs dans l'article de Science de 2001) que leur étude ne concerne que la période hivernale, n'oublions pas notre grand précurseur, Sir William Herschel qui avait montré que les cours du blé (et donc l'abondance) variaient en fonction de l'activité solaire dès 1801.
Cette affirmation lui avait d'ailleurs valu des rires et des quolibets de la part des éminents membres de la Royal Society (qui persiste et signe encore de nos jours en rejetant l'hypothèse solariste). Ainsi, Lord Brougham, utilisa le qualificatif de "grand absurdity" pour qualifier les observations de Sir William Herschel.
Rappelons que les observations de William Herschel furent reprises récemment par deux chercheurs Israéliens (Lev A. Pustilnik et Gregory Yom Din) qui ont retrouvé, en 2003 et 2004, en utilisant les moyens modernes à leur disposition, cette frappante corrélation entre le prix du blé et la variation des cycles solaires entre 1249 et 1703 (et notamment pendant le minimum de Maunder où les éruptions solaires étaient rares et donc parfaitement identifiables.) (référence accessible). Tout comme d'ailleurs, le statisticien William Stanley Jevon dans les années 1875-1878.

Or, il est bien connu que la croissance du blé ( du blé d'hiver comme du blé de printemps) est fondamentalement déterminée par le climat qui règne au printemps et en été et non pas par la rigueur hivernale. N'est-ce pas ?

Nous sommes donc particulièrement curieux de connaître le résultat des recherches de Lockwood et al sur la période estivale. Car s'il était avéré que des corrélations nettes [activité solaire/Températures] peuvent être observées au printemps ou en été, l'hypothèse de l'influence solaire directe sur le Gulf Stream et la NAO/AO tomberait automatiquement puisque ces derniers ne jouent pratiquement aucun rôle significatif en dehors de l'hiver. Il ne leur resterait plus alors que le mécanisme des rayons cosmiques et des nuages... à la Svensmark, conforme aux observations (entre autres) de Regis Harrison.

Deux remarques complémentaires concernant les coauteurs de cet article :

1) Comment Samir Solanki qui vient de faire un exposé à l'AGU dans lequel il nous prouve avec des arguments convaincants que nous nous dirigeons vers un minimum du type Dalton (XIXème siècle) accepte-t-il de cosigner un article qui se conclut en envisageant que nous allons, pendant 50 ans, souffrir des rigueurs d'un refroidissement du type Maunder (XVIIème siècle) ?
2) Comme se fait-il que Regis Harrison qui a écrit deux article (en 2002 dans Science puis en 2006 dans les Proc. Roy. Society ) sur la corrélation nette qui exsite entre les nuages et l'activité solaire, puisse cosigner un article qui balaie d'un revers de plume cette piste de recherche ?
_____________________________________________________________________________________________________________________

Ainsi et en résumé, Lockwood qui nous affirmait, haut et fort, il y a trois ans, que le lien [activité solaire/températures] était définitivement brisé depuis 1980 et que l'affaire était entendue, nous certifie maintenant que l'Europe pourrait connaître des hivers froids dans les cinquante années à venir parce que, finalement, ce lien [activité solaire/températures] existe toujours de nos jours (et existera dans l'avenir), au moins en hiver et au moins dans une portion limitée de l'hémisphère Nord...

A mon humble avis, compte tenu d'un certain nombre d'observations récentes et notamment de la stagnation de la température globale, certains chercheurs participant au GIEC, prennent leurs précautions (avec réticence) au cas où les solaristes auraient raison. Ainsi, s'il fait froid en Europe (et ailleurs) dans les années à venir, ils pourront toujours dire : "Nous vous l'avions bien dit". Finalement cette démarche rejoint celle de Mojib Latif ou encore de Vicky Pope (au sujet de la fonte de l'arctique qui n'est peut-être pas entièrement due au CO2)....

Stay tuned comme disent les américains. Restez à l'écoute : La suite sera passionnante !

 

23 Mai 2010 : Vincent Courtillot, Jean-Louis Le Mouël et deux collègues Russes découvrent que les cycles des taches solaires modulent la vitesse de rotation de notre planète.
C'est un lien très probable entre l'activité solaire et les régimes de vents latitudinaux qui modulent les oscillations océaniques. Et donc encore un lien, direct ou indirect, entre l'activité solaire et le climat de la planète.
lemouel

courtillot

photos: V. Courtillot à gauche et Jean-Louis Le Mouël à droite.

 

Comme le savent tous ceux qui ont lu cette (très longue) page, les empreintes des cycles solaires, notamment ceux de Schwabe (11 ans) et de Hale (magnétique, de 22 ans), se retrouvent dans un très grand nombre d'observations liées au climat et ceci sur tous les continents de la planète.

Tandis que la science climatique officielle -celle du GIEC- à quelques rares exceptions récentes près (comme l'article précédent) continue de prétendre que les faibles variations de l'irradiance solaire (environ 1/1000) ne peuvent expliquer les variations de températures observées (+0,7°C en cent ans) et qu'ainsi, le soleil n'y étant pour rien, il est nécessaire de faire appel à la responsabilité humaine pour expliquer le "chaos climatique" (comme ils l'appellent), plusieurs groupes de chercheurs font imperturbablement progresser nos connaissances en démontrant, article après article, que le soleil fait bien autre chose que de nous envoyer de la lumière visible, infra rouge et ultra violette.

Parmi ces chercheurs, un groupe de l'IPGP ( l'Institut de Physique du Globe de Paris), et notamment Vincent Courtillot et Jean Louis Le Mouël, s'est intéressé à cette question et a récemment publié plusieurs papiers sur ce sujet.

On long-term variations of simple geomagnetic indices and slow changes in magnetospheric currents:
The emergence of anthropogenic global warming after 1990 ? Jean-Louis Le Mouël, Vladimir Kossobokov, Vincent Courtillot. Earth and Planetary Science Letters 232 (2005) 273– 286

Are there connections between the Earth's magnetic field and climate? Vincent Courtillot, Yves Gallet, Jean-Louis Le Mouël, Frédéric Fluteau, Agnès Genevey. Earth and Planetary Science Letters, Volume 253, Issues 3-4, Pages 328-339, 30 January 2007. Cet article a fait l'objet d'une polémique avec Edouard Bard, Gilles Delaygue, évoquée plus haut dans cette page.

Evidence for a solar signature in 20th century temperature data from the USA and Europe, J.L. LE MOUEL, V. COURTILLOT, E. BLANTER, M. SCHNIRMAN, Comptes Rendus Geosciences, 340, 421-430 (2008)

Evidence for Solar Forcing in Variability of Temperatures and Pressures in Europe, J.L. LE MOUEL, E. BLANTER, M. SCHNIRMAN, V. COURTILLOT, Journal of Atmospheric and Solar-Terrestrial Physics, 71, 1309-1321 doi:10.1016/j.jastp.2009.05.006 (2009)

Evolution of Seasonal Temperature Disturbances and Solar Forcing in the US North Pacific, V. COURTILLOT, J.L. LE MOUEL, E. BLANTER, M. SHNIRMAN, Journal of Atmospheric and Solar-Terrestrial Physics, Journal of Atmospheric and Solar-Terrestrial Physics, 72, 83-89 doi:10.1016/j.jastp.2009.10.011 (2010)

A solar pattern in the longest temperature series from three stations in Europe, J.L. LE MOUEL, V. KOSSOBOKOV, V. COURTILLOT, Journal of Atmospheric and Solar-Terrestrial Physics, Journal of Atmospheric and Solar-Terrestrial Physics, 72, 62-76 doi:10.1016/j.jastp.2009.10.009 (2010)

 

Comme un certain nombre de chroniqueurs, journalistes scientifiques, ainsi que divers bloggueurs, au mieux, mal informés, s'obstinent à répéter en boucle que ce groupe de l'IPGP n'a jamais rien publié sur ce sujet dans des revues à comité de lecture, je vous donne ci-joint les références de 6 articles publiés au cours des dernières années par Vincent Courtillot, Jean-Luis Le Mouël et al, en relation avec la corrélation [Climat/Activité solaire].

Je rappelle que Vincent Courtillot a donné une série de conférences remarquées et remarquables au cours du mois de septembre 2009 . Vous pourrez les retrouver dans cette page.

 

 

 

 

L'article dont il est question dans ce billet est actuellement sous presse au Geophysical Research Letters et doit donc être ajouté à la liste précédente.
Les références de cet article à paraître sont les suivantes :

Solar Forcing of the semi-annual Variation of Length-of-Day
soit : "Forçage solaire de la variation de la durée semi-annuelle de la durée du jour "
Jean-Louis Le Mouël (1), Elena Blanter (1,2), Mikhail Shnirman (1,2), Vincent Courtillot (1)
(1) Institut de Physique du Globe de Paris, Paris, France
(2) International Institute of Earthquake Prediction Theory and Mathematical
Geophysics, Moscow, Russia
Submitted to GRL; March 5, 2010
Revised April 21, 2010

Comme d'habitude, voici le résumé original suivi d'une traduction en français.

Abstract
We study the evolution of the amplitude A of the semi-annual variation of the length-of-day (lod) from 1962 to 2009. We show that A is strongly modulated (up to 30%) by the 11-yr cycle monitored by the sunspot number WN. A and WN are anticorrelated, WN leading A by 1-yr. A is therefore directly correlated with galactic cosmic ray intensity. The main part of the semi-annual variation in lod is due to the variation in mean zonal winds. We conclude that variations in mean zonal winds are modulated by the solar activity cycle through variations in irradiance, solar wind or cosmic ray intensity.

Résumé : "Nous étudions l'évolution de l'amplitude A de la variation semi-annuelle de la durée du jour (length-of-day, LOD) de 1962 à 2009. Nous montrons que A est fortement modulé par le cycle de 11 ans caractérisé par le Nombre de Taches Solaires (Sunspot Number) WN. A et WN sont anti-corrélés, WN précédant A d'une année. A est donc directement corrélé avec l'intensité du rayonnement cosmique galactique. L'essentiel de la variation semi-annuelle du LOD est dû à la variation des vents moyens latitudinaux. Nous en concluons que les variations des ces vents sont modulées par les cycles d'activité solaire via les variations d'irradiance, du vent solaire ou de l'intensité du rayonnement cosmique."

Quelques rappels : Contrairement à une croyance généralement répandue, la durée du jour (LOD) qui résulte évidemment de la vitesse de rotation de notre planète sur elle-même, est, en réalité, sujette à des fluctuations dont l'amplitude, très faible, se mesure en fractions de millisecondes. Un organisme officiel, l'International Earth Rotation and Reference System Service (IERS) dépendant de l'Observatoire de Paris, est chargé de collecter et de fournir les informations à ce sujet qu'il diffuse sous la forme d'un tableau de données. Selon l'article :
"Le LOD est soumis à un large spectre de fluctuations. Les fluctuations décennales (10-30 ans) sont généralement attribuées aux échanges de moment angulaire entre le noyau de la planète et le manteau. Les changements saisonniers qui incluent les changements semi-annuels, annuels et biannuels sont presqu'entièrement dûs aux variations de la circulation des vents latitudinaux atmosphériques (outre une composante importante liée aux marées). L'amplitude des variations saisonnières n'est pas constante d'une année sur l'autre et différentes hypothèses ont été proposées pour expliquer cette variabilité. " ... Dans cet article, nous analysons la fréquence semi-annuelle dans le LOD et nous déterminons ses variations décennales et à long terme dans l'esprit d'autres études récentes.." (Suivent 4 références d'articles récemment publiés par des chercheurs de l'IPGP sur le LOD); A noter que Bourget et al avait suggéré la possibilité d'un couplage [LOD/activité solaire] dans un résumé, dès 1992. Un thèsard (Winkelnkemper 2008) a aussi abordé ce sujet lors de sa thèse.

Note explicative: Les auteurs de cet article utilisent, comme il est d'usage, l'expression "zonal winds" (Les scientifiques français les appellent vent zonaux ce que j'explicite par "vents latitudinaux" pour désigner le flux atmosphérique à grande échelle dans lequel la composante parallèle à l'équateur est dominante. En bref, il s'agit de la ceinture des vents parallèles à l'équateur qui accompagne la terre dans sa rotation. "La distribution des vents moyens latitudinaux est une des caractéristiques les mieux connues de la circulation atmosphérique globale" écrivent les auteurs de l'article. On conçoit aisément que toute perturbation de ces vents zonaux (latitudinaux) peut engendrer une variation (certes minime) de la vitesse de rotation de notre planète et donc de la durée du jour (LOD). C'est ce qui est expliqué avec quelques détails, dans cet article.

La figure maîtresse de cet article (la seule, en fait) est représentée ci-dessous. Elle démontre la corrélation étroite qui existe entre les variations de la durée du jour (LOD) et les pulsations des cycles solaires de Schwabe, vues au moyen du nombre de taches solaires. La légende en français est une traduction de la légende originale.

courtillot2


Figure 1. Variations à long terme de l'amplitude "alpha" de l'oscillation semi-annuelle du LOD. (en bleu). On utilise une fenêtre glissante de 4 ans.

a) Comparaison de l'amplitude semi-annuelle du LOD avec le nombre taches solaires (Sunspot Number) WN (en rouge). Le signe de WN est inversé et la courbe est décalée de un an (voir le texte)

b) Comparaison de l'amplitude semi-annuelle corrigée du LOD (en bleu) avec le nombre de taches solaires WN (en rouge). Le signe de WN est inversé et la courbe est décalée de un an.

c) Comparaison de l'amplitude semi-annuelle du LOD (en bleu) avec la flux du rayonnement cosmique galactique GCR (en rouge). GCR n'est ni inversé, ni décalé dans le temps (voir le texte)


 

 

 

 

Pour expliquer cette remarquable corrélation [activité solaire- GCR/ durée du jour LOD], les auteurs de cet article évoquent plusieurs possibilités :

  • Une explication conforme aux idées de Svensmark et d'autres chercheurs que j'ai très fréquemment évoquées dans cette page. Je rappelle que cette hypothèse (actuellement en cours d'évaluation au CERN de Genève) prévoit que la couverture nuageuse dépend de l'intensité du rayonnement cosmique et donc des cycles solaires. Les auteurs écrivent que : "... C'est pourquoi l'équilibre radiatif de la troposphère pourrait être affecté par l'intensité du rayonnement cosmique. Les variations saisonnières de la distribution de l'énergie latitudinale et de l'énergie vers les pôles ainsi que du transfert du moment de rotation, pourraient ainsi entraîner la modulation de h3T (NDT : c'est à dire de la composante périodique du moment angulaire relatif, c'est à dire, in fine, celle de la vitesse de rotation de la planète) "

  • "D'autres mécanismes impliquant l'action du soleil sur les couches troposphériques ont été proposés. Par exemple, la partie UV de la TSI (irradiance totale solaire), qui présente de très grandes variations (jusqu'à 100%) durant un cycle solaire, pourrait être un agent de forçage significatif (NDT : Dans l'esprit du billet précédent).
    Un couplage entre les différentes couches atmosphériques qui relient la base de l'ionosphère et la troposphère peut résulter du circuit électrique général (Tinsley et 2007 et 2008) : Des changements de la couverture nuageuse, de la pression atmosphérique et de l'intensité des cyclones hivernaux montrent des corrélations avec les variations du courant électrique Jz .
    Dans un article récent, Ram et al (2009) proposent une chaîne d'événements qui établissent un lien entre les variations de l'activité solaire et les variations des dépôts de poussière observées dans les carottages glaciaires, avec un mécanisme d'amplification plausible.
    Quelle que soit l'amplitude réelle des variations de l'irradiance totale du soleil, le flux du rayonnement cosmique (Figure 1c), les courants ionosphériques et Jz fluctuent de 10% et plus au cours d'un cycle solaire et sur des périodes plus grandes. Comme les variations de alpha(k) excèdent 30%, une mécanisme d'amplification supplémentaire doit être en action. Il reste à élucider et à modéliser ce mécanisme ."

La conclusion de l'article est la suivante :

"La Terre solide se comporte comme un intégrateur spatial naturel et comme un filtre temporel ce qui rend possible l'étude de l'évolution de l'amplitude des variations semi-annuelles des vents latitudinaux sur une durée de 50 ans. Nous mettons en évidence une forte modulation de l'amplitude de la ligne spectrale de la durée du jour (LOD) par le cycle de Schwabe (Fig. 1a). Ceci montre que le soleil peut (directement ou indirectement) influer sur les vents latitudinaux à des échelles de temps décennales et multidécennales. Les vents latitudinaux constituent un élément important de la circulation atmosphérique du globe. Si le cycle solaire peut influer sur les vents latitudinaux, alors ils peuvent aussi bien affecter d'autres paramètres du climat global englobant des oscillations tels que la NAO (L'Oscillation Nord Atlantique) et la MJO (L'oscillation Madden-Jullian) dont les vents latitudinaux sont un ingrédient (Wheeler et Hendon 2004). La cause de ce forçage implique probablement une combinaison du vent solaire, du rayonnement cosmique galactique, des courants Terre-Ionosphère et de la microphysique des nuages.
_____________________________________________________

Les deux dernières phrases de la conclusion de cet article indiquent une piste crédible pour trouver un lien important : Celui qui relie les oscillations océaniques (dépendant des régimes de vent) avec l'activité solaire, que l'on avait déjà évoqué dans un billet précédent sur Nikola Scafetta. A noter que les deux derniers billets portaient, eux aussi, sur des articles récents relatifs à l'influence de l'activité solaire sur le climat : (le froid en Europe, les cyclones).
Nous progressons. Et d'autres sont en préparation ce qui indique qu'un nombre croissant de chercheurs s'intéressent au soleil (enfin !).

Voici donc encore une découverte remarquable qui montre, une fois de plus, que l'activité éruptive solaire joue un rôle fondamental pour notre planète, jusqu'à moduler sa vitesse de rotation. Contre vents et marées et loin de l'agitation médiatico-politique, des chercheurs sérieux continuent à faire progresser nos connaissances.
Un grand bravo pour eux.

Le GIEC et ses modélisateurs numériciens persistent à ignorer ces découvertes, le nez sur le guidon du CO2, sans doute parce que tout cela est encore difficile (impossible) à modéliser sur ordinateur. Pour eux, tout ce qui n'est pas modélisable sur ordinateur à partir de quelques équations basiques, n'existe tout simplement pas.
Au point qu'on se demande, à présent, comment on a pu faire progresser la science avant les ordinateurs...

On comprend, mais cela équivaut à chercher ses clefs au pied d'un réverbère parce que c'est là qu'il y a de la lumière.

L'abbé astronome Théophile Moreux écrivait, en 1928 : " ...Tous ces phénomènes ( NDLR : résultant de l'activité éruptive solaire) ont une répercussion sur l'état d'ionisation de la haute atmosphère et retentissent sur notre climatologie. Les détails de cette action puissante nous échappent encore, mais les physiciens, n'en doutons pas, sauront un jour ou l'autre en démêler les lois, malgré quelques météorologistes attardés qui cherchent toujours en bas alors qu'il faut regarder plus haut."

Sages paroles.

 

30 Mai 2010 : Encore une corrélation nette entre les cycles solaires et le climat, observée, cette fois-ci, dans les carottages glaciaires GISP2 du Groenland, au moyen d'une analyse aussi performante que non-conventionnelle...

1- Brève introduction : Comme je l'ai souvent écrit tout au long des pages de ce site, les chercheurs ne manquent pas d'astuce...

En 1997, plusieurs d'entre eux ont décidé d'utiliser les récents (à l'époque) carottages prélevés dans la glace très épaisse située au centre du Groenland (mission GISP2, Greenland Icesheet Project 2 ) d'une manière non conventionnelle.

Comme vous le savez, la méthode classique consiste à analyser finement le contenu gazeux des bulles d'air contenues dans les carottes de glaces prélevées dans les glaciers anciens. C'est ainsi que l'on a pu reconstruire l'évolution des températures du Groenland depuis près de 50 000 ans, comme je l'ai évoqué dans cette page. Un forage de 2,8 km permet même de remonter jusqu'à cent mille ans.

La méthode utilisée par les chercheurs qui sont les auteurs de l'article que je vais décrire ci-dessous, est totalement différente. Plutôt que d'analyser les bulles d'air prélevées dans la glace, ils se sont intéressés à la quantité de poussière qui s'est déposée sur la glace, année après année, essentiellement pendant les périodes d'inactivité neigeuse ( pendant l'été boréal). Pour ce faire, ils avaient, auparavant, mis au point et utilisé une technique de diffusion de la lumière laser qui permet de mesurer avec une bonne précision la quantité de poussière contenue dans les carottes glaciaires ( Article : " Polar Ice Stratigraphy from laser light scattering : scattering from meltwater" , J. Glaciol. 40 (136), 504-508, 1994). C'est cette méthode LLS (Laser light Scattering) qui a été utilisée pour obtenir les résultats que je décris ci-dessous.

Photo d'une carotte de glace à la sortie du trépan. ram4
Strates et stries perpendiculaires à l'axe d'une carotte ram3

Voici ci-contre des images typiques de carottes de glace utilisées pour ce genre de travaux.

 

On peut observer, sur l'image du bas, les stries typiques des dépôts qui séparent les différentes couches de glace accumulées aux cours des précipitations (neigeuses à ces altitudes) successives. Ces stries constituent un marqueur très utile pour la datation, un peu comme le sont les cernes des arbres pour la dendrochronologie.

2- L'article et les observations des chercheurs :

Le professeur Michael Ram et son collègue M. R. Stolz (Tous deux de l'Université de Buffalo à New York) en collaboration avec le Prof. Brian Tinsley (Université de Dallas) ont récemment fait paraître un article dont voici les références :

"The Terrestrial Cosmic Ray Flux: Its Importance for Climate"
"Le Flux de Rayons Cosmiques sur la Terre : son importance pour le climat."
EOS de l'American Geophysical Union (Vol 90, N°44, 3 Nov 2009.

Cet article résume un certain nombre de travaux précédemment publiés (Geophysical Research Letters (GRL, 26-12, 1043-1045)) sur la corrélation observée entre les quantités de poussières déposées dans les carottages GISP2 au sommet du Groenland, et les cycles solaires. Il propose une explication plausible des phénomènes observés et notamment de "l'amplification solaire" résultant des travaux du Prof. Tinsley, spécialiste de l'électricité atmosphérique.
ram1Tinsley1

A gauche, le Professeur Brian Tinsley de l'Université de Dallas(Tx).
A droite le Professeur Michael Ram de l'Université de Buffalo à New York.

Voici l'introduction-résumé de cet article, en version originale d'abord, suivi d'une traduction en français. Les lecteurs attentifs de cette page sont déjà bien informés sur ce sujet, mais ce texte constitue, à mon avis, un bon résumé de la situation actuelle.
________________________________________________________________________________________

There has been prolonged debate in the scientific community as to whether or not changes in solar activity signifi cantly affect Earth’s climate. One of the main arguments against solar infl uence is that because the intensity of solar radiation changes by too little (~0.1%) during the course of a solar cycle (or on longer time scales) to have a signifi cant impact on changes in Earth’s climate, an amplifying mechanism must be at work if solar infl uence is to be taken seriously. Ney [1959] proposed that the solar- modulated terrestrial cosmic ray fl ux (CRF) is another solar infl uence that must be considered as possibly affecting climate. The CRF affects the electrical conductivity of the atmosphere through ion production and is the meteorological variable subject to the largest solar cycle modulation that penetrates into the denser layers of the atmosphere.
The need to consider the effects of the CRF is even more pertinent because Bond et al. [2001] have shown strong correlations between variations in carbon-14 and beryllium-10 (10Be) accumulation rates (CRF proxies) with ice-rafted glacial debris in the North Atlantic. The detailed variations found by Bond et al. also correlate with worldwide climate changes reported by others [Neff et al., 2001; Stuiver et al., 1995; Eddy, 1977]. On the century time scale, the CRF- related variations were dominant, with the observed
trends in 10Be accumulation typically ±10% in 100 years, comparable to the approximately 10% changes in CRF over an 11-year solar cycle at high latitudes. This 10% amplitude can be compared with the change in solar ultraviolet irradiance, absorbed in the upper stratosphere, of approximately 1%, and the total solar irradiance change of approximately 0.1%, with these amplitudes measured, on the 11-year time scale or inferred for longer time scales [Foukal et al., 2006].
This article provides evidence that the solar modulated CRF, which affects atmospheric electricity, may initiate a sufficiently large amplification mechanism that can magnify the influence of the Sun on the Earth’s climate beyond the traditional radiative effects."

Traduction : "Il y a eu un débat prolongé dans la communauté scientifique pour savoir si oui ou non, les variations de l'activité solaire affectent de manière significative le climat de la Terre. Un des principaux arguments contre l'influence solaire réside dans le constat que les variations de l'intensité de la radiation solaire sont trop faibles (~0,1%) durant un cycle solaire (ou sur des échelles de temps plus grandes) pour avoir un impact significatif sur le changement climatique de la Terre. Un mécanisme amplificateur doit être en action si l'influence de l'activité solaire doit être prise au sérieux.

Ney [1959] a proposé l'idée que le flux de rayonnement cosmique (CRF Cosmic ray flux) incident sur la Terre, modulé par le soleil, constitue une nouvelle influence solaire qui devrait être prise en compte dans l'évolution du climat. Le flux du rayonnement cosmique (CRF) affecte la conductivité électrique de l'atmosphère via la production d'ions et ceci est la variable météorologique sujette aux variations les plus grandes du fait de la modulation du cycle solaire, qui pénètre dans les couches les plus denses de l'atmosphère.

La nécessité de prendre en considération les effets du CRF est renforcée par le fait que Bond et al (2001) ont montré qu'il existait de fortes corrélations entre les variations des taux d'accumulation en carbone-14 et en beryllium-10 (10Be) (qui sont des témoins du CRF) dans les débris véhiculés par les glaces dans l'Atlantique Nord. Les variations détaillées trouvées par Bond et al. sont aussi corrélées avec les changements climatiques globaux rapportés par d'autres auteurs (Neffe et al, 2001, Stuiver et al, 1995, Eddy, 1977). A l'échelle du siècle, les variations liées au CRF ont été dominantes avec des tendances en accumulation de 10Be typiquement de + ou - 10% en cent ans, ce qui est comparable avec la variation approximative de 10% de CRF lors d'un cycle de 11 ans, aux hautes latitudes. Cette amplitude de 10% peut être comparée avec le changement en UV de l'irradiance solaire, absorbée dans la haute stratosphère qui est d'environ 1%; ainsi qu'avec la variation de l'irradiance solaire totale qui est de 0,1%. Ces amplitudes étant mesurées à l'échelle de temps de 11 ans ou prolongées sur des durées plus grandes (Foukal et al, 2006).

Cet article montre que le flux de rayonnement cosmique (CRF), modulé par le soleil, qui affecte l'électricité atmosphérique, est capable d'initier un mécanisme d'amplification suffisamment important pour accroître l'influence du soleil sur le climat de la Terre, au delà des effets radiatifs traditionnels." (caractères engraissés par l'auteur du site)
________________________________________________________________________________________________________

Voici les principaux graphes tirés de l'article en question avec quelques commentaires correspondants :

Ci-dessous, le profil des poussières d'une carotte GISP2 mesurée par LLS (Laser Light Scattering). L'abscisse est en milliers d'années avant l'époque actuelle. L'ordonnée est en unités normalisées propres au LLS, avec une moyenne glissante de cinq ans.

ram8

"Le profil montre des maxima de poussières annuels prononcés d'un bout à l'autre de la carotte. Comme chaque pic correspond à une seule année d'accumulation de neige, ces pics ont été décisifs pour dater les données avec une grande précision à la manière des cernes des arbres.Les variations de la concentration de poussières sont attribuées aux changements de précipitation et d'humidité des sols."

 

 

ram5

 

La Figure 1b montre les pics d'accumulation de poussière, cette fois-ci sur une courte section de la carotte glaciaire.
Les abscisses sont des indices propres aux carottages GISP2.

 

 

 

 

 

ram6

 

 

 

Figure 1c : La modulation du cycle solaire de Schwabe de 11 ans, observée dans les figures précédentes. Ce graphe montre la succession rapide des oscillations (annuelles) vues dans les données brutes (traits fins) . L'oscillation de Schwabe (trait noir épais) est observée en effectuant une moyenne glissante de 4 ans directement sur les données brutes.

 

Les auteurs ont aussi pu étudier le mode de passage assez particulier du cycle de Schwabe au cycle magnétique de Hale (22 ans). De plus les auteurs mentionnent l'accord de ces observations avec les précédents travaux de Donarummo, Ram et Stolz (GRL 29(9), 1361,2002) qui expliquaient pourquoi la corrélation avec les cycles solaires semble s'inverser dans les années qui suivent les éruptions volcanique intenses... ce que beaucoup avaient interprété comme une faillite de la corrélation [cycles solaires/Climat].

L'enchaînement proposé pour expliquer l'effet amplificateur signalé dans cet article est le suivant. Il rappelle très nettement celui déjà mentionné par de nombreux auteurs tout au long de cette (longue) page, à une différence près : l'intervention d'un mécanisme électrique auquel Svensmark et al n'ont pas fait explicitement mention et qui résulte directement des travaux de Brian Tinsley. Le voici, tel que mentionné dans cet article :

Activité solaire en augmentation -> décroissance du flux de rayonnement cosmique -> décroissance du courant (électrique) atmosphère-terre -> décroissance de la nucléation par contact -> décroissance des précipitations -> accroissement de la quantité de poussières.

Voici la conclusion de l'article : In conclusion, thés article draws attention to the GISP2 dust measurements that, consistent with many other climate/ CRF correlations, provide circumstantial evidence for a Sun/ climate connection mediated by the terrestrial CRF. The article also draws attention to mechanisms involving effects of atmospheric ionization on precipitation. These findings point to the need to work to incorporate the effects of the CRF on Jz (and associated nucleation processes), and the subsequent microphysical responses, into macroscopic cloud models that can then be incorporated into global climate models.

"En conclusion, cet article attire l'attention sur les mesures de poussière dans les carottages GISP2 qui, en accord avec un grand nombre d'autres corrélations Climat/CRF , fournissent des preuves circonstanciées pour une connexion Climat/Soleil via le flux de rayonnement cosmique qui parvient sur le Terre. Cet article attire aussi l'attention sur des mécanismes impliquant les effets de l'ionisation de l'atmosphère sur les précipitations.Ces découvertes montrent la nécessité d'incorporer les effets du CRF sur Jz (NDT : Jz est la composante verticale du courant électrique qui traverse l'atmosphère) (et les effets de nucléation associés), ainsi que les réponses microphysiques résultantes, dans les modèles macroscopiques des nuages qui peuvent alors être incorporés dans les modèles du climat global.
_____________________________________________________________________________________________________________

3- Quelques commentaires relatif à ce billet et aux précédents figurant dans cette page :

Comme je l'ai déjà écrit, les manifestations de l'influence des cycles solaires sur le climat sont aussi variées que répandues du point de vue géographique. On les trouve dans de multiples observables (stalagmites, fossiles divers, poussières, arbres, pluviométrie, les moussons, durée du jour, etc...) répartis dans les divers continents de la planète. Personne ne peut plus les nier.
Dans l'état actuel de nos connaissances, l'explication d'un "effet amplificateur" ( voir par exemple Nir Shaviv) qui fait que la faible variation de l'irradiance solaire (0,1%) lors des éruptions solaires, se traduit, en fait, par des conséquences considérables sur les divers observables mentionnés, passe par trois possibilités :

1) La théorie de Svensmark et al que j'ai mentionnée à de multiples reprises dans cette page.
2) Le mécanisme invoqué par Lockwood et al qui passe par les UV générés lors des éruptions solaires.
3) Le mécanisme évoqué dans l'article commenté dans ce billet. Celui-ci est très proche de celui de Svensmark. Il s'y ajoute un effet électrique (Jz) participant à l'ionisation des noyaux de condensation que Svensmark n'a pas évoqué en tant que tel..

Qui a raison ? Existe-t-il un seul mécanisme mis en jeu pour expliquer cette remarquable amplification de l'effet des cycles solaires qui fait que la courbe des températures ressemble de manière frappante à celle de l'activité solaire (et non pas à celle de la croissance du taux de CO2), comme l'a montré, entre autres, N. Scafetta ?
Personne n'est actuellement en mesure de trancher.

Par contre, nous observons que les données et les observations s'accumulent sur ce sujet au point qu'il est devenu très ardu de suivre le rythme accéléré des publications.

Il sera difficile aux supporters et rédacteurs du GIEC, sinon impossible, de continuer à écrire dans le Résumé Technique du Rapport que " La contribution de l'irradiance solaire au forçage radiatif moyen est considérablement plus faible que la contribution de l'augmentation des gaz à effets de serre pendant la période industrielle" ...
en faisant l'impasse sur ces observations, comme ils l'ont toujours fait dans le passé, lors de la rédaction du prochain rapport AR5 du GIEC...
Quoique ...

 

En guise de conclusion (provisoire, bien sûr) giecsunk

 

 

Quand je vous disais, comme Madhav L. Khandekar, qu'au mois d'août 2007, le fier paquebot, soi-disant insubmersible, des irréductibles de la théorie de l'effet de serre anthropogénique était en train de prendre l'eau....lentement mais sûrement.

 

Mr Schwarzenegger (Californie), Mr Ban Ki Moon (ONU), Mr Donald Kennedy (Science), Mr Pachauri (GIEC), Mr James Hansen, Mr Al Gore, Sir pascontentStern (UK) et bien d'autres, comme le webmaster du site manicore "La discussion est-elle terminée " ?

L'article de Stephen E. Schwartz et al n'utilise que des données mesurées par des expériences sur le terrain. De même que celui de A. Tsonis et al. Ou encore celui de P. Chylek et al. Tout comme d'ailleurs celui de Douglass et al. Ou encore ceux de Wentz et al, Spencer et al, Lindzen et Choi, Knorr, Scafetta, Ram etc...tous publiés dans des revues sérieuses à comité de lecture et qui restent superbement ignorés.

Ne sont ils pas plus crédibles que les projections sur ordinateur avec un grand nombre de paramètres inconnus qui viennent d'être sérieusement remises en question en les confrontant avec la réalité dans les articles décrits ci-dessus ?

Combien faudra-t-il encore d'articles publiés dans les revues renommées et à comité de lecture et qui tous démontrent que la théorie et les modèles en vigueur sont régulièrement remis en cause, pour que les scientifiques du GIEC et les politiques se réveillent et commencent à se poser des questions ?

A suivre

ajouté courbes de Willie Soon (2005) le 20/10/08
ajouté référence de la PRL de Mauas et al d'octobre 2008 ainsi que les résultats de Courtillot et al. le 9 nov 2008
ajouté notice sur l'Abbé Moreux le 14/11/08.
ajouté analyse de l'article de Robert Baker le 27/12/08
ajouté analyse de l'article de Knudsen et Riisager le 20/01/09
ajouté analyse de l'article sur la mesure des températures stratosphériques avec les muons (23/01/09)
ajouté l'analyse de l'article de Shaviv 2008 sur le facteur d'amplification (1/03/2009)
ajouté plan en haut de page. (03/30/09)
ajouté article de Gray (14/03/09)
ajouté article Lindzen sur rétroactions (31/03/09)
ajouté texte sur Michel Magny et Bas Van Geel (chronologie)(10/04/09)
ajouté texte sur Elizabeth Nesme-Ribes (chronologie) (19/04/09)
ajouté texte sur arrivée de la chambre du projet CLOUD à Genève (10/06/09)
ajouté texte sur les évènements de Forbush et les nuages par Svensmark (08/07/09)
ajouté note sur les observations Russo-Brésiliennes de la relation pluviométrie-Forbush (10/07/09)
ajouté texte de Spencer (20/07/09) sur les modèles.
ajouté commentaire sur article Lindzen Choi -ERBE (30/07/09)
ajouté billet sur le projet Earthshine (02/09/09)
ajouté billet sur la cosmo-dendrochronologie (02/11/09)
ajouté billet sur la "airborne fraction of CO2 de Knorr" (18/11/09)
ajouté complément dans Baker sur le travail de Scafetta (PMOD versus ACRIM) (25/11/09)
ajouté article de N. Scafetta : comparaison TSI/ température sur 4 siècles. (13/01/10)
ajouté courbe de Sciences (Carslaw, Harrison et Kirkby) (06/02/10)
Ajouté article de Lockwood et al sur UK-Europe et solar activity. (02/05/10)
Ajouté addendum Vinje sur les corrélations [durée des cycles solaires - températures ou extension des glaces] (05/05/10)
Ajouté article de Le Mouël et Courtillot sur le LOD et l'activité solaire (le 22/05/10).
Ajouté article de Ram et Tinsley sur les poussières dans le GISP2 (le 30/05/10)
Ajouté l'article de Kirkby sur les premiers résultats de CLOUD (le 12/06/10)
Ajouté " à la recherche du hostpot perdu". Christy et al 2010 (le 25/10/10)
Ajouté : Témoignage de Richard Lindzen devant la chambre des Représentants US, le 17 Nov 2010.(le 23 Nov 2010)
Ajouté : Photo de Millikan qui pensait que les rayons cosmiques pouvaient affecter le climat (18 Déc. 2010)
Ajouté : Addendum sur l'article de Kramm et Dluigi 2011 (6 Janvier 2012)
Ajouté : 5 articles qui parlent des effets des éruptions solaires sur le climat. (30 Mars 2012)

 

 

 

 

bonnet d'ane
Le Prix d'Honneur
K,