La sainte courbe


 











Jusque dans les années 90, la courbe tirée du premier rapport du GIEC synthétisait l’évolution de la température de la Terre durant le dernier millénaire et faisait apparaître l’optimum médiéval et le petit âge de glace.


Il semble qu’elle ait été dessiné un peu hâtivement, à partie d’un article de Hubert Lamb écrit en 1965 et qui ne concernait que les températures du centre de l’Angleterre. La lecture de cette courbe pourrait ne générer aucune panique climatique puisque les températures de l’optimum médiéval sont plus élevées qu’aujourd’hui. L’épisode que nous vivons est d’une grande banalité.

L’optimum climatique et le petit âge de glace posaient un gros problème au tenant de l’effet de serre. Mais dans une étude de Mickael Mann publiée en 1998, surnommée MBH98, une nouvelle courbe est proposée qui fait disparaître d’un trait l’optimum climatique et le petit âge de glace [4]. L’année suivant, les mêmes auteurs publient une deuxième étude (MBH99) reconstituant la température moyenne jusqu’à l’an mil [5].

C’est la figure maîtresse qui va illustrer le 3° rapport du GIEC et montrer de manière éclatante la rupture évidente induite par le CO2. Cette envolée lui a valu le nom de « crosse de hockey ». L’homme est donc le grand fautif. Les médias se délectent de cette courbe tellement éclatante dont la méthodologie de construction résulte d’une vaste synthèse de données très variées (dendro-chronologie, carottes glaciaires, coraux, mesures directes des températures…). Elle semble inattaquable. Le « forçage anthropique », c’est à dire l’action de l’homme, est le seul moyen qui permet d’expliquer son allure.

 

Fouiner peut rapporter gros.

Steve McIntyre, un homme d’affaire canadien, décide de s’intéresser en amateur aux aspects techniques de la crosse de hockey en s’associant à Ross McKitrick un économiste de l’université de Guelph (Ontario).

En quelques mois ils dissèquent les données exploitées dans MBH98 et dressent un bilan accablant : séries tronquées ou au contraire arbitrairement prolongées, erreurs de stockage des données allant du décalage temporel de l’une d’elles au doublement d’une autre (utilisée donc 2 fois), fusion arbitraire et non justifiée de certaines séries, utilisation de données obsolètes, erreurs de localisation géographique (des données comme étant celles des précipitations en Nouvelle-Angleterre correspondent en fait aux précipitations de Paris)…

Bien que contrainte à rédiger un correctif dans la revue Nature, Mann et son équipe assènent qu’ »aucune de ces erreurs n’affecte nos résultats précédemment publiés ». C’est clair.

 

Comment jouer avec les mathématiques.

L’algèbre sans parti pris.

Il n’y a pas de marqueur parfait de la température. L’on est donc conduit à croiser des informations de différents marqueurs, tous imparfaits.

Dans la situation idéale, l’utilisation de marqueurs parfaitement corrélés à la température permettent d’obtenir des points quasiment alignés. Il est alors possible de tracer une courbe de température reliant les différents points.

Dans la réalité, il n’y a jamais de corrélation parfaite entre les marqueurs. Il s’agit plutôt d’un « nuage de points » que l’on va tenter de rassembler autour d’une droite dont les points sont collectivement les plus proches. Cette droite porte le nom de première composante principale. Une fois qu’elle est définie, on écrase par projection orthogonale tous les points du nuage qui gravitent à distance. Ce procédé permet de retrouver une courbe qui ressemble à celle du GIEC de 1990 (optimum et âge de glace) avant l’étude de Mann. Cette technique de forçage est la moins mauvaise possible compte tenu de l’incohérence partielle entre les différents marqueurs.

Mais comment trace-t-on la première composante principale ?

On définit d’abord le centre de gravité du nuage de points par lequel, selon un théorème mathématique, passe la composante. Cette opération s’appelle le centrage. Puis on choisit parmi toutes les droites qui passent par le centre de gravité, celle qui est la plus proche d’aligner les points du nuage. Ces deux étapes s’effectuent à l’aide d’outil classique d’algèbre.

L’algèbre un peu trafiquée.

L’article MBH98 ne le mentionne pas, mais l’étape du centrage ne s’effectue pas de cette manière pourtant la plus courante. Le centrage est effectué sur les valeurs les plus récentes considérées comme les plus sûres. 

Les conséquences d’un tel parti pris sont très avantageuses pour la théorie officielle du GIEC. La courbe reconstituant les températures montre un XX° siècle désormais plus chaud que les XI°, XII° et XIII° siècles. La crosse de hockey est là. Changer le centrage modifie donc la reconstitution des températures. Selon McIntyre et McKitrick, la courbe en crosse de hockey n’est rien d’autre que le résultat de l’application d’une méthode incorrecte.

Ce centrage n’a rien de fortuit. Sur les 10 000 simulations qu’ils effectuent, une crosse de hockey apparaît pour ainsi dire toujours !

Ce centrage fait que les périodes les plus anciennes forment un ensemble de données qui ne peuvent plus être distinguées, d’où la stabilité des températures jusqu’au milieu du XIX° siècle et l’ascension phénoménale du XX° siècle. L’optimum médiéval et le petit âge de glace sont donc sacrément estompés.

De nombreux marqueurs utilisés par Mann ont été critiqués par l’analyse de McIntyre, certains dotés d’un poids considérable et déraisonnable, comme l’analyse des cernes de croissance des thuyas d’Occident qui pèsent 400 fois plus que d’autres séries impliquant d’autres marqueurs.

 

Le rapport Wegman.

Un comité indépendant, du nom du statisticien Edward Wegman (université George Mason) a publié en 2006 un rapport dont le verdict fut sans appel. Il confirmait intégralement les analyses de McIntyre et McKitrick sans la moindre pitié pour Mann et son équipe et mettait en pièce la méthodologie algébrique utilisée dans MBH98. Ce rapport mettait également en évidence une « filière » d’auteurs proches de Mann, mais présentés comme indépendants, qui reproduisaient eux aussi une crosse de hockey selon la même méthodologie que MB98. Autrement dit, il s’agit de reproduire la même erreur à l’infini. Comme le souligne Benoît Rittaud [1] à propos du « Climategate » divulguant plus de 3000 courriels de l’université d’East Anglia, foyer majeur du carbocentrisme, dont la tonalité était sans équivoque : « la filière décrite dans le rapport Wegman à partir d’outils purement statistiques n’a rien d’imaginaire ».

 

Mickael Mann continue à boire la tasse.

Signes des temps, dans son 4° rapport publié en 2007, le GIEC remplace la courbe en crosse de hockey par un «graphe en spaghettis», nouvel avatar guère plus compréhensible, décortiqué par McIntyre sur son site internet (Climate Audit, 26 octobre 2006). Un autre revers subit par Mann en 2008 provient de Jolliffe, spécialiste évoqué par Mann lui-même pour défendre son approche statistique.

Jolliffe réagit violemment en s’exclamant au sujet de l’étude MBH98, « je ne vois pas comment interpréter les résultats produits par cette étrange manière de centrer…J’ai vu l’argument selon lequel le centrage ordinaire et partiel sont 2 manières de décrire les données. Si les 2 sont bonnes, quelle perversion peut bien pousser à choisir la technique dont les résultats sont les plus difficiles à interpréter ?».

Toujours plus fort, après un harcèlement de plusieurs années, Keith Briffa (université d’East Anglia) a finalement communiqué en 2009 à McIntyre les détails d’une autre série provenant de la péninsule de Yamal. Celle-ci utilise les données de 5 arbres (!) pour l’année 1995, alors que d’autres séries régionales plus nombreuses n’indiquent pas un XX° siècle particulièrement remarquable. Signalons que la série statistiquement très douteuse de 5 arbres a été utilisée dans près d’une dizaine de publications traitant de la construction de la courbe de Mann.

 

Conclusions : dogmatisme et pensée simpliste.

« Mann cherche à être cru, ses adversaires cherchant à être compris [1] ». Evidemment, McIntyre, ancien prospecteur minier, a été considéré comme inféodé à l’industrie. Argument classique des carbocentristes. Rien n’est réglé comme le montre le rapport de l’Académie des sciences américaine de 2006 en affirmant que la prudence doit être de mise dans la reconstitution de température globale au-delà de quatre siècles.

Autrement dit, rien n’est intangible, nombre d’arguments mettant en cause la thèse de l’effet de serre mis sous l’éteignoir pendant des années peuvent à nouveau être examinés sérieusement.

D’excellents scientifiques et parmi eux des climatologues de renom sont climato-sceptiques sans être tous pourris et inféodés à des lobbies sans foi ni loi. Les outrances catastrophistes des défenseurs de la théorie de l’effet de serre ressemblent fort à des logiques de manipulation en conflit profond avec la liberté de penser qu’exige l’esprit scientifique. « Si elle ne veut pas sombrer dans la bêtise, la climatologie doit s’ouvrir aux thèses des climato-sceptiques, autrement dit à redonner au scepticisme scientifique la place qui lui revient [6] ».

L’arrogance dogmatique du GIEC fait fuir de plus en plus de scientifique de renom. C’est le cas par exemple de Judith Curry, professeur à l’école des sciences de l’atmosphère et de la Terre (institut de technologie Géorgie), climatologue reconnue pour ses travaux sur les nuages. Ses prises de position dorénavant sceptiques irritent la communauté des climatologues, « Hérétique du climat : Judith Curry agace ses collègues [7] ». Cette dernière combat le concept de sensibilité climatique, idée que l’atmosphère est hypersensible aux émissions de CO2, une légère augmentation de sa concentration pouvant engendrer des effets catastrophiques). Cette notion n’a pas de sens physique.

Mikael Hulme, professeur de l’Université d’East Anglia, dans un article intitulé « l’année où la science climatologique a été définie [8] », dresse un bilan très mitigé de l’après Copenhague 2010. » L’affaire du Climagate a permis l’ouverture à de nouvelles analyses des ensembles d’observations qui étayent la détection des tendances aux changements climatiques (…) des appels pour une plus grande transparence autour de l’analyse scientifique ont relancé le projet du Climate Code Foundation et ses efforts pour rendre tous les codes climatiques en accès libre ». On ne peut que souscrire à une telle analyse.

« Finalement, la logique consistant à faire passer les climato-sceptiques pour des criminels est d’une grande pauvreté intellectuelle. Cette stratégie étant désormais très risquée car elle refuse de faire face à une série de problèmes scientifiques déterminants dorénavant sur la place publique [6] ».

TL, novembre 2011.

 

Bibliographie :

1. Benoît Rittaud. Le mythe climatique. Editions du Seuil, 2008.

2.V. Courtillot ; Nouveau voyage au centre de la terre. Editions Odile Jacob.2009.

3. H. Arezki. Climat, mensonges et propagandes. Editions Thierry Souccar. 2010.

4. Mann.M et al. »Northern hemisphere temperarure patterns and climate forcing over the past six centuries”, Nature, 392:779-787. 1998

5. Mann.M et al;” Northern hemisphere temperature during the past millenium”. Geophysical Research Letters, 26:759-762; 1999.

6. F. Meynard. La légende de l’effet de serre. Editions FAVRE, 2011.

9. Du 25/10/2010.Cf.www ;scienticamerican.com/article.cfm ?id=climate-heretic

10. The Guardian, 16 octobre 2010.