Ou est le thermomètre?











Tout le monde est d’accord aujourd’hui pour dire que la Terre s’est réchauffée au XX° siècle. Ce constat étant fait, le problème reste entier : qu’elle est l’ampleur réelle du phénomène et son origine ?    

Pour parler de température globale, il faut disposer à la surface du globe des thermomètres afin de constituer un réseau dense et homogène de capteurs. Chacun de ces thermomètres devrait fournir à intervalle régulier des données de température. Il suffirait donc de calculer la moyenne.

 

Un problème basique d’intendance [1,2]. 

La totalité des stations météorologiques se situent sur les terres émergées qui constituent 30% de la surface du globe. Les deux tiers se trouvent aux Etats-Unis qui représentent 7% des terres émergées.

De 1900 aux années 1970, le nombre des stations a augmenté beaucoup jusqu’à atteindre 6000 postes de mesure. Leur nombre a chuté considérablement à partir des années 1990, pour atteindre 1500 dont la moitié aux Etats-Unis. Cela n’empêche pas la CRU (Climatic Research Unit, Université d’East Anglia) et le GISS (Goddard institute for space studies) de calculer la température moyenne avec un indicateur instable, le tout avec une précision qui défie l’entendement (quelques dixièmes de degré près sur plus de 150 ans, et une marge d’incertitude minime à peine plus élevée en 1850 qu’en 2000).

E.M. Smith (ingénieur informaticien) et J. D’Aleo (météorologue) se sont penché sur la manière dont la NASA et donc le GISS de James Hansen (le pape de la théorie du réchauffement climatique) choisi ses stations pour calculer la température moyenne globale [3]. Les résultats montrent par exemple un important réchauffement de la Bolivie, sauf que le nombre de stations est tombé à zéro depuis 1990. La température des stations disparues sont reconstituées grâce à des stations voisines de ….plus d’un millier de kilomètres.

Au Canada, le nombre des stations a chuté de 600 à 35 en 2009, le nombre de stations de basse altitude a triplé celle de haute altitude réduite de moitié. Conséquence logique, un réchauffement de la région. Il ne reste qu’une seule station au-delà de la latitude 65°N alors que l’Arctique canadien s’étend jusqu’au 82°N. Seules 25% des stations sibériennes ont été utilisées.

Bref, l’on voudrait absolument nous réchauffer que ‘l’on ne s’y prendrait pas autrement’ en occultant les stations les plus fraîches, en éliminant les stations les plus septentrionales ou celles ne montrant pas la tendance souhaitée.

Cependant, depuis quelques années des données satellitaires sont disponibles qui remplaceront les mesures faites au sol. On peut d’ailleurs s’interroger sur les raisons pour lesquelles le GISS les utilise si peu. Le calcul de la température globale intègre également des données océaniques selon une méthodologie particulière.

Depuis plus de 10 ans, le défaut de fiabilité des relevés au sol des températures est un problème reconnu [4]. Outre la mauvaise répartition des stations, les différences d’altitude et de hauteur des capteurs par rapport au sol, le problème le plus criant et le plus fameux est celui de l’îlot de chaleur urbaine. Des stations météo qui se trouvaient à la campagne il y a 60 ans, se trouvent aujourd’hui au milieu d’un environnement urbain. Le résultat est une élévation de la température mesurée. Comment comparer la température d’il y a un siècle à celle d’aujourd’hui ? En ajustant des données qui tiennent compte de cet effet »îlot ».

Selon un rapport d’étape de mai 2009 [5], seules 11% des stations américaines répondent aux critères de qualité édictés par la NOAA (Administration nationale américaine sur les océans et l’atmosphère).

Résultat de l’effet « îlot »: 11% des stations mesurent une température supérieure à 5° C au-dessus de la réalité, 58% sont soumises à une erreur possible de plus de 2°C. Le réseau américain est pourtant considéré comme l’un des plus fiables au monde.  

L’erreur en cause est d’utiliser un outil pour effectuer une tâche qui n’est pas celle pour laquelle il a été conçu.

 

Homogénéisons c’est plus sage.

Les motifs de surestimation de la température sont donc nombreux. C’est pourquoi, les données brutes sont peu utilisées. Elles passent dans les mains d’experts qui corrigent les séries de données afin de faire disparaître au mieux ces biais. C’est l’homogénéisation. Tout le problème est de savoir comment homogénéiser.

Durant la première moitié du XX° siècle, la NOAA n’apporte pas de corrections à ses séries. C’est à partir de 1960 qu’elles deviennent de plus en plus importantes, culminant en 1990, toujours positives soit 0,3°C. Ces corrections touchent essentiellement les stations rurales. Avant toute correction, les stations urbaines, logiquement, montrent une augmentation des températures à partir des années 60, les stations rurales ne montrant aucun signe en faveur d’un quelconque réchauffement. Il s’agit d’un excellent exemple de l’effet « îlot ».

Une fois les données corrigées, les stations rurales sont alignées sur les stations urbaines et montrent alors une élévation majeure des températures pour les deux types de stations [6]. Le réchauffement climatique est alors patent. L’étude de Long [6] faisait suite à la publication par le GISS en 2008 de la modification des données concernant la courbe d’évolution de la température moyenne des Etats-Unis publiée 9 ans plus tôt. Les valeurs chaudes des années 1920-1940 avaient été diminuées, alors que les plus récentes étaient augmentées [7].

Ces arrangements avec les chiffres ne sont pas isolés. La Nouvelle-Zélande dispose d’une base de données remontant à 1850. Après ajustement des données brutes, les services météorologiques du pays ont annoncés une hausse de la température de 1°C. Cependant, des doutes sur le bien-fondé des ajustements ont amené un groupe d’experts indépendants, la New Zealand Climate Science Coalition (NZCSC), à demander l’accès aux données originales non ajustées. Après l’affaire du Climategate, les services de la météorologie nationale ont été contraints d’accepter l’accès aux données brutes fin 2009. La NZCSC a démontré clairement que les températures les plus anciennes ont été diminuées (jusqu’à 1,3°C), les plus récentes majorées sans raisons apparentes [8]. Les données brutes ne montrent aucun réchauffement (+0,06°C, donc non significatif).

 

Le coude de l’urbanisme [1]. 

L’artéfact des îlots de chaleur urbaine est bien connu, sa correction devrait faire intervenir les archives du cadastre, l’effet du bitume, des murs… sur les stations météo. Trop cher, trop long. On règle le problème avec des expédients mathématiques. Le CRU et le GISS délivrent mensuellement une évaluation de la température à partir des stations au sol. Concernant le CRU, certains éléments essentiels ne sont pas communiqués sur la méthode de traitement des données.

Pour le GISS, c’est plus clair puisque les données ont été rendues publiques en 2008 après des demandes insistantes des sceptiques.

Comment donc le GISS tient-il compte des îlots de chaleur ?

Partons d’une station rurale à l’origine qui se retrouve progressivement en milieu urbain. Une hausse artificielle des températures s’est donc produite à un moment donné. Il y a donc un coude dans la courbe des températures, ce coude (ou point qui fait l’angle), est supposé marquer la date du début de l’urbanisation. L’angle entre les deux demies droites quantifie l’îlot de chaleur urbaine. Les données sont alors corrigées en conséquence à la suite d’une procédure complexe. 

 Il ne faut pas perdre de vue que les données sont toujours corrigées selon des techniques statistiques plus ou moins sophistiquées dont l’emploi est loin d’être innocent. Pour exemple, une étude de Steig et al (Nature, 2009) affirmait que l’Antarctique se réchauffait durant les 50 dernières années contrairement à ce qui était accepté jusque-là. Sauf que ce résultat ne reflétait aucun élément observationnel nouveau mais était le résultat de la technique statistique utilisée qui continue à faire débat.

 

Tout est dans la moyenne, mais laquelle ?

Quel sens accorder à l’idée de « température globale » ? En thermodynamique, une température est une moyenne (la moyenne quadratique des énergies cinétiques des molécules du milieu…ouf). La synthèse des températures relevée par une station météo s’effectue en calculant la moyenne entre les valeurs extrêmes. La « température globale » s’obtient par une moyenne pondérée de ces températures des stations.

« La température globale» est donc la moyenne d’une moyenne de moyennes qui en outre ne sont pas de même nature : quadratique pour l’une, arithmétique d’extrême pour la deuxième, arithmétique pondérée pour la troisième.

Pour définir une moyenne de la température globale, quelle définition est-il légitime de retenir ?

Ce choix est crucial comme l’a bien montré Christoper Essex (Journal of Non-Equilibrium Thermodynamics, 2007) qui prenait l’exemple d’une tasse de café chaud et d’un verre d’eau froide placés dans une pièce à température ambiante. En prenant quatre définitions différentes de la moyenne (harmonique, arithmétique, quadratique et quartique) de la température globale du système (café, verre, pièce), le calcul pour certaines moyennes montrent un réchauffement, un refroidissement pour d’autres. Le système restant évidemment identique. L’article conclu en défendant l’idée que, pour des raisons théoriques, il ne saurait exister une définition de la « température globale » thermodynamiquement incontestable.

 

Au total

Comme le fait remarquer Benoît Rittaud1, « l’indicateur de « température globale » utilisé, est encore trop mal défini, calculé de manière trop imprécise, son sens physique est mal cerné. Il n’est pas légitime de lui accorder une signification très fiable et doit être manipulé avec prudence ».

Il est bien difficile d’établir une température globale et son évolution d’autant que les modèles mathématiques et informatiques utilisés ne sont pas exempts de critique. Des critères de qualité existent pour limiter les risques d'erreur : rapports de validation, tests, contrôles indépendants...Des normes industrielles ont été mises au point, d'autant plus strictes qu'une erreur peut coûter très cher. Or, il ne semble pas que les modèles climatiques aient été soumis à un contrôle selon ces normes. En conséquence il convient de les considérer d'abord comme des outils de recherche, certainement du plus grand intérêt pour faire progresser la climatologie, mais non comme des mécaniques dont on pourrait suivre en confiance les prévisions.

TL, septembre 2011.

 

Bibliographie

1. Benoît Rittaud. Le mythe climatique. Editions du Seuil, 2008.

2. H. Arezki. Climat, mensonges et propagandes. Editions Thierry Souccar. 2010.

3. http://icecap.us/image/uploads/NOAAroleiclimategate.pdf

4. http://www.john-daly.com/ges/surftmp/surftemp.htm

5. http://www.surfacestations.org

6. Long E.R. (2010): Contiguous US. Temperature trends using NCDC raw and adjusted data for one-per-state rural and urban stations sets, Science and Public Policy Institute, 14 p.

7.http://bobtisdale.blogspot.com/2009/06/contiguous-us-gistemp-linear-trends.html

8.http://www.climatescience.org.nz/images/PDF