7 Octobre 2025
La détermination de la température moyenne de la Terre est un processus complexe qui repose sur un réseau mondial de mesures, des méthodes statistiques rigoureuses et des corrections destinées à éliminer les biais potentiels. Contrairement à une idée reçue, il ne s’agit pas d’une simple moyenne arithmétique des températures enregistrées à la surface du globe, mais d’une reconstruction méthodique qui intègre des données provenant de sources multiples, chacune présentant ses propres limites et incertitudes. Les climatologues utilisent principalement quatre types de mesures pour estimer cette température moyenne : les stations météorologiques terrestres, les bouées et navires océaniques, les satellites, et plus récemment, les réanalyses climatiques qui combinent observations et modèles numériques. Chaque source contribue à une partie du puzzle, mais leur intégration nécessite des ajustements pour tenir compte des variations de couverture spatiale, des changements dans les instruments de mesure au fil du temps, et des effets locaux comme les îlots de chaleur urbains.
Les stations météorologiques terrestres constituent la pierre angulaire de ce système de mesure depuis le milieu du XIXe siècle. Elles enregistrent la température de l’air à environ 1,5 à 2 mètres au-dessus du sol, dans des abris standardisés (comme les abris Stevenson) conçus pour protéger les thermomètres des rayonnements directs et des précipitations tout en permettant une circulation d’air optimale. Le réseau actuel compte plus de 30 000 stations, mais leur répartition est inégale : dense en Europe et en Amérique du Nord, plus clairsemée en Afrique, en Amazonie ou dans les régions polaires. Cette disparité spatiale pose un problème majeur, car les zones sous-représentées peuvent avoir des caractéristiques climatiques très différentes des régions bien couvertes. Pour y remédier, les scientifiques utilisent des méthodes d’interpolation spatiale, comme le krigeage ou les analyses par grilles, qui estiment les températures dans les zones sans stations en s’appuyant sur les données des points de mesure les plus proches et sur des modèles de variation climatique régionale. Par exemple, le jeu de données HadCRUT (développé conjointement par le Met Office britannique et l’unité de recherche climatique de l’université d’East Anglia) divise la surface terrestre en grilles de 5° x 5° et calcule des anomalies de température par rapport à une période de référence (généralement 1961-1990), plutôt que des valeurs absolues, ce qui réduit les biais liés à la couverture inégale.
Les océans, qui couvrent 71 % de la surface terrestre, jouent un rôle crucial dans le calcul de la température moyenne globale, car ils absorbent plus de 90 % de l’excès de chaleur dû au réchauffement climatique. Leur température est mesurée de deux manières principales : par des navires marchands et scientifiques équipés de capteurs (historiquement des seaux pour prélever l’eau de mer, puis des thermomètres automatiques depuis les années 1990), et par un réseau de bouées dérivantes (Argo), déployées depuis 2000, qui enregistrent la température et la salinité jusqu’à 2 000 mètres de profondeur. Les données océaniques posent cependant des défis spécifiques. Avant les années 1940, les mesures étaient principalement effectuées le long des routes commerciales, laissant de vastes zones comme l’océan Austral ou le Pacifique central sous-échantillonnées. De plus, les méthodes de prélèvement ont évolué : les seaux en bois, puis en toile, donnaient des températures légèrement inférieures à celles mesurées par les capteurs modernes en raison de l’évaporation pendant le prélèvement. Les climatologues appliquent donc des corrections systématiques, comme celles proposées par la NOAA (National Oceanic and Atmospheric Administration), pour homogénéiser les séries temporelles. Par exemple, le jeu de données ERSSTv5 (Extended Reconstructed Sea Surface Temperature) ajuste les biais historiques en comparant les mesures des navires avec celles des bouées et des satellites.
Les satellites, utilisés depuis les années 1970, offrent une couverture globale et homogène, mais ils ne mesurent pas directement la température de l’air près du sol. Ils enregistrent plutôt le rayonnement micro-ondes émis par l’atmosphère dans différentes couches, depuis la surface jusqu’à la haute troposphère. Les instruments comme MSU (Microwave Sounding Unit) et ATMS (Advanced Technology Microwave Sounder) permettent de déduire la température de la basse atmosphère (jusqu’à environ 8 km d’altitude) avec une précision de l’ordre de 0,1 °C. Cependant, ces mesures doivent être corrélées avec les données au sol pour être intégrées dans les calculs de température moyenne globale. Les séries satellitaires, comme celles de l’université de l’Alabama à Huntsville (UAH) ou de RSS (Remote Sensing Systems), sont essentielles pour valider les tendances observées par les stations terrestres et océaniques, mais elles présentent aussi des incertitudes, notamment liées à la dérive orbitale des satellites ou aux changements d’instruments au fil des décennies. Par exemple, la transition entre les satellites NOAA-14 et NOAA-15 dans les années 1990 a introduit des discontinuités qui ont nécessité des recalibrations complexes.
Pour combiner ces différentes sources de données, les climatologues utilisent des méthodes de réanalyse, qui fusionnent observations et modèles numériques pour produire des champs de température globaux cohérents. Des projets comme ERA5 (European Centre for Medium-Range Weather Forecasts) ou MERRA-2 (NASA) assimilent des milliards de points de données dans des modèles météorologiques pour reconstruire l’état de l’atmosphère, des océans et des surfaces continentales sur plusieurs décennies. Ces réanalyses permettent de combler les lacunes spatiales et temporelles, mais elles dépendent de la qualité des modèles utilisés et des hypothèses faites pour traiter les données manquantes. Par exemple, dans les régions polaires, où les stations sont rares, les réanalyses s’appuient davantage sur les données satellitaires et les modèles de circulation atmosphérique.
Enfin, le calcul de la température moyenne globale nécessite de pondérer les différentes zones en fonction de leur surface. Comme la Terre est une sphère, les régions polaires (proches des pôles) couvrent une surface moindre que les zones tropicales ou tempérées. Les climatologues utilisent donc une méthode de moyenne pondérée par la surface des cellules de grille, où chaque point de mesure est affecté d’un poids proportionnel à la surface qu’il représente. Par exemple, dans le jeu de données GISTEMP (NASA), la Terre est divisée en cellules de 2° x 2°, et la température moyenne est calculée en tenant compte de la surface réelle de chaque cellule, évitant ainsi une surreprésentation des hautes latitudes. Les incertitudes résiduelles, estimées à environ ±0,05 °C pour les anomalies annuelles récentes, proviennent principalement des lacunes de couverture (notamment avant 1900), des biais instrumentaux et des méthodes d’interpolation.
En résumé, la température moyenne de la Terre n’est pas une mesure directe, mais une construction scientifique qui repose sur l’intégration de données hétérogènes, des corrections méthodologiques et des modèles statistiques. Les séries historiques comme HadCRUT5, GISTEMP, NOAAGlobalTemp et Berkeley Earth convergent pour montrer une hausse d’environ +1,1 °C depuis la période préindustrielle (1850-1900), mais leurs différences reflètent les choix méthodologiques de chaque équipe. Les progrès récents, comme l’utilisation de l’intelligence artificielle pour combler les lacunes ou l’amélioration des capteurs satellitaires, réduisent progressivement les incertitudes. Cependant, la mesure précise de cette température reste un défi permanent, essentiel pour évaluer l’ampleur du réchauffement climatique et guider les politiques d’atténuation.