Séance du lundi 21 janvier 2002
par M. Gérard Mégie
Depuis sa formation au sein du système solaire, voilà environ quatre milliards et demi d’années, la Terre a continûment évolué à l’échelle des temps géologiques. Ces évolutions, qui ont concerné tous les compartiments de notre planète — continents, océans, biosphère — ont conduit, par étapes successives, à l’apparition de la vie, distinguant ainsi la Terre des autres planètes du système solaire. Jusqu’au début du 20ème siècle, elles ont trouvé leur origine dans des phénomènes naturels, liés en particulier aux variations de l’orbite et de l’inclinaison de la Terre dans sa course autour du soleil. Mais, l’explosion démographique, le développement des activités industrielles et agricoles, la multiplication des moyens de transport ont entraîné, au cours du dernier siècle, des changements profonds de notre environnement qui affectent l’ensemble de la planète.
La planète Terre se caractérise par la présence de plusieurs compartiments qui tous conditionnent aujourd’hui l’équilibre de la vie : continents, océans, biosphère terrestre et biosphère marine, atmosphère. Cette dernière, que l’on peut identifier par la présence des nuages et par sa couleur bleue liée à la diffusion de la lumière solaire, est une enveloppe extrêmement ténue dont l’extension verticale n’est que de quelques dizaines de kilomètres. Elle est donc particulièrement fragile, d’autant que sa composition chimique reflète pour une large part les émissions naturelles et anthropiques à la surface de la Terre. Ainsi, outre l’azote qui représente les 4/5 de l’abondance totale, la présence de l’oxygène, autre constituant majoritaire de cette atmosphère, résulte directement de l’équilibre entre la photosynthèse et la respiration. La présence de l’eau sous ses différentes formes est une autre caractéristique essentielle de cet équilibre de la planète Terre : liquide dans les océans, liquide ou solide dans les nuages, enfin sous forme de vapeur dans l’atmosphère où elle ne représente d’ailleurs qu’un très faible pourcentage de l’abondance totale, quelques % dans les zones humides et moins d’un millième dans les régions sèches.
Mais il existe également dans l’atmosphère terrestre d’autres gaz, en quantités relativement faibles, tels que le dioxyde de carbone ou gaz carbonique (365 millionièmes ou parties par million – ppm), le méthane (1.8 ppm), l’oxyde nitreux (0.3 ppm) et l’ozone (0.05 ppm au voisinage de la surface, 4 à 6 ppm dans la stratosphère entre 20 et 40 km d’altitude), qui eux aussi jouent un rôle fondamental dans l’équilibre énergétique de la Terre, et donc dans celui de la vie. D’une part ils filtrent le rayonnement solaire incident — c’est principalement le rôle de l’ozone dans la stratosphère terrestre qui empêche ainsi la pénétration jusqu’au sol d’un rayonnement ultraviolet solaire qui détruirait les molécules constitutives de la matière vivante — et d’autre part ils absorbent une partie du rayonnement qui est émis par la surface de la Terre dans le domaine des longueurs d’onde infrarouges et le renvoient partiellement vers cette même surface. Ils contribuent ainsi à apporter un surplus d’énergie thermique qui permet de maintenir la température moyenne de la planète à la valeur de 15°C que nous connaissons aujourd’hui. Si cet effet de serre naturel n’existait pas, la température de la Terre serait de –18°C et l’eau liquide n’aurait pas pu se maintenir à sa surface. C’est d’ailleurs ce qui est vraisemblablement arrivé sur la planète Mars, plus éloignée du soleil et donc plus froide. Sur Terre, cet effet de serre est dû pour les 2/3 à la vapeur d’eau et pour 1/3 au dioxyde de carbone. Il convient donc de remarquer que ni l’oxygène moléculaire ni l’azote moléculaire, constituants les plus abondants de l’atmosphère, ne jouent de rôle dans ce mécanisme, dans la mesure où leurs structures moléculaires ne leur confèrent pas de propriétés d’absorption dans le domaine des longueurs d’onde infrarouges.
L’équilibre dynamique de la planète Terre modifié par les activités humaines
Pour mieux apprécier les perturbations de l’équilibre énergétique de la Terre potentiellement attribuées aux activités humaines, il est intéressant de revenir sur l’histoire de notre planète, notamment au cours des 400 000 dernières années, période pour laquelle nous disposons de données précises sur les équilibres climatiques. Celles-ci proviennent des archives que constituent les glaces polaires, en particulier celles accumulées au centre du continent Antarctique où leur épaisseur dépasse plusieurs kilomètres. En effet, lors du mécanisme de cristallisation qui donne naissance à la glace, de petites bulles d’air sont emprisonnées qui portent le témoignage de la composition de l’atmosphère à l’époque de leur formation. En extrayant des carottes de glace de plus de 3 kilomètres de longueur, ce qui représente à peu près l’épaisseur totale de la calotte glaciaire sur le continent Antarctique, les paléoclimatologues peuvent aujourd’hui restituer les variations de température et de concentrations des constituants minoritaires de l’atmosphère au cours des dernières centaines de milliers d’années.
L’analyse de ces données du passé nous montre que les climats de la Terre répondent aux variations de l’énergie qui parvient à sa surface en provenance du Soleil. Celle-ci subit des oscillations liées aux paramètres cosmiques de l’orbite et de la position de la Terre dans sa course autour du soleil. Elles sont caractérisées par des périodes récurrentes de 20 000, 40 000 et 120 000 ans et se traduisent par l’alternance de périodes froides, les âges glaciaires, et d’optima climatiques pendant les périodes interglaciaires. Les variations de température reflètent ces oscillations et l’on passe ainsi, en remontant le temps, de la période actuelle interglaciaire à un âge glaciaire voici 20 000 ans. Puis, on retrouve de nouveaux âges interglaciaires voici 120 000 et 240 000 ans, séparés par des périodes glaciaires pendant lesquelles les températures sont en moyenne plus froides de -6°C à -7°C. La surface de la Terre est alors profondément modifiée, notamment dans les régions de haute et moyenne latitudes de l’hémisphère nord, où une gigantesque calotte glaciaire apparaît. L’eau liquide s’accumule dans ces calottes et le niveau moyen des mers est inférieur de 80 mètres à sa valeur actuelle. En ce qui concerne l’atmosphère, le dosage du gaz carbonique et du méthane contenus dans les archives glaciaires montre que les teneurs de ces gaz dans l’atmosphère varient également en fonction des oscillations climatiques. Celles-ci sont plus faibles pendant les périodes glaciaires, avec des valeurs de 200 ppm pour le gaz carbonique et de 0.4 ppm pour le méthane. Mais, on constate également que jamais au cours des 400 000 dernières années la teneur en gaz carbonique n’a dépassé 280 ppm, jamais celle en méthane n’a dépassé 0.7 ppm.
Or, depuis un peu plus de deux siècles, la concentration des gaz à effet de serre, autres que la vapeur d’eau, augmente rapidement dans l’atmosphère. La teneur en dioxyde de carbone est aujourd’hui de 365 ppm. Celle du méthane a doublé au cours des 300 dernières années pour atteindre 1.8 ppm. L’oxyde nitreux (0.3 ppm aujourd’hui) a augmenté de près de 30 % en valeur relative. L’évolution de la teneur en gaz carbonique au cours des 30 000 dernières années illustre parfaitement l’ampleur et surtout la rapidité de cette perturbation. Alors que le passage de la teneur de 200 ppm, observée pendant la dernière ère glaciaire à la valeur interglaciaire de 280 ppm s’est faite en quelques milliers d’années, la perturbation due aux activités humaines depuis le début du 19ème siècle, qui est du même ordre de grandeur, s’est produit en moins de 200 ans. Il s’agit donc d’une variation extrêmement rapide à l’échelle des évolutions naturelles qui confirme que les activités humaines modifient fortement les teneurs en gaz carbonique et autres gaz à effet de serre dans l’atmosphère.
Mais cette augmentation dans l’atmosphère n’est que le reflet d’une perturbation beaucoup plus importante, qui affecte l’ensemble du fonctionnement de la planète Terre. Le carbone est en effet contenu dans chacun des compartiments de l’environnement terrestre : atmosphère, océan, biosphère, Terre interne. Dans l’atmosphère, on le trouve essentiellement sous forme de gaz carbonique. Sur les continents, on le trouve en profondeur dans les combustibles fossiles, et en surface dans la végétation et la matière organique des sols. Dans les océans, il est principalement sous forme de carbonates, en particulier dans le principal réservoir de carbone que constitue l’océan profond. Tous ces compartiments sont en équilibre entre eux grâce à des flux d’échanges permanents, comme par exemple la respiration et la photosynthèse entre l’atmosphère et la biosphère, les échanges gazeux entre l’atmosphère et les océans, ou l’assimilation du carbone par les microorganismes dans l’océan. Ce système complexe est équilibré à l’échelle des millénaires. Naturellement, lors de la transition entre une ère glaciaire et une période interglaciaire, les échanges entre compartiments de l’environnement terrestre se modifient et le système ne retrouve son équilibre qu’au bout de quelque siècles, voire quelques millénaires. Aujourd’hui l’homme induit à son tour un tel déséquilibre par les sources d’émission additionnelles qu’il contribue à créer : combustion des carburants fossiles (charbon, pétrole, gaz naturel), émissions dues au pratiques agricoles, déforestation qui diminue la capacité de la végétation à piéger le gaz carbonique contenu dans l’atmosphère. Certes, cette perturbation due aux activités humaines reste relativement faible en termes de flux d’échange, puisqu’elle correspond à l’émission annuelle de 7 milliards de tonnes (GtC) de carbone vers l’atmosphère, dont la plus grande part (6 GtC) est liée à la combustion des carburants fossiles. En effet, les flux d’échange naturels se chiffrent à l’équilibre en dizaine de milliards de tonnes. Mais cette amplitude est suffisante pour modifier les concentrations atmosphériques et surtout, sa rapidité est inquiétante. D’autant que dans le cas du gaz carbonique, seule la moitié des émissions anthropiques additionnelles restent dans l’atmosphère, puisqu’une partie (2.0±0.8 GtC) est absorbée par les océans, une autre, (1.9±1.9 GtC) par la végétation et les sols. Au-delà des incertitudes importantes sur les valeurs absolues de ces flux qui peuvent atteindre presque 100 %, nos connaissances restent aujourd’hui fortement limitées quant à leur répartition spatiale et à leur évolution temporelle sous l’effet des changements en cours. Nous ne savons donc pas avec précision si le stockage actuel par les océans et la biosphère est durable ou transitoire, ni à quelle échelle de temps le système pourra se stabiliser.
Ainsi, si l’on considère les océans, ceux-ci sont animés de courants profonds qui jouent le rôle d’un véritable tapis roulant connectant entre eux l’ensemble des bassins océaniques de la planète. Les eaux froides plongent dans l’océan Arctique, puis, après un trajet en profondeur à travers les océans Atlantique, Indien et Pacifique, remontent, entre un à deux siècles plus tard, dans les latitudes tropicales. Par conséquent, le gaz carbonique qui est entraîné aujourd’hui en profondeur dans l’Arctique ne « ressortira » que dans plus d’un siècle dans les tropiques. Ce délai fixe, par là même, la durée du déséquilibre induit par l’homme. Le même raisonnement s’applique à la biosphère : par le mécanisme de la photosynthèse, les arbres et la végétation fixent le gaz carbonique sous forme de carbone. Quand les arbres meurent, une partie se décompose dans les sols pour former de la matière organique, et une partie sera restituée dans l’atmosphère. Ce cycle complet prend à nouveau plusieurs dizaines d’années.
A coté du gaz carbonique, le rôle important des autres gaz à effet de serre
Le gaz carbonique n’est pas le seul contributeur à l’effet de serre additionnel, et il importe également de s’intéresser au rôle des autres gaz à effet de serre. Pourtant, la concentration relative du gaz carbonique est de 365 ppm, alors que celle du méthane n’est que de 1.8 ppm. Il existe donc un facteur 200 dans les rapports d’abondance, et on pourrait alors se demander s’il est bien utile de se préoccuper du rôle du méthane dans l’effet de serre additionnel. En fait, au-delà de la concentration des gaz dans l’atmosphère, il faut également prendre en compte leur capacité à absorber le rayonnement infrarouge et à le renvoyer vers la surface terrestre. Or, celle-ci dépend de la structure des molécules. Ainsi, si l’on met dans l’atmosphère la même masse de méthane et de gaz carbonique, le pouvoir de réchauffement du méthane sera 56 fois supérieur à celui du CO2. Dans le cas de l’oxyde nitreux, le facteur est de 280. Il est de 1 200 pour l’ozone de la basse atmosphère. D’autres gaz à effet de serre comme les chlorofluorocarbures, mis en cause dans la destruction de l’ozone stratosphérique, et qui étaient principalement utilisés dans l’industrie du froid, ont, à masse égale, un pouvoir de réchauffement entre 5 000 et 10 000 fois supérieur à celui du gaz carbonique. Heureusement, leur concentration dans l’atmosphère reste beaucoup plus faible, de l’ordre de 0.004 ppm. Lorsque l’on considère l’effet global des différents constituants, on constate que tous jouent un rôle non négligeable dans l’effet de serre additionnel. Si le gaz carbonique y contribue pour 52 %, les parts relatives du méthane, de l’ozone et des chlorofluorocarbures sont depuis le début du siècle respectivement de 18 %, 17 % et 11 %. Toutefois, une autre variable joue un rôle important dans la comparaison des différents gaz à effet de serre. Il s’agit des temps pendant lesquels ceux-ci restent dans l’atmosphère avant de disparaître ou d’être échangés avec d’autres compartiments de l’environnement. On comprend en effet que plus un gaz restera dans l’atmosphère, plus il aura la capacité d’exercer son pouvoir de réchauffement. Le gaz carbonique a ainsi un temps moyen de résidence compris entre 1 et 2 siècles. Son impact sur l’environnement sera donc plus important que celui du méthane dont la durée de vie n’est que de 10 ans ou que celui de l’ozone dont la durée de vie n’est que de quelques mois. En revanche, une action de réduction des concentrations sera plus efficace à court terme sur ces deux derniers constituants, ce qui peut présenter un avantage dans la mise en œuvre des stratégies de réduction des gaz à effet de serre.
Le cas de l’ozone dans la troposphère est particulièrement intéressant, car il illustre le couplage entre le changement climatique et la qualité de l’air. L’ozone est un gaz très réactif qu’on ne peut pas retrouver dans les archives glaciaires. Les données sur les concentrations relatives d’ozone dans l’air au voisinage de la surface ne remontent donc qu’à environ un siècle et demi. Elles sont fondées sur des mesures chimiques, qui montrent que dans les années 1880-1900, les teneurs en ozone ne dépassaient pas 10 à 15 milliardièmes (ou ppb) aussi bien dans des sites proches des villes comme le parc Montsouris à Paris, que dans des stations éloignées de toute source de pollution comme le Pic du Midi à 3 000 mètres d’altitude. Aujourd’hui, les teneurs mesurées sur ce site sont de l’ordre de 50 ppb. Elles témoignent donc d’une augmentation de près d’un facteur 4 au cours du 20ème siècle que l’on peut directement relier aux activités humaines. En effet, l’ozone n’est pas un constituant qui sort directement des cheminées d’usines ou des pots d’échappement des voitures. Il se forme dans l’atmosphère par transformation chimique, en présence du rayonnement solaire qui apporte l’énergie nécessaire aux réactions, à partir de divers précurseurs, composés organiques volatiles et hydrocarbures, et de catalyseurs, les oxydes d’azote. Ce processus de formation est d’ailleurs extrêmement sensible à la présence des oxydes d’azote puisqu’il suffit de quelques centièmes de milliardième de ces composés pour déclencher les processus oxydants qui conduisent à la formation d’ozone. Les lieux privilégiés de cette formation sont les grandes agglomérations et les zones industrielles où existe ce mélange d’oxydes d’azote, liés au processus de combustion et au transport, et d’hydrocarbures. L’ozone et ses précurseurs sont également transportés aux échelles régionales et continentales, loin des zones de pollution, et contribuent ainsi à l’augmentation globale observée.
Cet ozone additionnel est donc essentiellement lié aux activités humaines puisque les émissions anthropiques des précurseurs dominent largement les émissions naturelles. Elles représentent ainsi les 2/3 des émissions de méthane et de monoxyde de carbone, et les 3/4 des émissions d’oxyde d’azote. Toutefois, en ce qui concerne les hydrocarbures autres que le méthane, la source naturelle reste importante, liée aux émissions par la végétation, sous forme notamment de terpènes et d’isoprènes. Bien évidemment, sur des sites comme Fos sur Mer ou Rouen-Le Havre, on trouvera essentiellement des hydrocarbures d’origine anthropique. En revanche, au dessus de la forêt des Landes et de celles de Rambouillet ou de Fontainebleau, les émissions naturelles d’hydrocarbures peuvent entraîner des formations importantes d’ozone.
Les émissions anthropiques des précurseurs de l’ozone ont ainsi conduit à une multiplication par 4 des teneurs dans l’hémisphère nord. L’augmentation est plus réduite dans l’hémisphère sud, où elle se limite à un facteur 2, du fait de la prépondérance des océans dans cette partie du globe, et donc d’émissions plus réduites. Il importe également de noter que les pratiques de brûlage et de combustion de la biomasse dans les régions tropicales sont des sources importantes d’ozone à l’échelle globale. Toutefois, l’ozone ayant une durée de vie limitée à quelques semaines dans la basse atmosphère, les teneurs observées reflètent la répartition des sources, à la différence d’autres gaz comme le gaz carbonique ou le méthane, qui eux ont le temps de se répartir et de se mélanger sur l’ensemble de la planète.
Le changement climatique résultat d’un couplage permanent entre atmosphère, océans et biosphère
Par le mécanisme de l’effet de serre, l’augmentation de la concentration des gaz à effet de serre dans l’atmosphère apporte donc un surplus d’énergie à la surface terrestre. Le lien avec un éventuel changement climatique se fait alors par la modification potentielle du moteur principal du climat terrestre : le cycle de l’eau, qui par les mécanismes d’évaporation, de condensation dans l’atmosphère et de précipitation transfère en permanence de l’énergie entre la surface terrestre et l’atmosphère. Ce lien est donc indirect, ce qui rend bien évidemment difficile la quantification et l’interprétation des changements liés aux activités humaines. De plus, le déséquilibre introduit par les émissions anthropiques dans les flux d’échange de constituants entre les différents compartiments de la planète Terre fait que le système est aujourd’hui dans une phase transitoire, source d’incertitudes importantes sur les variations spatiales et temporelles des phénomènes. Il n’en reste pas moins qu’un certain nombre d’observations et d’indicateurs nous montrent que le climat terrestre est très probablement aujourd’hui en passe de se modifier, en réponse à la perturbation appliquée par l’homme depuis plus de deux siècles.
En comparant des photographies de glaciers prises au début du 20ème siècle et aujourd’hui, nombreux sont ceux qui ont reculé, dans les Alpes comme dans les Andes. Reste à savoir si ce recul est directement lié à une conséquence du réchauffement climatique au cours du 20ème siècle, ou s’il s’agit d’une évolution naturelle du système climatique à l’échelle de la planète. D’autres indicateurs ont également évolué au cours du 20ème siècle. Il en est ainsi de la température moyenne à la surface de la Terre, calculée à partir de l’ensemble des relevés de température dont on peut disposer sur le globe. Sa valeur a augmenté de 0,6 ± 0,2°C entre les années 1860 et 2000. Plus récemment, une reconstitution de la température moyenne de l’hémisphère nord à l’échelle du dernier millénaire a été effectuée. La difficulté de ce type de reconstitution tient au fait que nous ne disposons de mesures directes de températures que depuis le milieu du 19ème siècle. Pour les siècles précédents, il est donc nécessaire de se fonder sur des indicateurs indirects, plus ou moins précis, comme la croissance des arbres, les archives glaciaires issues des glaciers ou du Groënland, ou les archives historiques. Celles-ci donnent des indications sur tel été chaud, tel hiver rigoureux, telle saison pluvieuse. Leur interprétation se fonde alors sur un travail de reconstitution analogue à celui effectué par Emmanuel Le Roy Ladurie dans son ouvrage sur le climat de l’an mille à partir des dates des vendanges et des différentes récoltes. En dépit des incertitudes importantes qui subsistent sur cette approche, la variation rapide observée au cours du 20ème siècle sort clairement de la variabilité naturelle observée depuis mille ans. La décennie 1990 a été la plus chaude du siècle dernier et du millénaire, et l’année 1998 a été probablement la plus chaude de ce même millénaire.
D’autres indicateurs moyens montrent aussi que la Terre se réchauffe, par exemple le niveau des mers. En effet, si la température de la surface terrestre augmente, les océans se dilatent. Ce phénomène est le plus rapide et on observe effectivement depuis le début du siècle une élévation du niveau moyen des mers de l’ordre de 12 cm. Une tendance à la diminution de l’extension de glaces de mer dans l’Arctique, associée à une diminution de leur épaisseur, est également observée, mais sur une période plus courte de 25 à 30 ans, ce qui ne permet pas d’exclure totalement une fluctuation climatique de courte période. Cependant, toutes ces observations vont dans le même sens, ce qui nous laisse à penser qu’aujourd’hui l’homme influe directement sur le climat de la terre et qu’un changement climatique s’est déjà amorcé. C’est d’ailleurs le consensus auquel est arrivé récemment la communauté scientifique internationale dans le cadre du Groupe International d’Etude des Changements Climatiques (GIEC ou IPCC) mis en place par la Convention sur le Changement Climatique signée à Rio de Janeiro en 1991.
Tous les indicateurs évoqués précédemment correspondent à des valeurs moyennes. Mais, comme tout système subissant une perturbation, le système climatique est également soumis à une variabilité accrue autour de ces valeurs moyennes. Celle-ci peut alors se traduire par une augmentation de la fréquence des événements extrêmes : périodes plus chaudes ou plus froides, pluviosité accrue ou sécheresse intense, renforcement des tempêtes. Elle implique également une modification des phénomènes qui régissent la variabilité naturelle du climat aux échelles de temps interannuelles. Ceux-ci ressortent principalement d’interaction entre les océans et l’atmosphère, à l’exemple du phénomène El Nino qui affecte régulièrement, tous les deux à quatre ans, l’Océan Pacifique tropical. Il est caractérisé par un déplacement des eaux chaudes de surface de l’ouest vers l’est du Pacifique et entraîne une modification importante des régimes de précipitations sur ces régions. Il engendre ainsi des sécheresses redoutables en Australie, Indonésie et dans le Nordeste brésilien, et des inondations violentes au Pérou, en Argentine et jusqu’en Californie. Les évènements El Nino observés récemment semblent montrer que l’intensité de ce phénomène s’accroît dans un climat plus chaud.
La principale difficulté est alors de prévoir ces changements climatiques aux échelles pertinentes des phénomènes, du local au régional. Ceci ne peut se faire que grâce à l’outil de modélisation et de simulation du système de l’environnement terrestre qui a été développé au cours des 20 dernières années. C’est un outil extrêmement complexe puisqu’il s’agit, sur la base des lois de la physique, de la dynamique et de la chimie, de simuler le comportement des différents compartiments de l’environnement : océan, atmosphère, biosphères terrestre et marine, cryosphère. Ces modèles sont d’autant plus complexes, qu’ils doivent non seulement rendre compte du comportement de chaque compartiment, mais également des couplages qui les lient entre eux. Ils sont bien sûr loin d’être parfaits, et ce pour deux raisons essentielles.
La première est que notre compréhension du fonctionnement de l’ensemble du système reste incomplète. La seconde tient au fait que les modèles ne peuvent simuler ce fonctionnement avec la résolution quasi infinie qu’impliquerait la prise en compte des échelles les plus fines des phénomènes mis en jeu (résolution spatiale de l’ordre du centimètre ou moins, et résolution temporelle supérieure à la seconde). Ils ont aujourd’hui des mailles de l’ordre de quelques dizaines de kilomètres et des échelles de temps de l’ordre de quelques jours, voire du mois. Ceci suppose donc que les phénomènes d’échelles plus courtes spatialement et plus rapides temporellement, soient paramétrés, ce qui constitue une importante source d’incertitude. Une des difficultés essentielles étant l’extrême hétérogénéité des échelles spatiales et temporelles, et notamment le fait que la différenciation des processus sur les échelles verticales s’opère sur des distances beaucoup plus faibles que sur la dimension horizontale. Une variation d’altitude de quelques dizaines de mètres dans l’océan ou l’atmosphère induit des différences extrêmement importantes. Dans ce contexte, une étape importante reste la validation de ces modèles qui prend en compte l’ensemble des données dont nous pouvons aujourd’hui disposer. Ces validations se fondent aussi bien sur la comparaison avec les observations actuelles, que sur la reconstitution des climats du passé.
Ainsi, les modèles ont été utilisés pour restituer l’augmentation de gaz carbonique observée dans l’atmosphère au cours du dernier siècle. Une telle reconstitution n’est pas un problème simple, car le modèle doit être capable de rendre compte des échanges avec les océans et avec la biosphère, à partir de la donnée d’entrée que constituent les émissions de gaz carbonique. Or, un bon accord entre de telles simulations et les variations observées à l’échelle du 20ème siècle n’est possible que si les émissions anthropiques sont prises en compte. De même, les simulations portant sur la température moyenne ne sont en accord avec les variations observées que si l’influence anthropique est prise en compte. Ces résultats confirment donc que l’homme influe aujourd’hui directement sur le climat.
Quel futur pour les climats de la Terre ?
Une fois validés, ces mêmes modèles peuvent être utilisés en mode prédictif. Dans ce cas, ils fixent une fourchette d’augmentation moyenne de la température à l’horizon 2100 comprise entre 1,4°C et 5,8°C, montrant ainsi que le 21ème siècle sera certainement un siècle de rupture, caractérisé par une transition extrêmement rapide et une amplification importante du réchauffement moyen comparé à celui observé au 20ème siècle. L’amplitude de la fourchette tient à deux causes principales, dont chacune représente à peu près la moitié de l’incertitude. La première est bien évidemment notre connaissance imparfaite du système et l’imprécision relative des modèles déjà mise en évidence. La seconde est liée à la difficulté de prévoir nos comportements en matière d’émissions de gaz à effet de serre. Si les émissions continuent au rythme actuel, le scénario supérieur est probable. Si, en revanche, on arrive à les limiter raisonnablement, on peut réussir à inverser la tendance et se placer dans un scénario moins catastrophique.
Aujourd’hui, l’essentiel des émissions de gaz carbonique provient de l’utilisation des combustibles fossiles qui correspond à environ 6 milliards de tonnes de carbone émises par an. La stabilisation des concentrations atmosphériques impliquerait une réduction des émissions de plus de 40 %. D’où l’ampleur du problème puisque ce sont directement les modes de production de l’énergie qui sont ainsi mis en cause. Ceux-ci reposent en effet pour 40 % sur le pétrole, 20 % sur le gaz et 25 % sur le charbon. Il est intéressant ici de réfléchir à ce que pourrait être une répartition équitable des 3 milliards de tonnes auxquelles il faudrait revenir pour stabiliser la concentration atmosphérique en gaz carbonique. Pour une population de 6 milliards d’habitants, chaque habitant de la Terre disposerait donc de 500 kilogrammes de carbone fossile par an. Ce chiffre représente environ 10 % des émissions actuelles d’un Américain, 15 % de celles d’un Allemand, 25 % de celles d’un Français, mais 120 % de celles d’un Indien et 200 % de celles d’un habitant de certains pays d’Afrique subsaharienne. On peut également noter que ce plafond est atteint par un seul aller et retour Paris – New York en avion ou l’utilisation de 2 tonnes de béton. L’effort à fournir pour stabiliser les concentrations de gaz à effet de serre est donc immense et en tout cas incompatible avec une vision du développement fondé sur l’idée de consommer toujours plus. Face aux inégalités actuelles et à la nécessite de développement des pays émergents, la voie de sortie consiste vraisemblablement à faire en sorte que l’Inde et la Chine puissent se développer sans augmenter dans le futur leurs émissions de gaz à effet de serre, mais que, dans le même temps, les pays riches en émettent considérablement moins.
D’autant que le problème n’est pas seulement quantitatif et que la variable temps joue aussi sur le niveau de stabilisation, compte tenu notamment des constantes de temps mises en jeu dans le cas du gaz carbonique par les échanges avec les océans et la biosphère. Ainsi, les décisions que l’on prendra au cours des 15 ou 20 prochaines années fixeront les trajectoires, raisonnables ou plus catastrophiques, à l’échelle du 21ème siècle, et même des siècles suivants. Ce sont en effet les constantes de temps qui sont en jeu : si aujourd’hui des décisions sont prises pour essayer de ne pas dépasser 9 milliards de tonnes émises, effort déjà considérable, et si ensuite la tendance peut s’inverser, la concentration atmosphérique de CO2 pourrait se stabiliser autour d’une teneur relative de 550 ppm dans 200 ans. Celle-ci correspond déjà à un doublement de la concentration préindustrielle. Si, en revanche, aucune décision n’est prise, compte tenu du rythme d’accroissement actuel des émissions, on se dirige vers un triplement, voire un quadruplement de ces concentrations.
Les conséquences du changement climatique
Une difficulté supplémentaire survient lorsque l’on veut prévoir les conséquences potentielles d’un changement climatique. Pour que ces prévisions aient un sens et puissent déboucher sur des mesures d’adaptation ou de correction, celles-ci doivent être évaluées à des échelles d’espace au moins régionales, voire locales. Or, en règle générale, les modèles les plus performants ne s’accordent que sur des fourchettes d’évolution des valeurs moyennes. Leur accord est moins bon dès lors qu’il s’agit de quantifier la variabilité climatique dans le temps et dans l’espace. Pour la température à la surface du globe, les modèles convergent pour montrer que le réchauffement sera plus intense dans les régions de hautes latitudes, en particulier dans l’hémisphère Nord. Mais, lorsque l’on s’intéresse aux précipitations, si tous les modèles prévoient une intensification du cycle de l’eau, avec des précipitations accrues dans les régions des hautes et moyennes latitudes, et des périodes plus sèches dans les régions tropicales et des basses latitudes, la limite entre ces deux régimes reste pour le moins difficile à préciser. Pour rendre compte de cette incertitude, on pourrait dire « qu’il pleuvra plus au Nord et moins au Sud d’une ligne passant par le centre de la France à 1 500 km près » ! Ce qui, on en conviendra, laisse une certaine marge de manœuvre pour l’aménagement du territoire métropolitain.
Néanmoins, un certain nombre de conséquences potentielles du changement climatiques peuvent d’ores et déjà être mises en avant, de façon plus ou moins précise. Si la Terre se réchauffe en moyenne, les isothermes vont se déplacer, entraînant des modifications des écosystèmes : mutations des grands types de végétation avec en particulier un recul des surfaces boisées, sécheresse accrue dans les latitudes tropicales et risque de conditions extrêmes. En outre, certains écosystèmes assez fragiles seront particulièrement sensibles aux changements climatiques, et notamment les écosystèmes de montagne et les écosystèmes côtiers. Dans ce dernier cas, l’effet conjugué de variations climatiques locales et de l’élévation du niveau des mers peut avoir des conséquences importantes si l’on se souvient qu’une grande partie de la population du monde vit à proximité des côtes, et notamment dans les deltas des grands fleuves. En ce qui concerne la France, il est difficile, compte tenu des incertitudes déjà citées, de prévoir les conséquences à l’échelle régionale d’un changement climatique. Le climat sera vraisemblablement plus sec au sud, et plus pluvieux au nord. Les évènements extrêmes comme les tempêtes pourraient être plus fréquents, et l’enneigement diminuer sur les reliefs alpins.
Comme nous l’avons déjà noté, tous les modèles montrent qu’en dehors de la valeur moyenne, c’est la variabilité du climat qui risque de s’amplifier au cours des prochaines décennies. Celle-ci dépend pour une large part des couplages entre les différents compartiments du système Terre et est donc d’autant plus difficile à prévoir avec précision. Il est cependant très probable que les régions désertiques et subdésertiques seront particulièrement concernées. Autrement dit, certains des pays en voie de développement, qui doivent déjà faire face à des problèmes difficiles d’alimentation, risquent à nouveau d’être perdants dans la perspective d’un changement climatique. Une autre difficulté tient au fait que dans cet effort d’appréciation du futur, les données du passé ne sont pas suffisamment précises pour nous apporter des éléments de réponse. Une référence pourrait ainsi être la période de l’optimum climatique de l’holocène, voici environ 8 000 ans, quand les températures étaient en moyenne supérieure de 2°C à 3°C aux valeurs actuelles. La France était alors une gigantesque forêt avec des types de végétations variés. Mais les conditions étaient également trop différentes en termes d’occupation des sols pour que l’on puisse en tirer quelque conséquence que ce soit. Ce que nous confirment en revanche ces reconstitutions du passé, c’est qu’un écart de température de quelques degrés en valeur moyenne suffit à modifier complètement la nature des écosystèmes.
L’approche des changements climatiques ne peut pas non plus se restreindre à une simple extrapolation linéaire des évolutions actuelles à l’échelle des décennies ou des siècles. Nous ne sommes probablement pas à l’abri d’une « surprise » plus rapide, liée au caractère non linéaire des couplages entre les océans, l’atmosphère et la biosphère. Un tel effet non linéaire s’est déjà produit dans l’atmosphère sous la forme du « trou d’ozone » dans l’Antarctique. Dans le cas du changement climatique, l’exemple d’un ralentissement du Gulf Stream est parfois mis en avant. Le Gulf Stream est ce courant chaud qui amène sur l’Europe de l’Ouest de l’énergie thermique en provenance des zones équatoriales et tropicales et qui nous permet d’avoir un climat largement plus doux que celui de nos amis canadiens, qui sont pourtant situés aux mêmes latitudes. Il est lié et alimenté par la plongée des eaux dans les hautes latitudes de l’océan Arctique Nord. Or, si la fonte des glaces de mer dans cette région, qui semble s’accélérer au cours des dernières décennies, n’a pas d’influence sur le niveau des mers, en revanche, elle diminue la salinité de l’océan puisqu’elles sont constituées d’eau douce. Comme la salinité est l’un des facteurs qui détermine précisément la plongée des eaux vers les profondeurs, sa diminution pourrait conduire à un ralentissement du courant. On sait que cette situation d’absence du Gulf Stream s’est déjà produit plusieurs fois dans le passé, à l’échelle de centaines de milliers d’années. En effet, on retrouve dans les sédiments le témoignage de périodes beaucoup plus froides. Dans le cas présent, un tel basculement pourrait s’opérer en quelques décennies, et nous obliger à nous adapter rapidement à un climat analogue à celui du Québec. Ainsi, le réchauffement moyen de la Terre pourrait conduire, du fait d’une instabilité climatique, à un refroidissement rapide de certaines régions.
Un groupe de travail du GIEC s’est également intéressé aux conséquences des changements climatiques sur la santé humaine. Il importe dès le départ de noter que leur appréciation reste largement de l’ordre du qualitatif. Les premières conséquences pourraient être liées à la recrudescence de phénomènes extrêmes comme les cyclones, les inondations ou les vagues de chaleur. En revanche, la fréquence des périodes très froides pourrait diminuer à nos latitudes. On peut ensuite penser à des effets secondaires : par exemple une fréquence accrue des périodes sèches peut entraîner des phénomènes d’érosion, et donc une mise en suspension plus importante de poussières et de pollens dans l’atmosphère augmentant les risques d’allergie. Des maladies infectieuses comme le paludisme, la fièvre dengue, la fièvre jaune, ou les encéphalites risquent de connaître une recrudescence dans les zones de basse et moyenne latitudes liée à l’augmentation de la température moyenne, et à la possibilité de remontée des maladies tropicales vers des régions plus septentrionales. D’autres facteurs peuvent également influencer la santé humaine, comme la diminution du rendement des productions agricoles, en particulier dans les zones tropicales, avec l’occurrence de périodes de sécheresse plus aiguës et des problèmes exacerbés de malnutrition et de famine. Il est enfin pour le moins évident que la vulnérabilité des populations sera directement fonction de leurs ressources naturelles, de leur ressources techniques et sociales, et on peut donc légitimement penser que ce seront à nouveau les populations les plus fragiles qui auront à subir, en termes d’alimentation et de santé, les conséquences maximales des changements climatiques.
Changement climatique, énergie et développement durable
Il est évident que les climatologues ne peuvent pas “guérir” le climat. Compte tenu des incertitudes actuelles très importantes sur le fonctionnement même du système de l’environnement terrestre, toute tentative de réparation, fondée sur une modification anthropique de tel ou tel processus climatique, s’apparenterait à un jeu d’apprenti sorcier. La seule façon que nous ayons aujourd’hui de diminuer les effets de la perturbation anthropique est d’en limiter l’amplitude. Il nous faut donc réfléchir à une maîtrise raisonnée des émissions de gaz à effet de serre, qui renvoie immédiatement au problème des sources d’énergie et du développement durable.
Si les conséquences potentielles de l’émission de gaz à effet de serre dans l’atmosphère avaient déjà été soulignées par Arrhénius à la fin du 19ème siècle, et si la rapidité de la perturbation anthropique avait été mise en évidence dès les années 1950, la prise de conscience de l’ampleur du problème à l’échelle mondiale remonte seulement au début des années 1990 avec la signature en 1991, puis la ratification en 1994 de la Convention de Rio de Janeiro sur le changement climatique. Un protocole de réduction des émissions a ensuite été signé à Kyoto en 1997 qui prévoit un objectif moyen de réduction des émissions de -5 % en 2008-2012 par rapport au niveau atteint en 1990. Nous sommes effectivement loin de la réduction de 40 % nécessaire pour stabiliser les concentrations de gaz à effet de serre dans l’atmosphère, mais les premières mesures sont souvent les plus difficiles à prendre. De plus, il faut tenir compte du fait que la prolongation des tendances d’accroissement annuel des émissions observées dans les années 1980 conduirait à des émissions en 2010 supérieures de 30 % à 40 % à celles de 1990. C’est donc bien une véritable rupture qu’implique le protocole de Kyoto. Ses objectifs sont modulés suivant les différents pays. Les engagements de Etats-Unis sont ainsi de –7 %, ceux de la Russie de 0 %, du Japon de –6 % et de l’Union Européenne de –8 %. Dans la bulle européenne, l’objectif fixé à la France est de 0 %, celui de l’Allemagne de –21 %, celui du Royaume Uni de -12,5 %, alors que le Portugal et la Grèce peuvent augmenter leurs émissions de 25 % et l’Espagne de 15 %. Les pays en voie de développement et notamment la Chine et l’Inde ne sont pour l’instant pas concernés par ces réductions.
La France occupe une position particulière dans ces négociations, liée au fait que la majeure partie de l’énergie électrique est issue de modes de production qui ne sont pas fondés sur l’utilisation des combustibles fossiles : le nucléaire pour 80 %, l’hydroélectrique pour environ 15 %. De ce fait la principale contribution aux émissions de gaz à effet de serre vient des activités agricoles (45 millions de tonnes), dont l’essentiel résulte directement ou indirectement de l’élevage. En effet, en bilan consolidé (L’Effet de serre, H. Le Treut et J.M. Jancovici, Flammarion 2001), la production d’une tonne de blé revient à émettre 110 kilogrammes d’équivalent carbone, alors que la production d’une tonne de viande correspond à l’émission de 8 tonnes d’équivalent carbone. Les émissions directes des procédés industriels correspondent à la seconde source d’émissions de gaz à effet de serre (35 millions de tonnes), puis viennent la consommation des ménages (25 millions de tonnes) et les transports (25 millions de tonnes). En fait, les émissions de gaz à effet de serre ont diminué en France entre 1970 et 1990 du fait du développement de l’énergie nucléaire, en particulier dans les secteurs déjà cités de la transformation de l’énergie et de l’industrie. Ceci explique que notre pays ait, au sein de la bulle européenne, un objectif affiché de stabilisation des émissions en 2008-2012 par rapport au niveau atteint en 1990. Celui-ci reste néanmoins difficile à atteindre, dans la mesure où les efforts importants ayant déjà été faits dans le domaine des modes de production énergétique et de l’efficacité des processus industriels, la flexibilité principale reste liée à notre capacité à stabiliser les émissions dans les secteurs du transport et de la consommation des ménages qui ont fortement tendance à augmenter. Ce problème met donc en cause les modes de vie de chacun d’entre nous.
Quatre ans après sa négociation le protocole de Kyoto n’est toujours pas ratifié, même si les accords entérinés à Bonn puis à Marrakech en 2001, laissent espérer une ratification prochaine. L’entrée en vigueur du Protocole requiert en effet qu’un ensemble de pays représentant plus de 55 % des émissions de gaz à effet de serre s’engagent dans le processus. Le refus des Etats-Unis de ratifier le Protocole de Kyoto impose alors que l’Union Européenne, la Russie, le Japon et le Canada ou l’Australie soient parmi les signataires, ce qui semble aujourd’hui acquis. Mais la position des Etats-Unis principaux émetteurs de gaz à effet de serre à l’échelle mondiale pose les conditions d’une réduction rapide des émissions, malgré le volontarisme affiché par les autres pays. Il est plus que probable que les objectifs, même modestes, fixés par le Protocole de Kyoto pour la période de référence 2008-2012 ne seront pas atteints. Aujourd’hui, l’Union Européenne n’a réduit ses émissions que de -1 %. Quant aux Etats-Unis, dont l’objectif est de -7 %, ils en sont à +20 % par rapport à l’année de référence 1990. Seul les Pays de l’Est et la Russie ont d’ores et déjà réussi à remplir leurs objectifs du fait du ralentissement majeur de leur économie au cours des années 1990, se traduisant par une baisse des émissions de 38 %. Ce qui dans le cadre de la mise en œuvre d’un marché mondial de permis d’émission excite bien des convoitises. Cette difficulté qu’ont les principaux pays à se conformer aux objectifs du Protocole n’est d’ailleurs pas indépendante des positions affichées aujourd’hui quant à sa ratification. En ce qui concerne les pays en développement, les mécanismes mis en œuvre dans le cadre de la Convention de Rio de Janeiro et du Protocole de Kyoto, notamment ceux liés au développement propre, portent l’espoir d’une solution raisonnable à moyen terme.
La ratification du Protocole de Kyoto est certainement une première étape nécessaire si l’on considère que de notre capacité à prendre rapidement les décisions qui s’imposent dépendra pour une large part l’avenir des générations futures. C’est tout l’enjeu d’un développement durable à l’échelle de la Planète, qui ne saurait laisser de côté les pays en voie de développement. Il implique un changement décisif de nos modes de vie et de consommation et une volonté partagée par une large part de l’humanité. C’est un enjeu politique déterminant pour le 21ème siècle.