Dossier scientifique E n v i r o n n E m E n t

134
Dossier scientifique E NVIRONNEMENT Fiches pédagogiques élaborées par le Comité de l’environnement de l’Académie des sciences à l’intention des enseignants du second degré SERVICES CULTURE ÉDITIONS RESSOURCES POUR L’ÉDUCATION NATIONALE [ CNDP CRDP ] CRDP ACADÉMIE D’AMIENS Pôle national de compétence Éducation au développement durable du réseau SCÉRÉN [CNDP-CRDP]

Transcript of Dossier scientifique E n v i r o n n E m E n t

Page 1: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifiqueE n v i r o n n E m E n t

Fiches pédagogiques élaborées par le Comité de l’environnement de l’Académie des sciencesà l’intention des enseignants du second degré

SERVICES CULTURE ÉDITIONS RESSOURCES POUR L’ÉDUCATION NATIONALE

[CNDP – CRDP]

CRDPACADÉMIE D’AMIENS

Pôle nationalde compétenceÉducationau développement durabledu réseauSCÉRÉN [CNDP-CRDP]

Page 2: Dossier scientifique E n v i r o n n E m E n t

Introduction

Le nom commun environnement peut avoir diverses significations selon le contexte. Dans ce livret, on s’intéressera à l’environnement en tant que cadre de vie de l’homme. Les hommes tirent des milieux dans lesquels ils évoluent les ressources nécessaires à leur survie : l’air dont ils ne peuvent se passer pendant plus de quelques minutes, l’eau dont ils ne peuvent se passer pendant plus de quelques jours et la nourriture dont ils ne peuvent se passer pendant plus de quelques semaines.

Les premiers êtres humains ont commencé à se nourrir de la cueillette et de la chasse. Puis, ils se sont mis à cultiver le sol, en y faisant croître les plantes qu’ils pouvaient consommer et, par-là même, ont commencé à modifier leur environnement en remplaçant la végétation naturelle par des champs où poussent les plantes qu’ils ont choisies. L’élevage d’animaux remplaçant la chasse, ils ont été amenés à créer des prairies artificielles pour nourrir ces animaux. Auparavant, ils avaient acquis la maîtrise du feu pour se chauffer et faire cuire leurs aliments et pour cela avaient brûlé du bois pris dans les forêts, avant de faire appel aux combustibles fossiles : charbon, pétrole, gaz. La possibilité de disposer d’énergie à bon marché a joué un rôle essentiel dans le développement récent des techniques et est indispensable à la plupart des éléments de confort qui nous sont familiers : chauffage et climatisation des locaux, réfrigérateurs, machines à laver, moyens de télécommunications y compris Internet, utilisation de la toile mondiale, moyens de transport des personnes et des marchandises, soins de santé.

Pendant l’essentiel de l’histoire de l’humanité, l’homme s’est ingénié à se protéger de toutes les contraintes que lui imposait son environnement et à tirer le meilleur parti de ce dernier. La tâche n’est pas si aisée puisqu’il reste dans le monde au début du XXIe siècle plus de 800 millions d’êtres humains qui ne réussissent pas à se procurer une quantité de nourriture suffisante pour ne pas souffrir de la faim. Les modifications apportées au cadre de vie étaient jadis, presque unanimement, considérées comme bénéfiques. Lorsqu’on asséchait les marais, tout le monde se réjouissait de voir diminuer les fièvres malignes qui décimaient les habitants. Aujourd’hui, la nécessité de préserver les zones humides fait l’objet d’un consensus grandissant. Il ne s’agit là que d’un exemple : en effet, à cause de la croissance de la population mondiale qui est passée de 2,5 milliards en 1950 à plus de 6,5 milliards en 2007 et à cause du développement considérable des moyens techniques disponibles, l’emprise de l’homme sur la Planète est devenue de plus en plus grande et il est désormais nécessaire de s’interroger sur les conséquences possibles de nos décisions d’agir ou de ne pas agir quand la possibilité nous en est offerte. C’est pourquoi on associe souvent la notion d’environnement à celle de développement durable. Cette dernière expression désigne un concept qui, dans une perspective à long terme, consiste à assurer le développement et l’amélioration du bien-être des hommes, sans imposer aux milieux naturels des altérations dont pourraient pâtir les générations ultérieures. Autrement dit, le concept cherche à concilier les dimensions du développement économique et social avec celles de l’environnement. Malgré la difficulté que présente sa mise en œuvre opérationnelle, ce concept constitue l’un des principes directeurs des conventions internationales en matière d’environnement.

La charte de l’environnement est entrée dans la constitution française en février 2005. Son article 5 mentionne le principe de précaution sous la forme suivante : « Lorsque la réalisation d’un dommage, bien qu’incertaine en l’état des connaissances scientifiques, pourrait affecter

Page 3: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 2

de manière grave et irréversible l’environnement, les autorités publiques veillent, par application du principe de précaution et dans leurs domaines d’attributions, à la mise en oeuvre de procédures d’évaluation des risques et à l’adoption de mesures provisoires et proportionnées afin de parer à la réalisation du dommage. » Cette formulation montre bien que la définition retenue pour le principe de précaution n’est pas sa forme simpliste qui est : «il faut s’abstenir d’entreprendre toute action susceptible de nuire à l’environnement ». La définition du principe de précaution est en effet plus complexe. Il est défini par la loi en 1995, comme étant le principe « selon lequel l’absence de certitudes, compte tenu des connaissances scientifiques et techniques du moment, ne doit pas retarder l’adoption de mesures effectives et proportionnées visant à prévenir un risque de dommage grave et irréversible à l’environnement à un coût économiquement acceptable ».

Dans leur rapport au Premier ministre, intitulé Le principe de précaution (octobre 1999), Geneviève Viney et Philippe Kourilsky en proposent la définition suivante : « Le principe de précaution définit l’attitude que doit observer toute personne qui prend une décision concernant une activité dont on peut raisonnablement supposer qu’elle comporte un danger grave pour la santé et la sécurité des générations actuelles ou futures, ou pour l’environnement. Il s’impose spécialement aux pouvoirs publics qui doivent faire prévaloir les impératifs de santé et de sécurité sur la liberté des échanges entre particuliers et entre États. Il commande de prendre toutes les dispositions permettant, pour un coût économiquement et socialement supportable, de détecter et d’évaluer le risque, de le réduire à un niveau acceptable et, si possible, de l’éliminer, d’en informer les personnes concernées et de recueillir leurs suggestions sur les mesures envisagées pour le traiter. Ce dispositif de précaution doit être proportionné à l’ampleur du risque et peut être à tout moment révisé ».

Ce principe, pour sage qu’il soit, ne suffit pas à lui seul à suggérer la décision à prendre, sauf dans des cas très simples. En effet, s’il est normal de s’interroger sur les coûts et les conséquences néfastes possibles d’une action, il est tout aussi logique de s’interroger sur les coûts et les conséquences néfastes éventuelles de l’absence de cette action. Pour décider de mener ou non l’action envisagée, on doit donc prendre en compte non seulement l’existence, mais aussi l’évaluation de toutes les conséquences fastes et néfastes possibles de la décision d’agir ou de ne pas agir. La mise en pratique de cette approche fait nécessairement appel aux connaissances scientifiques sur les processus en jeu et aux moyens technologiques disponibles, et ne saurait être réduite à quelques dogmes. Chaque cas est un cas d’espèce et la décision concrète doit être éclairée par une analyse scientifique rigoureuse mettant à profit toutes les connaissances disponibles. Les pays en voie de développement aspirent légitimement à connaître des conditions de vie analogues à celles des pays développés et à suivre le seul modèle que leur offrent ces derniers. La question d’une distribution équitable des ressources de la planète est posée avec de plus en plus de force et est d’autant plus difficile à résoudre que la population du monde atteindra probablement 9 milliards avant la fin du siècle.

L’objet des fiches qui suivent est de fournir aux enseignants des collèges et des classes adjacentes de l’enseignement primaire et des lycées, un matériau pédagogique de base leur permettant d’aborder avec leurs élèves, sur des bases objectives, divers aspects concrets de la problématique de l’environnement. Beaucoup d’entre elles répondent aux questions les plus fréquemment posées en renvoyant éventuellement pour la justification détaillée de la réponse à un texte structuré, faisant une présentation scientifique du problème étudié. La liste de ces

Page 4: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 3

fiches n’est pas close et pourra être enrichie progressivement à la demande. Chaque fiche sera éventuellement amendée pour tenir compte des remarques adressées à [email protected] . En particulier, la présentation des enjeux humains pourrait sans doute être développée.

Fiches thématiques

- Le changement climatique mondial

- L’air

- L’ozone stratosphérique

- Les énergies

- La biodiversité

- Les écosystèmes

- Les problèmes de l’eau

- Les risques naturels

- Les risques technologiques

Page 5: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 4

Le changement climatique mondial Michel PETIT

Foire aux questions

Quelle différence entre météorologie et climatologie ?

La météorologie est la description du « temps qu’il fait » en un lieu ou sur une région grâce à un ensemble de paramètres, tels que température, humidité, pression atmosphérique, précipitations, vent, nébulosité. On ne peut prédire le temps qu’il fera qu’à l’échelle de quelques jours. Au-delà, les évolutions dépendent de plus en plus de variations minimes des conditions de départ et deviennent imprévisibles.

Le climat est la description du temps météorologique moyen sur une période de quelques dizaines d’années à une période donnée de l’année sur une région donnée, chacun sachant bien qu’il existe des variations d’une année à l’autre et que seules des moyennes peuvent avoir un sens. Durant le dernier million d’années, le climat a évolué au rythme de l’alternance des cycles glaciaires et des optimums interglaciaires dont la période est de l’ordre de 100 000 ans. Depuis quelques décennies, une variation plus rapide du climat est apparue (voir chapitre 3.2). En dépit des variations aléatoires de la météorologie, l’évolution du climat peut être modélisée, bien qu’avec certaines marges d’erreur (voir section 4. 2).

Le climat mondial a-t-il évolué depuis quelques décennies ?

La réponse est oui, la température a augmenté presque partout, les précipitations ont augmenté ou diminué, selon les régions (voir sections 4.2 à 4.5).

Le changement climatique observé depuis quelques décennies est-il dû aux émissions humaines de gaz à effet de serre ?

La réponse est oui, selon toute vraisemblance (voir section 3.3). N’y a-t-il pas des facteurs naturels qui influencent le climat ?

La réponse est oui. Les facteurs essentiels sont les légers changements de l’orbite décrite par la Terre autour du Soleil, la variation du rayonnement de ce dernier et l’activité volcanique (voir introduction de la section 3). L’effet de serre est-il un phénomène naturel ?

La réponse est oui (voir section 2). Par contre, les activités humaines en ont changé l’ampleur, car elles on changé la composition de l’atmosphère (voir sections 3.1, 3.2, 3.3).

Page 6: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 5

En l’absence d’une politique délibérée de réduction des émissions de gaz à effet serre, quel pourrait être le réchauffement moyen mondial en 2100 ?

De 1 à 6,3° par rapport à la moyenne des vingt dernières années du XXe siècle (figure 8, section 4.2).

Le changement climatique mondial sera-t-il le même partout dans le monde ?

La réponse est non, les océans se réchauffent moins que les continents dont les parties les plus au nord se réchauffent le plus (voir figure 4 et section 4.3, figure 10). Certaines régions sont plus arrosées, d’autres au contraire plus sèches (voir figure 5 et section 4.4, figure 11). L’épuisement des ressources fossiles suffira-t-il à limiter l’effet de serre à une amplitude raisonnable ?

La réponse est non (voir section 5.3). Stabiliser les émissions annuelles de gaz carbonique permettrait-il de stopper la dérive du climat ? La réponse est non. La concentration du gaz carbonique dans l’atmosphère continuerait à croître, le réchauffement à augmenter et le climat à évoluer (voir section5.2).

De combien faudrait-il diminuer les émissions totales de l’humanité d’ici à 2050 pour éviter que le réchauffement par rapport à l’an 2000 ne dépasse 2°?

Il faudrait diminuer les émissions de gaz carbonique d’un facteur 2. Si chaque habitant de la planète était autorisé à émettre la même quantité, cela signifierait que les Français doivent diviser leurs émissions annuelles par un facteur 4 et passer de 2 tonnes par habitant à 0,5 tonne par habitant (voir section 5.4).

Page 7: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 6

Le changement climatique mondial

Plan de la fiche

1. Qu’est-ce qui détermine la température de la Terre ? 1.1 L’échange d’énergie par rayonnement 1.2 La température de la Terre 2. Qu’est-ce que l’effet de serre ? 3. L’effet de serre provoqué par les activités humaines

3.1. Le changement de la composition de l’atmosphère 3.2. Le changement climatique observé 3.3. La cause du changement climatique observé

4. Le changement climatique au cours du XXI ème siècle 4.1. L’évolution de la composition de l’atmosphère

4.2. L’augmentation de la température moyenne mondiale 4.3. La répartition géographique du réchauffement 4.4. Le changement des précipitations 4.5. Les conséquences du changement climatique 5. La maîtrise du changement climatique 5.1. L’inertie du système climatique 5.2. Les scénarios de stabilisation

5.3. Les réserves en combustibles fossiles 5.4. La maîtrise du réchauffement climatique

Page 8: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 7

Le changement climatique mondial

1. Qu’est-ce qui détermine la température de la Terre ?

1.1. L’échange d’énergie par rayonnement

1.1.1. Le rayonnement solaire

Le soleil rayonne une lumière visible qui nous éclaire le jour. On peut aisément se convaincre que ce rayonnement transporte également de la chaleur : il suffit d’être à l’ombre, c’est-à-dire de cacher le soleil par un objet quelconque, tel qu’un arbre ou un parasol, pour avoir moins chaud. Cette impression subjective peut être confirmée par l’expérience simple qui consiste à déplacer un thermomètre du plein soleil à l’ombre.

1.1.2. Le rayonnement infrarouge

Si on regarde un charbon de bois dans un barbecue et qu’on souffle dessus énergiquement, il rayonne de la lumière comme le soleil et si on approche sa main, on sent une chaleur du côté qu’on présente au foyer, mais rien sur le côté opposé. C’est là le même phénomène que celui que nous éprouvons avec le soleil : il faut retourner la viande pour la faire cuire au barbecue, comme il faut se retourner sur la plage pour bronzer sur tout le corps. Si on cesse de ventiler énergiquement le charbon de bois, la combustion est moins violente, sa température diminue et il prend une couleur rouge de plus en plus sombre jusqu’à ne plus être visible sans éclairage extérieur. Cependant, si on approche sa main, on ressent toujours une impression de chaleur, pouvant aller jusqu’à la brûlure si on l’approche trop près. Ce rayonnement succédant au rouge sombre est appelé infrarouge : il transporte de l’énergie comme le rayonnement lumineux, mais nos yeux ne le voient pas.

1.2. La température de la Terre

La Terre absorbe une partie de l’énergie du rayonnement solaire qu’elle reçoit. Sa température a donc tendance à augmenter jusqu’à ce qu’elle parvienne à évacuer une quantité d’énergie équivalente à celle qu’elle absorbe. La Terre est isolée dans le vide interplanétaire et la seule manière dont elle puisse perdre de l’énergie est de rayonner dans l’espace, comme le fait le soleil, à ceci près que ce rayonnement est infrarouge et donc non visible. Sa température d’équilibre s’établit donc à une valeur qui lui permette d’émettre dans l’infrarouge une énergie égale à l’énergie solaire qu’elle absorbe.

2. Qu’est-ce que l’effet de serre ?

Avant d’aller se perdre dans l’espace, le rayonnement infrarouge de la Terre traverse son atmosphère qui, en fonction de sa composition, en absorbe une partie. C’est pour cela que

Page 9: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 8

l’atmosphère joue un rôle important dans la détermination de la température de la planète, comme Joseph Fourier l’avait déjà souligné en 1826. Si on ajoute dans l’atmosphère des gaz qui ont tendance à absorber le rayonnement infrarouge, le rayonnement sortant diminue et la Terre perd moins d’énergie. Sa température augmente puisqu’elle perd moins d’énergie qu’elle n’en reçoit. Un nouvel équilibre sera atteint lorsque l’augmentation de température provoquera un rayonnement plus intense compensant l’absorption induite par le changement de composition de l’atmosphère. C’est ce qu’on appelle l’effet de serre, car il se produit dans les serres de jardinier ou d’horticulteur.

3. L’effet de serre provoqué par les activités humaines

Le climat de la terre évolue sous l’influence de causes naturelles qui ont toujours existé et continueront à jouer un rôle.

- Tout d’abord, la Terre ne tourne pas toujours de la même façon autour du Soleil, à cause de l’attraction des autres planètes et de la Lune : l’axe de rotation autour duquel la planète tourne sur elle-même en un jour est plus ou moins incliné par rapport au plan dans lequel elle accomplit sa rotation annuelle autour du soleil, l’aplatissement de l’ellipse qu’elle décrit dans ce plan est plus ou moins marqué, le mois au cours duquel la Terre est au plus près du Soleil varie régulièrement. Toutes ces variations se produisent lentement, avec des périodes qui se mesurent en dizaines de milliers d’années. Elles provoquent des changements dans la manière dont le Soleil éclaire notre planète de l’angle et sont à l’origine des grands cycles glaciaires interglaciaires qui ont une amplitude de l’ordre de 6°C et une période de 100 000 ans. Nous sommes depuis 10 000 ans dans une période interglaciaire, donc chaude.

- Le Soleil connaît lui-même une variabilité qui se manifeste en particulier par le présence de taches sur le soleil dont le nombre varie avec un cycle de 11 ans. Toutefois, ce cycle affecte le rayonnement solaire essentiellement dans la gamme de l’ultraviolet et se retrouve donc dans le comportement des parties les plus élevées de l’atmosphère terrestre qui l’absorbe : ionosphère (altitude de 100km et au-delà) et, dans une moindre mesure, stratosphère (altitude d’environ 30 km, voir fiche « ozone »). Il n’affecte que peu l’énergie totale rayonnée et son influence est détectée, mais très faible dans les phénomènes climatiques. Des variations à long terme du rayonnement total, comme un accroissement depuis le minimum, dit de Maunder, observé à la fin du XVIIe siècle dans le nombre de taches solaires, sont possibles, mais d’amplitude limitée et ne saurait expliquer les variations du climat, au cours des dernières décennies.

- Un autre paramètre jouant un rôle sur la température au sol est l’activité volcanique. Lors des fortes éruptions volcaniques, des poussières atteignent la stratosphère (au-dessus de 15km) et peuvent y rester pendant une ou deux années avant de retomber vers le sol. Ces particules constituées essentiellement d’oxydes de soufre jouent un rôle d’écran pour le flux solaire incident, ce qui a pour effet de refroidir la surface. Lors de la dernière grande éruption du mont Pinatubo en 1991, un tel refroidissement de 0.5°C a été observé sur une grande partie de la planète. Mais ces effets sont de courte durée (1 à 2 ans). Ils représentent seulement une source de variabilité, mais ne peuvent expliquer la montée des températures que l’on observe de façon quasi continue au cours des 30 dernières années.

Page 10: Dossier scientifique E n v i r o n n E m E n t

Les activités humaines ont depuis le début de l’ère industrielle ajouté à ces causes naturelles de nouvelles causes de variation liées au changement de la composition de l’atmosphère qu’elles induisent.

3.1. Le changement de la composition de l’atmosphère

L’observation systématique de l’atmosphère montre de façon incontestable une augmentation de sa teneur en gaz à effet de serre. C’est ainsi que le nombre de molécules de gaz carbonique (CO2) qu’on trouve dans un million de molécules d’air est passé de 280 en 1850, avant le début de l’ère industrielle à plus de 380 aujourd’hui. On dit 280 ou 380 ppm, ppm étant l’abréviation de parties par million. La composition de l’atmosphère est observée directement depuis 1958 avec précision. Le panneau en haut à gauche de la figure 1 montre cette évolution. On y voit de plus apparaître une oscillation annuelle liée au cycle de la végétation dans l’hémisphère nord où se trouve l’essentiel des terres continentales. Pour remonter plus loin dans le temps, on dispose de diverses méthodes. La plus puissante d’entre elles consiste à forer les calottes de glace antarctiques pour en extraire des carottes contenant des bulles d’air emprisonné il y a bien longtemps, lorsque les flocons de neige se sont transformés en glace sous le poids des nouvelles chutes de neige. Des forages profonds de 3 km permettent ainsi d’observer un air vieux de centaines de milliers d’années (panneau en haut à droite de la figure 1, où on voit clairement la traduction des grands cycles glaciaires sur la composition atmosphérique). Des considérations géochimiques permettent d’avoir des estimations encore plus anciennes représentées sur le panneau en bas à droite. On voit qu’il faut remonter dans le temps de plusieurs dizaines de millions d’années pour retrouver des concentrations supérieures aux concentrations actuelles.

Figure 1 – Évolution de la teneur de l’atmosphère en gaz carbonique à diverses échelles de temps. (L’échelle horizontale est graduée en date pour les figures de gauche, en milliers d’années avant le temps présent pour la figure en haut à droite et en millions d’années avant le temps présent pour la figure en bas à droite).

Dossier scientifique Environnement 9

Page 11: Dossier scientifique E n v i r o n n E m E n t

L’augmentation annuelle de la concentration ne représente à peu près que la moitié de ce qu’elle serait si l’atmosphère avait retenu la totalité du gaz carbonique que l’humanité a produit en brûlant du charbon, du pétrole et du gaz naturel (figure 2). L’autre moitié du gaz carbonique produit est absorbée par l’océan et la biosphère. Il est donc vraisemblable que l’utilisation des combustibles fossiles soit responsable du changement de composition atmosphérique observé. Cela est confirmé par la diminution observée de la concentration d’oxygène présentée dans le premier panneau de la figure 1, l’oxygène nécessaire à la fabrication du CO2 additionnel ayant été prélevé dans l’atmosphère. Enfin, des mesures de composition isotopique du carbone atmosphérique viennent compléter le faisceau d’arguments qui permettent d’attribuer de façon certaine le changement de la composition atmosphérique aux activités humaines.

Figure 2 – Utilisation des combustibles fossiles et augmentation du gaz carbonique présent dans l’atmosphère, de 1959 à 2002. La courbe noire supérieure en marches d’escalier indique l’accroissement de la concentration du gaz carbonique atmosphérique qui aurait eu lieu si la totalité du gaz carbonique résultant de la combustion des combustibles fossiles était restée dans l’atmosphère où elle a été relâchée. Les colonnes bleues verticales indiquent l’augmentation annuelle effectivement observée de cette concentration. La moyenne sur 5 ans est fournie par les courbes noire et rouge qui traduisent les incertitudes sur cette moyenne.

Le gaz carbonique n’est pas le seul gaz à effet de serre dont la concentration ait augmenté. Celle du méthane a cru de 120% et celle du protoxyde d’azote de 20 %. D’autres gaz ont été introduits par les activités humaines, comme les CFC responsables par ailleurs de la destruction de la couche d’ozone (voir fiches sur l’air et sur l’ozone).

3.2. Le changement climatique observé

Une telle augmentation de la teneur en gaz à effet de serre se traduit, comme l’avait prévu Svante Arrhénius en 1896 et comme le simulent les modélisations numériques modernes, par un effet de serre additionnel entraînant une augmentation de la température moyenne du globe estimée à 0,8° (à plus ou moins 0,2° près). Les 12 dernières années sont les années les plus chaudes jamais enregistrées depuis 1850, à une exception près 1996.

Dossier scientifique Environnement 10

Page 12: Dossier scientifique E n v i r o n n E m E n t

Figure 3 – L’évolution semblable au cours du temps de la température des terres, de la surface de l’eau de mer et de l’air à la surface de la mer

Ce réchauffement n’est pas uniformément réparti, les océans dont l’effet régulateur sur les températures est bien connu se réchauffant naturellement moins que les continents, comme le montre la figure 4. On y observe en outre que l’accroissement de la température est particulièrement fort dans les régions les plus septentrionales d’Amérique, d’Europe et d’Asie. Ce résultat qui peut paraître surprenant est dû au fait que la turbulence de l’atmosphère diminue quand la latitude croît.

Les continents et les océans se sont

réchauffés

Figure 4 – le diamètre des points traduit la variation en degrés de la température.

Dossier scientifique Environnement 11

Page 13: Dossier scientifique E n v i r o n n E m E n t

On note en outre que les nuits se réchauffent plus que les jours, là encore conformément aux prévisions. Les précipitations sont également affectées par ce changement climatique, certaines régions étant plus arrosées et d’autres moins.

La répartition des précipitations a changé

Figure 5 – Le diamètre des points traduit l’augmentation en % des précipitations.

3.3. La cause du changement climatique observé

Les modèles simulant sur ordinateur la circulation des masses d’air dans l’atmosphère et des masses d’eau dans l’océan constituent la base des prévisions météorologiques actuelles. Ils peuvent être adaptés au calcul du changement du climat provoqué par une évolution donnée de la composition atmosphérique. On peut ainsi vérifier que les observations ne peuvent être expliquées que par la prise en compte de l’effet de serre dû au changement observé de la composition de l’atmosphère, lui-même provoqué par les activités humaines (figure 6).

Dossier scientifique Environnement 12

Page 14: Dossier scientifique E n v i r o n n E m E n t

Figure 6 – Changements de la température de l’air à la surface de la Terre, à l’échelle mondiale et continentale de 1906 à 2005, par rapport à sa valeur moyenne pour la période 1901–1950, comparés avec les simulations des modèles numériques. Les lignes noires indiquent les changements observés et sont pointillées lorsque les données disponibles couvrent moins de 50 % de la surface concernée. Les bandes bleues correspondent à des simulations ne prenant en compte que les phénomènes naturels et les bandes rouges à des simulations prenant en compte à la fois l’effet des phénomènes naturels et celui des phénomènes résultant des activités humaines. Les trois panneaux du bas correspondent de gauche à droite à la moyenne mondiale, à la moyenne des terres émergées et à la moyenne des océans.

4. Le changement climatique au cours du XXIe siècle

4.1. L’évolution de la composition de l’atmosphère

Les besoins énergétiques de l’humanité ne cessent de croître tant à cause de la croissance de la population mondiale que du développement économique de certains pays. Cette énergie est produite actuellement pour 80 % à partir de combustibles fossiles (figure 7).

Dossier scientifique Environnement 13

Page 15: Dossier scientifique E n v i r o n n E m E n t

10 milliards de tonnes par anen « équivalent pétrole »

PétroleGazCharbonBois,…NucléaireHydroRenouv

35%

21%

23,5%

6,8%

Figure 7 – Origine de l’énergie consommée mondialement par an.

En l’absence d’actions volontaristes, les émissions de gaz carbonique croîtront dans les prochaines décennies et il s’en suivra une augmentation de la concentration du gaz carbonique dans l’atmosphère. Divers scénarios vraisemblables ont été construits pour de telles évolutions non-interventionnistes et ils conduisent à des concentrations allant de 550 à 1 000 ppm (figure 8).

Les concentrations de CO2 attendues au cours duXXIème siècle sont deux à quatre fois celles de l’ère

préindustrielle

Figure 8 – Scénarios d’évolution de la concentration du gaz carbonique dans l’atmosphère, en l’absence de toute action volontariste pour réduire les émissions.

4.2. L’augmentation de la température moyenne mondiale

Dossier scientifique Environnement 14

Page 16: Dossier scientifique E n v i r o n n E m E n t

Les modèles numériques permettent de calculer l’évolution de la température moyenne mondiale correspondant à chaque scénario. Cependant, les modèles ne sont pas parfaits, ils sont en particulier incapables de simuler en des temps de calcul raisonnables des phénomènes de taille inférieure à 300 km. Il en résulte que les températures prévues sont attachées d’une incertitude. Les barres à droite de la figure 9 sont relatives à la température prévue en 2100. On voit que si on associe la concentration la plus faible à la partie basse de la barre correspondante, l’augmentation de température prévue est de 1° et que si, à l’opposé on associe la concentration la plus forte à l’extrémité haute de la barre, on trouve 6,4°. C’est donc dans cette fourchette qu’on peut s’attendre à trouver l’augmentation de la température moyenne mondiale à la fin du siècle, en l’absence d’actions volontaristes. Les conséquences de telles variations de la température moyenne mondiale sont importantes puisque l’écart de 5° qui existe entre une ère glaciaire et un optimum interglaciaire, c’est-à-dire entre les périodes les plus froides et les périodes les plus chaudes des grands cycles climatiques naturels (la figure 1, panneau en haut à gauche en montre l’effet sur la composition de l’atmosphère), a entraîné un bouleversement de la géographie du monde.

Figure 9 – Augmentation de la température moyenne de surface par rapport à la période 1980-99.Les courbes colorées montrent, en continuité avec les simulations relatives au XXe siècle les variations pour les scénarios A2, A1B et B1, ainsi que pour un scénario irréaliste où les concentrations seraient restées constantes à leur valeur de 2000 et qui présente l’intérêt de montrer le réchauffement auquel nous condamnent les émissions passées. Les zones colorées donnent une indication de la dispersion des simulations. Dans les barres de droite, le trait horizontal indique la valeur la plus probable pour le scénario d’émissions considéré et l’étendue des barres indique la gamme des valeurs vraisemblables.

4.3. La répartition géographique du réchauffement

L’augmentation de température prévue n’est pas uniforme, les continents se réchauffant plus que les océans et les parties septentrionales subissant le réchauffement le plus fort (voir figure 10).

Dossier scientifique Environnement 15

Page 17: Dossier scientifique E n v i r o n n E m E n t

Figure 10 – Répartition mondiale de l’augmentation de température pour 3 scénarios (en lignes) et trois périodes (en colonnes).

4.4. Le changement des précipitations

La moyenne mondiale des précipitations devrait croître. La figure 11 montre que certaines régions comme le nord de l’Europe seront plus arrosées tandis que le Bassin méditerranéen sera confronté à une sécheresse accrue. On observera davantage de phénomènes pluvieux intenses, même dans les régions plus sèches.

Figure 11 – Changements des précipitages en pourcentage pour la période 2090–2099, par rapport à 1980–1999. Ces valeurs correspondent à la moyenne des modélisations pour le scénario moyen d’émissions A1B pour les mois de décembre à févier (à gauche) aux mois de juin à août (à droite). Les zones blanches sont celles où moins des deux tiers des modèles donnent un changement de même signe et les zones pointillées sont celles où plus de 90 % des modèles donnent des changements de même signe.

Dossier scientifique Environnement 16

Page 18: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 17

4.5. Les conséquences du changement climatique

Les changements climatiques affectent déjà des systèmes physiques et biologiques sur tous les continents : retrait des glaciers de montagne, risque de chutes de rochers et de glaces, glissements de terrain, réduction de l’étendue et de l’épaisseur de la glace de mer arctique en été, floraisons précoces et périodes plus longues de croissance des plantes et de reproduction des animaux, migration en latitude et en altitude des plantes, des poissons, des oiseaux, des insectes, etc. Il est quasi-impossible que la cohérence entre les changements observés et le changement climatique actuel soit due au hasard.

Les changements climatiques redoutés vont être lourds de conséquences plus sérieuses sur les ressources en eau, certains écosystèmes naturels, la santé, l’agriculture, la sylviculture, les systèmes côtiers et les zones de basse altitude qui seront affectées par la montée du niveau de la mer sous le double effet de la dilatation d’une couche océanique superficielle d’épaisseur croissante et de l’apport d’eau résultant de la fonte des glace de terre. Ce dernier phénomène pourrait entraîner des conséquences catastrophiques pour de nombreuses populations : la fonte de la calotte glaciaire du Groenland, possible d’ici quelques siècles ou peut-être moins encore, provoquerait une augmentation du niveau de la mer de plus de 5 mètres.

Un certain nombre de mesures d’adaptation sont envisageables pour atténuer les effets du changement climatique. Il semble évident que les pays développés auront des possibilités d’adaptation supérieures à celles des pays qui le sont moins. Il faut donc s’attendre à ce que le déséquilibre nord sud s’en trouve accentué, avec l’apparition d’émigrés climatiques et la multiplication des problèmes associés aux demandes massives de migration.

5. La maîtrise du changement climatique

Seule une réduction des émissions humaines de gaz à effet de serre peut permettre d’empêcher le changement climatique de prendre une ampleur susceptible d’engendrer des catastrophes. Des gaz comme le méthane existant dans le gaz naturel, produit par certaines cultures et par la fermentation dans l’appareil digestif des ruminants (qui s’en débarrassent par des pets et surtout par des rots) ou comme l’oxyde nitreux dont les émissions sont accrues par l’emploi d’engrais azotés, ont un effet de serre qui vient s’ajouter à celui du gaz carbonique. Néanmoins, la contribution du méthane ne représente que 30 % de celle du gaz carbonique et celle de l’oxyde nitreux 10 %. De plus, la durée de vie du gaz carbonique est beaucoup plus longue que celle du méthane et de l’oxyde nitreux. On se concentrera donc sur la maîtrise des émissions de gaz carbonique qui posent le problème plus sévère de développement durable, à cause du lien étroit avec la production énergétique qui a déjà été souligné.

5.1. L’inertie du système climatique

La figure 12 montre que pour stabiliser la température, il faut commencer par stabiliser la concentration du gaz carbonique dans l’atmosphère et que cela nécessite de diminuer les émissions qui ont tendance actuellement à croître pour les ramener à un niveau très inférieur au niveau actuel. La figure montre clairement que si nous attendons d’avoir trop chaud pour réduire nos émissions, la température que nous imposerons aux générations futures pour des millénaires est largement supérieure à celle qui nous a décidés à agir. En outre, le niveau de la mer continuera à augmenter pendant des millénaires à cause de la dilatation thermique d’une

Page 19: Dossier scientifique E n v i r o n n E m E n t

couche superficielle qui se réchauffe de plus en plus profondément et de la fonte des glaces de terre.

La concentration en CO2, la température et le niveau de la mer continuent à croître

longtemps après que les émissions aient étéréduites

Figure 12

5.2. Les scénarios de stabilisation

À l’opposé des scénarios non-interventionnistes évoqués au §4.1., on peut décider, comme s’y sont engagés les états signataires de la Convention de Rio sur le climat, mise au point lors du sommet des chefs d’état en 1992, d’adopter une politique visant à limiter le changement de la composition de l’atmosphère à des valeurs plafonds. La figure 13 montre (panneau en haut à gauche) une évolution des émissions permettant de stabiliser la concentration du gaz carbonique dans l’atmosphère à diverses valeurs : 450, 550, 650, 750 et 1 000 ppm, l’évolution de cette concentration (panneau en haut à droite) et celle de la température (panneau du bas). Les barres d’erreur sur ce dernier panneau indiquent l’incertitude sur la température calculée pour 2100, tandis que les losanges indiquent la température d’équilibre qui sera atteinte après des centaines d’années et se maintiendra pendant des milliers d’années. Plus la réduction des émissions sera rapide, plus limitée sera l’augmentation de la température moyenne, la figure 12 permettant de quantifier cette constatation.

Dossier scientifique Environnement 18

Page 20: Dossier scientifique E n v i r o n n E m E n t

La stabilisation de la concentration en gaz carbonique exige une réduction importante

des émissions

Figure 13

5.3. Les réserves en combustibles fossiles

Le développement de tous les pays est largement fondé sur la disponibilité d’énergie, essentiellement fournie par les combustibles fossiles (voir figure 6). Toutefois, les réserves du sous-sol sont limitées et elles seront épuisées dans un petit nombre de siècles. Notre développement est donc fondamentalement non durable. Malheureusement, pour le changement climatique, les ressources enfouies sont cependant trop grandes pour qu’on puisse compter sur leur épuisement pour le juguler, comme le montre la figure 14.

Dossier scientifique Environnement 19

Page 21: Dossier scientifique E n v i r o n n E m E n t

Figure 14

Les trois premières barres verticales indiquent en milliards de tonnes les ressources estimées en carbone sous forme de pétrole, gaz et charbon, la quatrième barre les consommations de 1850 à 2000, les barres bleus indiquent les émissions au cours du XXIe siècle correspondant aux scénarios de la figure 7, les barres vertes celles qui correspondent aux scénarios de stabilisation de la figure 12. On voit que si les ressources en pétrole et en gaz seront épuisées avant la fin du siècle, les ressources en charbon ne le seront pas. La conclusion à en tirer est que notre rapport à l’énergie est non durable à court terme à cause du bouleversement du climat et à plus long terme seulement à cause de l’épuisement des ressources.

5.4. La maîtrise du réchauffement climatique

Il convient donc de limiter nos émissions de gaz à effet de serre pour éviter un bouleversement du climat de notre planète. Comme le montre la figure 12, une stabilisation de la concentration à 450 ppm exige que les émissions mondiales soient divisées par un facteur 2 environ, ce qui correspond en moyenne à environ une demi-tonne de carbone par habitant et par an. L’Américain du Nord en émet en moyenne 7 tonnes, un Européen 3 tonnes. Les émissions annuelles en France, 2 tonnes par habitant, sont inférieures à la moyenne européenne, grâce à la très faible part des combustibles fossiles dans notre production d’électricité qui est pour 80 % d’origine nucléaire et pour 15 % d’origine hydraulique. Pour réduire les émissions, on peut agir dans deux directions complémentaires : diminuer notre consommation en énergie à chaque fois que c’est possible et utiliser des sources d’énergie n’émettant pas de gaz à effet de serre.

On peut économiser de l’énergie par une meilleure isolation thermique des murs des bâtiments, par l’installation de doubles fenêtres ou par l’utilisation de pompes à chaleur permettant de transférer de la chaleur de l’intérieur à l’extérieur d’une maison ou vice versa

Dossier scientifique Environnement 20

Page 22: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 21

pour chauffer ou climatiser les lieux d’habitation. Il en va de même grâce au remplacement de véhicules surpuissants par des véhicules adaptés aux limitations de vitesse en vigueur, généralement plus petits, plus faciles à garer et plus maniables en ville, ou encore par le choix de la marche à pied ou du vélo, exercices physiques bons pour la santé, de préférence à l’utilisation de la voiture pour de courtes distances ou encore par le choix des transports en commun moins gourmands en énergie que les véhicules individuels.

La réduction des émissions lors de la production d’énergie peut être recherchée dans diverses directions. On peut capter et stocker dans des formations géologiques adaptées le gaz carbonique produit dans des centrales thermiques fixes. On sait produire industriellement de grandes quantités d’électricité grâce aux grands barrages hydrauliques ou grâce aux centrales nucléaires. Les énergies renouvelables comme la biomasse (bois de chauffage, biocarburants), l’énergie solaire (chauffe-eau solaires, panneaux solaires photovoltaïques produisant de l’électricité), l’énergie du vent (éoliennes), des courants marins, la géothermie, l’énergie thermique des mers offrent des possibilités complémentaires qu’il faut exploiter simultanément dans toute la mesure du possible.

Conserver les bénéfices qu’apporte le progrès technique à notre confort, notre santé, notre espérance de vie sans bouleverser le climat de notre planète implique que nous mettions tout en œuvre pour économiser l’énergie qui est un bien plus précieux qu’on ne l’a longtemps cru et pour produire cette énergie par tous les moyens disponibles permettant de ne pas relâcher dans l’atmosphère des gaz à effet de serre. Ce programme implique que le long terme ne doit pas être sacrifié au court terme.

Page 23: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 22

L’air

Marie-Lise CHANIN

1. Questions fréquemment posées

La composition de l’atmosphère a-t-elle changé de façon inquiétante depuis le début de l’ère industrielle ?

Oui, la composition chimique de l’air que nous respirons a été considérablement modifiée depuis le début de l’ère industrielle. Même si les changements portent sur des concentrations très faibles (moins d’1 % de sa masse totale) par rapport à celle des constituants majeurs de l’atmosphère que sont pour 78 % l’azote moléculaire (N2) et pour 20 % l’oxygène moléculaire (O2), certains composants chimiques peuvent avoir un effet non négligeable d’une part sur le climat et d’autre part sur la qualité de l’air. On doit cependant noter qu’au cours des dernières décennies, la qualité de l’air s’est améliorée au moins en Europe et aux États-Unis et ceci est dû essentiellement à la disparition des centrales à charbon. Ce n’est malheureusement pas le cas au-dessus du territoire chinois. D’autre part l’air à l’intérieur des habitations (où l’on passe 80 % du temps) est soumis à d’autres sources de pollution locales (poussières domestiques, pollens, acariens, solvants et produits chimiques divers…) qui n’affectent pas la composition générale de l’atmosphère mais qui peuvent avoir des effets néfastes sur la santé (voir la fiche « Environnement-santé »).

La composition de l’atmosphère avait-elle changé auparavant ?

Oui, notamment au cours des centaines de milliers d’années où l’on dispose de mesures de dioxyde de carbone et de méthane obtenues à partir des archives glaciaires en Antarctique et en Arctique. Mais ces changements correspondaient à la succession de périodes glaciaires et interglaciaires de longue période due aux changements de paramètres astronomiques modifiant l’ensoleillement et non à l’activité humaine. Les changements que nous observons aujourd’hui en diffèrent sur deux plans : ils se produisent à une échelle de temps beaucoup plus courte (quelques décennies) et de plus ils ont conduit à des niveaux de concentration jamais atteints au cours du dernier million d’années.

Quels sont les principaux changements?

Pour prendre quelques exemples parmi les gaz jouant un rôle important comme les gaz à effet de serre, on peut indiquer les taux d’augmentation suivants depuis 1750 pour le dioxyde de carbone, le méthane, le protoxyde d’azote et l’ozone troposphérique : CO2 CH4 NO2 O3 35 % 150 % 20 % 100 % (en région industrielle)

Page 24: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 23

On peut aussi citer le cas de nombreux gaz qui n’existaient pas dans l’atmosphère préindustrielle, notamment les fameux CFC qui ont été les premiers responsables de la destruction de l’ozone stratosphérique (voir la fiche « Ozone »), mais également de nombreuses substances chimiques créées pour les besoins de la société.

Ces changements sont-ils réversibles ?

La réponse à cette question dépend d’une part de la durée de vie de ces gaz dans l’atmosphère (c’est-à-dire du temps nécessaire à leur disparition par absorption dans l’océan ou par réaction chimique, par exemple), et du besoin que ressent la communauté humaine pour continuer à les utiliser donc à les relâcher dans l’atmosphère. La durée de vie de certains gaz à effet de serre (CO2 et CH4 par exemple) est de plusieurs décennies. En revanche, certains polluants, comme NO2 et O3 subissent des transformations chimiques rapides et leur présence dans l’atmosphère est de courte durée ; donc, à condition de supprimer leur source (notamment la circulation automobile), on pourrait restaurer rapidement une qualité de l’air acceptable.

Quelles sont les principales conséquences des changements de la composition atmosphérique?

Pour répondre à cette question, il est plus simple de classer les constituants en fonction de leur influence sur le climat (gaz à effet de serre ou aérosols) et sur la qualité de vie.

Gaz à effet de serre

Même s’il est essentiellement fait référence au gaz carbonique ou dioxyde de carbone (CO2) quand on parle de gaz à effet de serre, il existe d’autres gaz contribuant à augmenter l’effet de serre. Il est bon tout d’abord de rappeler que l’effet de serre existait sur Terre préalablement au développement industriel et qu’il a d’ailleurs permis à l’homme de vivre avec une température agréable en moyenne d’environ 15 °C par rapport à la valeur de –18 °C que la Terre connaîtrait sans l’effet de serre. Le principal gaz à effet de serre sur Terre n’est pas le dioxyde de carbone (CO2) mais la vapeur d’eau (H2O) qui contribue à 60 % de l’effet total, bien que ne représentant que 0,2 % de la masse totale de l’atmosphère. Outre ces deux principaux contributeurs, il faut aussi citer le méthane (CH4), l’hémioxyde d’azote (N2O), l’ozone troposphérique (O3) et les chorofluorocarbures (CFC) et leurs substituts (voir la fiche Ozone stratosphérique). Il est important de noter que la stabilité chimique de certains de ces gaz (CO2, CH4, CFC) en fait des gaz sans danger pour la santé et ils ne peuvent donc être qualifiés de « polluants », si on s’en tient à la définition de la pollution comme une dégradation de l’air par des substances chimiques.

La conséquence de l’augmentation de ces gaz à effet de serre est d’accroître la température moyenne de la surface et donc de modifier le climat. Le changement observé depuis un siècle est de l’ordre de 0,8 degré et, suivant les différents scénarios on peut s’attendre au cours de ce siècle à une augmentation de la température moyenne du globe de 2 à 4,5 degrés (voir la fiche sur le « Changement climatique »).

Polluants

L’atmosphère au niveau du sol est le siège de nombreuses réactions chimiques produites d’une part par l’oxydation de la vapeur d’eau en présence de lumière qui produit le radical hydroxyle très réactif (OH), et d’autre part par les nombreuses émissions d’oxydes d’azote

Page 25: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 24

(NO et NO2), d’oxyde de carbone, CO, produit par les processus de combustion, d’ozone, de soufre et d’hydrocarbures produits par l’activité industrielle. L’agriculture de son côté est responsable de l’émission de l’hémioxyde d’azote (N2O) qui est émis dans l’atmosphère par les processus de nitrification et dénitrification provoqués par les bactéries dans le sol (voir la figure 1).

Ces différents composés interagissent chimiquement en présence du rayonnement solaire. Un des produits de ces réactions est le dioxyde d’azote (NO2), qui peut être dissocié par le rayonnement solaire et conduit à la formation d’ozone O3 qui joue un rôle majeur dans la troposphère. Dans presque tous les cas, le taux de production de l’ozone troposphérique est contrôlé par la présence du monoxyde et du dioxyde d’azote. Comme les oxydes d’azote sont produits en grande partie par la combustion de matières fossiles, par les feux de biomasse et les activités agricoles, le niveau d’ozone est directement affecté par les activités humaines (voir la figure 2). Lors d’épisodes de forte pollution, notamment dans les villes où la circulation automobile est intense, des brouillards photochimiques sont observés au voisinage des sources d’oxyde d’azote, de monoxyde de carbone et d’hydrocarbures (substances que l’on appelle les précurseurs d’ozone) et font l’objet d’alertes à la pollution pour prévenir des effets sur la santé (voir la fiche « Environnement-santé »).

Aérosols

On appelle « aérosols » atmosphériques des particules solides et liquides en suspension dans l’atmosphère. Leur taille est variée et peut aller de quelques nanomètres à quelques micromètres (microns) et ils correspondent à des compositions chimiques très variées. Contrairement aux constituants existant sous forme gazeuse, ils ne rentrent pas dans des réactions chimiques, mais donnent lieu suivant leur taille à une « pollution » invisible ou à des brouillards, des fumées avant de tomber sous l’effet de la gravité ou d’être entraînés par les précipitations.

Les principaux responsables de ces aérosols sont, comme pour les gaz à effet de serre et les gaz polluants, la combustion de matières fossiles, les feux de brousse, la circulation automobile. La nature y contribue également par le transport de poussières désertiques et épisodiquement par les éruptions volcaniques qui injectent des tonnes de poussières et de composés soufrés dans l’atmosphère (voir les figures 3, 4, et 5).

Les aérosols, outre leur effet nocif sur la santé humaine ont également un effet sur le climat. Le rôle d’écran du rayonnement solaire leur confère un rôle de refroidissement qui s’oppose donc localement à l’augmentation de température due à l’effet de serre. Les régions du monde les plus polluées en aérosols peuvent donc, en compensation de la pollution rendant en général l’atmosphère irrespirable, bénéficier d’un léger refroidissement climatique. Les aérosols peuvent également jouer un rôle de noyaux de condensation favorisant la formation de la nébulosité et donc modifier les conditions atmosphériques et pluviométriques.

Les conséquences de la présence des « polluants » sont-elles les mêmes sur toute la planète ?

Oui pour les espèces qui restent longtemps dans l’atmosphère et non pour les autres.

Parmi les gaz à effet de serre, seuls le dioxyde de carbone, le méthane et les chorofluorocarbures ont des temps de résidence suffisamment longs dans l’atmosphère pour

Page 26: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 25

leur permettre d’être « en équilibre de mélange » et donc répartis quasi uniformément dans toute l’atmosphère. Les autres, plus actifs chimiquement, ne seront présents qu’au voisinage des régions où ils sont produits et ne contribueront donc que de façon localisée et épisodique à l’augmentation (ou à la diminution) du réchauffement dû à l’effet de serre. C’est le cas de l’ozone troposphérique et des aérosols, dont le temps de résidence dans l’atmosphère est de quelques jours, parce qu’ils rentrent en réaction chimique pour le premier ou qu’ils sédimentent rapidement pour les seconds.

Que peut-on faire en tant que citoyen pour réduire ces effets ?

Il faut ici aussi distinguer la réduction des émissions de gaz à effet de serre et la réduction de la pollution.

La réduction des gaz à effet de serre est un thème à la pointe de l’actualité. Parce que leur croissance au cours du siècle dernier est à l’origine des changements climatiques et que la production d’énergie est une des principales causes de l’émission de CO2, ce thème est traité à la fois dans la fiche « Changement climatique » et dans la fiche « Énergie ». On ajoutera cependant qu’il ne faut pas oublier la contribution des autres gaz à effet de serre : le méthane (CH4) par exemple, qui est essentiellement proportionnel à l’augmentation de la population, l’ozone troposphérique créé par la pollution et notamment par la circulation automobile, les oxydes d’azote, conséquences de l’utilisation abusive d’engrais. On voit donc bien que collectivement, en réformant notre mode de vie, nous pouvons contribuer à réduire ces effets.

2. Texte plus détaillé et figures

Changement de la composition atmosphérique et rôles respectifs des différents composants dans la pollution et dans le changement climatique

La composition atmosphérique a continuellement changé au cours des différentes ères géologiques et bien avant que l’homme puisse être mis en cause dans ces changements. On sait notamment que le dioxyde de carbone et le méthane ont changé au cours des centaines de milliers d’années où l’on dispose de mesures obtenues à partir des archives glaciaires en Antarctique et en Arctique (voir la figure 1 de la fiche « Changement climatique »). Mais ces changements étaient indépendants de l’activité humaine. Les changements que nous observons aujourd’hui en diffèrent sur deux plans : ils se produisent à une échelle de temps beaucoup plus courte (quelques décennies) et, de plus, ils conduisent à des niveaux de concentration de certains constituants jamais atteints au cours du dernier million d’années. On doit cependant noter qu’au cours des dernières décennies, la qualité de l’air s’est améliorée au moins en Europe et aux États-Unis. On se souvient, au moins par l’intermédiaire de la littérature du « fog » londonien, mais le noircissement des monuments de Paris dans les années 50 en est également la preuve. Cette amélioration est due essentiellement à la disparition de l’utilisation du charbon. Ce n’est malheureusement pas le cas partout dans le monde et notamment au-dessus de la Chine où, comme nous le montrons plus loin, un nuage brun est en permanence en suspension dans l’atmosphère.

Aujourd’hui on peut donc affirmer que la composition chimique de l’air que nous respirons a été considérablement modifiée depuis le début de l’ère industrielle. Même si les changements portent sur des concentrations très faibles (moins de 1 % de la masse totale de l’atmosphère) par rapport à celle des constituants majeurs de l’atmosphère, l’azote

Page 27: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 26

moléculaire (N2) pour 78 % et l’oxygène moléculaire (O2) pour 20 %), certains composants chimiques peuvent avoir un effet non négligeable d’une part sur le climat et d’autre part sur la qualité de l’air.

Les changements de la composition atmosphérique

Les changements de la composition atmosphérique peuvent avoir deux types d’effet : d’une part ils ont une influence sur le climat (c’est le cas des gaz à effet de serre et des aérosols) et d’autre part sur la qualité de vie et la santé (c’est le cas de la plupart des polluants). Quelques-uns de ces gaz appartiennent aux deux catégories, l’ozone troposphérique par exemple.

Gaz à effet de serre

Quand on parle de gaz à effet de serre, on fait souvent référence au gaz carbonique ou dioxyde de carbone, CO2, bien qu’il existe d’autres gaz contribuant à augmenter l’effet de serre. Rappelons que l’effet de serre existait sur Terre préalablement au développement industriel et que, grâce à lui, la Terre a une température de 33 °C supérieure à ce qu’elle serait sans l’effet de serre. Dans ces conditions de froid, il n’y aurait pas d’eau sous forme liquide et notre planète serait difficilement habitable. Ce qui nous concerne ici est l’augmentation des concentrations des gaz contribuant à un réchauffement supplémentaire de la surface.

Le principal gaz à effet de serre sur Terre n’est d’ailleurs pas le dioxyde de carbone (CO2) mais la vapeur d’eau (H2O) qui contribue à 60 % de l’effet total, bien que ne représentant que 0,2 % de la masse totale de l’atmosphère, mais ce dernier n’est pas la conséquence de l’activité humaine. Outre ces deux principaux contributeurs, il faut aussi citer le méthane (CH4), l’hémioxyde d’azote (N2O), l’ozone troposphérique (O3) et les chorofluorocarbures (CFC) et leurs substituts. Parmi ces gaz à effet de serre, seuls le dioxyde de carbone, le méthane et les chorofluorocarbures ont des temps de résidence très longs dans l’atmosphère (plusieurs décennies), parce qu’ils ne rentrent pas ou peu dans des cycles de réactions chimiques avec d’autres constituants ; ceci leur permet d’être en équilibre de mélange dans toute l’atmosphère. Les autres, plus actifs chimiquement, ne seront présents qu’au voisinage des régions où ils sont produits et ne contribueront donc que de façon localisée à l’augmentation de l’effet de serre. L’augmentation globale des gaz à effet de serre à été de l’ordre de 50 % depuis le début de l’ère industrielle (avec les risques que cela comporte pour le climat), dont évidemment une contribution importante est due au CO2 qui a cru de 35 %, mais aussi à des contributions non négligeables du méthane et de l’ozone troposphérique qui ont l’un et l’autre doublé, et aux chorofluorocarbures et à leurs substituts qui n’existaient pas dans l’atmosphère préindustrielle.

CO2 CH4 NO2 O3 35 % 150 % 20 % 100 % (en région industrielle) Tableau 1 – Quelques exemples d’augmentation observée depuis 1750 parmi les gaz jouant un rôle important comme gaz à effet de serre pour le dioxyde de carbone, le méthane, le protoxyde d’azote et l’ozone troposphérique.

Page 28: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 27

Pour comprendre la cause de ces changements, disons un mot rapide sur la source de ces différentes émissions :

- le dioxyde de carbone est essentiellement produit par la combustion des ressources fossiles : charbon, pétrole, gaz, qui depuis le début de l’ère industrielle ont représenté les sources principales d’énergie. La lutte contre l’effet de serre aujourd’hui implique un changement dans les sources d’énergie. Le lecteur se réfèrera sur ce point à la fiche consacrée au changement climatique ;

- on constate que le méthane CH4 est le gaz dont l’augmentation est la plus forte. Il est produit dans l’atmosphère pour moitié par les activités microbiennes dans des milieux anaérobiques (privés d’oxygène), c’est-à-dire dans les zones humiques : marais, lacs, rizières. Il est aussi produit pour une grande partie dans le système digestif des ruminants et par l’activité humaine. Sa concentration dans l’atmosphère a augmenté de façon très importante au cours des deux derniers siècles, du fait de l’augmentation de la population et de l’intensification de l’agriculture ;

- les oxydes d’azote (NO et NO2) sont essentiellement produits par les processus de combustion, bien qu’il existe aussi des sources naturelles telles que les feux de biomasse et les éclairs par temps d’orage. Leur durée de vie est courte dans la basse atmosphère (quelques heures à quelques jours). Ils ne s’accumulent donc pas en grande quantité sauf près de leurs sources, mais ils sont très réactifs et ils jouent un rôle majeur dans la formation de l’ozone troposphérique et dans la destruction de l’ozone stratosphérique ;

- la concentration d’ozone (O3) au niveau du sol a été mesurée depuis plus d’un siècle et on constate que, dans les régions urbanisées et industrielles, la concentration de l’ozone à la surface a au moins doublé depuis l’ère pré-industriellepréindustrielle. Le taux de croissance de l’ozone est très variable dans l’espace ; il dépend de l’urbanisation et de l’industrialisation.

- enfin les halocarbures (incluant les chlorofluorocarbures ou CFC) n’existaient pas pour la plupart dans l’atmosphère pré-industrielle. Ils ont été développés pour de multiples applications : agents réfrigérants dans les réfrigérateurs et systèmes à air conditionné, agents propulseurs dans les bombes d’aérosols, produits nettoyants etc., du fait de leur stabilité chimique et donc de leur sécurité pour l’utilisateur. La durée de vie des CFC dans l’atmosphère peut atteindre 50 à 100 ans. Ces gaz sont surtout connus pour leur effet destructeur de l’ozone stratosphérique (le lecteur se rapportera sur ce point à la fiche consacrée à l’ozone stratosphérique), mais ils sont aussi de puissants gaz à effet de serre.

La réversibilité de ces changements dépend d’une part de la durée de vie de ces gaz dans l’atmosphère (c’est-à-dire du temps nécessaire à leur disparition par absorption dans l’océan ou par réaction chimique par exemple), et du besoin que ressent la communauté humaine pour continuer à les utiliser donc à les relâcher dans l’atmosphère. Or la durée de vie de beaucoup de gaz à effet de serre (CO2 et CH4 par exemple) est de plusieurs décennies, et la société humaine ne semble guère prête à se passer de la plupart des produits qu’elle a générés. Donc l’effort à faire est énorme, mais doit être entrepris sans attendre. Le rôle de l’augmentation de ces gaz à effet de serre fait l’objet de la fiche « Changement climatique ».

En revanche, il est important de noter que la stabilité chimique de la plupart de ces gaz (notamment CO2 et CH4) en fait des gaz sans danger pour la santé et ils ne peuvent donc être qualifiés de « polluants », si on s’en tient à la définition de la pollution comme une

Page 29: Dossier scientifique E n v i r o n n E m E n t

dégradation de l’air par des substances chimiques. Cela n’est pas le cas pour l’ozone et le protoxyde d’azote dont nous reparlerons dans le paragraphe suivant.

Qualité de l’air : la pollution

L’atmosphère au niveau du sol est le siège de nombreuses réactions chimiques produites d’une part par l’oxydation de la vapeur d’eau en présence de lumière, qui produit le radical hydroxyle très réactif (OH), et d’autre part par les nombreuses émissions d’oxydes d’azote (NO et NO2), d’oxyde de carbone, CO, produits par les processus de combustion, d’ozone, de soufre et d’hydrocarbures issus de l’activité industrielle. L’hémioxyde d’azote (N2O) quant à lui est émis dans l’atmosphère par les processus de nitrification et dénitrification provoqués par les bactéries dans le sol.

Le radical hydroxyle OH peut être converti en radical hydroperoxyle (HO2) par réaction entre OH et le monoxyde de carbone (CO), le méthane ou d’autres hydrocarbures. Ce radical HO2 peut être converti à nouveau en radical OH par réaction avec le monoxyde d’azote (NO). Ainsi les concentrations en OH et HO2 sont fortement affectées par les concentrations de gaz émis par les activités humaines. Un produit de la réaction entre HO2 et NO est le dioxyde d’azote (NO2), qui peut être dissocié par le rayonnement solaire. Ce processus photochimique conduit à la formation d’un atome d’oxygène qui est immédiatement converti en ozone O3 et joue donc un rôle majeur dans la troposphère. Dans presque tous les cas, le taux de production de l’ozone troposphérique est contrôlé par la présence du monoxyde d’azote. Comme les oxydes d’azote sont produits en grande partie par la combustion de matières fossiles, par les feux de biomasse et les activités agricoles, le niveau d’ozone est directement affecté par les activités humaines. La formation de ces deux polluants étant très liée aux activités industrielles et leur durée de vie dans l’atmosphère étant courte du fait de leur réactivité, ils ne se trouvent pas en équilibre de mélange dans l’atmosphère et sont concentrés autour des sources de production comme le montrent les figures suivantes.

Figure 1 – La distribution de NO2 à l’échelle globale moyennée sur une année, à partir de l’instrument Schiamachy à bord du satellite européen Envisat. On voit clairement les sources d’émission dans les régions industrielles.

Dossier scientifique Environnement 28

Page 30: Dossier scientifique E n v i r o n n E m E n t

Lors d’épisodes de pollution intense, des brouillards photochimiques sont observés au voisinage des sources d’oxyde d’azote, de monoxyde de carbone et d’hydrocarbures (substances que l’on appelle les précurseurs d’ozone). Ceci se produit en particulier lorsque les conditions météorologiques sont stables, les niveaux d’ozone sont alors très élevés et peuvent affecter la santé des populations.

On voit dans la figure ci-dessous que la présence d’ozone troposphérique est très inhomogène à l’échelle du globe et que les maxima sont observés dans l’Hémisphère Nord au dessus des régions les plus industrialisées : États-Unis, Asie, Europe. Les émissions dues aux feux de brousse sont observables au-dessus de l’Afrique de l’Ouest.

Figure 2 – L’ozone troposphérique à partir d’images satellitales de TOMS et SBUV pendant l’été, montrant d’une part la localisation des sources majeures et le transport à grande échelle dans l’Hémisphère Nord.

Aérosols et poussières

La combustion de matières fossiles et les feux de brousse, outre le fait qu’ils produisent des gaz à effet de serre et des polluants, comme nous l’avons vu ci-dessus, sont aussi responsables localement d’une augmentation importante des aérosols et des poussières qui restent en suspension dans l’atmosphère. La nature y contribue également grâce au transport de poussières désertiques, comme on le voit sur la figure 3, et épisodiquement par les éruptions volcaniques qui injectent des tonnes de poussières et de composés soufrés dans l’atmosphère.

Dossier scientifique Environnement 29

Page 31: Dossier scientifique E n v i r o n n E m E n t

Figure 3 – Plume provenant des feux des forêts canadiennes vue à partir du satellite MODIS.

La formation des aérosols atmosphériques résulte en grande partie de transformations chimiques et microphysiques se produisant dans la troposphère. Les aérosols organiques proviennent en grande partie de l’oxydation des composés organiques volatiles, comme les terpènes émis par la végétation. Les aérosols sulfatés sont produits à la suite de la conversion par les molécules de peroxyde d’hydrogène (H2O2) et d’ozone (O3) du dioxyde de soufre (SO2). La présence ce dernier composé dans l’atmosphère est due essentiellement à la combustion du charbon. On voit dans la figure 4 la présence d’une telle pollution qui a pris le nom de « nuage brun » dont la présence au-dessus de la Chine est quasi permanente et due à la combustion d’un charbon dont la teneur en soufre est très élevée. Le problème soulevé par ce type de pollution est en passe de devenir un problème de santé publique dans certaines grandes villes de Chine (Wuhai par exemple).

Dossier scientifique Environnement 30

Page 32: Dossier scientifique E n v i r o n n E m E n t

Figure 4 – Photographie obtenue à partir du satellite ADEOS 2 du nuage d’aérosol baptisé « brown cloud » présent de façon quasi permanente au-dessus de la Chine.

En Europe, après la prise de conscience de l’impact des pluies acides sur la végétation, les émissions d’oxydes de soufre ont fait l’objet d’un contrôle sévère. Cependant on réalise depuis peu que la pollution à partir des navires marchands est la principale source de SO2 sur le continent européen comme le montre la figure suivante, et à ce jour elle ne fait l’objet d’aucune régulation, malgré les nombreuses réglementations existantes.

Dossier scientifique Environnement 31

Page 33: Dossier scientifique E n v i r o n n E m E n t

Figure 5 – Émissions de SO2 en Europe montrant les émissions à partir de navires desservant l’Europe à partir de l’Océan Atlantique et de la Méditerranée.

Les aérosols et poussières, outre leur effet nocif sur la santé humaine ont également un effet sur le climat. Les aérosols peuvent jouer un rôle de noyaux de condensation favorisant la formation de la nébulosité et donc modifier les conditions atmosphériques et pluviométriques. D’autre part, leur rôle d’écran du rayonnement solaire leur confère un rôle de refroidissement qui s’oppose donc localement à l’augmentation de température due à l’effet de serre. Les régions du monde les plus polluées en aérosols peuvent donc, en compensation de la pollution rendant en général l’atmosphère irrespirable, bénéficier d’un léger refroidissement climatique.

Ceci est le cas, mais sans les inconvénients dus à la pollution lorsque les poussières d’origine volcanique sont projetées dans la stratosphère où elles persistent pendant 1 ou 2 années entraînant effectivement un refroidissement de l’ordre de 0,5 °C, comme cela a été observé lors de la dernière grande éruption volcanique du Mont Pinatubo en 1991. Ceci a même suggéré au Prix Nobel de Chimie (1985), Paul Crutzen, d’imaginer comme une possibilité de lutte contre un réchauffement excessif du climat une injection de tonnes d’aérosols soufrés dans la stratosphère par ballons. Cette possibilité n’est évidemment envisagée qu’en cas d’extrême urgence !

Dossier scientifique Environnement 32

Page 34: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 33

La question de l’ozone stratosphérique Marie-Lise CHANIN

1. Questions les plus fréquentes

Qu’est-ce que l’ozone et où se situe-t-’il dans l’atmosphère ?

L’ozone est un gaz qui est naturellement présent dans l’atmosphère. La molécule d’ozone est formée de 3 atomes d’oxygène et elle est représentée par la dénomination chimique O3. La plus grande quantité d’ozone (90 %) se situe dans la stratosphère, c’est-à-dire entre 10-16 et 50 km d’altitude où il représente au plus 10 millionièmes de la concentration atmosphérique. C’est à cette fraction de l’ozone que l’on se réfère quand on parle de « couche d’ozone » et c’est de celui-ci dont on parlera ci-dessous. Le reste de l’ozone (10 %) se situe dans la troposphère, c’est-à-dire entre la surface du sol et environ 10 à 16km, et sa présence contribue à la pollution de l’air (voir figure 1).

Pourquoi distinguer le problème de l’ozone de celui des autres gaz présents dans l’atmosphère ?

Le maintien de la couche d’ozone dans la stratosphère est essentiel puisque c’est cette molécule qui assure la protection de la vie à la surface de la Terre en filtrant le rayonnement ultraviolet nocif pour les êtres vivants et les végétaux. Il faut se rappeler que le développement de la vie sur notre planète a été rendu possible grâce à la formation autour de celle-ci de la molécule d’ozone (O3) par dissociation de la molécule d’oxygène moléculaire (O2) sous l’action du rayonnement ultraviolet solaire (voir figure 2). L’épaisseur totale de la couche d’ozone qui conditionne la pénétration de l’ultraviolet varie en fonction de la latitude et de la saison, mais sa valeur moyenne pendant les dernières 1970 années où de nombreuses mesures sont disponibles, a été remarquablement stable… jusqu’aux années 1970-1980.

Pourquoi parle t-on du « bon » et du « mauvais » ozone ?

Comme nous venons de le dire l’ozone stratosphérique filtre le rayonnement ultraviolet et permet la vie sur terre, c’est le « bon » ozone. Mais il y a aussi une formation d’ozone au niveau du sol, non pas par le même processus puisque le rayonnement ultraviolet ne pénètre pas jusqu’au sol, mais par réactions chimiques à partir de polluants émis par les activités humaines, en particulier les oxydes d’azote, le monoxyde de carbone et les hydrocarbures. Cet ozone est un oxydant puissant et en concentration importante, il a des effets nocifs sur la santé, notamment en irritant les voies respiratoires, et sur les écosystèmes en réduisant la croissance et le rendement des cultures. D’où son qualificatif de « mauvais » ozone. (Voir la fiche « Air »)

Pourquoi la couche d’ozone a-t-elle été menacée ?

Depuis environ 50 ans, l’homme a fabriqué industriellement des composés organiques halogénés, dont les chlorofluorocarbures (CFC) qui sont des molécules synthétiques très

Page 35: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 34

stables chimiquement et donc en principe sans danger direct pour les êtres vivants. Pour cette raison, celles-ci ont été utilisées dans de nombreuses applications: réfrigérants (frigorifiques, climatiseurs), gaz propulseur dans les bombes aérosols, mousses synthétiques, solvants... et ont ainsi joué un rôle très bénéfique pour l’amélioration de notre mode de vie. Mais, du fait de leur très grande stabilité, ces gaz restent dans l’atmosphère pendant des décennies (50 à 100 ans), et ils sont progressivement transportés dans la stratosphère, où, soumis à l’influence du rayonnement ultraviolet solaire, ils sont dissociés et libèrent du chlore qui a alors la capacité de rentrer dans des cycles de réactions chimiques conduisant à la destruction de l’ozone (voir figure 3)

Où observe-t-on la destruction de la couche d’ozone ?

Au-delà des faibles diminutions de l’épaisseur de la couche d’ozone qui avaient été prévues et observées depuis la fin des années 1970 dans les régions de moyenne latitude, la découverte du « trou d’ozone » au-dessus du continent antarctique en 1985 a été la première manifestation spectaculaire de l'effet des activités humaines sur les équilibres physicochimiques globaux de l’atmosphère. Dans cette région, la quasi-totalité de l’ozone entre 15 et 20 km se trouve détruite chaque année au printemps et l’épaisseur totale d’ozone est alors diminuée de moitié (voir figure 4). Une diminution de l’ozone se produit également, mais avec une moindre amplitude, au printemps au-dessus de l’Arctique (voir figure 5). La différence de comportement entre les deux régions polaires provient d’une différence dans la circulation atmosphérique qui est plus régulière au-dessus du continent antarctique, et cette circulation maintient dans la stratosphère polaire une température très froide favorable à une forte destruction de l’ozone (voir figure 6).

Pourquoi un « trou d’ozone au-dessus de l’Antarctique, alors que les émissions de CFC se font surtout aux latitudes moyennes de l’hémisphère Nord ?

Bien que les CFC et autres composés halogénés soient surtout émis dans l’hémisphère Nord, lorsqu’ils atteignent la stratosphère, c’est-à-dire après une ou deux années dans la troposphère, ils sont été soumis à la circulation atmosphérique à grande échelle lorsqu’ils atteignent la stratosphère. Après une ou deux années dans la troposphère, ils se retrouvent présents à toutes les latitudes, même très loin des régions où ils sont émis, notamment au-dessus de l’Antarctique. Le fait que la température de la stratosphère soit plus froide qu’aux autres latitudes explique l’occurrence chaque hiver et chaque printemps du « trou d’ozone Antarctique » (voir figures 4 et 5).

Quelle a été la réaction des scientifiques après la découverte du « trou d’ozone » ?

Dès l’observation du « trou d’ozone » et son explication scientifique mettant en cause les composés chlorés, tout particulièrement les CFC, des discussions entre scientifiques, industriels et décideurs politiques ont permis de décider des mesures à prendre. Celles-ci ont consisté à proscrire la production et l’usage des CFC, grâce à la mise en place du Protocole de Montréal dès 1987 (voir figure 7). La plupart des pays producteurs et utilisateurs de CFC ont ratifié cet accord et les industriels ont rapidement mis sur le marché des produits de remplacement, ou substituts, beaucoup moins nocifs pour l’ozone. Au fil des ans, le Protocole de Montréal a dûu être renforcé pour tenir compte des substituts disponibles et des possibilités des pays à les utiliser. De plus, depuis 1987, les scientifiques ont découvert dans l’atmosphère

Page 36: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 35

d’autres substances aussi nocives que le chlore, si ce n’est plus. Il s’agit notamment des composés contenant du brome, comme le bromure de méthyle utilisé pour la culture des fruits et les halons utilisés dans les extincteurs. Le brome est en effet un agent 60 fois plus efficace que le chlore dans les processus de destruction catalytique de l’ozone.

Le résultat du Protocole de Montréal et de ses amendements successifs est un succès : dès la fin des années 1990, on a pu constater la diminution de la quantité de chlore, et plus récemment de brome dans la stratosphère (voir figure 8). Les prévisions pour le futur de l’ozone dépendent du respect du Protocole et de ses amendements par l’ensemble des pays.

La récupération de la couche d’ozone est-elle possible, et à quelle échéance ?

Le problème de l’ozone n’a pas disparu malgré l’existence du Protocole de Montréal. Mais ces dernières années, on constate, pour la première fois depuis 30 ans, que l’ozone a cessé de diminuer à moyenne latitude. S’il est prématuré de pouvoir affirmer que sa croissance est amorcée, étant donné les fluctuations et les incertitudes dans les mesures, on a toute raison de croire que la période de récupération a commencé. L’observation d’un trou d’ozone très accentué en Antarctique en septembre 2006 ne doit pas être considéré comme un signe alarmant, car on s’attend à ce type de fluctuations de nature météorologique. De toute façon, malgré les mesures prises, on ne verra en aucun cas un retour rapide à la situation préindustrielle. En effet d’une part, les composés chlorés et bromés restent dans l’atmosphère pendant plusieurs décennies, et malheureusement il existe encore des stocks très importants de ces produits qui sont encore utilisés et même fabriqués illégalement dans certaines parties du monde. D’autre part, le changement climatique global subi par l’atmosphère, se traduisant notamment par le refroidissement de la stratosphère, pourrait avoir comme conséquence que l’on ne retourne jamais à l’état antérieur. Le trou d’ozone en Antarctique et les diminutions d’ozone au printemps arctique se manifesteront encore au-delà de la moitié du XXIe siècle, avec une variabilité qui rend difficile une prédiction plus précise (voir figure 9).

La diminution d’ozone a-t-elle des conséquences sur le flux ultraviolet au sol ?

Étant donné que l’ozone atmosphérique absorbe l’ultraviolet solaire, toute diminution d’ozone (en dehors de toute autre modification de l’atmosphère) doit entraîner une augmentation de la pénétration du flux ultraviolet au niveau du sol dans une proportion à peu près équivalente. Les mesures confirment qu’il en est bien ainsi. Les augmentations les plus évidentes ont été observées au voisinage des pôles. En effet lorsque la destruction d’ozone au-dessus du pôle Sud cesse avec la fin du printemps, les masses d’air au-dessus des régions voisines de l’Antarctique sont pauvres en ozone, et des régions comme le Sud de l’Argentine et du Chili et l’Australie sont alors soumises à des flux ultraviolet dangereux. Le même phénomène se produit mais beaucoup plus faiblement sur l’Europe au printemps.

Si cette diminution de l’épaisseur de la couche d’ozone, aux pôles comme aux moyennes latitudes, s’était amplifiée, le monde entier aurait été soumis aux mêmes effets qu’au voisinage de l’Antarctique. Une telle augmentation de l’ultraviolet aurait présenté pour l’ensemble de la planète des risques importants tant pour l’homme que pour les animaux (cancers de la peau, cataractes...), pour les forêts et les cultures (diminution de la photosynthèse et baisse des rendements). La position de la France est telle que l’impact de la diminution de l’ozone n’y est pas particulièrement critique (voir figure 10).

Page 37: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 36

Le « Trou d’ozone » joue-t-il un rôle dans le problème du changement climatique ?

La diminution d’ozone stratosphérique est un problème tout à fait distinct de celui du changement climatique dû à l’augmentation des gaz à effet de serre. Ils diffèrent à la fois quant à leurs causes et quant à leurs conséquences. Cependant les interactions complexes dans l’atmosphère sont telles que des influences sont inévitables entre les deux phénomènes. Mais il convient dans une première approche de traiter séparément les deux problèmes.

On ne mentionnera ici que deux domaines d’interaction : - le changement climatique modifiant la température stratosphérique affecte la vitesse des

réactions chimiques et donc le retour de l’ozone à son état précédent. - les CFC et certains substituts mis au point pour les remplacer sont des puissants gaz à

effet de serre. Globalement ils sont responsables d'environ 13% de l’effet de serre additionnel dû à l’ensemble des gaz à effet de serre depuis le début du XXe siècle (voir figure 11 et fiche « Air »). Le contrôle de leur production est donc essentiel pour la surveillance des changements climatiques et s’inscrit alors dans le contexte de la Convention relevant du Climat.

En conclusion

À l’échelle de la planète, le problème du maintien de la couche d’ozone stratosphérique qui entoure la Terre devant le danger qui la menaçait a été un excellent exemple de problème d’environnement global. La façon dont il a été abordé, et en grande partie résolu par la communauté scientifique dans les deux dernières décennies peut être considéré comme un modèle à suivre dans d’autres domaines environnementaux.

Cependant le problème de la récupération de la couche d’ozone stratosphérique n’est pas résolu pour autant à ce jour, tout d’abord parce que ces substances resteront dans l’atmosphère pendant des décennies étant donné leur stabilité chimique ; surtout parce qu’il existe une grande quantité de CFC encore en circulation, notamment dans les vieux frigidaires, et il convient donc de ne pas les relâcher dans l’atmosphère, mais de les confier à des centres de récupération qui les détruiront.

2. Figures et compléments d’information

L’ozone, constituant de l’atmosphère

L’ozone est un gaz naturellement présent dans l’atmosphère, bien qu’en très faible quantité par rapport aux autres molécules d’azote (78 %) et d’oxygène (21 %) qui, avec l’addition de quelques gaz rares argon, hélium…, représentent 99 % de la composition de l’air. La molécule d’ozone est formée de 3 atomes d’oxygène et elle est représentée par la dénomination chimique O3 et provient de la dissociation de la molécule d’oxygène moléculaire (O2) par le rayonnement ultraviolet. La plus grande quantité d’ozone (90 %) se situe dans la stratosphère, et constitue la « couche d’ozone » Le reste de l’ozone (10 %) se situe dans la troposphère, c’est-à-dire entre la surface du sol et environ 10 à 16km, et notamment très près du sol où sa présence provient de la pollution de l’air. La figure montre clairement en rouge de 15 à 40 km le « bon » ozone (celui qui protège de l’ultraviolet) et du sol à environ 1 à 2 km le « mauvais » ozone (celui qui correspond à la pollution). Le

Page 38: Dossier scientifique E n v i r o n n E m E n t

maximum de l’ozone se situe vers 25 km où la concentration d’ozone ne représente qu’environ 5 à 10 millionièmes de la concentration atmosphérique.

Figure 1 – La plus grande quantité d’ozone (90 %) se situe dans la stratosphère dans ce que l’on appelle « la couche d’ozone » entre 15 et 40 km. L’augmentation de l’ozone dans la troposphère est due à la pollution provenant des activités humaines.

Malgré sa très faible concentration, l’ozone est essentiel à la vie sur terre puisque sa présence assure la protection de la vie à la surface de la Terre en filtrant le rayonnement ultraviolet nocif pour les êtres vivants et les végétaux. Le développement de la vie sur notre planète a été conditionné par la formation autour de la terre de la molécule d’ozone (O3). En effet, le rayonnement solaire dans l’ultraviolet B (entre 280 et 315 nm) est partiellement absorbé par la couche d’ozone et ainsi ce rayonnement très énergétique destructeur de l’ADN n’atteint pas la surface. En revanche, le rayonnement ultraviolet A (entre 315 et 400 nm) n’est que très faiblement absorbé par l’ozone et parvient jusqu’au sol.

Dossier scientifique Environnement 37

Page 39: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 38

Figure 2 – Le rayonnement solaire dans l’ultraviolet-B (entre 280 et 315 nm) est partiellement absorbée par la couche d’ozone tandis que le rayonnement ultraviolet A (entre 315 et 400 nm) peut atteindre la surface de la terre.

Fragilité de la couche d’ozone.

L’épaisseur totale de la couche d’ozone qui conditionne la pénétration de l’ultraviolet varie en fonction de la latitude et de la saison, mais sa valeur moyenne pendant les dernières 70 années où de nombreuses mesures sont disponibles, a été remarquablement stable et ceci jusqu’aux années 1970-1980. Dans les années 1970 la communauté scientifique s’est inquiétée de l’effet que pourrait avoir sur l’ozone les émissions d’oxydes d’azote et de chlore sur la stabilité de l’ozone. Ce sont ces travaux qui ont valu à Paul Crutzen, Sherwood Rowland et Mario Molina le Prix Nobel de Chimie en 1985. Ces inquiétudes se sont particulièrement manifestées en relation avec le développement de l’avion supersonique Concorde qui devait créer des quantités importantes d’oxydes d’azote dans la stratosphère. Mais en fait les composés les plus dangereux pour l’ozone se sont avérés être les composés organiques halogénés, dont les chlorofluorocarbures (CFC) qui sont des molécules synthétiques très stables chimiquement et donc sans danger direct pour les êtres vivants. C’est d’ailleurs pour cette raison que celles-ci ont été développées et qu’elles ont été utilisées dans de nombreuses applications: réfrigérants (frigorifiques, climatiseurs), gaz propulseur dans les bombes aérosols, mousses synthétiques, solvants... et ont ainsi joué un rôle très bénéfique pour l’amélioration de notre mode de vie. Du fait de leur très grande stabilité, ces gaz restent dans l’atmosphère pendant des décennies (50 à 100 ans), et ils sont progressivement transportés dans la stratosphère, où, soumis à l’influence du rayonnement ultraviolet solaire, ils sont dissociés et libèrent du chlore qui a alors la capacité de rentrer dans des cycles de réactions chimiques catalytiques conduisant à la destruction de l’ozone. La destruction met en jeu deux réactions chimiques, l’une transforme l’oxyde de chlore ClO en atome de chlore Cl qui ultérieurement détruit l’ozone, mais en restituant l’oxyde ClO, ce qui permet au cycle de recommencer un grand nombre de fois. Le chlore joue ainsi un rôle de catalyseur et une très faible quantité de ClO peut détruire un grand nombre de molécules d’ozone, à condition d’être en présence d’oxygène atomique, ce qui est le cas grâce à la décomposition de l’ozone par l’ultraviolet solaire.

Page 40: Dossier scientifique E n v i r o n n E m E n t

Figure 3 – Cycle de destruction de l’ozone par le chlore.

Observation de la destruction de la couche d’ozone

Au-delà des faibles diminutions de l’épaisseur de la couche d’ozone qui avaient été prévues et observées depuis la fin des années 1970 dans les régions de moyenne latitude, la découverte du « trou d’ozone » au-dessus du continent antarctique en 1985 a constitué la première manifestation spectaculaire de l'effet des activités humaines sur les équilibres physicochimiques globaux de l’atmosphère. Dans cette région, la quasi-totalité de l’ozone entre 15 et 20 km se trouve détruite chaque année au printemps et l’épaisseur totale d’ozone est alors diminuée de moitié comme on peut le voir en 3 stations antarctiques dans la figure 4.

2000

1990

1980

1970

1960

1950

1950

100

200

300

400

2000

1990

1980

1970

1960

1950

1950

100

200

300

400

2000

1990

1980

1970

1960

1950

1950

100

200

300

400

Figure 4 – Exemple de « trou d’ozone » au printemps antarctique et mise en évidence de la décroissance de l’ozone au dessus de 3 stations antarctiques : Hally-Bay (UK) Syowa (Japan) et Pôle Sud (USA).

Une diminution de l’ozone se produit également, mais avec une moindre amplitude, au printemps au-dessus de l’Arctique. La différence de comportement entre les deux régions polaires provient d’une différence dans la circulation atmosphérique qui est plus régulière au-

Dossier scientifique Environnement 39

Page 41: Dossier scientifique E n v i r o n n E m E n t

dessus du continent antarctique, et cette circulation maintient dans la stratosphère polaire une température très froide favorable à une forte destruction de l’ozone.

Figure 5 – Comparaisons de profils d’ozone obtenus récemment par rapport aux profils moyens obtenus avant l’action des CFC. On observe dans ces exemples que l’ozone est quasi-complètement détruit entre 14 et 20 km au-dessus de l’Antarctique, alors que la destruction observée au-dessus de l’Arctique n’est que partielle. Cette différence est due à la différence de température entre ces deux régions (l’unité mPa correspond au « milliPascal »).

La stabilité des masses froides au-dessus de l’Antarctique est responsable de cette asymétrie entre les deux hémisphères. Beaucoup ont été surpris que « trou d’ozone » apparaisse au-dessus d’un continent non pollué par les activités humaines, alors que les CFC et autres composés halogénés sont surtout émis dans l’hémisphère Nord. Mais, après leur émission, ils sont soumis à la circulation atmosphérique à grande échelle lorsqu’ils atteignent la stratosphère. Après une ou deux années dans la troposphère, ils sont répartis à toutes les latitudes, même très loin des régions où ils sont émis, et notamment au-dessus de l’Antarctique, là où les températures sont plus favorables à la destruction de la couche d’ozone que dans toute autre région du globe.

Dossier scientifique Environnement 40

Page 42: Dossier scientifique E n v i r o n n E m E n t

Figure 6 – Variation de la température arctique et antarctique pendant l’hiver.

Le Protocole de Montréal

Dès l’observation du « trou d’ozone » en 1985, des travaux expérimentaux et théoriques ont été entrepris pour en comprendre la cause. Dès 1987 l’explication scientifique était donnée et elle mettait en cause les composés chlorés, tout particulièrement les CFC. Très rapidement les mesures à prendre ont pu l’être et elles ont conduit à proscrire la production et l'usage des CFC, grâce à la mise en place du Protocole de Montréal dès 1987. La plupart des pays producteurs et utilisateurs de CFC ont ratifié cet accord et les industriels ont rapidement mis sur le marché des produits de remplacement, ou substituts, beaucoup moins nocifs pour l’ozone. Au fil des ans, le Protocole de Montréal a dû être renforcé pour tenir compte des substituts disponibles et des possibilités des pays à les utiliser. Dès la fin des années 1990, on a pu constater la diminution de la quantité de chlore dans la stratosphère.

Figure 7 – La figure du haut montre comment la quantité de Chlore dans la stratosphère a été réduite par application du Protocole de Montréal et de ses amendements successifs. La figure du bas indique les conséquences de la destruction de l’ozone sur le nombre estimé de cancers de la peau.

Mais depuis 1987, les scientifiques ont découvert dans l’atmosphère d’autres substances aussi nocives que le chlore, si ce n’est plus. Il s’agit notamment des composés contenant du brome, comme le bromure de méthyle utilisé pour la culture des fruits et les halons utilisés dans les extincteurs. Le brome est en effet un agent 60 fois plus efficace que le chlore dans les processus de destruction catalytique de l’ozone. L’interdiction de l’utilisation du bromure de méthyle a suivi de peu cette prise de conscience et on commence à en voir les effets sur la quantité de brome présent dans la stratosphère

Dossier scientifique Environnement 41

Page 43: Dossier scientifique E n v i r o n n E m E n t

Le résultat du Protocole de Montréal et de ses amendements successifs est maintenant tout à fait visible, comme on le voit dans la figure suivante. Celle-ci représente l’évolution de la production et de la présence des substances destructrices d’ozone, de l’ozone total et du rayonnement ultraviolet depuis les années 1970 jusqu’à 2100. La date de 1980 est indiquée comme correspondant au début de la mise en évidence expérimentale de la destruction de l’ozone.

a) Production des substances destructrices d’ozone (ODS) avant et après la signature du Protocole de Montréal en 1987. En noir les CFC, en gris les HCFC, substituts qui ont été utilisés après 1987 et qui sont moins nocifs pour l’ozone que les CFC. b) Abondance effective des composés du chlore et du brome présents dans la stratosphère. L’incertitude est liée au délai entre l’émission de ces substances à la surface du sol et leur présence dans la stratosphère. c) Évolution de la colonne d’ozone total en dehors des régions polaires (60°N-60°S). Les traits en noir représentent les mesures, les régions grises correspondant aux résultats des modèles. Les valeurs d’avant 1980 sont utilisées comme référence pour définir l’état non perturbé. d) Évolution du rayonnement ultraviolet pour le soleil au zénith. En gris l’estimation à partir des modèles en réponse au changement de l’ozone. En hachuré, l’estimation prend en compte l’influence de modification dans la nébulosité et la présence d’aérosols sous l’effet du changement climatique.

Dossier scientifique Environnement 42

Page 44: Dossier scientifique E n v i r o n n E m E n t

Figure 8 – Extraite du résumé du dernier rapport WMO-UNEP sur l’état de l’ozone.

La récupération de la couche d’ozone

On remarque sur la figure précédente que malgré les mesures prises, le problème de l’ozone n’a cependant pas disparu et persistera jusqu’au milieu du siècle. Cependant en 2006 on a constaté, pour la première fois depuis 30 ans, que l’ozone a cessé de diminuer à moyenne latitude. S’il est prématuré de pouvoir affirmer que son retour à l’état précédent est amorcé, étant donné les fluctuations et les incertitudes dans les mesures, on a toute raison de croire que la période de récupération a commencé. La poursuite de ce retour à l’état précédent implique pour tous les pays le respect du Protocole de Montréal et de ses amendements.

L’observation d’un trou d’ozone très accentué en Antarctique en septembre 2006 ne doit pas être considéré comme un signe alarmant, car on s’attend à observer d’une année à l’autre ce type de fluctuations d’origine météorologique. De toute façon, malgré les mesures prises, on ne verra en aucun cas un retour rapide à la situation préindustrielle. En effet d’une part, les composés chlorés et bromés restent dans l’atmosphère pendant plusieurs décennies, et malheureusement il existe encore des stocks très importants de ces produits qui sont encore utilisés illégalement dans certaines parties du monde. D’autre part, le changement climatique global subi par l’atmosphère, se traduisant notamment par le refroidissement de la stratosphère, pourrait avoir comme conséquence que l’on ne retourne jamais à l’état antérieur. Le trou d’ozone en Antarctique et les diminutions d’ozone au printemps arctique se manifesteront encore au-delà de la moitié du XXIe siècle, avec une variabilité qui rend difficile une prédiction plus précise.

Dossier scientifique Environnement 43

Page 45: Dossier scientifique E n v i r o n n E m E n t

Figure 9 – Prévision de récupération de la couche d’ozone : valeurs observées entre 1980 et 2005 et prévision d’après les modèles. Le panneau supérieur correspond aux latitudes moyennes, le panneau inférieur à l’antarctique. On voit que les valeurs d’ozone précédant sa destruction par les CFC ne se retrouveront que vers le milieu du siècle.

Les conséquences sur le flux ultraviolet au sol

Étant donné que l’ozone atmosphérique absorbe l’ultraviolet solaire, toute diminution d’ozone (en dehors de toute autre modification de l’atmosphère) doit entraîner une augmentation de la pénétration du flux ultraviolet au niveau du sol dans une proportion à peu près équivalente. Les mesures confirment qu’il en est bien ainsi. Ces mesures sont délicates car d’autres facteurs, comme la pollution ou la nébulosité, peuvent également perturber la transmission du flux ultraviolet. Les augmentations de l’ultraviolet les plus évidentes ont été observées au voisinage des pôles. En effet lorsque la destruction d’ozone au-dessus du pôle Sud cesse avec la fin du printemps, les masses d’air au-dessus des régions voisines de l’Antarctique sont pauvres en ozone, et des régions comme le Sud de l’Argentine et du Chili et l’Australie sont alors soumises à des flux ultraviolet dangereux. Le même phénomène se produit mais beaucoup plus faiblement sur l’Europe au printemps, et cette augmentation peut parfois être critique à haute altitude où il convient de se protéger d’exposition trop longue au soleil. Le changement d’ozone étant minimum aux latitudes tropicales, l’augmentation du flux UV y est quasi-nulle. Ailleurs, par exemple en France, l’augmentation est de l’ordre de 5 %.

Si cette diminution de l’épaisseur de la couche d’ozone, aux pôles comme aux moyennes latitudes, s’était amplifiée, le monde entier aurait été soumis aux mêmes effets. Une telle augmentation de l’ultraviolet aurait présenté pour l’ensemble de la planète des risques importants tant pour l’homme que pour les animaux (cancers de la peau, cataractes...), pour les forêts et les cultures (diminution de la photosynthèse et baisse des rendements).

Figure 10 – Changement du rayonnement ultraviolet UV-B à la surface entre 1979 et 1992.

Relation entre le changement climatique et le problème de l’ozone

Dossier scientifique Environnement 44

Page 46: Dossier scientifique E n v i r o n n E m E n t

Ces deux sujets sont très fréquemment confondus. Or la diminution d’ozone stratosphérique relève d’un problème tout à fait distinct de celui du changement climatique. Ils diffèrent à la fois quant à leurs causes et quant à leurs conséquences. En effet le changement climatique est la conséquence de l’augmentation des gaz à effet de serre, tandis que la diminution de l’ozone provient de la présence dans la stratosphère d’espèces chlorées, bromées et nitrées qui ne sont pas à priori des gaz à effet de serre. Les conséquences du premier concernent le changement de la température de surface, du régime de précipitations et de l’occurrence d’évènements extrêmes. La conséquence du second est l’augmentation du flux ultraviolet solaire au niveau du sol. Il apparaît donc difficile de confondre les deux problèmes.

Cependant la complexité des interactions atmosphériques est telle que des influences mutuelles sont inévitables entre les deux phénomènes. Mais il convient dans une première approche de traiter séparément les deux problèmes.

On ne mentionnera ici que deux domaines d’interaction : - le changement climatique modifiant la température atmosphérique affecte la vitesse des

réactions chimiques et donc le retour de l’ozone à son état précédent. En effet on assiste actuellement à un refroidissement de la stratosphère, dû à la diminution de l’ozone et à l’augmentation des gaz à effet de serre (GES). Celui-ci est déjà observé depuis une vingtaine d’années à nos latitudes (environ 1°K/dec à 25 km, 2°K/dec à 50 km). Les modèles les plus récents montrent que ce refroidissement pourrait ralentir le retour de l’ozone à la normale qui ne devrait ainsi pas avoir lieu avant un demi-siècle et celui-ci n’atteindrait peut-être pas le même niveau qu’auparavant.

- les CFC et certains substituts mis au point pour les remplacer sont des puissants gaz à effet de serre. Globalement ils sont responsables d’environ 13 % de l’effet de serre additionnel dû à l’ensemble des gaz à effet de serre depuis le début du XXe siècle (cf. fiche « Air »). Le contrôle de leur production est donc essentiel pour la surveillance des changements climatiques et s’inscrit alors dans le contexte de la Convention relevant du Climat.

Figure 11 – Responsabilité des différents gaz à effet de serre dans le changement climatique. On voit dans cette figure que les gaz Halogènes , tant ceux qui jouent un rôle dans la destruction de l’ozone et les substituts mis en place pour obéir aux régulations, représentent environ 13 % des gaz à effet de serre, dont le plus important est le dioxyde de carbone CO2.

Dossier scientifique Environnement 45

Page 47: Dossier scientifique E n v i r o n n E m E n t

Il est d’ailleurs fort intéressant de voir comment l’application du Protocole de Montréal a servi à lutter contre le réchauffement climatique. Une étude récente montre que les interdits portant sur les substances destructrices d’ozone, ou ODS, ont fait plus pour satisfaire les objectifs du Protocole de Kyoto que les réductions d’émission des GES jusqu’à ce jour. En effet, les plus utilisées des ODS dans les années 1980 étaient les CFC qui sont de puissants GES et ont une longue durée de vie. Si leur croissance avait continué au rythme des années 1970, ils auraient eu à long terme sur le réchauffement de la planète un effet considérable. Grâce au Protocole de Montréal, mis en place en 1987, ceux-ci ont été interdits et leur présence dans l’atmosphère a diminué depuis cette date, comme le montre très bien la figure 12. Les substances de remplacement développés et utilisés depuis 1987 doivent donc satisfaire 2 critères : ne pas être des ODS et ne pas être des GES. Les résultats relativement satisfaisants aujourd’hui quant à leur rôle de GES comparé à celui du CO2 sont une raison d’être fier de la mise en œuvre rapide et effective du Protocole de Montréal il y a 20 ans.

Figure 12a Figure 12b Figure 12c

Figure 12a – Quantité relative des différentes substances destructrices d’ozone en fonction du temps. On voit clairement leur diminution depuis la ratification du Protocole de Montréal en 1987. Celle des CFC, des halons et HCFC avaient déjà commencé dans les années 70 comme le montre la figure 9b. Figure 12b – Comparaison du Potentiel d’Echauffement Global du CO2 (trait rouge) et des ODS (trait noir). En vert ce qui serait arrivé si Molina et Rowland n’avaient pas émis de craintes sur les risques provoqués par les composés chlorés dès 1970, et en bleu si le Protocole de Montréal n’avait pas été ratifié. On voit que l’impact des ODS aurait pu atteindre celui du CO2. Figure 12c– Forçage radiatif comparé du CO2 et des SDO, montrant que le Protocole de Montréal a ainsi différé d’au moins 10 ans le changement climatique.

En conclusion

À l’échelle de la planète, le problème du maintien de la couche d’ozone stratosphérique qui entoure la Terre est un excellent exemple de problème d’environnement global. La façon dont il a été abordé et dont il a été en grande partie résolu par la communauté scientifique dans les deux dernières décennies peut être considéré comme un modèle à suivre dans d’autres

Dossier scientifique Environnement 46

Page 48: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 47

domaines environnementaux, et ceci pour diverses raisons : tout d’abord par la rapidité de la réponse, et ensuite par l’accord rapidement acquis à l’échelle internationale. En effet il convenait de prendre des décisions rapidement car ces substances resteront dans l’atmosphère pendant des décennies étant donné leur stabilité chimique et il convenait de les interdire le plus tôt possible. Ensuite, une mesure prise localement mais qui n’aurait pas été suivie à l’échelle globale n’aurait eu qu’un impact très limité. Cependant il existe encore des grandes quantités de CFC encore en circulation, notamment dans les vieux frigidaires, et il convient de ne pas les relâcher dans l’atmosphère.

Sites web :

http://esrl.noaa.gov/csd/assessments/2006/ http://www.wmo.int/web/arep/ozone.html http://ozone.unep.org/french/index.asp

Page 49: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 48

Énergies1

Michel PETIT

Foire aux questions

Quelle différence y a-t-il entre force et énergie ?

La force permet de faire bouger des objets. C’est ainsi qu’il faut exercer une force pour soulever un poids posé sur une table. Des dispositifs très simples permettent d’augmenter la force. Fabriquons une barre horizontale mobile autour d’un axe placé près d’une de ses extrémités de façon à ce qu’un des bras de la balance ainsi fabriquée soit 4 fois plus long que l’autre. Un poids de 1 kg placé à l’extrémité du plus long des bras soulèvera un poids allant jusqu’à 4 kg placé à l’extrémité du petit bras, car le poids de 1 kg exercera à l’autre extrémité de la barre une force 4 fois plus élevée. En revanche, pour soulever le gros poids de 10 cm, l’extrémité du grand bras devra parcourir une distance de 40 cm. Le produit de la force par le déplacement qu’on appelle le travail est donc resté le même et caractérise ce qu’on appelle l’énergie qui est conservée dans les systèmes mécaniques simples. Cette énergie peut prendre diverses formes : l’énergie cinétique qui est celle d’un objet en mouvement qu’on ne peut arrêter qu’en dépensant un certain travail ou encore l’énergie potentielle qu’on crée en soulevant un objet et qu’on peut transformer en énergie cinétique en le laissant tomber. La chaleur elle-même est une forme d’énergie : en faisant brûler du charbon, on chauffe de l’eau pour la transformer en vapeur que la locomotive transforme en énergie mécanique pour permettre au train d’acquérir une certaine vitesse, en dépit de la résistance de l’air. L’énergie cinétique du train se transformera à son tour en chaleur lorsque le conducteur actionnera les freins dont les patins frotteront sur les roues. On peut également parler d’une énergie chimique qui est la source de l’électricité disponible aux bornes des piles. Au XXe siècle, Einstein a même découvert que tout changement d’énergie était lié à un changement de masse (généralement infime). En définitive l’énergie est ce que possède un système lui permettant de fournir du travail ou de la chaleur. Quelles sont les unités utilisées pour quantifier l’énergie ?

Le système d’unités international mesure l’énergie en Joules ou en ses multiples : Méga (un million ou 106), Giga (un milliard ou 109), Téra (soit mille Giga ou 1012). Les électriciens ont l’habitude d’utiliser plutôt le Watt-heure ou ses multiples. 1 Watt-heure (Wh) vaut 3600 Joules. Les économistes utilisent généralement comme unité pratique la Tonne Equivalent Pétrole (tep) qui est l’énergie dégagée par la combustion d’un tonne de pétrole. Ce pétrole est d’ailleurs un pétrole théorique qui veut représenter une composition moyenne du pétrole. 1 tep vaut environ 42 Giga Joules (GJ). 1 Cette fiche fait de larges emprunts à l’Atlas des énergies de Bertrand Barré, publié par les éditions Autrement, qu’on pourra utilement consulter pour plus d’informations.

Page 50: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 49

On obtient alors le tableau de correspondance : Giga Joule (GJ) Giga Watt-heure (GWh) Tonne équivalent pétrole (tep) 1 GJ vaut 1 2,77 10-3 0,0238 1 GWh vaut 3600 1 85,7 1 tep vaut 42 0,0117 1

Tableau 1 – Équivalences entre les unités d’énergie les plus courantes.

Pourquoi l’homme a-t-il besoin d’énergie ?

L’homme a commencé par découvrir que le feu lui permettait de se protéger du froid en hiver, de cuire ses aliments et d’éloigner les prédateurs qui s’attaquaient à lui. Il a ensuite appris à utiliser à son profit l’énergie cinétique de l’eau des rivières pour moudre le grain au lieu d’utiliser sa propre énergie pour soulever un lourd pilon ou encore l’énergie cinétique de l’air grâce aux moulins à vent. Il a également appris à utiliser l’énergie des animaux, à des fins diverses, comme celle de parcourir à cheval plus de chemin qu’il n’aurait pu le faire à pied pendant la même journée. L’industrie naissante a commencé par faire appel à ces sources d’énergie avant de découvrir les vertus de la combustion du bois et plus tard de celle de matériaux enfouis dans le sous-sol depuis des dizaines ou des centaines de millions d’années, comme le charbon, le pétrole et le gaz. L’électricité permet de transporter l’énergie ; nous y recourrons pour nous éclairer et parfois pour nous déplacer, par exemple grâce aux trains à grande vitesse, les TGV. Elle est indispensable au fonctionnement de tous les appareils de diagnostic et de soins qui équipent nos hôpitaux. En revanche, il existe de nombreux exemples où la disponibilité et le faible prix de l’énergie ont conduit à la gaspiller. Quelles sont les principales sources d’énergie actuellement utilisées ?

Les combustibles fossiles sont le résultat de la décomposition de végétaux enfouis dans les sous-sols depuis un temps pouvant aller jusqu’à 2 ou 3 centaines de millions d’années. Leur utilisation contribue pour 80 % à la production mondiale d’énergie, le pétrole pour 34,8 %, le charbon pour 23,5 % et le gaz naturel pour 21,1 %. Le nucléaire, c’est-à-dire la transformation de masse en énergie, actuellement fondé sur l’utilisation de l’uranium, représente 6,8 % de la production totale. Le bois et les déchets en fournissent 11 % et l’hydraulique 2,3 %, les autres sources d’énergie renouvelables ne présentent actuellement au total que 0,5 %. Pourquoi la question de l’énergie apparaît-elle aujourd’hui sur le devant de la scène ?

La consommation humaine a atteint un niveau conduisant à l’épuisement en quelques siècles des combustibles fossiles qui ont été créés par des processus naturels, en plusieurs dizaines de millions d’années ou plus. Notre consommation d’énergie qui repose à 80 % sur ces combustibles fossiles ne peut donc constituer qu’une parenthèse dans l’histoire de l’humanité.

À cause de développement de la population mondiale et des besoins croissants par habitant dans les pays développés et dans les pays en développement rapide, la raréfaction des

Page 51: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 50

ressources commence à provoquer une hausse des prix, au moins pour le pétrole. Cependant, c’est essentiellement le changement climatique provoqué par le relâchement dans l’atmosphère des produits de l’utilisation des combustibles fossiles qui constitue le problème le plus préoccupant (voir fiche « Le changement climatique mondial »). Pendant combien de temps pourrons-nous utiliser les combustibles fossiles ?

Par leur nature même, les combustibles fossiles sont en quantité limitée et le développement actuel de l’humanité, largement fondé sur leur utilisation, est donc par essence non durable. Toute la question est de savoir de combien de temps nous disposons pour changer les choses. L’évaluation des ressources encore disponibles est nécessairement imprécise. Il est très généralement admis que le pétrole va commencer à se raréfier d’ici quelques décennies et qu’il en ira de même pour le gaz naturel. En revanche, les ressources en charbon sont suffisantes pour satisfaire les besoins de l’humanité pendant quelques siècles. L’utilisation de l’uranium et du thorium pourrait fournir de l’énergie électrique pendant des millénaires.

Comme le montre la fiche « Le changement climatique mondial », le dioxyde de carbone produit en brûlant les combustibles fossiles et relâché dans l’atmosphère sera responsable d’un changement climatique qu’on ne pourra maîtriser qu’en se tournant vers d’autres façons de produire l’énergie bien avant que les réserves de charbon ne soient épuisées. Une technique en cours d’expérimentation permettra peut-être d’en prolonger certains types d’utilisation : on peut envisager d’équiper les installations fixes dont la taille le justifie d’un dispositif de récupération du dioxyde de carbone qu’on purifie, qu’on comprime et qu’on transporte jusqu’à un site géologique capable de le stocker, tel qu’un puits de gaz ou de pétrole déjà exploité. Le paragraphe 5.4 – La maîtrise du réchauffement climatique de la fiche « Le changement climatique mondial » indique comme un objectif souhaitable une diminution d’un facteur 2 des émissions d’ici à 2050. Les éléments ci-dessous permettent de mieux comprendre les problèmes posés par la réduction de la consommation énergétique et par la substitution aux combustibles fossiles d’autres façons de produire de l’énergie qui sont les deux principales pistes à explorer pour atteindre cet objectif. Quels sont les principaux secteurs consommateurs d’énergie ?

La part de l’industrie dans la consommation mondiale d’énergie est passée de 40 % en 1971 à 37 % en 2004, à cause de la croissance plus rapide des autres secteurs. Les industries les plus gourmandes sont le traitement des métaux ferreux et non ferreux, la fabrication des produits chimiques et des engrais, les raffineries de pétrole, les cimenteries et la fabrication du papier. La consommation d’énergie dans les bâtiments d’habitation et les bâtiments professionnels représente environ le tiers du total et croit de 1 % par an. Le dernier contributeur majeur est celui du transport qui représente environ le quart de la consommation mondiale, mais qui est celui qui croît le plus rapidement : 2 % par an. Dans chacun de ces secteurs, on peut envisager de faire des économies d’énergie sans rien sacrifier de l’essentiel de notre bien-être. La diminution du prix de revient est un souci constant de l’industrie, ce qui explique que ce soit le secteur qui croît le moins vite. Une meilleure isolation des bâtiments permet de faire des économies substantielles dans leur chauffage en hiver et leur climatisation en été. Les transports en commun consomment moins d’énergie que les moyens de transport individuels. La consommation des véhicules individuels peut être diminuée, en particulier en

Page 52: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 51

décourageant l’emploi de véhicules inutilement surpuissants, compte tenu des règles de circulation routière. Quelle différence y a-t-il entre énergie finale et énergie primaire ?

L’énergie finale est celle utilisée par l’utilisateur final (autrement dit celle qui lui est facturée). Elle ne mesure pas le service rendu. Par exemple, l’utilisation de lampes basse consommation permet d’obtenir le même éclairage avec une énergie finale moindre. De même, l’énergie finale nécessaire au chauffage d’une maison de taille et d’isolation données dépend du rendement de la chaudière.

L’énergie primaire est, en principe, l’énergie nécessaire pour produire l’énergie finale. Cependant, pour passer de la valeur de l’énergie finale à celle de l’énergie primaire, on est conduit à admettre des valeurs moyennes du rendement et des pertes qui diffèrent selon les évaluateurs. Les diverses organisations nationales et internationales concernées ont choisi des méthodologies différentes, bien que souvent voisines. Ce choix a une influence sur le résultat de la comparaison des divers modes de production d’énergie. Comment se procure-t-on du charbon ?

Le charbon a commencé à se former à la fin de l’ère primaire, il y a plus de 200 millions d’années. Il résulte de l’accumulation de matière végétale dans des zones marécageuses, des lacs ou des régions de deltas. Ces sédiments se sont progressivement enfoncés jusqu’à des profondeurs allant de quelques centaines de mètres pour les lignites relativement pauvres en carbone (55 %) à plusieurs km pour les anthracites plus riches (90 %). Les ressources en charbon sont situées essentiellement en Asie-Pacifique, en Europe et en Amérique du Nord.

Pour extraire le charbon, il faut creuser des puits de mines où deux nuisances principales ont longtemps guetté les mineurs et les guettent encore dans certains pays qui ne bénéficient pas encore des développements techniques modernes. Le grisou, qui n’est autre que du méthane, est parfois présent et constitue un mélange explosif avec l’air quand sa concentration dépasse 6 %. Une ventilation énergique permet de se prémunir contre le risque d’explosion, mais rien qu’en Chine, les accidents causent des milliers de morts chaque année. La silicose, l’une des plus anciennes maladies professionnelles, continue à tuer des milliers de personnes chaque année, partout dans le monde. Il s’agit d’une maladie pulmonaire incurable provoquée par l’inhalation de poussières contenant de la silice cristalline libre. Elle est irréversible et, de plus, continue à progresser même après la fin de l’exposition. En cas d’exposition extrêmement forte, la durée de latence est raccourcie et la maladie évolue plus rapidement. La silicose a frappé quasiment toute la génération des mineurs français employés avant 1945. Depuis, l’abattage systématique des poussières a fait progressivement disparaître cette maladie des mines françaises, mais ailleurs dans le monde ses ravages continuent. Comment se procure-t-on du pétrole et du gaz ?

Les hydrocarbures sont des substances dont les molécules sont formées d’atomes de carbone et d’hydrogène. Ceux dont les molécules contiennent une proportion assez faible de carbone sont gazeux à la température et à la pression ambiante. Ceux dont les molécules sont plus riches en carbone sont liquides et de plus en plus visqueux au fur et à mesure que la proportion de carbone croît. Le pétrole est un mélange d’hydrocarbures liquides et

Page 53: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 52

d’impuretés (eau, sulfures, métaux lourds). Les produits pétroliers sont extraits des pétroles bruts par distillation.

Le pétrole et le gaz résultent de la décomposition par la chaleur, en l’absence d’oxygène, de matières organiques qui sont les restes de plancton, d’algues et de protéines tombés à leur mort au fond des océans. Mélangés aux boues, aux sables et aux limons, ils forment des sédiments qui s’alourdissent et tombent au fond de l’eau, exerçant une pression qui accroît la température de plusieurs centaines de degrés. Vers 2 500 m à 5 000 m, le pétrole commence à se former, accompagné de gaz. À plus de 500 m, le pétrole se transforme en gaz.

Une fois formé, le pétrole remonte vers la croûte terrestre, car sa densité est plus faible que celle de l’eau salée qui en remplit les interstices. Le pétrole et le gaz s’infiltrent dans les pores des sédiments plus gros qui se trouvent au-dessus d’eux. Quand ils rencontrent un schiste imperméable ou une couche de rocher dense qui les arrêtent, un gisement se forme. On peut exploiter ce gisement en creusant des puits de géométrie complexe dont le pétrole jaillit de lui-même (puits dits éruptifs) ou dont la production doit être stimulée (récupération assistée). Le pétrole et le gaz peuvent être transportés des lieux de production aux lieux d’utilisation, soit par de longs tuyaux (oléoducs ou gazoducs), soit par des très gros bateaux (pétroliers ou méthaniers). Les accidents de pétroliers peuvent provoquer des marées noires qui dévastent l’environnement dans les régions avoisinantes pour de nombreuses années. Le pétrole est particulièrement pratique pour alimenter les véhicules routiers. Il est non seulement une source d’énergie, mais aussi une matière première. Environ 8 % de la production est utilisée par la pétrochimie qui produit les matières plastiques, les fibres textiles synthétiques, les caoutchoucs synthétiques, les colles et adhésifs, les détergents et les lessives et une partie des engrais azotés.

L’essentiel des ressources en pétrole se trouve au Moyen-Orient, les réserves mondiales de gaz naturel sont partagées entre le Moyen-Orient d’une part et l’Europe et Eurasie de l’autre. Qu’est-ce que l’énergie nucléaire ?

L’énergie nucléaire consiste à extraire l’énergie considérable qui est contenue dans les noyaux des atomes, en exploitant la découverte faite par Einstein de l’identité profonde entre masse et énergie. Elle est environ un million de fois celle qui est libérée par les transformations chimiques ayant lieu lors de la combustion des combustibles fossiles. Pour la récupérer, on peut soit casser un noyau d’atome2, c’est la fission, ou réunir deux noyaux en un seul, c’est la fusion. Aujourd’hui, seule la fission est utilisée pour produire de l’électricité La masse finale de matière est légèrement inférieure à la masse initiale, ce qui est à l’origine de l’énergie produite. Par nature même, cette manière de produire de l’énergie n’émet pas de gaz à effet de serre et ne contribue pas au changement climatique, sauf en ce qui concerne la construction et l’entretien des centrales.

L’image de l’énergie nucléaire dans l’opinion a été durablement affectée par la manière dont le grand public en a appris l’existence. Cette nouvelle façon de créer de l’énergie a été

2 Un atome est constitué d’un noyau, où est concentrée la presque totalité de la masse, et d’électrons porteurs d’une charge électrique négative. Le noyau est un assemblage de particules plus lourdes que ces derniers, de masse identique : les protons chargé négativement et le neutrons sans charge électrique. Le nombre de protons est égal à celui des électrons. Deux isotopes ne diffèrent que par leur nombre de neutrons.

Page 54: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 53

révélée au monde par la mise au point d’armes redoutables, comme la bombe A utilisant la fission, utilisée pour la première fois à Hiroshima à la fin de le Deuxième Guerre mondiale, et comme la bombe H, encore plus puissante, fondée sur la fusion. Cette nouvelle arme est si redoutable que, paradoxalement, elle a joué un rôle de dissuasion, à cause des dégâts terribles qu’aurait causé son emploi et elle a contribué au maintien de la paix dans des périodes de tension comme la Guerre froide. Comment fonctionnent les centrales électriques nucléaires en service ?

Les centrales nucléaires fournissent 80 % de la production française d’électricité et 16 % de la production mondiale. Elles sont toutes fondées sur la fission. Quand un noyau d’uranium ou de plutonium capture un neutron, il devient instable et éclate en deux fragments et 2 ou 3 neutrons libres. Ces derniers peuvent être à leur tour capturés, ce qui donne lieu à une réaction en chaîne qu’on laisse se développer dans le cas d’une bombe, mais qu’il faut maîtriser dans le cas d’un réacteur destiné à produire de l’électricité. Pour cela, on transforme l’énergie cinétique considérable des produits de fission en chaleur qu’on transporte grâce à un fluide « caloporteur » pour ensuite actionner une turbine produisant de l’électricité. Les 58 réacteurs français sont du type à eau pressurisée (REP). Le fluide caloporteur « primaire » qui traverse le « cœur » où se produisent les réactions de fission, est en effet de l’eau maintenue à l’état liquide par la très forte pression qu’on impose dans le circuit correspondant, qualifié lui aussi de primaire. Cette chaleur est ensuite transférée à un circuit « secondaire » pour produire de la vapeur d’eau qui fait fonctionner la turbine.

Un emballement des réactions de fission est évidemment un danger majeur que les concepteurs de réacteurs cherchent à juguler par tous les moyens. C’est ainsi que les réacteurs REP possèdent trois barrières de confinement destinées à éviter que, même en cas d’accident, la radioactivité produite dans le combustible nucléaire puisse se répandre à l’extérieur où elle aurait des effets très nocifs sur toutes les formes de vie. Ces barrières s’emboîtent l’une dans l’autre de façon à constituer un triple écran. La 1ère barrière est la gaine qui entoure les éléments combustibles, la 2e l’enveloppe du circuit primaire, la 3e une enceinte de confinement en béton qui entoure le tout. Le seul accident grave survenu dans le monde à ce jour est celui de Tchernobyl en Ukraine, en 1986. À la suite d’une série d’erreurs humaines, un réacteur, de fiabilité faible et qui n’était pas doté d’une enceinte de confinement, a explosé et répandu dans l’atmosphère une quantité importante de produits radioactifs. Les personnels qui luttaient sur place contre la catastrophe ont été les plus durement touchés et plusieurs dizaines d’entre eux sont décédés en quelques mois. Des effets radiologiques ont été constatés à distance, dus à la dispersion de la radioactivité sur des distances considérables. Comme il s’agit essentiellement de cancers pouvant se déclarer après des années, il est difficile d’évaluer parmi tous les cancers ceux qui sont attribuables à Tchernobyl. Le « Forum Tchernobyl », groupe d'institutions spécialisées du système des Nations unies, parmi lesquelles figure l’organisation mondiale de la santé (OMS) a évalué, en 2006, à 4 000 le nombre des morts qui seront finalement dues à Tchernobyl. Cette estimation est considérée comme sous-évaluée par un certain nombre d’organisations hostiles au recours à l’énergie nucléaire. D’un autre coté les estimations reposent sur la façon divergente dont on interprète les effets des faibles doses sur l’apparition des cancers.

Page 55: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 54

L’hostilité de certains au nucléaire repose également sur l’avenir des déchets très radioactifs qui sont des résidus de matières radioactives apparues dans les combustibles usés des réacteurs. Ces combustibles sont tout d’abord entreposés dans une piscine remplie d’eau pendant quelques années, en attendant que leur radioactivité diminue, puis en France un traitement chimique permet de récupérer les matières recyclables (uranium et plutonium), les déchets ultimes étant ensuite conditionnés pour permettre leur entreposage. Il est prévu qu’ils soient envoyés dans un stockage réversible dans des couches géologiques profondes. D’autres pays ne retraitent pas leurs combustibles usés et prévoient de les mettre directement en stockage géologique.

La question des réserves mondiales d’uranium, indispensable au fonctionnement des réacteurs actuels, reste ouverte dans la mesure où la situation du marché a conduit des activités d’exploration très réduites, si bien que les gisements possibles sont loin d’avoir été tous identifiés. De plus, on a déjà fait fonctionner à l’échelle industrielle quelques réacteurs d’un type différent, capables d’extraire l’énergie de tous les noyaux de l’uranium, ce qui en diminue beaucoup la consommation. Il s’agit des réacteurs, comme Superphénix, arrêté en 1997. Le déploiement de tels réacteurs pourrait avoir lieu dans la deuxième moitié de ce siècle. Ils produiraient beaucoup moins de déchets. Avec ces réacteurs l’énergie nucléaire pourrait devenir quasiment inépuisable. La fusion est-elle l’avenir de l’énergie nucléaire ?

Pour fusionner ensemble deux noyaux légers, il faut les rapprocher suffisamment en dépit de la répulsion coulombienne qui s’exerce entre deux particules chargées positivement. Dans le Soleil, c’est la gravitation qui écrase les noyaux les uns conte les autres et permet de déclencher les réactions de fusion qui sont à l’origine de l’énergie rayonnée par cet astre. La seule fusion qu’on envisage actuellement d’utiliser sur Terre est celle du deutérium et du tritium, deux isotopes de l’hydrogène. Le tritium n’existe pas dans la nature car il est radioactif et sa période de désintégration (12 ans) est telle qu’il disparaît en quelques décennies après sa création. Pour le créer, on bombarde un isotope du lithium avec des neutrons. C’est ce qu’on fait dans la redoutable bombe H. Contrôler la fusion pour en faire une source d’énergie électrique est encore bien plus difficile. Le problème principal est posé par le confinement d’un matériau très chaud capable de détruire toutes les barrières matérielles. L’avantage de la fusion sur la fission est l’absence de risque d’emballement de la réaction qui n’est pas une réaction en chaîne. Il faudra cependant prendre des précautions pour manipuler de grandes quantités de tritium radioactif et les matériaux de la structure qui seront bombardés par un flux intense de neutrons. On peut sans doute espérer que ces déchets ne comporteront pas d’éléments à longue durée de vie.

Une première méthode de confinement consiste à piéger les particules ionisées par la température élevée dans un champ magnétique, c’est le confinement magnétique. La structure privilégiée pour cela est une sorte d’anneau de rideau dont la section n’est pas un simple cercle et qu’on appelle un tokamak. Le projet international Iter regroupe 7 grands partenaires dont la France pour la construction à Cadarache du plus grand tokamak du monde. Les expériences devraient y commencer en 2016 et se poursuivre durant une quinzaine d’années. Avant de passer à un vrai réacteur de démonstration capable de produire de l’électricité, il faudra, en plus d’Iter, réaliser tout un programme de développement de matériaux adaptés.

Page 56: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 55

La deuxième méthode, la fusion inertielle, consiste à comprimer jusqu’à des densités considérables une petite sphère remplie d’un mélange deutérium-tritium pour obtenir une réaction pendant un temps très bref. Pour cela, on utilise un grand nombre de faisceaux laser de très haute intensité qui convergent vers la surface de la cible. Les recherches dans ce domaine sont surtout actuellement conduites à des fins militaires, les essais de bombes réelles étant interdits par les accords internationaux. On ne peut exclure à long terme une utilisation pacifique à terme de la fusion inertielle. Quels sont les avantages et les inconvénients de l’hydraulique (appelée également houille blanche) ?

En dehors des combustibles fossiles, l’énergie hydraulique est la seule avec le nucléaire à avoir fait la preuve de sa capacité à produire de manière industrielle de grandes quantités d’énergie. Elle fournit environ 15 % de l’électricité française et 17 % de l’électricité mondiale. L’énergie hydraulique est une forme concentrée d’énergie solaire puisque c’est l’évaporation de l’eau sous l’action du rayonnement solaire qui produit les nuages qui alimentent en précipitation les régions en altitude. La force de gravité terrestre confère à l’eau stockée en hauteur une énergie potentielle que l’écoulement vers le niveau de la mer transforme en énergie cinétique capable d’entraîner des turbines productrices d’électricité. Cependant, il faut pour cela généralement construire des barrages qui ne sont pas éternels et doivent être renouvelés ou remplacés.

L’électricité d’origine hydraulique présente de grands avantages. Elle est renouvelable et elle émet peu de gaz à effet de serre (uniquement ceux occasionnés par la construction des barrages et des usines). Dans de bons sites, elle est très économique. Elle est très souple : il ne faut que quelques minutes pour produire la pleine puissance, ce qui en fait un complément idéal pour les sources intermittentes comme l’éolien ou le solaire.

En contrepartie de ces avantages, les grands barrages modifient le paysage (il est vrai pas toujours en mal) et conduisent à inonder de grandes superficies de terre parfois fertiles. Ils provoquent l’évacuation des populations qui y vivaient (la mise en eau récente du barrage des Trois Gorges a nécessité l’évacuation d’au moins un million et demi de Chinois). Ils amènent à noyer des sites historique ou culturels irremplaçables (on a déplacé les temples d’Abou Simbel, dans le cadre du grand barrage sur le Nil qui alimente l’Égypte en électricité). En outre, surtout en climat tropical, la fermentation de la biomasse immergée risque d’émettre des quantités non négligeables de gaz à effet de serre, méthane en particulier. Pour toutes ces raisons, l’équipement des sites propices encore existants, en Asie, en Russie et surtout en Afrique se heurte à des réticences. La petite hydraulique au fil de l’eau ne requiert pas la construction de barrages, mais si sa contribution peut être localement intéressante, son apport global reste négligeable. Pourquoi utiliser la biomasse pour produire de l’énergie ?

Dans les périodes préhistoriques, le bois a permis aux premiers hommes de domestiquer le feu et, aujourd’hui encore, plus d’un milliard et demi d’hommes, soit le quart de la population mondiale, ne disposent pas d’autre source d’énergie que la biomasse. Bois de chauffe, déchets agricoles et déjections animales sont souvent les seules sources d’énergie disponible pour faire cuire les aliments et apporter un peu de protection contre le froid. Mais leur combustion

Page 57: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 56

sans précaution peut polluer l’atmosphère, surtout si elle a lieu dans un endroit clos, et avoir un impact sérieux sur la santé. Des situations d’extrême pauvreté peuvent conduire à surexploiter les ressources et à provoquer des déforestations qui dégradent de façon durable les ressources locales et qui contribuent à l’effet de serre. En revanche, si on prend soin de faire pousser un nouvel arbre pour remplacer celui qui qu’on abat, on n’augmente pas la concentration de gaz carbonique dans l’atmosphère. En effet, si la combustion du bois de chauffe récolté envoie dans l’atmosphère du gaz carbonique, la synthèse chlorophyllienne extrait ce gaz carbonique de l’atmosphère pour assurer le développement de l’arbre de remplacement.

Pour cette même raison, les biocarburants, c’est-à-dire des carburants fabriqués à partir de végétaux, ne contribuent pas à l’effet de serre. En fait, les biocarburants actuellement utilisés devraient plutôt être qualifiés d’agrocarburants, car ils sont produits à partir de cultures qui entrent en concurrence avec l’agriculture alimentaire pour l’utilisation des surfaces agricoles. On utilise le sucre des betteraves ou de la canne à sucre, l’amidon des céréales ou l’huile de plantes oléagineuses comme le colza. La compétition pour les terres a déjà provoqué une augmentation du prix des céréales, le rendement énergétique laisse à désirer et l’emploi d’engrais azotés risque de provoquer des émissions de N2O qui est un gaz à effet de serre. Le principal mérite des biocarburants actuels est probablement de préparer les circuits économiques qui diffuseront les biocarburants de deuxième génération : on espère mettre au point des enzymes qui permettront de gazéifier les substances organiques et végétales et de valoriser des produits lignocellulosiques comme le bois ou la paille ou des céréales et des oléagineux sous forme de la plante entière et non uniquement des graines. Les biocarburants sont généralement utilisés en les mélangeant avec de l’essence. Quels sont les mérites et les inconvénients de l’énergie éolienne ?

Les moulins à vent ont été utilisés depuis le Moyen-âge pour moudre le grain, presser les olives et actionner des pompes. Les matériaux développés pour l’aéronautique permettent aujourd’hui de construire des pales longues de plusieurs dizaines de mètres, tournant autour d’un axe horizontal. Cet axe est situé à la partie supérieure d’un mât qui peut atteindre jusqu’à 150 m de hauteur. Le vent fait tourner les pales d’un rotor qui entraîne une génératrice d’électricité, placée, elle aussi, dans la nacelle au sommet du mât et capable de produire une puissance de l’ordre de 1 à 5 MW. Il s’agit d’une énergie qui, à l’exception de sa construction, ne crée pas de gaz à effet de serre. Sur des terres agricoles, elle n’occupe que 2 % du sol, la surface restante étant disponible. Elle engendre des ressources importantes pour les finances locales. Cependant, l’implantation des grandes fermes éoliennes ne fait pas l’unanimité. Certains riverains se plaignent d’une dégradation du paysage, du bruit des éoliennes, des interférences électromagnétiques qu’elles provoquent et qui peuvent gêner la réception de la télévision et des flashes très puissants qui sont émis toutes les cinq secondes au sommet des mâts pour alerter les avions.

Le défaut majeur des éoliennes est l’intermittence du vent et de ce fait, leur production peut varier d’un facteur 30 d’un jour à l’autre. Cette irrégularité en rend la connexion à un réseau problématique. Pendant la canicule de 2003, un anticyclone bloquait tous les vents et la production européenne d’électricité éolienne n’a pas atteint 5 % de la puissance théorique. D’une façon générale, sous nos climats, la puissance produite en moyenne au cours d’une

Page 58: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 57

année n’est que le quart environ de la puissance installée. Les éoliennes marines bénéficient d’un vent plus régulier. Que pouvons espérer du soleil comme source d’énergie ?

L’énergie totale provenant du Soleil interceptée par la Terre est d’environ dix mille fois plus grande que la consommation totale d’énergie mondiale. Le gisement est donc suffisant pour satisfaire tous les besoins de l’humanité. Encore faut-il pouvoir l’exploiter.

Le rayonnement solaire est directement absorbé par les matériaux des bâtiments qui restituent la nuit la chaleur qu’ils ont emmagasinée pendant le jour. On peut de même faire chauffer l’eau sanitaire grâce à des échangeurs thermiques et la stocker dans des ballons convenablement isolés, capable d’empêcher le refroidissement pendant des durées de l’ordre de la journée. Une habitation individuelle répondant à une norme courante qui prescrit des pertes thermiques allant de 100 à 120 kWh/m² par an, peut tirer du solaire le tiers de ses besoins en chauffage et deux tiers de ses besoins en eau sanitaire. On peut aller bien plus loin dans des « maisons passives » de conception moderne qui ne perdent que 15 à 20 kWh/m² par an. Le sous-équipement en chauffe-eau solaires est une très grande faiblesse française dans l’utilisation des énergies renouvelables.

On peut également transformer le rayonnement solaire en énergie électrique grâce à des cellules photoélectriques. Ces dernières sont constituées de semi-conducteurs, aujourd’hui à base de silicium. Elles fournissent l’énergie nécessaire au fonctionnement des satellites que nous plaçons dans l’espace. Elles sont couramment utilisées pour des équipements en site isolé, en liaison avec des batteries de stockage, comme les bornes d’appel de secours en bordure des autoroutes. Leur utilisation sur de grandes surfaces pour alimenter le réseau électrique est envisagée, mais il faudra que leur prix de revient diminue et que leur rendement énergétique augmente pour que cette solution devienne rentable. De plus, il faut beaucoup d’énergie pour réduire la silice en silicium, ce qui réduit l’intérêt actuel du photovoltaïque pour lutter contre l’effet de serre. Il n’en présente pas moins un progrès considérable de ce point de vue par rapport à n’importe quel combustible fossile.

On peut également faire de l’électricité par voie thermique, en concentrant les rayons du soleil vers un foyer où on pourra vaporiser un fluide et utiliser la vapeur produite pour entraîner un alternateur. Après l’échec de la centrale Thémis, dans les années 1980, il n’existe en France que de petites installations en Corse. Pouvons-nous utiliser le « chauffage central » de la Terre et faire appel à la géothermie ?

La radioactivité naturelle est une source de chaleur qui maintient le magma à haute température. Dans certains sites privilégiés, ce magma est proche de la surface et surchauffe les eaux souterraines. Il suffit alors de pratiquer des forages pour récupérer de la vapeur d’eau et de la détendre dans une turbine pour fabriquer de l’électricité. On en trouve des exemples en Islande, en Californie, en Italie et en Guadeloupe (Bouillante).

Il existe de nombreux aquifères d’où on peut extraire de l’eau tiède pour le chauffage des locaux. Par exemple dans le Bassin parisien, on trouve entre 800 et 1 500 m de profondeur une telle nappe d’eau à 80°C.

Page 59: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 58

On peut également forer assez profondément pour trouver des roches chaudes sèches et créer un double conduit où on peut injecter de l’eau froide d’un côté et récupérer de la vapeur de l’autre, à condition que la roche soit suffisamment fracturée. Si nécessaire, cette fracturation peut être provoquée en appliquant une pression entre les deux conduits. Cette forme de géothermie est onéreuse et n’est pas vraiment renouvelable, mais les quantités d’énergie récupérables sont importantes. Que pouvons-nous espérer de la mer ?

La première voie pour exploiter les ressources de l’océan consiste à faire appel à l’énergie mécanique des masses d’eau. L’énergie des marées sert à faire fonctionner l’usine marémotrice de la Rance qui est unique en son genre à l’échelle mondiale. Des dispositifs sont à l’étude pour utiliser l’énergie des vagues et celle des courants marins.

Une deuxième voie consiste à utiliser la différence de température d’une vingtaine de degrés qui existe entre les eaux de surface et les eaux profondes des mers chaudes. La quantité d’énergie disponible est considérable. La dimension des installations nécessaires et la protection contre les agressions du milieu marin sont des obstacles qui, jusqu’à aujourd’hui, se sont opposés à la concrétisation de ce potentiel

Page 60: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 59

La biodiversité

Christian LÉVÊQUE

(p. 1 à 4 : résumé sous forme de questions réponses)

Que signifie le terme biodiversité?

La biodiversité est un concept valise qui recouvre différentes préoccupations parfois contradictoires :

- la définition officielle de la Convention sur la diversité biologique : variabilité des organismes vivants de toute origine y compris, entre autres, les écosystèmes terrestres, marins et autres systèmes aquatiques et les complexes écologiques dont ils font partie ; cela comprend la diversité au sein des espèces et entre espèces ainsi que celle des écosystèmes ;

- un objet d’étude biologique. Le terme biodiversité désigne l’ensemble des écosystèmes, la diversité des espèces qui y sont représentées par des populations, et la diversité génétique des individus qui constituent les populations de chacune de ces espèces. Ces trois niveaux d’intégration du monde vivant sont en interaction permanente ;

- des ressources génétiques. C’est la diversité biologique créée par l’homme (variétés végétales et races animales), les formes sauvages dont sont issues les races domestiquées, et de manière générale tous les processus biologiques utilisés pour des activités productives. Ce sont aussi les biotechnologies, dont les OGM ont été plus particulièrement médiatisés ;

- une question d’environnement. Les hommes de plus en plus nombreux ont besoin de plus d’espaces et de plus ressources. De ce fait, la biodiversité régresse. Des espèces et des écosystèmes disparaissent. Il faut trouver les moyens de protéger les aspects positifs de la biodiversité : c’est toute la problématique de la conservation, qui doit en même temps trouver ses limites dans le fait que certaines espèces jouent un rôle néfaste au regard de la santé humaine.

Combien y a-t-il d’espèces ?

On estime actuellement qu’environ 1 700 000 espèces animales et végétales ont été décrites, mais il pourrait en exister 10 à 20 fois plus. Ce sont les plantes supérieures et les vertébrés que l’on connaît le mieux. Le monde des micro-organismes reste encore largement méconnu, alors que leur biomasse serait plus importante que celle des espèces visibles !

D’où vient la diversité biologique?

La diversité biologique est issue de l’évolution. C’est le produit de l’adaptation des êtres vivants aux changements de leur environnement physicochimique et biologique. Cette

Page 61: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 60

adaptation est possible grâce à deux processus : les mutations qui apparaissent spontanément chez tous les êtres vivants ; la sélection naturelle qui favorise les individus les mieux adaptés à leur environnement.

Pourquoi les dinosaures ont-ils disparu ?

De la recherche de l’origine de la vie (il y a environ quatre milliards d’années) aux grandes extinctions de masse, la paléontologie nous renseigne sur les grandes étapes de l’évolution. On estime que 99 % des espèces qui ont existé sur Terre ont maintenant disparu. L’évolution est donc un processus dynamique. Les changements climatiques et les événements géologiques ont joué un rôle primordial dans la distribution actuelle de la diversité biologique.

La biodiversité est-elle menacée ?

Aujourd’hui, comme à toutes les périodes de l’histoire de la Terre, des espèces disparaissent ou sont menacées d’extinction. Le problème est que le rythme de disparition semble être très accéléré. Des écosystèmes entiers disparaissent également (certaines forêts tropicales par exemple).

Les principaux facteurs responsables de l’érosion de la diversité biologique des systèmes naturels sont connus :

- - la démographie et les besoins croissants en ressources ; - - la surexploitation des ressources naturelles (forêts, ressources marines) ; - - les pollutions de natures diverses ; - - le système économique qui privilégie le profit à court terme ; - - la pauvreté qui pousse les humains à surexploiter leur environnement.

La diversité biologique est menacée non seulement par l’élimination de certaines espèces, mais aussi par les modifications apportées dans le fonctionnement des écosystèmes : barrages sur les rivières, surexploitation des stocks de poissons, eutrophisation des eaux, épuisement des sols, etc.

En ce qui concerne les ressources génétiques, les pratiques de l’agriculture extensive et la sélection de quelques espèces à haut rendement ont conduit à l’abandon des nombreuses variétés végétales et animales qui avaient été sélectionnées par des générations d’agriculteurs.

À quoi sert la biodiversité ?

La diversité biologique, des espèces aux écosystèmes, est nécessaire au bon fonctionnement des systèmes écologiques. Elle joue un rôle dans la régulation des grands cycles géochimiques (stockage du carbone, recyclage des éléments nutritifs, etc.) et du cycle de l’eau.

Mais la biodiversité c’est aussi la « nature utile » qui nous fournit des ressources génétiques, utiles à l’agriculture (variétés végétales, races animales) ainsi qu’à l’industrie pharmaceutique (substances naturelles, médicaments) ou à l’industrie (bioprocédés).

Page 62: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 61

Pour la société, la biodiversité est également une source de biens gratuits (pêche, cueillette, chasse, etc.) et de services d’ordre culturel ou économique.

Qu’appelle-t-on ressources génétiques ?

Si la conservation est la principale préoccupation des pays du Nord, les ressources génétiques sont considérées par les pays du Sud comme « l’or vert ». Il s’agit de monnayer leur accès aux industriels du Nord. C’est l’un des principaux sujets de discussion au niveau international.

L’exploitation des ressources vivantes comme la pêche ou l’industrie du bois mobilise des ressources considérables. L’épuisement des ressources aurait des conséquences économiques importantes.

Pour qui, pourquoi protéger la biodiversité ?

Les motivations sont diverses. Pour les économistes il s’agit de protéger des ressources (bien et services) qui nous sont fournies gratuitement et qui sont indispensables au fonctionnement de notre économie.

Pour les agronomes, il s’agit de conserver le patrimoine des ressources génétiques crées par des générations d’agriculteurs.

Pour les industriels, il s’agit de protéger une source encore en partie inexplorée de molécules à usage pharmaceutique ou industriel et de processus biologiques (notamment bactériens).

Au-delà de cette vision utilitariste, il y a de nombreuses motivations de nature éthique, esthétique, romantique ou religieuse qui peuvent nous amener à considérer la biodiversité comme un patrimoine qui doit être respecté. Avec l’idée d’une transmission intergénérationnelle d’un patrimoine.

Faut-il protéger toute la biodiversité ?

On ne peut ignorer également que la biodiversité est à l’origine de nombreuses maladies qui touchent l’homme et les animaux. De nombreuses maladies anciennes ou émergentes viennent du transfert de pathogènes des animaux vers l’homme.

Il existe un très grand nombre de parasites (au moins autant que d’espèces libres, disent les spécialistes). Personne ne songe sérieusement à protéger les pathogènes de l’homme et leurs vecteurs (moustiques, tiques, etc.), mais, en pratique, dans certaines régions du monde, les restrictions de l’usage des insecticides, au nom de la biodiversité, ont facilité des épidémies de paludisme, de dengue ou de chikungunya. La même question se pose pour les ravageurs de cultures, et toutes les espèces considérées comme des nuisances. On s’interroge également sur la conservation des grands prédateurs (ours, loup, lynx) ou d’autres espèces nuisibles (vipères). En d’autres termes la protection ne concernerait qu’une partie de la biodiversité, celle qui n’est pas nuisible, mais comment définir la nuisance ? C’est un débat de société qui demeure ouvert.

Page 63: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 62

Comment protéger la biodiversité ?

La démarche la plus classique est celle des aires protégées. C’est une solution d’urgence qui n’est pas la mieux adaptée face aux changements globaux, et qui soulève des questions d’échelle pour les espèces migratrices qui utilisent différents habitats.

Par rapport à la problématique du développement durable, il s’agit de rechercher les meilleurs compromis entre l’utilisation des écosystèmes et de leurs ressources et la protection, sur le long terme, de la diversité biologique considérée comme un patrimoine. Cette démarche implique de reconsidérer les modes de développement et les pratiques agricoles et industrielles. Elle souligne la nécessité fondamentale d’innovations technologiques pour nourrir des hommes de plus en plus nombreux et désireux d’améliorer leur niveau de vie. Oublier ces aspirations conduirait à l’accroissement des tensions entre pays développés et en voie de développement.

La nécessité de rechercher des compromis

Aujourd’hui, l’accroissement de la population humaine, associé à l’élévation souhaitée du niveau de vie dans les pays émergents, exerce une pression de plus en plus forte sur la biodiversité et les ressources naturelles. Pour supprimer la faim dans le monde d’ici 2050, il faut que la production agricole augmente de 60 %. Cette évolution va-t-elle se faire par une augmentation très importante des surfaces agricoles vivrières aux dépens des steppes, des savanes et des forêts ? Ou bien l’agriculture va-t-elle s’orienter vers d’autres modes de production plus économes en matière d’utilisation de l’espace ? Ou bien encore nos modes de consommation vont-ils se modifier (produire un kilo de viande est beaucoup plus coûteux en eau et en énergie qu’un kilo de blé !) ? D’autre part, les spécialistes des pêches prévoient que les stocks de poissons exploitables vont se raréfier d’ici quelques dizaines d’années si la pression de la pêche sur les écosystèmes marins se maintient au niveau actuel.

Nous sommes ainsi confrontés au difficile problème de trouver des compromis entre l’amélioration du niveau de vie des hommes, la gestion durable des ressources, et la préservation de la biodiversité. Sans oublier, dans ce contexte, l’amélioration de la santé qui nécessite de lutter contre les maladies et leurs vecteurs. C’est tout l’enjeu du développement durable dont la biodiversité est une des composantes.

Page 64: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 63

La biodiversité

Que signifie le terme biodiversité ?

Le terme « biodiversité » a été introduit par des naturalistes qui s’inquiétaient de la destruction rapide de milieux naturels, comme les forêts tropicales, et réclamaient que la société prenne des mesures pour protéger ce patrimoine. En effet, l'homme agit maintenant avec une ampleur sans précédent sur les écosystèmes, les ressources biologiques, et la diversité du monde vivant. D’où l’émergence d'une triple inquiétude : sommes-nous en train d'épuiser les ressources biologiques qui nous sont indispensables ? Qu’allons-nous léguer aux générations futures ? Ces transformations vont-elles modifier les grands équilibres qui régissent la planète ?

La biodiversité est un concept valise qui recouvre différentes préoccupations parfois contradictoires :

- la définition officielle de la Convention sur la diversité biologique : variabilité des organismes vivants de toute origine y compris, entre autres, les écosystèmes terrestres, marins et autres systèmes aquatiques et les complexes écologiques dont ils font partie ; cela comprend la diversité au sein des espèces et entre espèces ainsi que celle des écosystèmes ;

- un objet d’étude biologique. Le terme biodiversité désigne l’ensemble des écosystèmes, la diversité des espèces qui y sont représentées par des populations, et la diversité génétique des individus qui constituent les populations de chacune de ces espèces. Ces trois niveaux d’intégration du monde vivant sont en interaction permanente ;

- des ressources génétiques. C’est la diversité biologique créée par l’homme (variétés végétales et races animales), les formes sauvages dont sont issues les races domestiquées, et de manière générale tous les processus biologiques utilisés pour des activités productives. Ce sont aussi les biotechnologies, dont les OGM ont été plus particulièrement médiatisés ;

- une question d’environnement. Les hommes de plus en plus nombreux ont besoin de plus d’espaces et de plus ressources. De ce fait, la biodiversité régresse. Des espèces et des écosystèmes disparaissent. Il faut trouver les moyens de protéger les aspects positifs de la biodiversité : c’est toute la problématique de la conservation, qui doit en même temps trouver ses limites dans le fait que certaines espèces jouent un rôle néfaste au regard de la santé humaine.

Ces définitions dépendent de la culture, des préoccupations, et du regard que l’individu porte sur la biodiversité : un regard utilitariste (des ressources vivantes, des gènes et des molécules pour l’industrie et l’agronomie), un regard éthique voire spirituel (les animaux ont le droit de vivre), un regard médical (comment protéger et accroître la santé des hommes et assurer au mieux leur avenir) un regard esthétique (les beaux paysages, les animaux dans leurs milieux), un regard scientifique (la diversité biologique et les sciences de l’évolution ; le rôle de la biodiversité dans le fonctionnement des écosystèmes), etc.

Page 65: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 64

Si l’on se réfère à la définition des écologistes, la diversité biologique est l’ensemble de la vie présente dans la biosphère : les espèces, leurs gènes, et les écosystèmes dans lesquels elles vivent.

Combien y a-t-il d’espèces ?

On a décrit à l’heure actuelle un peu plus de 1 700 000 espèces, mais l’inventaire du monde vivant est loin d’être terminé. Il pourrait se situer selon les estimations entre 10 et 30 millions d’espèces. Cette incertitude révèle l'étendue de notre ignorance. Au rythme moyen de 10 à 15 000 espèces nouvelles décrites chaque année, il faudra encore plusieurs siècles pour compléter l’inventaire.

En réalité le niveau de connaissance est variable selon les groupes taxinomiques. Des recensements quasi exhaustifs ne sont disponibles que pour un petit nombre de groupes zoologiques ou botaniques. C'est le cas par exemple pour les mammifères et les oiseaux qui sont actuellement connus à plus de 95 %. En revanche, le nombre des insectes est très certainement largement supérieur à celui pourtant considérable (950 000) enregistré jusqu'ici. Quant au nombre de champignons, il pourrait se situer entre un et deux millions et celui des nématodes, petits vers parasites de plantes et d'animaux, serait de plusieurs centaines de milliers.

La grande inconnue en matière de biodiversité concerne les micro-organismes (virus, bactéries, champignon et algues microscopiques). Ils échappent facilement à l’observation, et nécessitent des moyens d’investigation très sophistiqués. Il est également difficile de leur appliquer la notion d’espèce morphologique telle qu’elle est utilisée pour les autres groupes. Toujours est-il que le nombre de micro-organismes pourrait être de plusieurs millions d’espèces d’après les spécialistes. À titre d’exemple, on estime que le nombre de bactéries contenues dans un gramme de sol est compris entre 100 millions et 1 milliard et que 1 000 à 10 000 espèces différentes pourraient y être représentées. L’utilisation des outils de la biologie moléculaire va nous permettre de progresser dans la connaissance de ces organismes qui jouent un rôle essentiel dans le fonctionnement des écosystèmes.

Groupes

taxinomiques Nombre approximatif

d’espèces recensées

nombre estimé d’espèces

Virus 4 000 500 000 ? Bactéries 4 000 1 000 000 ? Champignons 72 000 1 à 2 millions ? Protozoaires 40 000 200 000 "Algues" 40 000 400 000 ? Plantes 270 000 320 000 Animaux invertébrés 1 000 000 10 000 000 Éponges 10 000 Cnidaires 10 000 Plathelminthes 20 000 Nématodes 25 000 400 000

Page 66: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 65

Arachnides 75 000 750 000 Crustacés 40 000 150 000 Insectes 950 000 8 000 000 Mollusques 70 000 200 000 Annélides 12 000 Echinodermes 6 000 Animaux vertébrés Poissons 28 000 30 000 Amphibiens 4 200 4 500 Reptiles 6 500 6 500 Oiseaux 9 672 idem Mammifères 4 327 idem

Tableau - Estimation du nombre d'espèces actuellement recensées et du nombre d'espèces probables pour les vertébrés, ainsi que pour les autres groupes de végétaux et d'animaux dont on pense qu'ils contiennent au moins 100 000 espèces. Ce nombre d'espèces probables est une extrapolation assez hypothétique, mais qui donne des ordres de grandeur quant à la richesse du monde vivant.

D’où vient la biodiversité ?

La diversité biologique est le fruit de l’évolution. C’est le produit des interactions entre les espèces, leurs gènes et les caractéristiques de l’environnement dans lequel elles évoluent. La théorie de l’évolution, proposée par Darwin, mais révisée depuis pour tenir compte de l’avancement des connaissances dans le domaine de la génétique, propose un mécanisme expliquant l’apparition de nouvelles espèces.

L’évolution met ainsi en jeu des processus de natures différentes : - tous les individus d’une même espèce ne se ressemblent pas tout à fait sur le plan

génétique car il existe de petites différences entre eux. C’est la variabilité intraspécifique ;

- l’apparition de mutations, qui sont des « erreurs de copie » au moment de la réplication de l’ADN, lors de la reproduction, est le fait du hasard. C’est aussi une source permanente de nouveautés biologiques. Certaines mutations ne sont pas viables, mais d’autres s’inscrivent dans le patrimoine génétique de certains individus qui peuvent avoir des aptitudes différentes par rapport à l’ensemble de la population. C’est ce qui explique la variabilité intraspécifique ;

- les individus d’une espèce qui sont les mieux adaptées aux conditions de l’environnement dans lequel ils évoluent à un moment donné sont ceux qui ont le plus de chances de se reproduire et de transmettre ainsi leur matériel génétique ;

- si l’environnement se modifie, il est possible, par le jeu des mutations, que d’autres individus soient à leur tour mieux adaptés aux nouvelles conditions de l’environnement. Ils vont donc être plus aptes à se reproduire. C’est ici qu’agit la sélection naturelle qui opère un tri parmi les mutants, favorisant au fil des générations ceux qui sont les plus aptes à assurer la pérennité de l’espèce dans un environnement donné ;

Page 67: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 66

- l’adaptation c’est l’acquisition de caractéristiques morphologiques ou comportementales, transmissibles par les gènes, et qui favorisent la survie de l’espèce dans un environnement donné.

C’est au sein des écosystèmes, ces « incubateurs » de la diversité biologique, que les espèces naissent, vivent et meurent. Les écosystèmes sont des ensembles interactifs composés de plusieurs espèces végétales et animales et de leur environnement climatique, géographique et physicochimique. Un lac, une forêt, un récif corallien sont des exemples d’écosystèmes. Les changements qui surviennent dans l’environnement des écosystèmes sont les moteurs de l’évolution.

La diversité biologique est née du changement et des capacités des êtres vivants à s’adapter aux changements, sachant que pour beaucoup d’entre eux la route s’est arrêtée brutalement. Car la diversité biologique telle que nous l’observons aujourd’hui, est le produit d’une dynamique qui a vu naître et disparaître des dizaines de millions d’espèces. Le destin de toutes les espèces est de disparaître comme le montre le dépouillement des archives fossiles. On estime qu’une espèce sur mille a survécu sur la Terre. Autrement dit, 99,9 % des espèces auraient disparu à jamais.

Comment naissent les espèces ?

Pendant longtemps on a pensé que de nouvelles espèces apparaissaient lorsque deux populations d’une même espèce se retrouvaient isolées suffisamment longtemps pour que leur patrimoine génétique ait le temps de diverger. On parle dans ce cas de spéciation allopatrique ou par vicariance. L’isolement peut provenir d’évènements géologiques. C’est ce qui s’est produit sur les îles par exemple. Mais il peut être également la conséquence de migrations aléatoires.

Cependant, depuis quelques décennies, les biologistes ont découvert que de nouvelles espèces pouvaient apparaître au sein d’un même écosystème où les contacts entre individus sont possibles. Des populations peuvent en effet s’isoler, du fait de leur comportement reproducteur ou alimentaire. C’est la spéciation sympatrique. Un exemple célèbre de spéciation sympatrique est celui des poissons de la famille des Cichlidés des grands lacs d’Afrique de l’Est (Victoria, Malawi, Tanganyika), qui possèdent chacun des centaines d’espèces endémiques. Dans chacun des lacs, ces Cichlidés sont issus de une ou de quelques espèces ancestrales qui ont donné naissance à une extraordinaire diversité d’espèces ayant chacune des comportements alimentaires ou écologiques différents.

Il existe également d’autres mécanismes qui conduisent à l’apparition de nouvelles espèces. En particulier lors de la division cellulaire, il peut y avoir modification du nombre ou de la structure des chromosomes. Si le nombre de chromosomes est fixe pour une espèce donnée, des cassures, ou au contraire des fusions de chromosomes ou de parties de chromosomes peuvent se produire, modifiant ainsi le génotype d’un individu. Il peut aussi y avoir multiplication accidentelle d’un jeu de chromosomes : c’est la polyploïdie, un phénomène que l’on connaît en particulier chez les plantes et certains groupes de poissons. Ainsi, au lieu d’avoir deux paires de chromosomes, comme c’est le cas habituel, certaines espèces en ont quatre.

Page 68: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 67

Pourquoi les dinosaures ont-ils disparu ?

L’histoire de la biosphère sur 4 milliards d’années a été pour le moins mouvementée. Les continents ont bougé, ont fusionné, puis se sont séparés. Les climats ont changé en permanence, aux échelles de temps géologique s’entend.

L’histoire de la biodiversité a été émaillée de périodes de crises caractérisées par la disparition d’un grand nombre d’espèces. L’étude des fossiles nous a appris que de nombreuses lignées animales et végétales se sont éteintes en peu de temps. Ces extinctions massives ont été l’occasion pour le monde vivant de se réorganiser à plusieurs reprises. Elles font partie du jeu de l’évolution et ce ne sont donc pas nécessairement des « catastrophes ». C’est ce qui fait dire à certains biologistes que l’évolution est contingente. C’est-à-dire que si l’on devait recommencer l’histoire de la vie, elle ne se passerait pas nécessairement de la même manière puisque les évènements climatiques et géologiques qui ont marqué cette histoire sont des évènements aléatoires.

Cinq crises majeures ont marqué ces 500 derniers millions d’années (Ma) : • il y a 440 Ma, une crise majeure aurait causé la disparition de 85 % environ des espèces. Les

trilobites, les céphalopodes, les brachiopodes et les échinodermes sont très affectés mais aucun grand phylum ne parait avoir disparu ;

• il y a 365 Ma, l’extinction du Dévonien porte sur environ 75 % des espèces marines. Cette crise a fortement perturbé les systèmes récifaux, alors que les plantes et arthropodes continentaux ne semblent pas affectés ;

• la crise du Permien à la fin de l’ère Primaire (-245 Ma) est la plus grave de toutes les crises. Certains groupes du Paléozoïque s’éteignent définitivement. Selon certaines estimations, 95 % des espèces marines on disparu. Les brachiopodes, les trilobites et les graptolites ainsi que les foraminifères benthiques et certains coraux ont disparu. La crise a également touché les milieux continentaux où environ les deux-tiers des familles d'insectes et 70 % des familles de vertébrés disparaissent. Les causes de cette extinction sont inconnues mais pourraient être dues à un grand changement climatique ;

• la crise de la fin du Trias a débuté il y a -215 Ma et aurait duré 15 Ma. Elle a entraîné elle aussi la disparition de 75 % des espèces marines ;

• la crise (extinction K-T) survenue à la fin du Crétacé il y a 65 millions d'années avec la disparition des dinosaures, est certainement la plus célèbre. Les ammonites, ainsi que beaucoup de foraminifères en milieu marin ont disparu à cette époque. Le plancton et le benthos marin, ainsi qu’une grande partie de la végétation terrestre ont fortement régressé. Un débat persiste sur le caractère progressif ou brutal, ainsi que sur l’ampleur des extinctions : par exemple, il est impossible d’évaluer les extinctions éventuelles de micro-organismes, en raison de l’absence de traces visibles (fossiles).

Les paléontologues et les géologues essaient de comprendre les causes de ces extinctions de masse. Certains privilégient actuellement les explications de type catastrophe : un événement unique mais aux conséquences planétaires, comme la chute d’un astéroïde ou une éruption volcanique, aurait été responsable, par réaction en chaîne, de l’effondrement de certains écosystèmes et des extinctions qui en résultent. On invoque également des bouleversements géologiques, l’effet mutagène des rayons cosmiques, les modifications de courants océaniques résultant des collisions continentales, et bien entendu les variations climatiques. Il est probable que les crises majeures résultent de la conjonction de plusieurs causes liées à l’histoire de l’environnement global.

Toujours est-il qu’après chaque période de crise, la diversité biologique s’est reconstituée. Les organismes survivants ont pu recoloniser les milieux redevenus plus hospitaliers et se

Page 69: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 68

diversifier de nouveau. Mais il a fallu plus de temps pour reconstituer la diversité biologique que pour la voir disparaître.

Pourquoi y a-t-il plus d’espèces sous les tropiques que dans les régions tempérées ?

La distribution géographique actuelle de la diversité biologique est fortement liée aux conditions climatiques qui structurent l’existence et le fonctionnement des grands écosystèmes (les biomes). Sur la base du nombre d’espèces présentes, les milieux tropicaux sont plus riches que les milieux tempérés. Une explication réside dans l’histoire climatique de ces régions. Car pour expliquer la distribution actuelle de la biodiversité, on ne peut ignorer le rôle joué par les changements climatiques au cours des quelques derniers millions d’années.

À l’échelle de la vie humaine, on peut avoir l’impression que le monde qui nous entoure est stable. Pourtant, les écosystèmes ont sans cesse évolué à l’échelle des temps géologiques. Au cours de l’ère Quaternaire qui a débuté il y a moins de 2 millions d'années il y a eu, en moyenne, une période glaciaire tous les 100 000 ans. Lors de la dernière glaciation qui a connu son apogée il y a 18 000 ans environ, une vaste calotte glaciaire recouvrait l'Europe du Nord, et le niveau des mers était à 120 m en-dessous du niveau actuel. La grotte Cosquer était ainsi accessible à pied sec… La France offrait alors des paysages de steppe et de toundra, proches de ceux qui existent actuellement en Laponie. Renne, cheval, bison, associés à des espèces éteintes comme le mammouth, l’ours des cavernes et le mégacéros peuplaient la partie sud du pays.

Lors de la période de réchauffement, les espèces qui avaient subsisté dans des zones refuges situées au sud de l’Europe (Espagne, Italie, Grèce), ont recolonisé les terres libérées par les glaces. La flore et la faune européennes sont donc récentes, à l’échelle des temps géologiques. Et la recolonisation n’est certainement pas achevée si le climat, comme cela semble être le cas, continue à se réchauffer.

Les cycles de glaciation ont agi à la manière d’un essuie-glace, provoquant à chaque fois la disparition quasi complète de la flore et de la faune du nord de l’Europe, du nord de l’Asie et de l’Amérique du nord. Inversement, les régions tropicales où les changements climatiques ont été moins brutaux, les écosystèmes ont une plus grande pérennité ; ils hébergent une faune et une flore beaucoup plus diversifiées.

Pourquoi la biodiversité est-elle menacée ?

On reconnaît habituellement cinq grands types d’impact des activités humaines sur la biodiversité :

- La pression démographique (la bombe P des mouvements écologistes) est sans conteste un facteur prééminent pour expliquer l’impact de l’homme sur le monde vivant. Plus d’hommes implique plus de besoins d’espaces, de sols à cultiver, de ressources naturelles à exploiter… pour héberger et nourrir une population mondiale qui s’est fortement accrue : 2 milliards d’individus en 1930, 4 milliards en 1975, et 8 milliards prévus vers 2020, 9,5 milliards en 2050. Cette augmentation concerne plus particulièrement les pays en développement des régions tropicales, là où l’on trouve aussi la plus grande diversité biologique.

Page 70: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 69

- Les changements d’utilisation des terres, que ce soit le défrichement des forêts pour conquérir de nouveaux sols agricoles, ou le développement des villes et des réseaux de communication. À l’échelle de la planète, les écosystèmes naturels cèdent du terrain. La situation est particulièrement préoccupante pour les forêts tropicales.

- L’exploitation intensive des ressources vivantes pour des besoins alimentaires peut amener des espèces entières au bord de l’extinction. C’est le cas actuellement dans le domaine des ressources marines. Mais l’homme a également mené certaines espèces au bord de l’extinction par des activités de chasse et de lutte contre les prédateurs (loup, renard), par la recherche de profits (corne de rhinocéros, ivoire de l’éléphant) ou la mode vestimentaire (panthère, ocelot…).

- Les introductions d’espèces et la mondialisation des faunes et des flores… Le processus de transfert d’espèces à l’intérieur des continents, et entre les continents, entamé avec les grandes explorations des XVIe-XVIIIe siècles, a atteint son apogée avec le développement des transports intercontinentaux. On assiste sur tous les continents et la « banalisation » et/ou la « mondialisation » à grande échelle de la faune et de la flore. Par certains aspects, ces espèces introduites contribuent à améliorer nos conditions de vie. Dans la plupart des régions du monde, les besoins alimentaires sont couverts par des espèces végétales et animales qui sont originaires d’autres continents. En revanche, certaines espèces introduites sont devenues envahissantes, éliminant parfois les espèces autochtones avec lesquelles elles entrent en compétition, ou sont à l’origine de préjudices économiques (cas de l’introduction de la moule zébrée en Europe occidentale et en Amérique du Nord).

- Les pollutions. On se souvient des marées noires qui ont ravagé de nombreuses côtes dans le monde. Mais plus généralement, l’utilisation massive de pesticides pour des usages agricoles ou de santé publique est à l’origine de la destruction de nombreuses espèces dans les milieux terrestres et aquatiques. Il s’agit d’une question délicate car on doit reconnaître que les pesticides ont indubitablement rendu de grands services à l’agriculture et à la lutte contre les maladies. Des services équivalents à ceux fournis par les antibiotiques. Ils ont permis la révolution verte et l’assainissement de certaines régions du globe. Mais simultanément, on a montré que leur utilisation immodérée a été à l’origine de dégâts écologiques et peut avoir, en retour, d’autres effets sur la santé. Il est possible ici encore de rechercher des compromis : en sélectionnant les produits les moins toxiques ou les plus spécifiques par rapport à la cible, et pas nécessairement les produits les moins chers ; en adaptant les stratégies de lutte de manière à réduire les quantités d’insecticides utilisées tout en maintenant une efficacité maximum. Autrement dit, c’est plutôt le mauvais usage des pesticides qui est en cause que leur utilisation elle-même. Cette question est notamment abordée par la directive européenne Reach sur les substances dangereuses.

À quoi sert la biodiversité ?

La biodiversité joue un rôle essentiel dans notre économie et notre vie quotidienne. On a pu parler à son propos de « nature utile » car, pour utiliser le langage des économistes, elle nous fournit nombre de biens et de services.

Page 71: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 70

Les biens sont tous les produits issus de la biodiversité qui ont une valeur monétaire. On pense à la pêche ainsi qu’à l’exploitation du bois qui sont les dernières grandes entreprises de collecte des ressources naturelles. Mais on peut tout aussi bien penser aux truffes ou aux airelles.

Les services quant à eux sont les fonctions remplies par la biodiversité. Les écosystèmes, grâce à leur diversité biologique, jouent un rôle fondamental dans la régulation des grands cycles géochimiques (fixation, stockage, transfert, recyclage des éléments nutritifs, etc.) et du cycle de l’eau. Par exemple, les zones humides remplissent des fonctions d’épuration et stockage des eaux comparables à celles fournies par des stations d’épuration ou des barrages mis en place pour écrêter des crues. On les compare alors à des infrastructures naturelles.

L’écotourisme est devenu une nouvelle industrie. La valorisation de la biodiversité, que ce soit par l’observation d'animaux sauvages ou l'attrait exercé par de beaux paysages naturels, est une source de revenus particulièrement importante pour certains pays ayant développé une politique de tourisme basée sur la valorisation de leur patrimoine naturel.

Certains organismes, dits « espèces clés » ou « organismes ingénieurs », jouent également un rôle considérable dans le fonctionnement des écosystèmes. On pense aux vers de terre qui contribuent à aérer et à fertiliser les sols. On peut également citer les abeilles et leur rôle dans la pollinisation. On peut illustrer ce rôle différencié des espèces par la métaphore de l’automobile : il y a des pièces tout à fait indispensables au fonctionnement du véhicule (le moteur, les roues, la pompe à essence, etc.) ; d’autres ne sont utiles qu’à certains moments (le démarreur, les freins, le rétroviseur, le klaxon, etc.) ou servent à améliorer le fonctionnement général, comme le pot catalytique ; et d’autres ne servent à rien pour le fonctionnement de la voiture (les enjoliveurs, les chromes) mais sont importants quand il s’agit de la vendre.

On dit souvent qu’une plus grande richesse en espèces est un gage du bon fonctionnement des écosystèmes. Une affirmation qui est loin d’être toujours vérifiée. Certains milieux fonctionnent très bien avec peu d’espèces (les roselières, par exemple, ou certaines lagunes côtières) et sont très productifs. Quoi qu’il en soit, il n’y a pas de relation simple, dans la nature, entre richesse en espèces et fonctionnement des écosystèmes.

Qu’appelle-t-on ressources génétiques ?

Les ressources génétiques sont constituées par le matériel génétique ayant un intérêt effectif ou potentiel pour l’homme. Ce qui revient à dire qu’il s’agit de la diversité des gènes et des génomes. Par extension, on inclut également les molécules à usage pharmaceutique ou industriel qui sont issues des organismes vivants, ainsi que les processus biologique tels que les fermentations, etc.

La biodiversité joue un rôle essentiel en agriculture. Toutes les espèces cultivées à l’heure actuelle ont fait l’objet d’une longue sélection par les agriculteurs. Les ressources génétiques végétales correspondent ainsi à l’ensemble des espèces et variétés sélectionnées et améliorées par l’homme ainsi que leurs variétés sauvages. De même, de nombreuses races animales ont également été sélectionnées. Il existait, rien qu’en France, 155 races de poules, 52 races de bovins, 59 de moutons et 36 de porcs. Mais beaucoup ne sont plus que des souvenirs… La conservation de ces ressources génétiques est un objectif stratégique pour l’agriculture et l’élevage.

Page 72: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 71

En outre, de nombreuses molécules actives utilisées en médecine proviennent aujourd’hui de substances qui ont été trouvées dans des espèces végétales ou animales. La pénicilline est issue de champignons du genre Penicillium. Des agents antitumoraux sont isolés de la pervenche de Madagascar (alcaloïdes), et de l’écorce de l’if américain (taxol). L’extinction mondiale de ces espèces pourrait priver l’humanité de médicaments utiles.

L’accès à cet « or vert », comme on l’a surnommé, est l’objet de nombreux enjeux économiques. Pour schématiser, les pays du Sud ont surtout retenu de la Convention sur la diversité biologique qu’ils pourraient monnayer leurs ressources génétiques qui étaient exploitées gratuitement jusqu’ici par les industriels du Nord. Ces derniers, au contraire, souhaitaient maintenir le libre accès à ces ressources ! C’est un autre aspect de l’affrontement Nord-Sud qui perdure et pour lequel on peine au niveau international à trouver des solutions de compromis. Les lobbies agroalimentaires et pharmaceutiques sont particulièrement concernés, au point que certains pays n’ont pas signé la Convention sur la diversité biologique, par crainte de pénaliser leurs industries.

Page 73: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 72

La question débattue des OGM L’homme a maintenant les capacités de créer des espèces. Il peut en particulier transférer des gènes d’une espèce à une autre afin de lui permettre d’acquérir certaines propriétés. Cette question fait l’objet d’un débat assez vif au niveau de la société. Pour de nombreux scientifiques, cette technologie ouvre la voie à des progrès considérables en matière de santé et d’agriculture. Pour d’autres, et de nombreux citoyens français, c’est un risque de dérives scientifiques et technologiques (problèmes d’éthique), ainsi qu’une tentative de mainmise de la part d’industries agro-alimentaires sur le marché des semences. Il est difficile de résumer en quelques lignes la richesse de ce débat. Sachons cependant que des organismes OGM sont utilisés pour produire des médicaments depuis de très nombreuses années. Et que par ailleurs, des OGM sont largement utilisés en agriculture dans certains pays non européens. Une meilleure traçabilité est réclamée, ainsi que des programmes de recherche à long terme sur l’impact éventuel des OGM sur la santé et l’environnement. Les Académies se sont prononcées pour la poursuite des recherches sur les OGM.

Pourquoi conserver la biodiversité ?

La biodiversité apparaît aujourd’hui comme un problème d’environnement global qui nécessite des solutions urgentes. Dans une certaine mesure, il est de même nature que celui des changements climatiques, l’homme étant dans les deux cas responsable d’avoir une action sans précédent à l’échelle de la planète.

Il est urgent d’agir pour conserver la diversité biologique si nous ne voulons pas être les acteurs et les témoins d’une nouvelle extinction de masse. La vision utilitariste de la nature devrait nous inciter à prendre soin des ressources naturelles, pour assurer notre sécurité alimentaire et maintenir des activités industrielles ou touristiques. Simultanément, pour le bien-être de l’homme (santé, alimentation), nous devons poursuivre le contrôle, voire l’éradication, de certaines espèces telles que les vecteurs de maladies. D’autres, par contre, ont une attitude très différente et privilégient une approche éthique et philosophique. Il s’agit simplement de respecter la vie. La biodiversité est ainsi devenue un véritable problème de société qui fait appel à de nouvelles valeurs morales, et qui remet en cause les modèles de développement privilégiés jusqu’ici. Poser la question de la biodiversité, c’est s’interroger également sur les attitudes des hommes vis à vis de la « nature ». Au fil du temps, l’homme est passé d’une situation dans laquelle il subissait une nature en partie hostile, à une situation dans laquelle il détient en partie entre ses mains l’avenir des autres espèces. Actuellement, il se profile comme le gardien de la nature avec deux options possibles : une démarche conservationniste qui consiste essentiellement à préserver l’héritage naturel et une démarche interventionniste qui s’attache au contraire à gérer au mieux les biens et les services fournis par la nature, tout en en la modifiant si nécessaire pour se protéger des nuisances. Ces deux attitudes s’opposent souvent et sont à l’origine de malentendus, voire de divergences, quand on parle de biodiversité.

Faut-il protéger toute la biodiversité ?

On parle généralement de la biodiversité sous l’angle de la protection des espèces et des milieux naturels. On énumère aussi tous les biens et les services que nous fournit la biodiversité. Mais cette vision « positive » de la biodiversité ne doit pas nous faire oublier le fait que les hommes se sont longtemps battus contre la nature et doivent continuer à le faire en certains domaines : que ce soit contre les prédateurs ou les maladies, que ce soit contre les ravageurs des cultures ou les nuisances. Dans ce contexte, certaines espèces constituent des

Page 74: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 73

fléaux qu’il faut combattre. Protection et contrôle de la biodiversité doivent souvent aller de pair. Mais les mouvements conservationnistes ont tendance à ignorer cette face pourtant essentielle de la biodiversité. Depuis les origines, l’homme a lutté contre la nature pour se protéger des prédateurs, des maladies, des nuisances…. Son rapport à la nature est ainsi empreint d’ambiguïté : la mère nature source de nombreuses ressources d’une part, la nature source de tous les dangers d’autre part. Dans une perspective de développement durable, en face du discours conservationniste tourné essentiellement vers la protection de la nature, il faut mettre en regard la nécessité de poursuivre la lutte contre les vecteurs de maladies de l’homme, de ses animaux domestiques ou des plantes cultivées. Il convient de le rappeler avec fermeté car cet aspect de la biodiversité est rarement pris en compte dans les politiques de conservation.

Rappelons que l’homme héberge à l’instar des autres mammifères de nombreux parasites et virus. Très souvent le cycle biologique de ces parasites implique au moins deux hôtes : un hôte définitif (l’homme) et un ou plusieurs hôtes intermédiaires dans lesquels les parasites accomplissent une partie de leur cycle vital : les moustiques sont les vecteurs du paludisme et de la dengue, le chat de la toxoplasmose, les oiseaux et les porcs nous transmettent des virus de la grippe, les mollusques sont les hôtes intermédiaires de la bilharziose, etc. Ces systèmes hôtes-parasites sont de très beaux exemples de biodiversité fonctionnelle, avec une adaptation permanente des parasites aux hôtes ainsi qu’aux médicaments, dans ce que l’on a appelé une perpétuelle « courses aux armements ». Personne ne songe à protéger la bactérie de la peste, le Plasmodium responsable de la malaria, ou le ver solitaire…

Sans oublier que le développement de l’agriculture s’est accompagné d’une lutte sans merci contre les ravageurs des cultures par l’utilisation de pesticides ou de bien d’autres moyens d’éradication. La révolution verte qui, rappelons-le, a évité de graves famines dans le monde, est fondée sur l’utilisation d’engrais, d’herbicides, d’insecticides, de variétés sélectionnées pour leurs performances. Ces technologies ont eu des effets collatéraux qui ont été largement dénoncés. Il y a eu sans aucun doute des excès et des imprudences dans leur utilisation. On s’oriente maintenant vers une utilisation plus raisonnée et mieux contrôlée des produits toxiques (cf. la directive européenne Reach).

Il n’est guère envisageable de réduire nos efforts de lutte contre les vecteurs de maladies, les ravageurs, ou les nuisances en général. Mais il est sans aucun doute possible de poursuivre la lutte dans un contexte différent, où l’on recherche une plus grande efficacité contre les cibles tout en limitant les « dégâts collatéraux ».

Un cas particulier est celui des grands prédateurs comme l’ours, le loup, le lynx, des espèces protégées officiellement. Nous avons connu ces dernières années en France des expériences qui ont montré des différences d’appréciations sur ce que doivent être les rapports des hommes avec ces grands prédateurs.

Comment protéger la biodiversité ?

Il y a de nombreuses démarches possibles pour protéger la biodiversité.

Celle qui a d’abord été adoptée est la mise en place des aires protégées. C’est un peu une mesure d’urgence, qui consiste à soustraire de l’action de l’homme des écosystèmes et les espèces qu’ils contiennent, ou à protéger une espèce dans son biotope. De nombreux parcs et réserves ont ainsi été créés dans le monde.

Page 75: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 74

On s’est aperçu néanmoins qu’exclure l’homme des aires protégées n’était pas une solution viable dans les pays en développement. On s’est donc orienté vers des aires protégées où les hommes étaient partie prenante de la protection (Réserves de la Biosphère par exemple). Le programme Natura 2000 en Europe s’appuie lui aussi sur un réseau d’aires protégées. Dans le domaine marin, la création d’aires protégées parait être une bonne démarche pour protéger les ressources marines.

Une autre manière de voir est de considérer que la conservation de la diversité biologique s’inscrit dans la logique du développement durable, en recherchant des compromis entre la protection des écosystèmes et des espèces et le développement économique. Ce n’est donc pas seulement une affaire de naturalistes car si les causes de l’érosion de la biodiversité résident dans les décisions qui sont prises en matière d’exploitation des ressources vivantes, les réponses ne peuvent être seulement techniques mais relèvent également des choix économiques et politiques qui seront faits en matière de gestion de ces ressources. La question se pose actuellement de manière aiguë pour les ressources marines exploitées. On sait que, si rien ne change, celles-ci seront en voie d’épuisement dans quelques dizaines d’années. Comment fera-t-on pour pallier cet épuisement ? L’aquaculture se développe rapidement, mais c’est une grande consommatrice de farine de poisson !

Les changements climatiques en cours vont probablement modifier sensiblement la distribution des écosystèmes et des espèces. En Europe, certaines espèces poursuivent leur colonisation vers le nord ou gagnent en altitude. On voit apparaître dans les cours d’eau des espèces plus thermophiles, et il est probable que des espèces subtropicales apparaîtront dans les régions méridionales. Simultanément, des écosystèmes vont disparaître avec les espèces qu’ils hébergent, ce qui pose la question du devenir des zones protégées dans un environnement qui évolue. Leur rôle initial qui était de protéger une espèce ou un écosystème, risque fort de devenir sans objet si les conditions écologiques ne sont plus favorables à l’espèce en question. Veut-on alors en faire des espaces de liberté dans lesquels la dynamique de la biodiversité pourra s’exprimer librement ? La question fait l’objet de discussions.

La conservation des ressources génétiques pose des problèmes plus spécifiques. De manière générale, les agronomes combinent la conservation in-situ et la conservation ex situ. La conservation in situ consiste à entretenir des variétés végétales sous forme cultivée dans des conservatoires. La conservation ex situ consiste en banques de graines ou de gènes.

L’homme fait-il partie de la biodiversité ?

L’homme est un produit de l’évolution, et il contribue à la diversité biologique. Il a les mêmes organes et les mêmes besoins physiologiques que d’autres espèces ; c’est un hôte potentiel de parasites et de maladies infectieuses qui lui sont propres ou qu’il partage avec d’autres espèces.

L’histoire de l’homme est plutôt buissonnante. Dans l’état actuel des connaissances, l’homme, le chimpanzé et le bonobo partagent un ancêtre commun qui vivait probablement en Afrique il y a 5 à 7 millions d’années. Depuis, ces lignées n’ont cessé d’évoluer et de diverger. Différentes « espèces humaines » ont coexisté. On ne sait pas très bien si elles étaient interfécondes ou non. Mais elles maîtrisaient le feu et possédaient des cultures propres. Elles ont disparu, à l’exception d’Homo sapiens qui a conquis toute la planète. Ce dernier a cohabité en Europe pendant plusieurs milliers d’années (homme de Cro-Magnon) avec

Page 76: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 75

l’homme de Néanderthal qui lui, a disparu il y a seulement 25 à 30 000 ans. L’homme de Solo a disparu également il y a 27 000 ans et l’homme de Florès il y a 18 000 ans…

Comme les autres espèces, l’espèce humaine continue d’évoluer sous nos yeux, à ceci près que les progrès de la médecine viennent contrecarrer la sélection naturelle qui s’opère à chaque génération. Nul ne sait quelles seront les conséquences de cette importante modification pour le devenir de notre espèce. Il est a noter aussi que l’espèce humaine se différencie des autres espèces par certaines caractéristiques qui lui sont propres, ou qu’elle a plus développées que d’autres, notamment ses facultés de mémorisation, d’abstraction, d’anticipation, sa curiosité intellectuelle, sa conscience morale. L’homme a développé un arsenal technologique qui lui donne maintenant des pouvoirs considérables sur la nature. À lui d’en faire le meilleur usage possible.

Pour en savoir plus

Barbault R. (1997). Biodiversité. Les fondamentaux. Hachette, Paris, 159 p. Combes Claude et Guitton Christophe (2006). Le naufrage de l'arche de Noé. Belin-Pour la Science. Combes Claude (2001). Les associations du vivant : l'art d'être parasite. Flammarion. Paris. Genot Jean-Claude (2003). Quelle éthique pour la nature ? Édisud, Aix-en-Provence, 191 p. Gould Stephen Jay (1991). La vie est belle : les surprises de l'évolution. Seuil, Paris 390 p. Lévêque C. et Monolou J.-C. (2001). Biodiversité. Dynamique biologique et conservation. Dunod, Paris, 248 p. Picq Pascal, Digard Jean-Pierre et Cyrulnik Boris (2000). La plus belle histoire des animaux. Seuil. Pavé A. (2007). La nécessité du hasard. Vers une théorie synthétique de la biodiversité. EDP Sciences Wilson W.O. (1993). La diversité de la vie. O. Jacob, Paris. 496 p.

Page 77: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 76

Écosystèmes : foire aux questions Henri DÉCAMPS

Qu’est-ce qu’un écosystème ?

Un écosystème est un assemblage d’animaux, de végétaux et de micro-organismes en interaction les uns avec les autres, ainsi qu’avec leur milieu. Ces interactions se développent dans le cadre de systèmes plus ou moins naturels : forestiers, lacustres, agricoles, urbains… L’homme participe à ces interactions dont dépendent sa santé et son bien-être.

Quels services attendre des écosystèmes ?

Les écosystèmes procurent des services indispensables au développement des sociétés humaines (voir figure 6). Ils assurent l’assainissement de l’air que nous respirons et de l’eau que nous buvons ; ils contrôlent les proliférations d’organismes pathogènes, renouvellent la fertilité des sols. Un tiers de la nourriture des humains vient de plantes dont la pollinisation est assurée par des espèces animales sauvages.

Ces services sont-ils menacés ?

Oui, quand ils sont utilisés pour satisfaire des besoins immédiats, sans égard pour les besoins futurs. Or, un développement durable des sociétés humaines passe par une prise de conscience des conséquences à long terme :

- du ruissellement des engrais, pesticides et déchets animaux ; - de la pollution des terres, des eaux et de l’air ; - de l’introduction d’espèces étrangères ; - de la surexploitation des ressources marines ; - de la destruction de certaines zones humides ; - de l’érosion des sols ; - de la déforestation ; - de l’expansion urbaine.

Qu’attendre de l’écologie scientifique ?

L’écologie scientifique permet de comprendre la dynamique des interactions au sein des écosystèmes. Cette dynamique est essentielle aux équilibres sur lesquels s’appuient les services rendus par les écosystèmes. Quel rôle joue la biodiversité dans cette dynamique ? Comment les changements environnementaux – y compris climatiques – modifient-ils cette dynamique à court et à long terme ? Quels compromis acceptables proposer pour une utilisation durable des services écologiques ?

Page 78: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 77

Plan 1. Interactions

Encadré 1 – Écosystèmes urbains Encadré 2 – Écologie du paysage

2. Le fonctionnement des écosystèmes : production et décomposition

2.1. Production 2.2. Décomposition 2.3. Perspective

Encadré 3 – Biomasse, production, productivité Encadré 4 – Comparaison entre écosystèmes

3. Le fonctionnement des écosystèmes : les cycles à l’échelle des bassins versants

3.1. Le cycle de l’eau 3.2. Les cycles biogéochimiques 3.3. Perspective

Encadré 5 – Temps de résidence et taux de renouvellement 4. Le fonctionnement des écosystèmes : évolution et biodiversité

4.1. Variations dans l’espace 4.2. Variations dans le temps 4.3. Perspective

Encadré 6 – Résilience des écosystèmes 5. Écosystèmes et questions de société

5.1. Utiliser les services rendus par les écosystèmes 5.2. Restaurer les écosystèmes dégradés 5.3. Gérer durablement les écosystèmes

Encadré 7 – Écosystèmes et changement climatique 6. La « tragédie des biens communs » n’est pas une fatalité

Page 79: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 78

Écosystèmes

Henri Décamps

1. Interactions

Une forêt comprend des arbres, des mousses, algues, fougères et autres plantes de sous-bois, des sangliers, des oiseaux, des insectes, chacun avec ses propriétés de taille, de longévité, de croissance… Ces propriétés caractérisent les êtres de la forêt mais non le « système forêt » dans son ensemble, car ce dernier est davantage que la simple somme des organismes qui le composent. Toutes sortes d’interactions créent un système nouveau – un écosystème dans lequel des organismes vivants interagissent entre eux et avec leur environnement physicochimique.

De telles interactions caractérisent tous les types d’écosystèmes terrestres et marins : forêts, lacs, prairies, agrosystèmes, coraux. Dans tous, l’énergie du soleil est capturée pour produire une matière végétale qui pourra être consommée par des animaux et des micro-organismes. Ce flux d’énergie alimente un recyclage de la matière entre les compartiments vivants et non vivants de l’écosystème – un recyclage dans lequel les nutriments, par exemple le phosphore et l’azote, passent alternativement des organismes au sol, à l’eau ou à l’atmosphère. L’étude de ces flux et de ces cycles relève à la fois de la physique, de la chimie et de la biologie. Cette étude relève aussi des sciences de l’homme et de la société, particulièrement quand elle s’applique à des systèmes aussi peu « naturels » que les écosystèmes urbains (encadré 1).

Comment délimiter un écosystème ? A priori très simplement : les lisières pour une forêt, les rives pour un lac. Mais ces limites ne sont pas fixées une fois pour toutes. Selon les questions abordées, il peut s’avérer nécessaire de les élargir, de passer par exemple des rives d’un lac aux crêtes de son bassin versant (l’aire d’où lui proviennent les eaux des précipitations par ruissellement superficiel et souterrain). Il peut aussi s’avérer nécessaire d’envisager un ensemble d’écosystèmes en interaction et de passer de l’écologie des écosystèmes à l’écologie des paysages (encadré 2).

Quelle échelle adopter pour étudier un écosystème ? Ici encore, la question abordée détermine la réponse. Un écosystème lacustre peut être subdivisé en eaux libres et sédiments. Tous deux comprennent des organismes vivants qui interagissent entre eux et avec leur environnement physicochimique. Et le sous-système eau libre peut à son tour être subdivisé en eau du littoral, eau profonde, eau de surface. Inversement, le système lac fait lui-même partie du système formé par son bassin versant et dans lequel il interagit avec des rivières, des champs, des forêts, des agglomérations urbaines… Cette organisation « hiérarchique » en systèmes emboîtés, à la manière de poupées russes, caractérise les rapports entre la biosphère, les régions, les paysages, les écosystèmes et leurs subdivisions. Une idée s’impose donc : celle d’interactions, de connexions. Les ensembles et les processus

Page 80: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 79

écologiques ne sont jamais isolés. Ils sont au contraire liés, emboîtés. En tant qu’humains, nous n’échappons pas à ces interactions dont il importe de tenir compte dans toute démarche visant à un développement durable.

Encadré 1 – Écosystèmes urbains Notre monde est de plus en plus urbanisé. Environ 3 milliards de personnes, soit la moitié de la population mondiale, vit actuellement en zone urbaine – ce nombre devrait s’accroître de près de deux milliards dans les 25 prochaines années. Cette urbanisation galopante affectera essentiellement les pays en développement, notamment asiatiques, en bordure du Pacifique, non sans problèmes environnementaux. Ces problèmes se posent différemment selon les villes des pays développés et des pays en développement, tant en ce qui concerne l’hygiène publique que l’approvisionnement en eau, en énergie, le traitement des déchets, la pollution de l’air. Cependant, quel que soit le niveau de développement des pays considérés, l’urbanisation accentue les défis environnementaux. Selon un rapport de l’Université des Nations Unies à Tokyo (1), ces défis relèvent de trois approches complémentaires : la ville et ses écosystèmes, la ville comme écosystème, la ville au sein d’écosystèmes régionaux et globaux. La ville et ses écosystèmes. On attend des villes qu’elles créent des conditions de bonne santé pour les citadins, par exemple en organisant l’accès à l’eau pour tous. Mais cette attente concerne aussi les systèmes écologiques – la nature en ville. Répondre à cette attente, c’est se préoccuper des parcs, de la vie sauvage dans ces parcs, de l’agriculture urbaine. C’est se soucier des interactions entre les êtres vivants et leur environnement, même altéré. Et c’est examiner les problèmes pratiques liés aux impacts anthropiques sur les systèmes écologiques en général. Les villes comme écosystèmes. Assimiler les villes à des écosystèmes revient à les considérer globalement comme des organismes consommant des ressources d’une part, et produisant des déchets d’autre part. Ce métabolisme des villes, avec des imports et des exports, est la base même de toute politique urbaine soucieuse d’harmoniser les différents flux qui traversent une ville : flux de matière et d’énergie, d’eau, de substances nutritives. Soucieuse aussi, dans toute leur complexité, des interactions entre l’écologie, l’économie et la sociologie, à la base des dynamiques urbaines. Les villes au sein d’écosystèmes régionaux et globaux. Les villes sont de plus en plus liées entre elles par des échanges de biens et de services, de personnes, de connaissances. En même temps, les villes interagissent avec les écosystèmes qui les environnent. En 1997, une étude a montré que les 744 villes européennes les plus grandes d’Europe du Nord s’appropriaient le quart des prises annuelles mondiales de pêche en mer. Les villes sont ainsi une des clés du développement durable à l’échelle de la planète. Le fonctionnement d’un écosystème urbain peut aussi être résumé par son empreinte écologique – évaluation de la surface productive nécessaire à une population pour répondre à sa consommation de ressources et à ses besoins d’absorption de déchets. L’empreinte écologique peut être directement comparée à la biocapacité, c'est-à-dire à la surface biologique productive effectivement disponible. Selon une étude du WWF (2), l’empreinte écologique de la France (Fig. 1) atteignait en moyenne 5,26 hectares par personne en 2002, celle de la ville de Besançon, 5,2 hectares par personne (1% de moins que la moyenne nationale), et celle de la ville de Paris, 6 hectares par personne, soit 16% de plus que la moyenne nationale. Les schémas de la figure 1 présentent pour l’année 1999, d’une part, les déficits

Page 81: Dossier scientifique E n v i r o n n E m E n t

écologiques résultant de la comparaison des empreintes et des biocapacités pour la France, Paris et Besançon, et d’autre part, les empreintes écologiques par secteur de consommation. Les défis environnementaux liés aux villes deviennent de plus en plus complexes. Leur analyse suppose des approches interdisciplinaires, menées en concertation avec les décideurs des politiques publiques, prenant en compte différentes échelles géographiques, intégrant les facteurs socio-économiques, culturels et biophysiques. Divers progrès méthodologiques permettent actuellement de relever ces défis : modélisation et simulation de scénarios, analyse spatiale par systèmes d’information géographique, disponibilité des données environnementales. (1) UNU/IAS report. 2003. Urban ecosystem analysis: identifying tools and methods. www.ias.unu.edu/binaries/UNUIAS_UrbanReport2.pdf (2) WWF. 2002. L’empreinte écologique en France. www.wwf.fr/content/download/129/596/version/1/file/EmpreinteFrance4p.pdf

Figure 1– Exemples d’empreintes écologiques évaluées en 1999. À gauche : l’empreinte écologique de Besançon est 26 fois supérieure à sa biocapacité et celle de Paris 313 fois. A droite : empreintes écologiques évaluées par secteur de consommation pour la France, Besançon et Paris (d’après WWF 2002).

Encadré 2 – Écologie du paysage

En écologie, les paysages sont des ensembles d’écosystèmes plus ou moins interdépendants : bois, prés, champs, lacs et cours d’eau, villages, villes. D’avion, l’impression est celle de taches qui diffèrent les unes des autres par leurs couleurs, leurs étendues, leurs formes, et composent des mosaïques plus ou moins complexes et imbriquées. Ces mosaïques ont bien sûr une histoire – celle de l’utilisation des terres par l’homme. Le principe de base de l’écologie du paysage est que la disposition spatiale de ces mosaïques influence les processus écologiques qui, en retour, affectent cette disposition. Autrement dit, la disposition des mosaïques paysagères – en particulier leur hétérogénéité – influence (et est influencée par) les processus qui déterminent le recyclage des éléments nutritifs, la dynamique des populations, l’organisation des communautés végétales et animales.

L’hétérogénéité des habitats est associée à une biodiversité élevée. Les groupes de papillons, d’oiseaux, de petits rongeurs sont par exemple d’autant plus diversifiés que les espaces cultivés sont hétérogènes et présentent à proximité les uns des autres des habitats favorables et défavorables : les « populations sources » des premiers peuvent venir à la rescousse des « populations puits » des

Dossier scientifique Environnement 80

Page 82: Dossier scientifique E n v i r o n n E m E n t

seconds. D’où l’utilité, dans les paysages agricoles, d’habitats non cultivés : bordures de champs, haies, bosquets, friches. Ces éléments participent à une hétérogénéité dont rend compte l’image de bosquets reliés par des haies dans une matrice de champs cultivés (Fig. 2). L’écologie du paysage s’est construite sur cette image, parfois qualifiée de modèle « taches – corridors – matrice ». Ce modèle permet de comparer des paysages dissemblables, tout en offrant une base à la gestion de l’organisation spatiale des systèmes écologiques.

Divers principes de gestion ont été développés sur cette base, par exemple :

- une tache de grande taille comprend normalement plus d’habitats, et donc plus d’espèces, qu’une tache de petite taille ;

- la diminution du nombre des taches fragilise les populations fragmentées en réduisant les possibilités de compenser les extinctions locales par des colonisations à partir de taches habitées ;

- la probabilité d’extinction locale d’une espèce est plus grande dans une tache isolée ;

- une tache aux limites contournées comprendra un nombre légèrement plus élevé d’espèces de lisière, mais un nombre nettement plus faible d’espèces d’intérieur, souvent intéressantes pour la conservation ;

- la sélection de taches dans un but de conservation doit s’appuyer sur leur aptitude à assurer, de par leur localisation, une liaison avec d’autres taches du système et, de par leurs caractéristiques, un abri à des espèces rares, menacées ou endémiques.

Dossier scientifique Environnement 81

Page 83: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 82

Figure 2 – Le modèle « taches – corridors - matrice » de l’écologie du paysage (d’après Fischesser et Dupuis-Tate (1996).

La connectivité entre les taches d’habitats est un facteur important de maintien des populations sauvages. Un seuil existe – le seuil de percolation – au-delà duquel la connectivité disparaît soudainement. Ce seuil dépend de l’espèce considérée, du nombre d’habitats disponibles, de la manière dont ces habitats sont regroupés dans l’espace. La création de corridors peut empêcher que des populations soient ainsi déconnectées, comme entre l’Italie et la Suisse où les migrations annuelles des cerfs rouges ont été restaurées entre deux aires protégées totalisant 1 000 km2, par un corridor d’environ 150 km2 à travers un fort gradient altitudinal.

2. Le fonctionnement des écosystèmes : production et décomposition

Les écosystèmes produisent de la matière organique. C’est un processus essentiel de leur fonctionnement. Mais un autre processus lui fait face, complémentaire : la décomposition de cette matière organique.

2.1. Production

Un agro-écosystème, par exemple un champ de blé, change naturellement au cours de sa saison de croissance. Son sol, d’abord nu, se couvre rapidement de blé dont la biomasse (encadré 3) atteint un maximum puis, si elle n’est pas récoltée, décline, s’assèche et meurt. Les populations d’herbivores suivent une trajectoire comparable : les animaux s’alimentent pendant la saison de croissance puis meurent, s’éloignent, ou passent à un état de vie ralentie, quand la végétation disparaît. Vient alors une période de sommeil, quelques plantes mortes rappelant simplement la présence de la végétation passée.

Récolter ce blé au maximum de sa croissance donne une mesure de ce qu’il a produit par photosynthèse, et qui n’a pas été consommé par des herbivores (encadré 3). Plus précisément, il s’agit d’une production primaire nette : « nette » parce qu’elle représente ce qui reste de la production primaire brute après les pertes dues à la respiration, « primaire » parce qu’elle représente le premier stade de la chaine alimentaire dont font partie les autres organismes de l’écosystème.

Encadré 3 – Biomasse, production, productivité

La biomasse est la masse de matière vivante d’un organisme ou d’un ensemble d’organismes. Elle peut être mesurée en poids sec ou humide, en carbone, en calories, et être exprimée par unité d’aire ou de volume : l’aire dans le cas des écosystèmes terrestres, le volume dans celui des écosystèmes aquatiques ou des sols.

La production est la quantité de biomasse produite pendant une période donnée. Elle est qualifiée de primaire s’il s’agit de la biomasse produite par des végétaux, de secondaire s’il s’agit de biomasse produite par des animaux. Cette production peut être nette ou brute (production nette = production brute - respiration).

- Pour les végétaux, la production brute correspond à l’ensemble de la biomasse produite, la production nette à la biomasse disponible après respiration, une partie pouvant être utilisée par les herbivores et par les décomposeurs (figure 3). Dans leur grande majorité, les végétaux construisent

Page 84: Dossier scientifique E n v i r o n n E m E n t

leur matière vivante par photosynthèse, en utilisant le rayonnement solaire comme source d’énergie.

- Pour les animaux, la production brute correspond à la biomasse assimilée (ingérée moins excrétée), la production nette à la biomasse disponible pour croître et se reproduire, une partie pouvant être utilisée par des prédateurs et des décomposeurs (figure 3).

Dossier scientifique Environnement 83

Prédation

Croissance et reproduction

Figure 3 – Flux de carbone dans un écosystème simplifié, comprenant des producteurs primaires, des herbivores, des détritus et des décomposeurs : encadrés en unités de carbone par unité d’aire ou de volume d’écosystème ; flèches en taux de flux de carbone par unité d’aire ou de volume d’écosystème (d’après Carpenter 1998).

La productivité est la quantité de biomasse produite par unité de surface (ou de volume) et unité de temps : c’est la production par unité de temps. On distinguera, comme pour la production, des productivités brutes et nettes et des productivités primaires et secondaires. La productivité est souvent intégrée sur une année pour faciliter les comparaisons entre écosystèmes : elle correspond alors à une production annuelle.

L’éclairement détermine au premier chef la production primaire, différemment selon les espèces et selon les environnements (figure 4). La nuit, en absence d’éclairement, le processus de photosynthèse s’arrête tandis que, le métabolisme se poursuivant, la respiration rejette du gaz carbonique dans l’atmosphère. Les plantes utilisent alors l’énergie stockée dans les

Urine Fèces

Mort

Mort Fèces Urine

Consommation

Mort (excrétion)

Broutage

Croissance et reproduction

Croissance et reproduction

Herbivore

Détritus

Décomposeur

Fixation du carbone Respiration Énergie

Producteur primaire

Respiration Respiration

Prédation

Page 85: Dossier scientifique E n v i r o n n E m E n t

composés organiques qui ont été produits pendant le jour. Quand, au lever du jour, l’intensité lumineuse augmente, la photosynthèse redevient possible et l’énergie assimilée dépasse celle perdue par respiration. Les trois espèces de la figure 4 réagissent alors différemment à l’augmentation d’éclairement. L’espèce de sous-bois en forêt tropicale humide maintient un taux de production constamment faible : adaptée à des conditions de faible intensité lumineuse, elle ne répond pas à l’augmentation de l’éclairement. L’espèce de région tempérée présente une courbe de forme comparable mais avec un taux de production plus élevé : elle peut utiliser une plus large gamme d’énergie lumineuse. Quant à l’espèce de région désertique, adaptée aux fortes intensités lumineuses, son taux de production augmente avec l’éclairement sur l’ensemble de la gamme de variation indiquée sur la figure : sa capacité de production dépend alors de l’eau disponible – son nouveau facteur limitant.

Respiration

Photosynthèse (mg CO2 dm-2 h-1)

60

40

20

0

Espèce de sous-bois de forêt humide

Espèce de zone tempérée

Espèce de désert

Intensité lumineuse (watts/m2)

1 000 2 000

Dossier scientifique Environnement 84

Figure 4 – Relations entre photosynthèse et respiration de trois espèces représentatives de trois types d’écosystèmes (d’après Golley 1998).

Au côté de l’éclairement, les conditions d’humidité et de température expliquent les différences observées entre les écosystèmes. Les climats chauds et humides en forêts tropicales, en zones humides et sur le littoral des mers tropicales favorisent des productivités primaires élevées, tandis que les climats secs des déserts ou froids de la toundra ne permettent que des productivités primaires faibles. À ces conditions s’ajoute la disponibilité en nutriments qui, souvent, comme le phosphore et l’azote, limite la productivité primaire, en milieu terrestre comme en milieu océanique. La teneur de l’air en gaz carbonique (CO2) attire particulièrement l’attention depuis quelques années. Elle a considérablement augmenté au cours du dernier siècle, provoquant une élévation des températures à la surface de la terre, par effet de serre. Comment cette augmentation affectera-t-elle la productivité primaire à la

Page 86: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 85

surface de la terre ? Quelles implications peut-on prévoir sur le fonctionnement des écosystèmes et sur les organismes vivants, dont l’homme, qui dépendent de ces écosystèmes ? Ces questions sont au cœur des travaux du GIEC (voir la fiche traitant le changement climatique mondial).

Il faut enfin ajouter qu’en un même écosystème, la productivité varie dans le temps, particulièrement sous l’influence de perturbations. Ainsi, après incendie, la productivité d’un écosystème forestier augmente d’abord rapidement dans une phase de jeunesse, puis plus lentement dans une phase de maturité. Les grands arbres adultes ne s’accroissent plus et la plus grande partie de leur production est utilisée pour leur maintenance. De tels cycles de transformation de la productivité primaire se renouvellent quand surviennent d’autres perturbations – incendies en forêt ou crues en rivière.

2.2. Décomposition

La production primaire nette nourrit la production des autres organismes vivants de l’écosystème. Les réseaux alimentaires (ou trophiques) ainsi formés transfèrent l’énergie selon deux voies distinctes.

Une première voie passe par des consommateurs de plantes vivantes ou herbivores. Environ 20 % de la production primaire suit cette voie en milieu terrestre, 30 % en milieu aquatique à partir de végétaux fixés sur le fond, et 50 % en milieu aquatique à partir d’algues planctoniques flottantes. La consommation par les herbivores est fortement corrélée à la productivité primaire, en milieu terrestre comme en milieu aquatique.

Une deuxième voie passe par des consommateurs de plantes mortes et en décomposition. Ce sont des décomposeurs, parmi lesquels des insectes, des bactéries et des champignons. Environ 80 % de la production primaire terrestre suit cette voie. Le processus de décomposition de la matière organique implique un désassemblage physique parfois long, par exemple dans le cas des troncs d’arbres morts, suivi d’un désassemblage chimique, après lequel les molécules peuvent être absorbées.

En général, un équilibre s’établit entre les processus de production et de décomposition. L’excès de décomposition par rapport à la production entraîne une disparition du système. Inversement, l’excès de production amène à une accumulation de matière organique partiellement décomposée. Ainsi, dans les tourbières en climat froid, les plantes mortes ne se décomposent pas assez vite pour équilibrer la production, par manque d’oxygénation de l’eau en été et par température trop basse en hiver. Dans ces conditions, la matière organique morte s’accumule et, peu à peu comprimée, se transforme en tourbe. Un nouvel équilibre s’instaure entre les taux de production et de décomposition, plus conforme aux conditions d’humidité et de nutriments en place.

En fait, l’équilibre entre la production et la décomposition des communautés vivantes – le rapport P/R de la production à la respiration – est un indicateur de l’état de l’écosystème. Cet équilibre est bien sûr dynamique, c'est-à-dire qu’il peut y avoir accumulation pendant une certaine saison ou une certaine année, suivie d’une diminution du stock l’année suivante. Les

Page 87: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 86

systèmes dont le rapport P/R devient supérieur ou inférieur à 1 tendent à revenir à l’équilibre, à moins d’être constamment perturbés.

Encadré 4 – Comparaison entre écosystèmes

Les plus fortes productions primaires annuelles sont celles des zones humides, des forêts tropicales humides, des récifs coralliens et des estuaires marins (1 800 à 2 500 g de biomasse sèche m-2 an-1). Les plus faibles sont celles de l’océan (260 g de biomasse sèche m-2 an-1), des déserts parsemés d’arbustes (70 g de biomasse sèche m-2 an-1), des sols arides, sableux, rocheux et gelés (3 g de biomasse sèche m-2 an-1). Cependant, un écosystème contribue à la production totale de la biosphère autant par son étendue dans l’espace que par sa capacité productive : à cet égard, la forêt tropicale humide (grande productivité, faible surface) est comparable aux océans (faible productivité, grande surface).

Le rapport de la masse végétale en décomposition (les détritus) à la masse végétale vivante donne une idée de la dynamique des écosystèmes. En forêt tropicale humide où la décomposition est rapide, le rapport détritus / végétaux vivants est voisin de 0,5 : la biomasse vivante dépasse de loin la biomasse morte. En prairie tempérée, où la décomposition est ralentie par de faibles températures et humidités, le rapport détritus / végétaux vivants est voisin de 30 : la plus grande part de la matière organique est sous forme de végétaux morts, en décomposition et dans le sol. Les détritus représentent un réservoir de carbone organique et de nutriments important en de nombreux écosystèmes.

De même, le rapport de la biomasse des herbivores à celle des végétaux distingue les dynamiques des écosystèmes terrestres et aquatiques. Dans les premiers, les herbivores consomment moins de 20 % de la production primaire et leurs biomasses sont nettement inférieures à celles des végétaux dont ils se nourrissent. Dans les écosystèmes aquatiques, les herbivores consomment plus de 50 % de la production primaire, soit trois fois plus que les herbivores terrestres. Il s’ensuit que leurs biomasses dépassent largement celles des végétaux aquatiques. Ce rapport de biomasses surprenant n’est rendu possible que par les exceptionnels taux de croissance des plantes aquatiques qui renouvellent leurs biomasses plusieurs fois par an ou même plusieurs fois par semaine.

2.3. Perspective

Arrivé à maturité, un écosystème dépense en maintenance la plus grande part de l’énergie qu’il puise dans le processus de photosynthèse. Ce coût devient de plus en plus fort au fur et à mesure qu’il vieillit. À la limite, les écosystèmes âgés ne peuvent se renouveler sans l’influence d’un événement catastrophique – incendie, tempête ou inondation. D’où une dynamique d’oscillations entre des stades de maturité et d’immaturité dans l’espace et dans le temps.

L’existence de cette dynamique a été reconnue très tôt dans l’histoire de l’humanité, et les premières sociétés semblent s’être établies non loin de lieux fréquemment perturbés où les écosystèmes revenaient fréquemment à des phases de jeunesse à croissance rapide : deltas périodiquement inondés, savanes régulièrement brûlées. L’agriculture a amélioré les processus de production en contrôlant ces perturbations par brûlage, labour, irrigation, premiers pas vers une appropriation des terres. L’agriculture moderne a considérablement accru les possibilités de production avec le contrôle de l’eau, l’apport d’engrais, l’usage de pesticides.

Page 88: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 87

D’extraordinaires accroissements des taux de production ont laissé penser un moment qu’il était possible de s’extraire des processus naturels, d’augmenter indéfiniment l’importance des récoltes, d’oublier la nécessité de connexions entre écosystèmes agricoles juvéniles et écosystèmes naturels parvenus à maturité. Bref, les processus de croissance ont été valorisés au détriment des processus de maintenance. Or, la vision du fonctionnement des écosystèmes développée ici montre qu’à vouloir augmenter indéfiniment la production, on transforme la structure et le fonctionnement des écosystèmes, conduisant finalement au déclin de cette production. La viabilité de notre environnement demande que soient respectés les équilibres entre production et décomposition, entre croissance et maintenance des écosystèmes.

3. Le fonctionnement les écosystèmes : les cycles à l’échelle des bassins versants

Les processus de production et de décomposition évoqués ci-dessus dépendent largement des cycles de l’eau et des nutriments. Une des échelles privilégiées pour suivre ces cycles est celle des bassins versants, c'est-à-dire des surfaces parcourues par l’eau des précipitations ruisselant des points hauts vers les points bas. Les dimensions de ces bassins versants peuvent varier énormément – depuis les petits bassins de montagne jusqu’à ceux des grands fleuves. Quelles que soient leurs dimensions, ces bassins sont délimités par leurs lignes de crête, qui les séparent d’autres bassins versants.

Tout bassin versant est ainsi le siège de déplacements de matières minérales et organiques entraînées vers l’aval, sous le contrôle du couvert végétal du bassin lui-même.

3.1. Le cycle de l’eau

D’un point de vue écologique, les cours d’eau d’un bassin versant forment des systèmes continus depuis les sources jusqu’aux embouchure dans l’océan (voir fiche « eau »). Vers l’amont, les cours d’eau s’écoulent rapidement sur des substrats rocheux, sous couvert d’arbres et d’arbustes qui, depuis les rives, enrichissent les substrats d’une litière foliaire abondante. Cette litière héberge de nombreux animaux aquatiques – insectes et crustacés – qui s’alimentent de feuilles mortes tombées dans l’eau qu’ils contribuent à transformer en particules organiques plus fines. Vers l’aval, les cours d’eau s’écoulent plus lentement, les températures estivales s’élèvent, les apports des rives s’amenuisent, et les particules transportées s’affinent. Les organismes dominants filtrent ces éléments fins ou broutent le film biologique recouvrant les substrats. Plus en aval encore, les rivières s’élargissent, s’écoulent encore plus lentement et les eaux peuvent devenir plus turbides. Les organismes présents s’alimentent de matière organique issues des sédiments, de plancton ou de végétaux fixés – une matière organique produite dans le lit des rivières et dans des bras morts et délaissés adjacents plus ou moins constamment reliées au cours principal. Dans les plus grands fleuves, les plaines inondables riches en bras morts et délaissés sont des constituants essentiels des écosystèmes d’eau courante.

Chaque secteur de rivière, avec ses animaux et ses végétaux, assimile et recycle les nutriments en dérive vers l’aval. Cette alternance continue de formes minérales et organiques d’éléments en dérive vers l’aval constitue un « flux spiralé des nutriments », caractéristique des eaux courantes au sein de leurs bassins versants. La dynamique de ce flux est dominée par le régime des eaux de la région, avec des crues susceptibles d’inonder les plaines alluviales et

Page 89: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 88

de transporter de grandes quantités de sédiments, de nutriments et d’organismes vers l’aval. La vie dans ces systèmes est largement influencée par ces événements hydriques récurrents au sein du bassin versant.

Les études de bassins versants ont fortement contribué à faire de l’écologie de terrain une science expérimentale, précisément depuis des travaux réalisés dans l’Est des États-Unis, au cours des années 1960. Organisées en diverses régions du monde, ces études ont montré l’importance des échanges entre les écosystèmes terrestres et aquatiques. Ainsi, en certaines régions, remplacer en partie les arbres d’un bassin versant par de la prairie réduit les taux d’évaporation et augmente les débits – un résultat qui a pu être utilisé pour accroître la quantité d’eau potable disponible.

3.2. Les cycles biogéochimiques

Les eaux qui s’écoulent à travers un bassin versant transportent tout un ensemble d’éléments chimiques par érosion des roches. Des sols se forment, sous l’action combinée d’organismes vivants, de l’environnement et du substrat. Leurs propriétés varient selon un profil vertical, plus organiques en surface, plus minérales en profondeur. Ces profils peuvent atteindre plusieurs dizaines de mètres en forêt tropicale humide.

Les taux d’érosion dépendent de nombreux facteurs, dont la composition chimique de l’eau ruisselant sur le bassin versant et la nature des roches : le sodium est facilement lessivé, le calcium, le magnésium et le potassium plus lentement, tandis que le fer, l’aluminium et la silice résistent plus nettement.

La végétation influence aussi les taux d’érosion. D’une part, elle contrôle le ruissellement des eaux de surface ; d’autre part elle produit des acides organiques, augmentant les taux de lessivage des sols. Mais ces processus dépendent fortement des plantes, animaux et micro-organismes présents. La défoliation des arbres par des insectes peut par exemple se répercuter sur les ruisseaux forestiers par mobilisation de l’azote sur le sol et entraînement dans les ruisseaux vers l’aval. Dans les régions agricoles, les fertilisations excessives entraînent du phosphore dans les cours d’eau, les lacs et les estuaires, provoquant des phénomènes d’eutrophisation : des croissances et des décompositions anarchiques de végétaux aquatiques épuisent l’oxygène de l’eau, asphyxient les animaux, rendent les eaux impropres à la consommation et obligent à de longs et coûteux efforts de restauration.

Page 90: Dossier scientifique E n v i r o n n E m E n t

Encadré 5 – Temps de résidence et taux de renouvellement

Le temps de résidence est le temps moyen passé par une unité de matière – atome, molécule, particule – dans un écosystème ou un compartiment de cet écosystème. Sa réciproque est le taux de renouvellement, c'est-à-dire la proportion de matière de l’écosystème reconstituée dans une unité de temps.

Soit l’oxygène de l’atmosphère. Il est produit par photosynthèse et perdu par la respiration et des réactions de combustion. D’après la figure 5, le temps de résidence de l’oxygène dans l’atmosphère est égal à 38 000 000 / 8 440, c'est-à-dire environ 4 500 ans, et son taux de renouvellement, réciproque du temps de résidence est d’environ 0,00022 ou 0,022 % par an.

Combustion et réactions

16

8400

8384

Respiration et décomposition

Photosynthèse

Oxygène

dans l’atmosphère

38 000 000

Figure 5 – Cycle de l’oxygène de l’atmosphère. La masse d’oxygène est donnée en trillions de moles d’O2 et les taux en trillions de moles d’O2 par an (d’après Carpenter 1998). Une situation inverse prévaut pour les teneurs en phosphates dans un lac : ces teneurs sont faibles et les taux d’absorption par les algues du plancton sont élevés. Par suite, le temps de résidence des atomes de phosphore dans l’eau du lac est de quelques secondes, et leur taux de renouvellement est d’environ 25 % par seconde.

Sur certaines périodes de temps, la masse de matière d’un écosystème peut être considérée comme constante : les quantités apportées sont égales aux quantités exportées. C’est le cas, par exemple, sur une vie humaine pour la quantité d’oxygène de l’atmosphère ou sur une journée pour la concentration en phosphore de l’eau d’un lac. Dans ces conditions d’équilibre, le taux de renouvellement correspond au temps de retour du système après une perturbation modérée. Ainsi, si la quantité d’oxygène de l’atmosphère est soudainement réduite de 10 %, il faut environ 450 ans pour revenir au niveau actuel. Par contre, si la quantité de phosphate dans l’eau du lac est réduite de 10 %, il faut moins d’une seconde pour revenir à l’état d’équilibre. Ce temps de retour peut être utilisé comme un indice de l’aptitude d’un écosystème à se rétablir après une perturbation.

3.3. Perspective

L’étude des bassins versants illustre le rôle majeur joué par l’eau dans le fonctionnement des écosystèmes. Elle révèle en effet l’importance de l’eau dans les processus de production et de décomposition. Ses temps de résidence et ses taux de renouvellement caractérisent la dynamique des systèmes écologiques (Encadré 5). Étant nous-mêmes, en tant qu’humains, directement et indirectement liés à ces processus, il est de notre intérêt de voir tout écosystème comme un utilisateur légitime de l’eau. Et de veiller à son bon état, en quantité comme en qualité. Ce qui commence par une gestion responsable des bassins versants.

Dossier scientifique Environnement 89

Page 91: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 90

4. Le fonctionnement des écosystèmes : évolution et biodiversité

Une manière de décrire un écosystème est de donner la liste de ses espèces. On caractérise ainsi une richesse spécifique, par exemple 10, 50 ou 200 espèces… Mais deux communautés riches chacune de 10 espèces diffèrent fondamentalement si la première comprend 10 espèces également abondantes, et la seconde une espèce très abondante tandis que les 9 autres sont rares. La diversité spécifique – ou biodiversité – traduit à la fois la variété des espèces et leurs abondances (voir la fiche « Biodiversité »).

Au fil des temps, la biodiversité s’est construite à la fois de l’extérieur et de l’intérieur des écosystèmes. De l’extérieur, certaines espèces ont pu parvenir au site, s’y établir, s’y reproduire et s’y maintenir. De l’intérieur, des espèces déjà établies ont pu évoluer, se modifier et donner naissance à de nouvelles espèces. La biodiversité d’un écosystème apparaît ainsi comme une propriété dynamique, variant en permanence dans l’espace et dans le temps.

4.1. Variations dans l’espace

Les plus fortes biodiversités sont observées dans les forêts tropicales humides qui, avec 7 % de la surface terrestre comprennent plus de la moitié des espèces de la planète. Toute une variété de formes végétales s’y développe, aux différents niveaux de la canopée, avec notamment des lianes et des épiphytes. Plus ces espèces végétales sont abondantes, plus les espèces animales et les micro-organismes abondent, et plus les réseaux trophiques deviennent complexes. En outre, ces régions n’ont pas subi les glaciations du Pléistocène et les espèces n’ont pas été éliminées par l’avancée des glaciers comme en région tempérée.

D’une façon générale, la biodiversité est maximale quand on se rapproche de l’équateur, minimale quand on se rapproche de l’arctique. Un exemple classique de cette variation est celui de la richesse en espèces d’arbres en Amérique du Nord non tropicale. De 160 espèces dans les écosystèmes forestiers subtropicaux de Géorgie, Virginie et Floride, on passe à moins de 20 espèces dans les taïgas du nord du Canada et de l’Alaska. Cette diminution de la richesse en espèces d’arbres est en étroite corrélation avec l’évapotranspiration, c'est-à-dire la quantité d’eau évaporée depuis le sol et transpirée par les plantes en une année. Or, cette évapotranspiration est corrélée à la production végétale qui, elle-même, est une mesure de l’énergie utilisée. D’où l’hypothèse d’une limitation de la richesse spécifique par l’énergie disponible.

La biodiversité est donc maximale aux basses latitudes. Puis, en remontant vers le Nord, la biodiversité s’affaiblit dans les déserts des latitudes subtropicales. En remontant encore, la biodiversité augmente à nouveau dans les régions de type méditerranéen pour diminuer enfin jusqu’aux toundras, à la limite des milieux arctiques. Les océans montrent une distribution semblable de la biodiversité, avec cependant des maxima dans les récifs coralliens et des biodiversités importantes dans les fonds marins du plateau continental de l’antarctique.

Sur ce schéma général, il convient de signaler deux particularités importantes du point de vue de la conservation de la nature. La première est l’existence de « hauts lieux » ou centres de biodiversité maximale pour une région donnée (les hot spots des auteurs de langue anglaise). Sont ainsi qualifiées les zones qui comprennent plus de 1 000 espèces végétales pour 2 500 km2. On a dénombré 25 hauts lieux principaux sur l’ensemble de la planète – 18 correspondent à des écosystèmes tropicaux et 6 à des écosystèmes méditerranéens. La

Page 92: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 91

deuxième particularité est celle de l’existence d’espèces endémiques, c'est-à-dire inféodées à certaines aires de surface restreinte, particulièrement en altitude et dans des îles. À cet égard, les 11 000 espèces de plantes supérieures de Madagascar comprennent 80 % d’endémiques, faisant de cette grande île un des hauts lieux de la biodiversité mondiale.

4.2. Variations dans le temps

Les espèces impliquées dans les processus écologiques résultent d’une longue histoire – celle de l’évolution qui a marqué la vie sur Terre. Certaines étapes de cette histoire ont été décisives, à commencer par l’avènement de la photosynthèse et d’une atmosphère riche en oxygène, il y plus de 2 milliards d’années. La diversité spécifique a ensuite évolué, avec des hauts et des bas au cours des temps géologiques, et des périodes d’extinctions comme celle qui, il y a environ 65 millions d’années, a vu disparaître les grands reptiles à la fin du Crétacé. On distingue ainsi six périodes au cours des derniers 460 millions d’années, chacune d’une durée de 35 à 142 millions d’années, se terminant par des extinctions massives et se poursuivant par des rétablissements de 3 à 8 millions d’années. Certains organismes se sont maintenus en dépit de ces changements, d’autres ont disparu ou ne subsistent qu’à l’état de vestiges, après avoir proliféré et dominé tous les autres.

La biodiversité a pour effet majeur d’amortir les stress subis par les écosystèmes. Par exemple, suite à l’acidification de certains lacs, certaines espèces du zooplancton peuvent disparaître tandis que d’autres jusqu’alors modestement représentées deviennent abondantes. En conséquence, les processus écologiques réalisés par le zooplancton – broutage du phytoplancton, production secondaire, recyclage des nutriments – se maintiennent en dépit de compositions spécifiques bouleversées. Cette « complémentarité fonctionnelle » ne signifie pas qu’il est possible de se passer de certaines espèces sous le prétexte qu’elles seraient redondantes : les espèces complémentaires ont des rôles semblables mais non identiques dans les processus écologiques. Leur coexistence permet de maintenir tout en les renouvelant la structure et le fonctionnement des écosystèmes face à des perturbations, même inattendues.

D’où l’inquiétude soulevée par l’actuelle accélération de la diminution de la biodiversité. Comment cette diminution affecte-t-elle la résilience des écosystèmes (ncadré 6) ? Combien d’espèces peuvent disparaître sans que tel ou tel processus écologique en pâtisse ? Quelles espèces sont les plus critiques et quels processus les plus sensibles ? Ces questions sont au cœur des rapports entre la perte de biodiversité et la durabilité des écosystèmes. Elles sont essentielles dans une perspective de développement durable de nos sociétés pour les années à venir.

Encadré – Résilience des écosystèmes

La résilience rend compte de la capacité d’un écosystème à s’adapter au changement, à se rétablir et à se réorganiser après perturbation. Elle rend compte de l’ampleur des perturbations qui peuvent affecter un écosystème sans que ce dernier passe à un nouvel état, différent de structure et de fonctionnement. Par exemple, un lac aux eaux claires et limpides peut se remettre d’apports modérés en phosphore en deçà d’un certain seuil critique. Au-delà de ce seuil, le lac bascule dans un nouvel état, marqué par des eaux turbides – un état d’eutrophisation. D’importants efforts sont alors nécessaires pour revenir à l’état antérieur à eaux claires. La résilience peut préserver un état désirable (eaux claires) face à une addition de phosphore, mais elle peut inversement préserver un état indésirable (eaux turbides) face à

Page 93: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 92

une soustraction de phosphore. Elle freine en somme tout passage d’un état à un autre état, désirable ou non.

La résilience est au cœur des aspects scientifiques du développement durable. Ce dernier vise en effet à maintenir les biens et les services délivrés par les écosystèmes sur de longues périodes de temps. Il dépend à la fois des écosystèmes et de la société : la pêche de telle ou telle espèce marine n’est plus durable quand, au mépris de la dynamique des populations présentes, les quantités pêchées dépassent les capacités de renouvellement de ces populations. Plus généralement, une connaissance approfondie de la résilience des écosystèmes peut aider à répondre à de nombreuses questions de société : quelle quantité de gaz carbonique pouvons-nous ajouter à l’atmosphère sans provoquer des transformations dramatiques du climat, des écosystèmes et du niveau des mers ? Quelle biodiversité pouvons-nous sacrifier sans perte inacceptable de services rendus par les écosystèmes ? Comment telle ou telle politique de gestion affectera-t-elle le fonctionnement de tel ou tel écosystème ?

4.3. Perspective

Chaque espèce est un produit unique de l’évolution, fonctionnellement complémentaire des autres espèces de l’écosystème, et donc potentiellement indispensable à sa résilience face aux perturbations actuelles et à venir. Chaque espèce témoigne en effet d’une sélection naturelle réussie, ayant conduit à des solutions adaptées aux défis de l’environnement. En ce sens, les espèces vivantes n’ont pas seulement une valeur en tant que ressources potentielles pour l’avenir. Elles ont aussi une valeur intrinsèque due à leur histoire évolutive et à leur place dans les écosystèmes, de par les liens qu’elles ont tissés avec les autres espèces et les interdépendances qu’elles contribuent à maintenir. Cette valeur intrinsèque mérite considération et protection, particulièrement dans un monde dont la fragilité est de plus en plus reconnue.

5. Écosystèmes et questions de société

L’écologie des écosystèmes s’applique à diverses questions de société en matière d’environnement. Elle apporte une base indispensable à l’élaboration des politiques d’aménagement et à la prévision de leurs effets ; elle fixe les conditions d’un développement durable. Les trois exemples ci-après concernent l’utilisation des services rendus par les écosystèmes, la restauration de ces écosystèmes et leur gestion dans un monde changeant.

5.1. Utiliser les services rendus par les écosystèmes

Les écosystèmes rendent des services nombreux et variés aux sociétés humaines (figure 6). Ainsi, la société compte sur les écosystèmes aquatiques pour diluer ou réduire les substances polluantes qu’elle y rejette. Au-delà d’un certain seuil, ces rejets deviennent intolérables car ils dégradent ces écosystèmes et effacent les autres bénéfices attendus des eaux continentales : pêche, eau potable, irrigation, etc. De telles dégradations ont un coût dont il convient de tenir compte. D’où l’intérêt de développer une économie de l’environnement reliant systèmes écologiques et économiques. D’où également l’intérêt d’estimer quelles parts des services écologiques nous nous approprions.

Page 94: Dossier scientifique E n v i r o n n E m E n t

Figure 6 – Les écosystèmes et quelques-uns des services qu’ils procurent (source : L’évaluation des écosystèmes pour le millénaire. Vivre au-dessus de nos moyens).

Un premier exemple d’appropriation est celui de la biomasse végétale produite sur la planète Terre. Globalement, la production primaire brute de la planète a été estimée à 224 x 109 tonnes de biomasse sèche par an, dont 59 % en milieu terrestre. Nous nous approprions cette production terrestre directement pour nous alimenter ou nous chauffer, indirectement pour alimenter notre bétail. Et nous supprimons une part de cette production en transformant des zones agricoles ou forestières en zones urbaines. Dans un article célèbre, paru en 1986, Peter Vitousek et ses collègues ont pu ainsi estimer à environ 35 à 40 % la part de la production primaire terrestre appropriée par les humains.

Un deuxième exemple d’appropriation est celui des eaux douces renouvelables, évalué par Sandra Postel et ses collègues en 1996 : les eaux douces renouvelables sont celles des aquifères, lacs, cours d’eau, sols, organismes et atmosphère, c’est-à-dire 0,77 % des eaux terrestres (voir la fiche sur l’eau). Environ 110 000 km3 d’eau tombent chaque année sur les terres par les précipitations : 70 000 km3 reviennent à l’atmosphère par évapotranspiration et 40 000 km3 s’écoulent vers les océans (dont 12 500 km3 disponibles pour des usages humains). Nous utilisons environ 26 % de l’évaporation globale pour produire de la nourriture et des fibres, et nous utilisons environ 54 % des écoulements disponibles pour l’agriculture, l’industrie et autres besoins tels que le traitement des déchets. Ce pourcentage pourrait passer

Dossier scientifique Environnement 93

Page 95: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 94

de 54 à 70 % en 2025, compte tenu de l’accroissement de la population mondiale, ce qui suppose d’augmenter les réservoirs et l’efficacité de l’usage de l’eau en agriculture.

La production primaire et l’eau douce apparaissent comme deux facteurs limitant l’expansion de la population humaine. Les prévisions démographiques actuelles laissent prévoir une appropriation de plus de la moitié de la production primaire terrestre et de la plus grande part de l’eau douce renouvelable disponible dans les années à venir. De tels niveaux d’appropriation réduiront forcément la production primaire et l’eau douce disponible pour les écosystèmes naturels et semi-naturels. La question posée à l’écologie est de savoir comment cela affectera le fonctionnement de ces écosystèmes, ainsi que les biens et les services qui accompagnent ce fonctionnement.

Quelle part d’un service écologique l’humanité peut-elle s’approprier ? La réponse dépend de considérations éthiques, culturelles et sociales. Mais l’appropriation des services écologiques trouve finalement ses limites dans son impact sur la résilience des écosystèmes – leur capacité à fournir des services dans l’avenir. Tel ou tel écosystème est-il résilient ? Si oui, comment maintenir cette résilience ? Si non, comment la restaurer ? Ces questions apparaissent de plus en plus essentielles en écologie des écosystèmes.

5.2. Restaurer les écosystèmes dégradés

Certains écosystèmes dégradés peuvent être restaurés, en y consacrant du temps et des moyens. Les premiers essais ne sont pas toujours couronnés de succès et, après évaluation, d’autres s’avèrent nécessaires. L’objectif est de revenir à des conditions proches de celles qui prévalaient avant la ou les perturbations responsables des dégradations observées, afin de rétablir et de maintenir tel attribut (la biodiversité) ou tel service (l’épuration des eaux). Une restauration est réussie quand elle a mis en place un écosystème capable d’évoluer de manière autonome, en interaction avec les écosystèmes environnants.

Les activités de restauration portent sur des propriétés physicochimiques autant que sur des organismes vivants. Des propriétés telles que les flux hydriques, les régimes d’incendies ou les apports de nutriments doivent être rétablies préalablement à la réintroduction d’une espèce ou à la remise en route d’un processus écologique. Par exemple, la restauration d’une zone humide suppose d’abord l’installation d’un régime hydrologique saisonnier approprié. Une communauté végétale caractéristique des zones humides peut alors s’installer, et avec elle, la faune qui lui est associée. Alors, les processus souhaités peuvent reprendre place – dénitrification, rétention des sédiments et du phosphore, amélioration de la qualité des eaux courantes en aval.

Les écosystèmes existent souvent sous la forme de deux ou plusieurs états alternatifs, chaque état ayant la capacité de durer s’il n’est pas trop sévèrement perturbé. Un même lac peut ainsi se trouver alternativement dans des conditions désirables d’eaux claires et limpides et dans des conditions indésirables d’eutrophisation. Le défi de la restauration des lacs est de passer de l’état indésirable vers l’état désirable. Dans le cas de l’eutrophisation, la première étape est de réduire les apports de phosphore au lac – apports d’origines urbaines, industrielles ou agricoles. Mais cette première étape se révèle souvent insuffisante car le phosphore déjà présent dans l’eau du lac et dans ses sédiments est recyclé et de nouveaux apports surviennent, à la faveur de fortes pluies par exemple. D’autres étapes s’avèrent donc

Page 96: Dossier scientifique E n v i r o n n E m E n t

nécessaires, variables selon les lacs : mise en place de ceintures végétales, de canaux de contournement, de plantes aquatiques, oxygénation des eaux profondes.

L’écologie de la restauration est une discipline en évolution rapide. Chaque cas demande des réponses spécifiques quant aux aspects physicochimiques à modifier, aux espèces à introduire ou à éliminer, aux conditions d’autosuffisance. Chaque expérience de restauration apporte ses enseignements et, ces derniers s’accumulant, les taux de réussite s’améliorent. La restauration des écosystèmes est devenue une activité d’avenir dans un monde en changement rapide.

5.3. Gérer durablement les écosystèmes

Sans gestion raisonnée, la plupart des écosystèmes disparaîtraient sous l’effet d’une influence humaine grandissante ; aucune viabilité de leurs services ne pourrait être assurée aux générations à venir. Cette viabilité dépend de l’aptitude des écosystèmes à délivrer durablement leurs services, mais aussi des attentes des sociétés. Or, ces deux conditions changent dans le temps et, de plus, interagissent. Toute gestion visant à la viabilité des services rendus par les écosystèmes doit donc s’appuyer sur les sciences de la nature aussi bien que sur celles de l’homme et des sociétés. Cette interdisciplinarité est un défi très difficile à relever dans la pratique.

L’expérience suggère que les interactions entre les sciences et la gestion suivent des cycles (figure 7), parfois qualifiés de « gestion adaptative ». En phase initiale, les ressources sont abondantes et demandent peu de réglementation. Ces ressources se limitant, les règlements s’accumulent et se compliquent, deviennent plus rigides. Pendant cette période – quelques années à quelques décennies – les politiques publiques gagnent en efficacité mais, en même temps, perdent en souplesse, tandis que l’écosystème en question et la société changent. À la limite, les politiques publiques deviennent inadaptées à l’état de l’écosystème comme à ce qu’en attend la société qui l’utilise. L’écosystème passe alors à un état indésirable et/ou la société entre en conflit avec les règles établies. Une phase de réorganisation se fait jour : gestionnaires, scientifiques et parties prenantes analysent les problèmes apparus et, éventuellement, découvrent de nouvelles politiques publiques mieux adaptées. Cette phase de réorganisation est propice à l’innovation, à la prise en compte de nouvelles connaissances, à l’avènement de nouvelles phases d’exploitation. Ce schéma suggère l’existence de longues périodes d’apparente stabilité, ponctuées de courtes périodes d’innovation, d’expérimentation et d’apprentissage.

Dossier scientifique Environnement 95

Exploitation

Organisation Réorganisation

Ressources abondantes Peu de réglementation

Apprentissage Adaptation

Page 97: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 96

Figure 7 – Différentes étapes d’un cycle de gestion d’un écosystème (d’après Gunderson et al. 1995).

Ce processus de gestion adaptative fait appel à des équipes interdisciplinaires, composées de spécialistes travaillant de façon complémentaire, non de généralistes travaillant de manière identique. Les spécialités convoquées ne sont jamais les mêmes : elles changent de manière souvent inattendue au fur et à mesure qu’apparaissent de nouveaux problèmes. Une exigence demeure cependant, celle de la qualité des participants – les compétences disciplinaires sont un gage de réussite des collaborations interdisciplinaires.

Encadré 7 – Écosystèmes et changement climatique Le changement climatique, affecte les systèmes écologiques en tous milieux – terrestres,

marins et d’eau douce – essentiellement par modification des cycles saisonniers des espèces et de leurs aires de distribution. Ces modifications créent des disparités au sein des communautés, provoquant des dynamiques complexes, elles-mêmes perturbées par des événements extrêmes d’intensités croissantes. Depuis le début des années 1970, les dates de floraison et de fructification des végétaux ont ainsi été avancée de 2,5 jours par décennie en Europe et divers changements ont affecté les animaux : retours plus précoces des oiseaux migrateurs, des nidifications, des coassements des batraciens, des apparitions de papillons… Les aires de distribution des animaux et des végétaux se sont déplacées en latitude vers les pôles et en altitude, à l’image de certains papillons de la côte ouest des États-Unis dont l’aire s’est déplacée de 92 km vers le Nord et de 124 m en altitude pendant le XXe siècle. Ces modifications transforment les équilibres au sein des communautés, particulièrement les rapports trophiques, et sont à l’origine d’avancements non synchrones des dynamiques saisonnières, de bouleversements des rapports de prédation, de compétition, de parasitisme, de mutualisme, avec des conséquences sur la biodiversité des écosystèmes. Ces conséquences s’ajoutent à celles des activités humaines : habitats naturels supprimés ou fragmentés, populations surexploitées.

Dans l’ensemble, les écosystèmes sont déjà engagés dans des modifications qu’il est possible

d’attribuer au changement climatique. L’élévation des températures est la première cause de ces modifications, au côté de l’augmentation de la concentration en gaz carbonique de l’atmosphère et la diminution de l’irradiation solaire. Sous certains scénarios, ces réorganisations risquent de s’accentuer

Page 98: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 97

au cours des prochaines années. Ceci souligne l’urgente nécessité d’agir pour ralentir les tendances actuelles.

6. La « tragédie des biens communs » n’est pas une fatalité

En 1968, le sociologue Garrett Hardin attirait l’attention sur ce qu’il appela « la tragédie des biens communs » : l’usager d’un bien ou d’une ressource commune tend à exploiter cette ressource à l’excès, par calcul individuel, dans la mesure où rien ne l’incite à une attitude de conservation. Un tel comportement caractérisant tous les usagers, la surexploitation devient inévitable et, à terme, la destruction de la ressource commune.

Cette analyse pessimiste s’applique aux biens et aux services délivrés par les écosystèmes. Elle fait penser à l’exploitation des ressources marines comme à l’utilisation des rivières pour éliminer les déchets des activités humaines. Elle fait penser aussi, à une tout autre échelle, aux problèmes planétaires d’environnement : la diminution de la biodiversité, l’épuisement de la couche d’ozone, l’effet de serre.

Cependant, la tragédie des biens communs peut ne pas être une fatalité. À condition de restreindre l’accès aux ressources et en même temps de créer des incitations amenant les usagers à investir dans les ressources au lieu de les exploiter. À condition aussi de faire partager une meilleure appréciation du fonctionnement des écosystèmes et des conséquences de leur surexploitation. La connaissance des expériences des uns et des autres peut renforcer les sentiments communautaires et conduire à adopter des comportements responsables. Les leçons locales peuvent aider à relever les défis globaux.

Références

Carpenter S.R. (1998). Ecosystem Ecology. Integrated Physical, Chemical and Biological Processes. Chapter 4 in S.I. Dodson et al.: Ecology. Oxford University Press. New York and Oxford.

Décamps H. et O. Décamps (2004). Au printemps des paysages. Buchet-Chastel.

Fischesser B. et Dupuis-Tate M.F. (1996). Le guide illustré de l’écologie. Editions de la Martinière. Cemagref Editions.

Golley F.B. (1998). A Primer for Environmental Literacy. Yale University Press. New Haven and London.

Gunderson L.H., C.S. Holling et S.S. Light (1995). Barriers and Bridges to the Renewal of Ecosystems and Institutions. Columbia University Press, New York.

Lévêque C. (2001). Ecologie. De l’écosystème à la biosphère. Dunod.

Postel S.L., G.C. Daily et P.R. Ehrlich (1996). Human appropriation of renewable fresh water. Science 271: 785-788.

Ramade F. (2003). Éléments d’écologie, 3ème édition. Dunod. Paris.

Vitousek P.M., P.R. Ehrlich, A.H. Ehrlich et P.A. Matson (1986). Human appropriation of the products of photosynthesis. BioScience 36: 368-373.

Page 99: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 98

Walther G.R. et al. (2002). Ecological responses to recent climate change. Nature 416 : 389-395.

Sites web : Vivre au-dessus de nos moyens. Actifs naturels et bien être humain. Déclaration du

Conseil de Direction de l’évaluation des écosystèmes pour le Millénaire (version française). http://www.maweb.org/proxy/document.441.aspx

Rubrique écosystème réalisée à partir du rapport général de synthèse de l’Évaluation des Écosystèmes pour le Millénaire. http://www.greenfacts.org

Dossier écosystèmes aquatiques. http://cnrs.fr

Dossier sur les écosystèmes. http://www.futura-sciences.com

Écosystèmes forestiers. http://www.gip-ecofor.org

Page 100: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 99

Les problèmes de l'eau en 26 questions Ghislain de MARSILY

Sommaire

1. Allons-nous manquer d’eau au XXIe siècle? 2. D’où vient l’eau sur Terre ? 3. Peut-on « fabriquer » de l’eau ? 4. Comment fonctionne le cycle de l’eau ? 5. Quelle est la répartition de cette ressource en eau sur la planète ? 6. Quels sont les stocks d’eau sur terre ? 7. Les changements climatiques vont-ils modifier la disponibilité de l’eau ? 8. La fréquence des événements extrêmes va-t-elle changer ? 9. Y aura-t-il une crue centennale à Paris en 2010, 100 ans après celle de 1910 ? 10. Peut-on se protéger contre les crues ? 11. Où sont les zones principales où on manque actuellement d’eau sur terre ? 12. Les écosystèmes aquatiques naturels ont-ils encore assez d’eau ? 13. Quelle est la qualité actuelle des milieux aquatiques et des écosystèmes ? 13.1 Pollution diffuse d’origine agricole 13.2 La pollution urbaine 13.3 La pollution industrielle. 13.4 Qu’appelle-t-on un parc naturel hydrologique ? 13.5 Et les zones humides ? 13.6 Qu’est-ce que c’est que la directive cadre européenne sur l’eau ? 13.7 Et dans les pays en développement ? 14. Combien d’être humains n’ont pas accès à l’eau potable ? 15. La qualité de l’eau potable est-elle bonne ? 16. Combien consomme-t-on d’eau minérale, et pourquoi ? 17. D’où viennent les eaux de sources et les eaux minérales ? 18. Quels sont les besoins en eau potable de la Planète ? 19. Quels sont les besoins en eau agricole de la Planète ? 20. Quels sont les besoins en eau industrielle de la Planète ? 21. Quelle est la consommation totale en eau de la Planète ? 22. Comment va-t-on nourrir la Planète en 2050 ? 23. Peut-il y avoir des famines dramatiques sur Terre par manque d’eau ? 24. Y aura-t-il des guerres de l’eau ? 25. Faut-il économiser l’eau ? 26. Perspective Bibliographie

Page 101: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 100

1. Allons-nous manquer d'eau au XXIe siècle?

Globalement, la réponse est non. Il y aura toujours assez d’eau sur Terre pour les besoins en eau domestique d’une humanité en forte croissance, même si elle passe à 9 milliards d’habitants en 2050, comme cela est anticipé. Le vrai problème de l’eau est sa disponibilité locale pour l’agriculture (pluviale ou irriguée), qui risque de faire défaut aux endroits cultivables et là où augmente très fortement la population (Asie, Afrique), dans des zones déjà en déficit hydrique. C’est aussi le conflit permanent entre production agricole et préservation d’écosystèmes naturels (forêts, prairies, zones humides) en bon état malgré la pression agricole très forte pour nourrir la population mondiale. Voir question 22 ci-après.

2. D’où vient l’eau sur Terre ?

Des planètes dites telluriques (Mercure, Vénus, la Terre et Mars), la Terre est celle qui contient de loin le plus d’eau, pour l’essentiel salée. Cette eau y est venue lors de la formation de la Terre, pas accrétion et collision de matériaux solides, l’eau contenue s’étant en majorité rassemblée en surface. De plus, la Terre a été bombardée après sa formation par des comètes contenant beaucoup d’eau et par des météorites, la part de l’eau des comètes par rapport à la première étant encore l’objet de débats. Une très faible quantité de l’eau accumulée sur Terre est partie dans l’espace, par dissociation de la molécule d’eau en altitude par le rayonnement solaire, puis départ de l’hydrogène insuffisamment retenu par la gravité. On estime à quelques mètres d’eau la perte cumulée depuis la création de la Terre, alors que la Terre possède environ 3 000 m d’eau3. Les planètes comme Mercure et Mars ont perdu par ce processus la majeure partie de leur eau. Vénus en a gardé beaucoup. Les planètes géantes plus éloignées du soleil (Jupiter, Saturne, Neptune, …) contiennent de très grandes quantités d’eau.

3. Peut-on « fabriquer » de l’eau ?

La synthèse de l’eau est facile, il suffit de faire brûler de l’hydrogène et de l’oxygène ! Mais pour fabriquer ces constituants, il faut en général des quantités très importantes d’énergie, par exemple en électrolysant de l’eau ! On fabriquerait donc de l’eau avec de l’eau, en ayant dépensé beaucoup d’énergie pour rien. Mais on peut fabriquer de l’eau douce avec de l’eau salée, par dessalement. Le coût du dessalement est aujourd'hui un peu inférieur à 1 € par mètre cube, mais dépend fortement du prix de l'énergie. Si cette option est envisageable pour l’eau domestique, elle est, à de rares exceptions près, totalement irréaliste pour l’eau destinée à l’agriculture: à titre d’exemple, pour produire par dessalement l’eau d'irrigation nécessaire à la satisfaction des besoins en nourriture des 3 milliards d’êtres humains supplémentaires à venir sur la Terre d’ici à 2050, estimée à 4 000 km3/an, il faudrait dépenser en énergie l'équivalent de trois fois la quantité de pétrole et de gaz actuellement consommés dans le monde.

3 Cette hauteur d’eau cumulée ou perdue représente la quantité équivalente si toute la Terre était recouverte d’eau, comme un immense océan.

Page 102: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 101

4. Comment fonctionne le cycle de l’eau ?

Le cycle hydrologique externe perpétuel de l’eau douce fonctionne par évaporation, condensation et précipitation, son moteur thermique est le rayonnement solaire. Ce cycle alimente les continents et y maintient la vie et tous les écosystèmes que nous connaissons, pour lesquels l’eau douce est indispensable. La ressource en eau renouvelable de la Planète est donc uniquement fournie par les précipitations annuelles sur les continents, qui sont estimées à 119 000 km3/an. Cela correspond en moyenne à une « lame d’eau » de pluie de l’ordre de 720 mm/an. Le devenir moyen de cette ressource est alors le suivant :

- 74 000 km3/an repartent vers l’atmosphère, par évaporation directe et surtout par transpiration de la végétation. Cette quantité d'eau alimente à la fois l’agriculture pluviale (5 000 km3/an actuellement) et le fonctionnement des écosystèmes. Ce n’est donc en rien une « perte » ;

- 2 500 km3/an sont constitués de glaces de mer (icebergs), rejetés par les calottes glacières polaires, qui fondent en mer et participent au fonctionnement de la circulation générale océanique ;

- 42 500 km3/an constituent l’écoulement total sur les continents ; on y distingue 32 500 km3/an qui rejoignent les rivières par ruissellement direct lorsqu’il pleut (une fraction peut être récupérée par des barrages et utilisée par l’homme ; ce flux sert aussi aux écosystèmes aquatiques lacustres, fluviaux et côtiers) et 10 000 km3/an qui s’infiltrent dans les sols et s’écoulent dans les nappes souterraines (alimentant les rivières lorsqu’il ne pleut pas (7 800 km3) ou rejoignant directement la mer (2 200 km3)).

Le bilan est ainsi bouclé. Il faut noter que l’eau des précipitations sur les continents provient globalement pour 62 % de l’évaporation sur ces mêmes continents, et pour 38 % seulement de l’évaporation sur les océans. Localement bien sûr, ces pourcentages peuvent varier. Le temps moyen de résidence de l’eau dans chacun des « réservoirs » du cycle de l’eau est de 8 jours dans l’atmosphère, 16 jours dans les rivières, 17 ans dans les lacs, 1 400 ans dans les eaux souterraines, 2 500 ans dans les océans et 10 000 ans dans les glaces. En ordre de grandeur, une eau évaporée parcourt 1 000 km dans l’atmosphère avant de retomber en pluie.

5. Quelle est la répartition de cette ressource en eau sur la Planète ?

La répartition de cette ressource sur la Terre est très inégale. Par exemple, sur le méridien de Paris, aux latitudes polaires, il pleut très peu, de l'ordre de moins de 200 mm/an. Les précipitations augmentent ensuite jusqu’aux zones tempérées (pratiquement jusqu'au centre de la France), pour atteindre environ 700 à 1 000 mm/an, puis décroissent (zone méditerranéenne) pour presque s’annuler dans la « ceinture des déserts chauds » (le Sahara). Au sud de cette zone, les précipitations augmentent à nouveau, dans la zone tropicale, pour y culminer vers 2 300 mm/an. Ce type de répartition est à peu près le même pour tous les méridiens et pour l’hémisphère Sud. Il est dû à la circulation générale de l’atmosphère autour du globe. De plus, les précipitations augmentent en général avec l’altitude et avec l’exposition au vent.

6. Quels sont les stocks d’eau sur Terre ?

Page 103: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 102

Les réserves du globe en eau douce sont données dans le tableau 1. Mis à part les glaces, difficiles à utiliser et qui sont d’ailleurs actuellement en partie consommées dans les zones où elles fondent par effet du réchauffement climatique, les nappes souterraines constituent les principales réserves d'eau douce de la Planète, le reste étant négligeable. Certains pays ont déjà commencé à prélever ces réserves d’eau souterraines. C’est le cas, par exemple, de l’Inde qui, puisant dans ses nappes phréatiques superficielles, est en passe d’épuiser, d’ici dix ou vingt ans, tous ses stocks régulateurs d’eau souterraine. Ce pays ne pourra plus, ensuite, qu’utiliser les flux annuels des précipitations rechargeant les eaux souterraines, très variables d’une année à l’autre, qui se seront infiltrés pendant la saison humide précédente. Les pays sahariens (Algérie, Tunisie, Libye) exploitent, quant à eux, de très grands aquifères dont les ressources sont énormes, et pourraient tenir des siècles au rythme actuel des prélèvements. Mais ces eaux sont chères (coûts de pompage, coûts de transfert vers le nord en Libye, etc.) et ce type de grands aquifères fossiles est relativement rare sur Terre.

Milieux Volumes en km3 Neige et glace sur les pôles et les montagnes 30 millions

Eaux souterraines à moins de 500 m de profondeur 4 millions Eaux souterraines à plus de 500 m de profondeur 4 millions

Eaux de tous les lacs d’eau douce 100 000 Eaux présentes dans les sols 70 000

Eaux présente à tout instant dans l’atmosphère 13 000 Eaux présentes à tout instant dans toutes les rivières 1 000

Tableau 1 – Volume estimé des réserves d’eau douce sur Terre.

Les réserves en eau salée sont évidemment énormes. Elles sont estimées à 1,32 milliards de km3 dans les océans et 1 000 km3 dans les lacs salés. Il y aurait aussi presque autant d’eau salée dans le manteau terrestre visqueux que dans les océans, entre 50 et 3 000 km de profondeur, mais cette eau-là est totalement inaccessible à l’homme.

7. Les changements climatiques vont-ils modifier la disponibilité de l’eau ?

Oui. Il est prévu par les modèles de climat que globalement, les précipitations vont augmenter, mais que les zones climatiques actuelles vont se déplacer vers les pôles. Sur notre longitude, par exemple, il pleuvra ainsi un peu plus en Europe du Nord, un peu moins en Europe du Sud et Afrique du Nord, et plus au Sud du Sahara et en zone tropicale. Voir la fiche « Le changement climatique mondial », paragraphe 4.4.

8. La fréquence des événements extrêmes va-t-elle changer ?

Oui, voir la fiche « Le changement climatique mondial », paragraphe 4.4. Les événements extrêmes (crues, sécheresses) risquent de voir leur fréquence se modifier avec les changements du climat, bien que ce point soit très incertain et controversé. Dans les zones où il pleuvra plus, les crues deviendraient plus intenses, et dans les régions où il pleuvra moins, les sécheresses deviendraient plus fréquentes.

Page 104: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 103

9. Y aura-t-il une crue centennale à Paris en 2010, 100 ans après celle de 1910 ?

Les crues sont des phénomènes dont l’occurrence est certaine, mais la date imprévisible. On tente, à partir des chroniques du passé, de déterminer la fréquence de retour (ou la probabilité d’advenue) d’une crue d’intensité donnée en un lieu donné. On ajuste pour cela des expressions mathématiques bien choisies sur les fréquences historiques des crues observées, avec la très grande difficulté que les enregistrements les plus anciens ont débuté il y a seulement cent ou deux cents ans, parfois beaucoup moins. Il est donc très hasardeux de donner des probabilités pour les événements extrêmes de fréquence de retour égale ou supérieure au siècle. De plus, les changements climatiques vont probablement faire évoluer la fréquence des événements extrêmes et les lois calées sur la période antérieure ne seront plus représentatives. En résumé, il n’y a aucune raison statistique que la prochaine crue centennale à Paris se produise en 2010, sa probabilité d’occurrence est simplement de 1/100 chaque année, et elle n’a pas une probabilité plus grande de se produire en 1911, en 1950, qu’en 2010.

10. Peut-on se protéger contre les crues ?

Pour se protéger contre les crues, quatre mesures sont à mettre en œuvre : - tout d’abord, ne pas construire en zone inondable; la délimitation de ces zones est

chose faisable, compte tenu de la morphologie des vallées et des traces laissées dans le paysage par les crues, même anciennes ;

- avoir un très bon service d'annonce de crues qui surveille en permanence l’état des bassins dangereux, prend en compte les prévisions de pluies données par la météorologie et calcule à l’avance avec des modèles le débit (et éventuellement la hauteur d’inondation). Le délai de prévision est fonction de la « nervosité » des bassins. Il peut être de plusieurs jours pour les grands bassins lents (comme la Seine) ou de quelques heures pour les petits bassins où des orages violents peuvent survenir (comme pour les Gardons issus des massifs cévenols). Ce délai peut servir à organiser l’évacuation des populations. La France a récemment mis en place un service d’annonce de crue, le SCHAPI (Service central d’hydrométéorologie et d’appui à la prévision des inondations), en charge de cette responsabilité au niveau national ;

- réduire la vulnérabilité des zones qui seront inondées. On peut aménager l’espace de façon plus ou moins prudente pour mieux résister à une situation de crue. Par exemple, à Paris, on peut installer les transformateurs EDF sur les hauteurs plutôt que le long de la Seine; ainsi, en cas de crue, seule la partie effectivement inondée sera privée d’électricité, et non pas toute la ville. De même, on peut prévoir des méthodes rapides de fermeture étanche des bouches de métro, afin d’éviter que les lignes ne soient coupées. De très nombreuses mesures de précaution peuvent ainsi être mises en œuvre en se préparant à l’avance à la crue ;

- construire des aménagements de protection contre les crues, c’est-à-dire maintenir ou aménager des zones d'expansion des crues dans les zones en amont, au lieu de canaliser les eaux vers le chenal principal. Cela va ennoyer des zones rurales en amont, mais préserver des zones urbanisées en aval. Construire également des barrages de stockage de l’eau en amont. À Paris, après la crue de 1910, il a fallu

Page 105: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 104

soixante ans pour que quatre barrages, qui servent en partie à la protection contre les crues, en partie au soutien d’étiage, soient édifiés en amont de la capitale. Il faut non seulement concevoir des digues de protection mais en assurer également un entretien régulier afin d’éviter des catastrophes, comme la rupture des digues du Rhône en amont d’Arles en 2003, ou de celles de La Nouvelle-Orléans en 2005. Mais ni les digues ni les barrages ne peuvent être une protection absolue; ceux-ci sont dimensionnés pour protéger contre une crue de fréquence de retour donnée et sont inefficaces, voire dangereux, pour une crue plus intense. Il faut enfin noter que les barrages, qu'ils soient de protection contre les crues ou de stockage, ont pour conséquence la rétention des sédiments normalement charriés par les cours d’eau, engendrant en aval des déficits sédimentaires (érosion, affouillement…) le long des cours d’eau et même le long des côtes.

11. Où sont les zones principales où on manque actuellement d’eau sur Terre ?

En associant à chaque zone climatique le pourcentage de la population mondiale qui y vit, l’écoulement total, et le ruissellement direct s’écoulant dans les rivières, on peut constater que la répartition de la population ne suit pas du tout la disponibilité de la ressource en eau (tableau 2). Aux régions déficitaires en eau pour des raisons physiques (prélèvements supérieurs à 75 % des ressources) s’ajoutent celles qui présentent un déficit pour des raisons économiques, par manque de moyens pour exploiter la ressource (carte 1). Classe climatique Zones de végétation A

[%] POP [%]

Q [%]

q [mm a-1]

Polaire et Froid Toundra et polaire, parcs froids 14,8 3,2 11,9 245Fraîche Toundra forestière, forêt boréale 11,3 4,0 11,6 313Tempérée Forêt tempérée, forêt tempérée chaude 9,9 23,3 15,2 465Steppe Steppe, Chaparral 9,7 13,6 1,9 59Aride Déserts froids, déserts chauds 18,5 7,9 0,3 5Subtropicale Tropicale semi-aride, forêt tropicale sèche 18,3 24,8 8,8 147Tropicale Humide Forêt tropicale saisonnière, forêt tropicale

pluvieuse 17,5 23,2 50,3 872

Tableau 2 – Classification des climats et des zones de végétation, adaptée de Viviroli et al. (2007).

L’Antarctique et la partie englacée du Groenland sont exclus. A : proportion de la surface totale des continents (total: 133,6 millions km2), POP : proportion de la population globale (total: ~6’2 milliards d’habitants), Q : proportion du débit d’écoulement total (total: 42 500 km3 a-1), q : ruissellement direct.

Page 106: Dossier scientifique E n v i r o n n E m E n t

Carte 1 – Zones où sévit en 2000 un manque chronique de ressources en eau, du point de vue physique ou économique. D’après IWMI (2007).

Rouge : Déficit physique ; plus de 75 % du débit des rivières est prélevé pour les besoins de l’homme, en tenant compte des recyclages. Des pays arides à faible demande peuvent ainsi ne pas être en déficit. Rose : Plus de 60 % du débit des rivières est prélevé. Ces bassins vont devenir rouges dans un futur proche. Orange : Déficit économique en eau. Les ressources sont abondantes par rapport aux usages, avec moins de 25 % de prélèvements du débit des rivières, mais la sous-alimentation sévit. La capacité financière en moyens d’équipement fait défaut. Bleu : Ressources en eau abondantes. Prélèvements inférieurs à 25 % du débit des rivières.

12. Les écosystèmes aquatiques naturels ont-ils encore assez d’eau ?

Depuis son apparition sur Terre, l’homme a utilisé à son profit, et dérobé peu à peu aux écosystèmes naturels, une partie sans cesse croissante des ressources issues du cycle hydrologique naturel, essentiellement pour faire fonctionner à son avantage des écosystèmes agricoles artificiels. Longtemps insignifiant, ce détournement de la ressource est devenu de plus en plus important. Qu’en sera-t-il en 2050, quand la Terre comptera peut-être 9 milliards d’habitants ?

Le reste des ressources en eau non utilisées par l’homme entretient en effet le fonctionnement des écosystèmes naturels (forêts, zones humides, espaces naturels…), alimente les fleuves et les nappes, qui permettent également l’existence d’autres écosystèmes aquatiques particuliers le long de leur cours ou en zone côtière. Tous ces systèmes étant en équilibre avec les ressources, tout prélèvement supplémentaire par l’homme se fait nécessairement à leurs dépens ; soumis à la diminution de leurs ressources, ils doivent soit s'adapter, soit disparaître si les changements dépassent leurs seuils de « résilience ».

Dossier scientifique Environnement 105

Page 107: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 106

13. Quelle est la qualité actuelle des milieux aquatiques et des écosystèmes ?

Les atteintes à la qualité des milieux aquatiques dans les pays développés sont aujourd’hui, par ordre d'importance, la pollution diffuse d’origine agricole, les pollutions urbaines, la pollution industrielle et enfin les retombées des pollutions atmosphériques.

13.1. Pollution diffuse d’origine agricole

Les pollutions agricoles concernent d’abord les excès de fertilisation azotée, qui contaminent les nappes souterraines et les rivières par des nitrates. Dans bien des nappes superficielles en région agricole, la teneur en nitrates dépasse déjà la norme de potabilité fixée à 50 mg/l de NO3, et continue de croître. Réduire cette pollution serait en théorie facile, il suffirait de mettre moins d’engrais dans les champs, avec pour conséquence une diminution substantielle des rendements. Mais le délai entre la cause (l’apport d’engrais azotés) et les conséquences (la teneur en nitrates dans le milieu) peut se chiffrer en décennies. Il faudra être très patient pour espérer revenir à un état normal. La profession agricole s’ouvre peu à peu à la recherche de solutions, mais demande en échange une prise en charge par la collectivité du « manque à gagner » dû à cette réduction des rendements. On cherche actuellement à « optimiser » cet apport d'engrais, en fonction de la vulnérabilité des milieux, de la présence de captages à protéger, du type de culture, ou encore en mettant en place, en hiver, sur les sols usuellement à nu, des cultures intermédiaires pièges à nitrates (CIPAN), comme la moutarde, qui vont extraire du sol les nitrates au lieu de les laisser lessiver par les pluies. Au printemps, ces CIPAN sont enfouis, servant d’engrais vert. Les épandages de lisiers sur les champs contribuent aussi fortement, dans certaines zones comme en Bretagne, à l’apport de nitrates. Les apports en phosphates sont moins gênants pour les nappes, car ces derniers sont peu solubles et se fixent en général sur les matières particulaires, que l'on va retrouver dans les rivières en cas d’érosion. Les apports en nitrates et en phosphates sont ainsi responsables, dans les lacs, rivières et zones côtières, du phénomène d’eutrophisation qui est une croissance excessive des micro-algues (phytoplancton) et des macro-algues. Ces organismes, en pullulant, produisent par photosynthèse de la matière organique; cependant, quand ils meurent, leur oxydation consomme tout l’oxygène présent dans l’eau, conduisant à l’anoxie et à la mort de la faune. Ces pullulements d’algues peuvent aussi être dangereux pour l’homme (cyanophycées toxiques) ou donner un goût désagréable à l’eau. L’agriculture utilise aussi des pesticides qui se retrouvent dans l’eau, par infiltration ou ruissellement, responsables de teneurs parfois supérieures aux normes de potabilité dans les eaux superficielles et souterraines. Ces normes sont très sévères (0,1 µg/l pour un pesticide identifié, ou 0,5 µg/l pour un mélange de pesticides), mais les effets de ces pesticides (ou de leurs molécules filles, produites par biodégradation) sont difficiles à apprécier et insuffisamment connus. On peut lutter contre cette pollution par l’agriculture biologique, en plein développement, ou par la mise au point de nouvelles molécules plus actives, donc utilisées en plus petites quantités, et présentes à des teneurs plus faibles, inférieures aux normes. Les tests de toxicité de ces nouveaux produits les disent peu toxiques, plus facilement biodégradables, mais cela reste controversé.

Page 108: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 107

1.3.2. La pollution urbaine

Les pollutions urbaines sont aujourd’hui, dans les pays d’Europe, de mieux en mieux maîtrisées grâce à la construction de stations d’épuration des eaux usées. Les rejets urbains en temps normal contiennent de la matière organique biodégradable, de l’ammoniac, des nitrates, des phosphates (dont une grande partie provient des lessives), et parfois des métaux lourds. En temps de pluie, les eaux de lessivage des toitures et des chaussées apportent des hydrocarbures, des métaux et des micropolluants organiques issus des retombées des fumées, comme les PCB (polychlorobiphényles) et les HAP (hydrocarbures aromatiques polycycliques), et des matières en suspension. Le traitement de ces eaux usées peut être plus ou moins poussé, permettant d’éliminer une grande partie de ces polluants, mais à des coûts de plus en plus élevés. Le résultat est là : la qualité des eaux des rivières en Europe s’est très notablement améliorée depuis les années 1960. Les principaux problèmes aujourd’hui, dans les grandes villes, portent sur l’amélioration des traitements (ammoniac, dénitratation, déphosphatation) et sur les eaux de ruissellement en temps de pluie, qui peuvent donner des débits élevés sur de périodes courtes, et qui jusqu’ici ne sont pas ou peu traitées.

La baignade dans les cours d’eau situés en aval des grandes agglomérations reste un sujet préoccupant, car les rejets des stations d’épuration ne sont pas stérilisés. Mais imposer cette stérilisation serait probablement un leurre, car chaque orage risque d’apporter aux cours d’eau des flux importants de bactéries pathogènes lessivées des sols, qu'il est impossible de contrôler.

13.3. La pollution industrielle

Les pollutions industrielles sont de plus en plus traitées à la source et les normes de rejet de plus en plus sévères. Cela a grandement contribué à l’amélioration de la situation. Les efforts portent aujourd’hui sur la lutte contre les rejets de micropolluants. Mais, peu à peu, les industries traditionnellement polluantes ont tendance à rechercher des installations dans des pays aux normes moins contraignantes, devant les coûts élevés des contraintes dans les pays développés. Le réchauffement des cours d’eau par les rejets des centrales thermiques peut poser quelques problèmes à l’environnement en été, particulièrement en période de canicule. Le stockage et le turbinage de l’eau pour la production hydroélectrique peuvent être en concurrence avec les besoins d’eau agricole en été, ou avec les besoins des écosystèmes fluviaux, l’État négociant en général avec l’exploitant un « débit minimum réservé » qui doit en permanence être respecté. L’aménagement des cours d'eau, en particulier la chenalisation, peut poser des problèmes pour l’habitat des poissons.

13.4. Qu’appelle-t-on un parc naturel hydrologique ?

Pour aboutir à une qualité des eaux souterraines et superficielles beaucoup mieux garantie, en particulier pour l'alimentation en eau potable, dans les pays développés se dégage une tendance à « sanctuariser » des zones étendues, pour que les activités humaines polluantes, agricoles principalement mais aussi industrielles, soient interdites ou rigoureusement réglementées. Ces zones, où l’eau représente l’élément naturel à protéger, sont appelées parcs naturels hydrologiques. Un usage forestier, par exemple, pourrait être compatible avec ces parcs.

Page 109: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 108

13.5. Et les zones humides ?

Les zones humides naturelles dans les vallées sont aujourd’hui, en Europe, mieux protégées, alors que, depuis des siècles, elles étaient peu à peu drainées et mises en exploitation agricole. Leur conservation contribue au maintien de la biodiversité, car ce sont des milieux très riches du point de vue de la flore et de la faune.

13.6. Qu’est-ce que c’est que la directive cadre européenne sur l’eau ?

La directive-cadre européenne de 2000 impose aux États membres de mettre en œuvre des mesures de protection des milieux afin de revenir, en 2015, « à la bonne qualité écologique des masses d’eau ». Ces dernières sont des unités hydrologiques supposées homogènes (lac, bief d’un cours d’eau, nappe ou portion de nappe souterraine). La France en a défini plusieurs milliers sur son territoire, où ces mesures de protection devront être appliquées avant 2015 pour rétablir la qualité.

13.7. Et dans les pays en développement ?

Dans les pays en développement, la qualité des eaux connaît en général une forte dégradation, l’équipement en stations de traitement étant insuffisant et l’équipement industriel du pays étant jugé prioritaire par rapport à la protection de l’environnement.

14. Combien d’être humains n’ont pas accès à l’eau potable ?

1,1 milliards d’êtres humains n’ont pas encore accès à un point d’eau potable, 3 milliards n'ont pas de robinet d’eau chez eux, et 2,6 milliards ne disposent pas de l’assainissement. Le problème est non pas technique mais financier. Les Objectifs du Millénaire pour le développement, adoptés en 2000 par les Nations unies, sont de diviser par deux en 2015 le nombre des humains non raccordés à un réseau d’eau potable (et à un réseau d'assainissement). Les investissements nécessaires sont évalués à 170 milliards de dollars chaque année. Or les budgets dépensés annuellement dans le monde pour les équipements en eau potable et assainissement sont seulement de l’ordre de 85 milliards de dollars par an. Comment réunir plus d’argent ? La solution imaginée dans les années 1990 était de faire appel à l’investissement privé, la vente de l’eau distribuée devant permettre de rentabiliser les investissements. Cette solution a été tentée par des investisseurs privés, en particulier français, mais est restée très en-deçà des espérances, avec même parfois des déconvenues. Les raisons en sont multiples, mais la principale est quand même la réticence des usagers et des pouvoirs publics à payer l’eau ou à faire payer l’eau à son prix de revient. Certains gouvernements préfèrent, par exemple, investir dans les équipements en téléphones mobiles plutôt que pour l’eau potable. Il faut savoir toutefois que les réseaux d’eau potable et d’assainissement vont de pair: si l’on amène l’eau potable sans l’assainir, l’état de santé des populations desservies va en régressant, du fait de l’insalubrité des eaux usées non collectées.

15. La qualité de l’eau potable est-elle bonne ?

La qualité des eaux des réseaux publics varie bien sûr en fonction des lieux. Les procédés existent et s’améliorent d’année en année pour produire de l’eau potable d’excellente qualité à partir des eaux des milieux naturels, superficielles ou souterraines. La vigilance dans le contrôle est ici la principale garantie. Elle est appliquée selon les pays avec plus ou moins de

Page 110: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 109

rigueur. Les normes de qualité (actuellement de l’ordre de 80 paramètres surveillés) sont définies par l’Organisation mondiale de la santé (OMS) et le plus souvent reprises par les législations européennes ou nationales. L’eau est en général mieux protégée que ne le sont les aliments ou l’air que l’on respire. La tendance actuelle en Europe est de fabriquer de l’eau potable à partir d’eaux brutes le moins polluées possible en choisissant de prélever la ressource dans des bassins où des mesures de protection exigeantes sont imposées. Le coût des investissements consentis au fil des ans pour l’adduction en eau potable et l’assainissement est estimé, dans les pays développés, à quelques milliers d’euros par foyer, et le prix payé par l’usager en France est de l’ordre de 1 à 3 euros par mètre cube. L’essentiel de la dépense porte en général sur l’entretien du réseau, pour éviter les pertes, qui parfois peuvent atteindre plus de 50 % de l’eau produite.

16. Combien consomme-t-on d’eau minérale, et pourquoi ?

La consommation des eaux de source ou minérales naturelles vendues en bouteille va sans cesse croissant : elle est actuellement de l’ordre de 130 l/habitant par an en France, plus en Italie et en Allemagne, beaucoup moins dans les pays anglo-saxons. En Europe, elle peut s’expliquer par la saveur de ces eaux (absence de chlore, goût naturel, addition de gaz carbonique…) et plus par leur réputation diététique que par leur qualité intrinsèque d'eau potable par rapport aux eaux des réseaux, qui sont en général excellentes de ce point de vue. La pollution constatée et très médiatisée des eaux naturelles par l’agriculture (nitrates et pesticides) est également mise en avant pour expliquer cet engouement, malgré le prix en général mille fois plus élevé des eaux en bouteille par rapport aux eaux du robinet. Les eaux en bouteille constituent aussi un recours disponible partout et en abondance, en cas d’accident sur un réseau, comme cela s’est déjà produit dans le passé. Dans certains pays où l’eau de distribution publique est de mauvaise qualité, les eaux en bouteille ou en conteneurs sont devenues un moyen usuel d’accès à l’eau potable, ce qui réduit la demande de qualité sur le réseau. Dans certains pays également (États-Unis, Grande-Bretagne, Russie, …), les eaux embouteillées ou en conteneurs sont produites à partir d’eaux brutes quelconques, par des traitements sophistiqués comme la double osmose inverse, la stérilisation et l’ajout de constituants minéraux jugés nécessaires à la santé. Aux États-Unis, par exemple, plus l’eau est « artificielle », plus elle semble prisée par le consommateur… alors qu’un européen lui trouverait un goût détestable ! La consommation mondiale d’eau embouteillée en 2005 a été de 168 milliards de litres, soit, rapportée à la population de la Planète, 27 litres par habitant.

17. D’où viennent les eaux de source et les eaux minérales ?

Les eaux de source sont des eaux souterraines provenant de bassins hydrogéologiques profonds ou bien protégés, qui ne sont pas contaminés par les activités humaines en surface. Les eaux captées doivent être potables sans traitement, ni bactériologique ni chimique, mis à part une éventuelle aération pour faire précipiter le fer et le manganèse. Les eaux minérales sont des eaux de source qui sont de plus déclarées favorables à la santé par l’Académie de médecine. Leurs propriétés chimiques doivent être très constantes dans le temps, attestant ainsi de leur bonne protection contre les eaux superficielles éventuellement contaminées. Contrairement aux eaux de sources, elles ne doivent pas nécessairement être « potables » au sens des normes de potabilité, certaines d’entre elles contiennent en effet des teneurs trop fortes en certains éléments, mais que l’Académie de médecine a jugé à un moment comme favorable à certains traitements. Il faut alors les consommer comme un médicament. Depuis

Page 111: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 110

peu, l’Europe a autorisé certaines eaux minérales à être traitées pour en enlever certains éléments dits « indésirables », quand ils sont en concentration excessive par rapport aux normes, comme le fluor, l’arsenic, etc.

18. Quels sont les besoins en eau potable de la Planète ?

La quantité d’eau de boisson minimale recommandée par les médecins est de 2 l/j, et elle peut être doublée ou triplée en cas de chaleur et de sécheresse. Si on y ajoute les besoins de la vie quotidienne, ce chiffre atteint, au minimum, 20 l/j par habitant pour les pays les plus pauvres en eau (par exemple la zone côtière dépourvue d’eau douce de la Mauritanie) à plus de 500 l/j dans les pays richement dotés ou peu économes (États-Unis, certaines villes d’Argentine, Afrique du Sud, Royaume-Uni...). En France, la consommation moyenne est de l’ordre de 250 l/j par habitant en ville (chiffre qui inclut l’eau des installations artisanales, commerces, etc., les fuites des réseaux et l’eau de lavage des rues et de lutte contre les incendies) et de moins de 150 l/j par habitant à la campagne. La moyenne mondiale est estimée à 300 l/j, soit 110 m3/an par habitant.

En 2050, la population mondiale pourrait être de 9 milliards d’individus, selon l’estimation courante des démographes. Après cette date, la population devrait cesser de croître (sauf en Afrique) et même commencer à décroître. En prenant comme hypothèse 9 milliards d’individus consommant chacun 250 l/j, la quantité totale d’eau nécessaire pour satisfaire les besoins domestiques représenterait 825 km3 d’eau par an (1 km3 est égal à 1 milliard de m3 et 1 m3 équivaut à 1 000 litres), soit 0,7 % de la pluie qui tombe chaque année sur les continents, ou encore 6 % de la fraction de l'eau dite récupérable qui s'écoule dans les rivières et dans les nappes souterraines. Mais cette eau ainsi « utilisée » ne disparaît pas puisqu’elle est, pour l’essentiel, rejetée dans le milieu naturel, et peut éventuellement être réutilisée plus en aval. Clairement, la Planète ne manquera jamais d'eau « domestique », comme il est convenu de l’appeler.

19. Quels sont les besoins en eau agricole de la Planète ?

Aujourd’hui, quelque 8 250 km3 d’eau par an sont nécessaires pour nourrir 6,2 milliards d’habitants, dont 5 000 km3 d’eau de pluie entièrement évaporée tombant sur 1,34 milliards d’hectares d’agriculture dite pluviale et 3 250 km3 d’eau prélevée dans le milieu naturel (rivières, nappes) pour arroser 264 millions d’hectares d’agriculture irriguée. Sur ces 3 250 km3/an d’eau prélevée pour l’irrigation, 1 500 km3 seulement sont utilement évaporés par les plantes, le reste s’infiltre dans les nappes ou est drainé et participe aux écoulements sur les continents, ou encore est gaspillé par évaporation dans l’air. Ainsi, quelque 6 500 km3 d’eau par an sont réellement utilisés pour nourrir les hommes, soit environ 1 000 m3 d’eau par an et par habitant, soit 2 700 l/j et par habitant. Cela représente 6 % de la pluie sur les continents. Il faut savoir cependant qu'aujourd’hui, 850 millions d’individus sont sous-alimentés du fait de leur pauvreté. En 2050, avec 9 milliards d’habitants, si chacun mange à sa faim, et si les habitudes alimentaires ne changent pas, il faudra donc utiliser réellement de l’ordre de 10 000 km3 d’eau par an, soit 9 % de la pluie sur les continents, ce qui n’apparaît pas globalement très préoccupant, mais pourrait en revanche devenir localement très difficile, compte tenu de l’inégale répartition spatiale et temporelle de la pluie. La part de ces 10 000 km3 qui proviendra de l’agriculture pluviale et celle de l’agriculture irriguée ne sont pas encore fixées aujourd’hui et influenceront beaucoup l’agriculture mondiale. Si on prend en compte les

Page 112: Dossier scientifique E n v i r o n n E m E n t

évolutions probables des habitudes alimentaires (tableau 3), on peut penser que la consommation accrue de viande dans le monde, et particulièrement en Asie, pays traditionnellement plus végétarien, pourrait porter les besoins réels en 2050 à 11 000 ou 12 000 km3/an au lieu de 10 000 km3, car il faut par exemple 13 000 m3 d’eau pour produire une tonne de viande de bœuf, soit 13 fois plus que pour une tonne de blé… Il faut noter que l’eau agricole disparaît en majeure partie de l’eau s’écoulant sur les continents puisqu’elle est évaporée par la végétation, à l’exception des excès d’irrigation.

100Pommes de terre

4 100Volailles1 500 – 2 000Riz

200-400Maraîchage

400Agrumes

800Lait700Maïs, céréales C4

2 700Œufs1 000Blé, céréales C3

13 000Bœuf5 000Huiles

Eauconsommée

Produitsanimaux

Eauconsommée

Produitsvégétaux

Tableau 3 – Quantités d’eau requises en m3/t pour produire les bases alimentaires.

Partie consommée brute (non en matière sèche) des différents produits. D’après Acad. Sciences, 2006.

20. Quels sont les besoins en eau industrielle de la Planète ?

On estime aujourd’hui ce chiffre à environ 200 m3/an et par habitant, ou encore 550 l/j par habitant, soit 1/5 de l’eau agricole. Mais cette fois l’eau industrielle n’est que très peu « consommée », elle est utilisée puis rejetée dans le milieu, parfois réchauffée (eau de refroidissement des centrales thermiques) ou plus ou moins dégradée (processus industriels polluants), ou seulement turbinée ou utilisée pour la navigation. Ce chiffre peut varier beaucoup en fonction des procédés techniques utilisés, des recyclages réalisés, du prix, des économies d’eau, etc. Il n'est en tout état de cause que de l’ordre de 1 % de l’eau de pluie sur les continents.

21. Quelle est la consommation totale en eau de la Planète ?

En 2000, la consommation estimée d’eau domestique, agricole (eau pluviale et eau d’irrigation) et industrielle (tableau 4) montre que la totalité des prélèvements d’eau par l’homme a été de 5 200 km3 (660 + 3 250 + 1 290), auxquels il faut ajouter 5 000 km3 d’eau de pluie utilisée directement par l’agriculture pluviale, soit 10 200 km3, ce qui reste inférieur à 10 % des précipitations sur les continents. Les prévisions pour 2050 sont de 18 000 km3/an,

Dossier scientifique Environnement 111

Page 113: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 112

soit 16 % des précipitations. On voit donc bien que, globalement, à l’échelle de la Planète, les hommes ne devraient pas manquer d’eau dans le futur proche.

Population Millions

Eau domestique

prélevée km3/an

Eau Agricole pluviale utilisée km3/an

Eau Agricole d’irrigation

prélevée km3/ an

Eau d’irrigation consommée

km3/an

Eau Industrielle

Prélevé e km3/an

Europe 512 80 420 225 100 285 Asie 3 612 290 2900 1 800 830 330

Afrique 853 40 700 200 90 32 Amérique du Nord

489 130 400 400 185 390

Amérique du Sud

367 50 300 100 45 105

Australie, Iles du

Pacifique

30 8 30 25 20 3

Russie et ex URSS

310 62 250 500 230 145

TOTAL 6 200 660 5 000 3 250 1 500 1 290 Eau

consommée - 40 5 000 - 1 500 130

Tableau 4 – Estimation des quantités d’eau prélevée et consommée dans le monde en 2000, adapté de [Acad. sciences, 2006], avec des hypothèses de proportionnalité faites sur le nombre d’habitants pour les chiffres mal connus. Ces estimations ne sont pas du tout précises.

22. Comment va-t-on nourrir la Planète en 2050 ?

Le problème essentiel de l’eau du XXIe siècle est de nourrir la Planète (Griffon, 2006). Les besoins augmentent avec l’explosion démographique incontrôlée. Aujourd’hui, trois céréales, le blé, le maïs et le riz, chacune à raison de 700 millions de tonnes par an, fournissent 60 % de la nourriture mondiale. La première chose à faire est d’augmenter les rendements, de mieux utiliser l’eau (selon le slogan more crop per drop), c’est-à-dire d’éviter les pertes, ou de choisir des cultures plus productives à quantité d’eau égale (tableau 3). On espère ainsi, au mieux d’ici à 2050, des économies d’eau de l’ordre de 20 %, notoirement insuffisantes par rapport aux besoins. On pourrait penser qu’une autre solution est d’augmenter les surfaces d’agriculture irriguée, qui produisent par hectare en général plus que celles en agriculture pluviale. Au rythme actuel d’augmentation de 1,34 millions d’hectares par an de ces surfaces irriguées, on passerait de 264 millions d’hectares aujourd’hui à 331 millions d’hectares irrigués en 2050, ce qui est aussi notoirement insuffisant. Il faudrait décupler le rythme actuel d’aménagement des périmètres irrigués pour répondre aux besoins croissants, ce qui est peu envisageable. En effet, au prix actuel des céréales, la rentabilité des investissements n'est pas assurée et les financeurs institutionnels (Banque mondiale, FMI…) se détournent de ces grands aménagements de retenues d’eau et périmètres irrigués, qui, par le passé, ont également eu,

Page 114: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 113

pour certains d’entre eux, des conséquences environnementales désastreuses et une efficacité douteuse.

La solution vers laquelle on se dirige est une très forte augmentation de l’agriculture pluviale, qui occupe actuellement 1,34 milliards d’hectares, et devrait croître d’ici à 2050 de 1 milliard d’hectares. De telles surfaces cultivables en agriculture pluviale semblent disponibles, mais pas partout (tableau 5) : l’Asie et le Moyen-Orient/Afrique du Nord sont très proches des limites d’utilisation de leurs sols, alors que ces deux zones sont en très forte expansion démographique. En revanche, l’Afrique subsaharienne, également en très forte expansion démographique, a largement les sols nécessaires pour produire la nourriture dont elle a besoin, mais avec cependant des disparités régionales très importantes (manque ici, excès là). L’Amérique latine, puis les pays de l’OCDE et la Russie auraient les moyens de produire la nourriture nécessaire. On sait que le Brésil, l’Argentine s’y préparent, et que les États-Unis sont déjà les premiers exportateurs mondiaux de denrées alimentaires. Selon ce scénario, on se dirigerait vers un énorme effort de défrichement des zones actuellement non cultivées mais cultivables, qui sont aujourd’hui occupées par la végétation naturelle (forêt, steppe, pampa…). Cela s’accompagnera nécessairement de fortes atteintes aux écosystèmes naturels et d’une réduction massive de la biodiversité, mais que faire ? Laisser les nouveaux habitants mourir de faim? Une autre conséquence sera que de nombreux pays perdront tout espoir d’autosuffisance alimentaire, et seront dépendants d’autres pays pour leur alimentation, avec les risques de pressions politiques que cela implique, et les tensions qui pourront en résulter sur les prix des denrées agricoles en cas de pénuries.

Monde

Asie

Amériquelatine

Moyen

Orient et Afrique du Nord

Afrique

sub-saharienne

Pays de l’OCDE (Europe,

Amérique du Nord, Japon…)

Russie

Surface cultivée en 2000

(a)

1 600

439

203

86

228

387

265

Surface cultivabl

e (b)

4 400

586

1066

99

1031

874

497

a/b 39 % 75 % 19 % 87 % 22 % 44 % 53 % Tableau 5 – Superficies cultivées et cultivables dans le monde, en millions d’hectares, selon M. Griffon, 2006.

Il faut ajouter à cela que l’agriculture sera aussi sollicitée pour la production de biomasse à des fins énergétiques, ce qui engendrera une tension supplémentaire sur la production alimentaire, mais fait dire aussi que la contribution des bioénergies aux besoins énergétiques mondiaux sera, en tout état de cause, modeste.

Quant aux pays « riches » en eau, comme la France, ils peuvent ici ou là, en fonction des saisons, des aléas climatiques, des effets dus aux changements climatiques (cf. questions 7 et 8), connaître des contraintes de restriction d’usage de la ressource, certes très gênantes pour

Page 115: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 114

les consommateurs, mais somme toute non génératrices de catastrophes. Il s’agit, et il s’agira, pour les autorités de gérer les conflits d’usages et de donner la priorité en cas de pénurie à ceux qui sont considérés comme les plus importants : eau domestique, bien sûr, mais aussi eau nécessaire aux écosystèmes fragiles, qui constituent des usages également prioritaires, pour le maintien de l’environnement et de la biodiversité, tout aussi importants que les activités productives (agriculture, industrie).

Y-a-t-il une alternative à ce scénario, qui apparaît catastrophique pour l’environnement de la Planète et qui ne fait pas l’unanimité ? D'autres solutions sont évoquées : l’augmentation des rendements agricoles par fertilisation accrue et meilleure utilisation de l’eau, mais cette option ne semble pas suffisante ; l’amélioration génétique des plantes pour les faire produire plus en consommant moins d’eau est apparemment un faux espoir (Tardieu, 2005), car il est établi que, si une plante consomme moins d’eau, elle produit moins de matière sèche : l’ouverture des stomates règle non seulement la transpiration mais aussi l’entrée de CO2 et la photosynthèse ; réduire l’une réduit aussi l’autre. Cependant, il faut évidemment poursuivre les recherches pour tenter d’améliorer les rendements à quantité d’eau consommée égale. Restent les cultures hors sol, dites hydroponiques, avec une production par unité de surface et une efficacité d’utilisation de l’eau très élevées, mais les coûts de production sont aussi très importants. Seuls les pays riches pourront s’y engager. Le défrichement, plus ou moins étendu, semble donc inéluctable si les démographes ne se trompent pas lourdement.

23. Peut-il y avoir des famines dramatiques sur Terre par manque d’eau ?

Il semble que la réponse soit malheureusement oui. Déjà, en 1998, de mauvaises récoltes en Asie du Sud-Est, dues à une sécheresse déclenchée par un événement El Niño intense, avaient entraîné des achats de céréales massifs sur les marchés mondiaux, avec une réduction importante des stocks, rendant périlleuse la situation si la sécheresse s’était prolongée. Or, chaque année, la situation devient de plus en plus tendue, en raison de la croissance démographique. Il faut savoir qu’en 1876-1878, par exemple, une sécheresse catastrophique a sévi simultanément en Inde, en Chine, au Brésil et en Éthiopie, pour ne citer que quelques-uns des pays pour lesquels on dispose de données. Il y aurait eu à cette époque près de 30 millions de morts (Davis, 2006). Un événement semblable se serait également reproduit en 1896-1900, avec un même ordre de grandeur du nombre des victimes. Ces phénomènes simultanés à l’échelle du globe seraient la conséquence d’événements El Niño d'ampleur exceptionnelle, comme il semble s'en produire en moyenne deux fois par siècle. Quoi qu'il en soit, et compte tenu en particulier de l’augmentation probable de la fréquence des événements extrêmes due aux changements climatiques, et de la croissance continuelle de la démographie, il semble certain que ce type de catastrophe se reproduira dans un avenir plus ou moins proche. Les stocks mondiaux4 risquent de ne pas être suffisants pour satisfaire la demande. De plus, comme l’a montré le Prix Nobel d’économie Amartya Sen (Sen et Drèze, 1999), la cause la plus fréquente des pertes en vies humaines en cas de réduction des récoltes est la perte instantanée de pouvoir d’achat qui frappe les paysans les plus pauvres, dont les récoltes ont disparu, mais aussi d’autres catégories sociales défavorisées qui n’ont plus les moyens d’acheter la nourriture, quand bien même celle-ci serait disponible. Avec la mondialisation croissante des échanges de nourriture, il est probable que les lois du marché entraînent, en cas

4 Ils sont actuellement de 400 millions de tonnes de céréales, soit 20 % de la consommation annuelle mondiale, soit encore moins de 3 mois, auquel il faut ajouter un stock très important de bétail sur pied.

Page 116: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 115

de pénurie, une augmentation vertigineuse des prix mondiaux agricoles, et que la famine touche alors les plus pauvres, même si des stocks existent encore et que les moyens de transport sont disponibles. A. Sen montre en effet que, dans le milieu des années 1970, une famine a frappé l’Éthiopie, et que des gens sont morts de faim au voisinage de voies de communication et alors que le pays disposait, dans d’autres régions, de stocks suffisants : les ressources financières des affamés ne leur permettaient pas d’acheter, et l’aide mondiale n'a pas été sensibilisée à temps. Il est probable, bien que regrettable, qu'il faille que se déclenche une telle crise de grande ampleur pour que le monde se décide à bouger et à créer des stocks plus importants, dans les pays où les risques de manque sont les plus grands, c’est-à-dire dans les zones déjà les plus défavorisées, où les moyens financiers ne sont pas réunis pour créer ces stocks.

24. Y aura-t-il des guerres de l’eau ?

Difficile d’être affirmatif. Il y a déjà des conflits latents ayant le partage de l’eau pour cause, le principal est entre l’Éthiopie et l’Égypte, ce dernier pays ayant officiellement fait savoir que la construction de barrages en Éthiopie pour retenir et utiliser l’eau du Nil Bleu serait un casus belli. Pourtant les besoins en eau de ces deux pays augmentent très rapidement, du fait de l’augmentation démographique. La négociation sera-t-elle en mesure de prévenir la guerre ? L’exemple de l’Inde et du Pakistan, en état de conflit permanent, pourrait le laisser espérer. Ces deux pays ont en effet réussi à continuer de gérer de façon stable et pacifique leurs ressources en eau communes, par la négociation, qui ne s’est jamais arrêtée, même dans les moments les plus tendus. D’autres zones de conflits potentiels sont le Moyen-Orient, l’Asie du Sud-Est, l’Afrique Australe, etc.

25. Faut-il économiser l’eau ?

Sachant, comme il a été vu ci-dessus, que la Planète va avoir de plus en plus besoin d’eau pour satisfaire une population en forte croissance, la question qui vient naturellement à l’esprit est : « Faut-il économiser l’eau ? » La réponse est bien sûr oui, toute économie ou réduction d’un gaspillage est une action qui va dans le bon sens. Encore faut-il savoir ce que l’on doit économiser en priorité et quand, car ne pas utiliser d’eau quand on vit à côté d’un grand fleuve en crue n’aura évidemment pas d’effet sur la disponibilité en eau dans un pays assoiffé à 10 000 km de là ! Nous avons vu que la demande quotidienne d’eau dans un pays Européen est de l’ordre 250 l/j en eau domestique, de 550 l/j en eau industrielle, et de 2 700 l/j en eau agricole, seule cette dernière étant en majorité réellement consommée, les deux autres étant prélevées puis restituées (à 95 ou 90 %) au milieu naturel. Pour les individus, économiser de la nourriture est donc le poste le plus efficace pour économiser l’eau, et de plus cette nourriture économisée est transportable (ou économisée en ne l’important pas) et peut être mise à la disposition des populations qui en manquent. Pour donner un exemple, jeter 100 g de viande de bœuf représente un gaspillage, selon le tableau 3, de 1 300 l d’eau, soit plus de 5 jours de toute la consommation domestique. Jeter 100 g de pain représente un gaspillage de 100 l d’eau… Il est donc scandaleux, dans un monde où certains ne mangent pas à leur faim, de « gaspiller » l’eau en jetant de la nourriture. Économiser l’eau industrielle n’est pas directement à la portée des citoyens, si ce n’est en économisant les produits industriels eux-mêmes, car jeter ou ne pas réparer un objet industriel qui peut encore être utilisé en le remplaçant par un objet neuf consomme de l’eau, de l’énergie, des matières premières, etc. L’eau réellement consommée par l’industrie est cependant une faible fraction de l’eau

Page 117: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 116

prélevée (estimée tabl. 4 à 10 %), ce qui conduit à dire que si on raisonne en eau réellement consommée, les prélèvements industriels pèsent peu sur le bilan, économiser les objets produits par l’industrie est plus important en terme d’énergie et de matières premières. Enfin pour l’eau domestique, le problème est un peu le même. Si l’on est dans un pays où l’eau est rare (ou à une saison où l’eau est rare), il est clair qu’il faut réduire au minimum sa consommation d’eau domestique, et encourager les recyclages, pour permettre à chacun, y compris les écosystèmes, d’avoir accès à l’eau. Gaspiller l’eau revient à supprimer cet accès à certains des utilisateurs. Mais quand l’eau est relativement abondante, en un lieu ou à une saison donnée, économiser l’eau du robinet agit en fait très peu sur la ressource en eau : l’eau prélevée est en majorité (95 %) restituée presque instantanément au milieu naturel, après passage dans les installations et stations de traitement des eaux usées, en particulier si l’eau est prélevée dans une rivière et rejetée dans la même rivière. Ce qui est économisé en réduisant sa consommation quotidienne, par exemple de 100 l/j, ce qui est beaucoup, c’est au mieux 5 l d’eau5, mais surtout de l’énergie électrique de pompage de l’eau, en moyenne en France de l’ordre de 0,75 kWh par m3, soit 0,075 kWh pour 100 l, c’est à dire l’équivalent de 1 h de fonctionnement d’une ampoule de 75 W. Éteindre la lumière dans les locaux inoccupés est donc souvent plus efficace pour les économies globales que de ne pas se laver ! Économiser de l’eau chaude est encore plus important pour réduire la consommation d’énergie, par exemple gaspiller 100 l d’eau chaude représente environ 40 h de consommation d’une ampoule de 75 W. Et réduire de 1 km par jour sa distance parcourue en automobile représente en moyenne une économie globale de 1,34 kWh, soit 18 h de fonctionnement d’une ampoule de 75 W….

Mais une économie importante d’eau peut être réalisée par le monde agricole, en ne « gaspillant » pas l’eau, on a vu en effet (question 19) que sur 3 250 km3/an d’eau agricole prélevée, 1 500 km3/an seulement sont réellement utilisés, le reste étant évaporé en pure perte, ou retournant dans les écoulements souterrains par infiltration dans les canaux et parcelles irriguées, ce qui n’est pas vraiment une perte. Il est donc possible de faire des économies en irriguant mieux (ne pas faire d’aspersion le jour, utiliser le goutte-à-goutte…) ou en utilisant des plantes couvrant mieux le sol (pour éviter l’évaporation sur sol nu) ou plus efficaces (par exemple riz cultivé sous eau pendant la première partie de son cycle, puis irrigué mais sans plan d’eau pour le reste).

26. Perspective

Trouver l’eau nécessaire pour nourrir une population en augmentation galopante est le véritable défi concernant cette ressource vitale. La croissance du nombre d’habitants, principalement en Asie, va très vite rendre les besoins en eau et en terres cultivables de ce continent supérieurs aux ressources locales. Incapable bientôt d’assurer son autosuffisance alimentaire, il ne pourra s'alimenter qu'en important massivement de la nourriture, ce qu’on appelle de « l’eau virtuelle », ou en laissant sa population émigrer. L’Amérique du Sud paraît alors être le principal continent capable de fournir la production agricole nécessaire, mais au prix de défrichements gigantesques, réduisant encore un peu plus la part de la Planète réservée aux écosystèmes naturels et la biodiversité. L’Europe du Nord, la Russie et l’Amérique du Nord pourront aussi fournir une partie des besoins. L’Afrique pourrait rester globalement

5 La réduction du flux d’eau usée ne procure en fait pas d’économies à la station de traitement, car la charge polluante rejetée par un être humain est à peu près constante, et son traitement ne dépend que très peu du volume d’eau dans laquelle elle est diluée.

Page 118: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 117

autosuffisante, malgré une très forte croissance démographique, en mettant en culture une vaste partie de ses espaces naturels, mais avec des disparités régionales très fortes. Il est à craindre cependant que des crises climatiques majeures (sécheresses, par exemple liées à des événements El Niño) engendrent des famines dramatiques simultanées sur plusieurs continents. Devant un tel défi, les autres problèmes liés à l’eau paraissent presque secondaires. Ils portent sur les effets des changements climatiques, sur la distribution d’eau potable, sur les risques de pénurie dans la zone méditerranéenne, sur la qualité de l'eau et des écosystèmes, sur les crues. Une bonne ingénierie de l’aménagement conçue pour respecter et conserver les écosystèmes naturels et une gestion cohérente et patrimoniale de la ressource devraient permettre de les résoudre, si les moyens matériels nécessaires y sont consacrés à temps.

Bibliographie

Académie des sciences, Les Eaux Continentales, G. de Marsily, Coordinateur, EDP Sciences, Paris, 2006. M. DAVIS, Génocides tropicaux. Catastrophes naturelles et famines coloniales. Aux origines du sous-développement, La Découverte, Paris, 2006. M. GRIFFON, Nourrir la Planète. Odile Jacob, Paris, 2006. International Water Management Institute, Water for food, water for life : the Comprehensive assessment of water management in agriculture, Rapport en cours de publication, Colombo, Sri Lanka, début 2007. G. DE MARSILY, L'Eau, coll. Dominos, Flammarion, 2e éd., Paris, 2000. M. MEYBECK, E. FUSTEC & G. DE MARSILY, Edit., La Seine en son bassin. Fonctionnement écologique d'un système fluvial anthropisé, Elsevier, Paris, 1998. L. ORTLIEB, « The documented historical period of El Niño events in Peru: an update of the Quinn record (16th to 19th centuries) », in H. F. Diaz et V. Markgraf, Edit., El Niño and the southern oscillation. Multiscale variability and local and regional impacts, Cambridge University Press, 2000. A. SEN & J. DRÈZE, Omnibus, Oxford University Press, New Delhi, 1999. I. A. SHIKLOMANOV, J.C. RODDA, World Water Resources at the beginning of the twenty-first century, Cambridge University Press, Cambridge, UK, 2003, aussi disponible en CD-ROM à l’Unesco, Paris, 1999. F. TARDIEU, « Plant tolerance to water deficit: physical limits and possibilities for progress », in Comptes rendus Geoscience, no 337, pp. 57-67, Académie des sciences, 2005. D. VIVIROLI et al., Mountains of the World -Water Towers for Humanity: Typology, Mapping and Global Significance, Water Resources Research, à paraître, 2007.

Page 119: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 118

Questions sur les risques naturels

Paul-Henri BOURRELIER

L’homme est-il impuissant devant les risques naturels ?

L’homme ne maîtrise pas les phénomènes tels que tempêtes, pluies, éruptions, séismes, tsunamis… générateurs de risques, mais il peut le plus souvent éviter de s’y exposer, se protéger, se préparer à s’en relever. Il a beaucoup d’outils à sa disposition : sur le territoire français, une information est dispensée par les mairies, des plans de prévention indiquent les zones où il ne faut pas construire et celles où il ne faut construire qu’en respectant certaines dispositions de sécurité, des consignes de vigilance et d’alerte sont émises lorsqu’un danger se confirme, et des travaux sont réalisés pour améliorer la protection des agglomérations.

Des catastrophes nous menacent-elles en France

Oui, de grandes inondations et de grandes tempêtes se reproduiront comme par le passé. Le changement climatique est susceptible d’avoir une influence néfaste, notamment en accentuant les sécheresses d’été propices aux feux de forêt, en modifiant les trajectoires ou en accentuant la violence des tornades. Avec une probabilité beaucoup plus faible, sauf aux Antilles, le territoire national subira des séismes destructeurs et n’est pas à l’abri d’un tsunami en Méditerranée, tandis que le risque volcanique reste bien présent dans les départements d’Outremer. En s’y préparant, on peut réduire les pertes humaines et éviter que les dommages ne s’élèvent à des montant jamais atteints.

Comment les zones sujettes à risques sont-elles délimitées ?

La connaissance des phénomènes et de l’histoire de la Terre et la mémoire des événements qui se sont produits autrefois ou récemment permettent d’établir une cartographie de ce qu’on appelle les « aléas » ; cette cartographie indique les zones qui peuvent être touchées, et l’intensité pour une fréquence donnée de ces manifestations dangereuses : par exemple pour les inondations, la hauteur d’eau et la vitesse du courant que l’on observe en moyenne une fois tous les cent ans ; cette délimitation, comme toute mesure, est affectée d’une incertitude qui est d’autant plus forte que l’aléa est plus rare et plus violent ; elle est révisée au fur et à mesure que les connaissances fondamentales et appliquées s’améliorent. Pour les tempêtes, comme pour les séismes, on discerne des effets de site amplificateurs. La vulnérabilité des côtes sera accrue par la hausse du niveau de la mer. Les emprises des glissements de terrain et chutes de rochers, des avalanches, des éruptions volcaniques sont également évaluées avec une incertitude notable et même si on prend une marge de sécurité, il n’est pas impossible que celle-ci soit mise en défaut si des conditions exceptionnelles se trouvent réunies.

Peut-on toujours mettre les populations en alerte devant un danger imminent ?

Page 120: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 119

De grands progrès ont été faits pour prévoir la manifestation des phénomènes dangereux. Le cas que tout le monde connaît bien est celui de la météorologie. Cependant, si celle-ci repose sur des observations et des modèles performants, sans cesse en progrès, il reste toujours une incertitude et un facteur subjectif dans la prévision. Aussi donne-t-on d’abord des messages de vigilance qui appellent l’attention sur les menaces décelées, et l’alerte est lancée seulement lorsque le danger est devenu très probable et qu’on peut le caractériser (ordre de grandeur des vitesses des rafales, des précipitations, des températures anormales…). Les séismes, par contre, se produisent si brutalement qu’on n’a pas la possibilité de les prévoir. Il y a enfin des phénomènes intermédiaires où on ne dispose que d’un court préavis : c’est le cas des crues torrentielles sur de petits bassins versants, des grands glissements de terrain, des effondrements, des tsunamis. Le système de surveillance doit être d’autant plus performant qu’il faut compter avec les délais et les dysfonctionnements dans l’acheminement des messages, les erreurs de compréhension, les défauts de réflexes. Les progrès techniques doivent s’inscrire dans un contexte sociétal et s’accompagner d’efforts de formation.

On entend fréquemment des critiques sur le fait que des annonces de menaces décrites par la météo n’aient en fait pas été suivies de réalisation : tempêtes, pluies intenses, vents … N’est-il pas cependant préférable d’être prévenu du risque d’un événement désagréable, même s’il ne se produit pas, plutôt que d’être surpris ? Il convient de faire très attention au niveau de probabilité qu’un phénomène se produise. Les messages de Météo-France indiquent en général ce niveau de probabilité et c’est alors au citoyen de décider, à ce stade, de prendre ou non des précautions.

La protection par des digues est-elle une bonne mesure contre le risque des inondations ?

Elle est efficace jusqu’à un certain niveau, mais elle accroît le risque, qui devient catastrophique, lorsque ce niveau est dépassé ; d’autre part, elle a souvent pour conséquence d’accroître le risque à l’aval. Par principe, il faut résister à la tentation de construire de nouveaux quartiers à l’abri de digues. Les barrages ont une influence régulatrice qui est également limitée aux petites variations dont la disparition fait perdre le sens de la vie de la nature. Ces effets pervers conduisent à préférer d’autres mesures.

Les dispositions parasismiques mettent-elles les constructions à l’abri des dommages s’il se produit un séisme ? Leur coût est-il prohibitif ?

Pour le niveau des aléas qui affectent le territoire français et les constructions courantes, les mesures prescrites n’accroissent pas sensiblement le coût des constructions (les quelque pour cent de dépenses supplémentaires sont de l’ordre de grandeur de ce qu’entraîne la qualité en d’autres domaines) ; en cas de séisme maximum prévisible dans la zone, elles garantissent que l’immeuble ne s’effondrera pas, même si le séisme est de la plus forte intensité prévisible. Pour les installations industrielles sensibles et les ouvrages d’art (ceux du TGV par exemple dont le courant est coupé instantanément), on prend des précautions plus fortes, ce qui peut surenchérir les frais de construction de plus de 20 %. Le risque subsiste pour les bâtiments anciens dont on peut diagnostiquer les faiblesses mais dont la consolidation n’est pas simple. Aux Antilles, la mise en sécurité peut conduire à reconstruire certains bâtiments collectifs.

Page 121: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 120

Les grands feux de forêt constituent-ils un risque naturel ?

Oui, puisque le risque résulte de la masse combustible et de conditions météorologiques (d’où l’utilité de la vigilance). La mise à feu initiale est cependant presque toujours due à une imprudence ou une malveillance.

Ne serait-il pas plus simple de ne pas se soucier de prévention et de s’assurer ?

Cette attitude de gribouille consiste à ignorer que le danger peut frapper fort, en particulier les personnes, et qu’aucune indemnisation ne saurait alors compenser le désastre. En outre il est incivique de faire reposer sur les autres la réparation de ses propres imprudences ; la mutualisation des erreurs devient tôt ou tard insupportable à la collectivité.

Les risques naturels constituent-ils une contrainte forte pour le développement ?

En France, les risques sont modérés, le territoire dispose de vastes zones répondant à tous les critères d’un développement sans aléas excessifs. Il est donc possible de trouver des compromis qui permettent de répondre aux vœux de croissance tout en limitant les risques à un niveau acceptable, et c’est l’objet du débat public de fixer ce niveau. Des pays pauvres sont souvent beaucoup plus vulnérables (ils le sont surtout à la sécheresse et à d’autres calamités) malgré la résistance acquise par la population. Ils peuvent trouver certaines ressources dans leurs traditions ; la coopération internationale se doit de leur transférer de l’information et leur proposer des mesures à leur portée.

Page 122: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 121

Les risques naturels

La nature est sujette à des phénomènes qui se produisent dans l’atmosphère, sur le sol et dans le sous-sol : vent, pluie, mouvements de l’eau ou du sol, feux… Ces phénomènes courants peuvent être canalisés, amplifiés ou déclenchés par l’action de l’homme. Ils participent à la vie des milieux, et ils peuvent avoir des aspects bénéfiques : par exemple, les crues périodiques rechargent les nappes et maintiennent les zones humides avec leurs importants écosystèmes. Ceux-ci sont soumis à la variabilité naturelle qui est à l’origine de l’évolution.

Parfois, ces phénomènes se produisent avec une violence intense due à la dissipation d’une énergie considérable accumulée : ce sont des tempêtes, tornades et cyclones, des pluies intenses suivies de coulées de boues, de crues torrentielles ou d’inondations en plaine, des avalanches, des glissements ou affaissements de terrain, des séismes, des éruptions volcanique, ainsi que de grands feux de forêt. Leur caractère fortement chaotique rend leur déroulement peu prévisible.

Ces phénomènes dévastateurs, plus ou moins fréquents et irréguliers, constituent la composante aléa du risque. Les conséquences sont plus ou moins graves selon le lieu où se produit l’événement, la présence de personnes ou de biens, les dispositions de prévention et les comportements durant la crise,. C'est la composante vulnérabilité.

Le risque résulte du croisement de ces deux paramètres. Construire dans une zone inondable, c’est bien évidemment prendre un risque d’inondation qui est absent si on construit sur une colline. Or, les hommes ont parfois tendance à oublier ou négliger le fait que les rivières ont, de temps à autre, de fortes crues. Des intérêts économiques entrent bien souvent en jeu car les fonds de vallée sont souvent plus faciles à aménager, plus près des voies de communication, moins chers. Tout cela explique dans une large mesure que l’on voie régulièrement des zones d’habitation ravagées par les inondations. Ce n’est pas seulement, souvent pas du tout, de la fatalité.

On réduit les risques en maintenant la qualité des milieux naturels (par exemple les lits des cours d’eau, les zones qui permettent de ralentir les inondation par une expansion des crues dans des zones non habitées), en évitant de s’implanter dans les zones particulièrement sujettes aux phénomènes les plus violents, en construisant les bâtiments selon des normes appropriées (par exemple les normes relatives aux séismes, aux effets du vent, aux tassements ou gonflements du sol), en installant des dispositifs de protection. Le risque est également réduit lorsque les populations le connaissent et sont préparées à avoir les bonnes réactions, que sont émis des messages de vigilance dont elles tiennent compte et des alertes avec des consignes de mise à l’abri (éventuellement d’évacuation) qu’elles respectent, que les secours sont efficaces et les réseaux publics (électricité, télécommunications, desserte d’eau et évacuation des déchets) robustes. Deux exemples :

- la majorité des victimes d’accidents mortels en cas d’inondation en France métropolitaine sont des personnes qui ont pris la voiture malgré les mises en garde ;

- malgré leur violence, il n’y a presque plus de victimes des cyclones dans les départements d’outre-mer, car les alertes sont très règlementées et respectées.

Page 123: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 122

La croissance continuelle des dommages résulte pour une part de l’accroissement de la population et de l’enrichissement qui augmente la valeur des biens exposés, mais elle démontre aussi que les mesures préventives préconisées ne sont pas suffisamment respectées : indiscutablement, la vulnérabilité, mal maîtrisée, devient une caractéristique d’une société inconsciente, qui proteste contre les risques collectifs, mais ne consent pas les efforts nécessaires pour les limiter. L’impact et la responsabilité sont partagés entre toutes les parties prenantes, publiques et privées.

La connaissance scientifique des phénomènes, la reconstitution des événements du passé, la délimitation des zones sujettes à aléas, et les moyens techniques d’alerte et de prévention ont beaucoup progressé. Un certain niveau de danger subsistera cependant en tout état de cause, parce que les implantations à risques sont souvent héritées du passé, et parce qu’on ne peut stériliser une grande partie du territoire où le risque, ne se manifestant que rarement et pouvant être atténué, est considéré comme acceptable. Le tempérament humain est aussi de prendre consciemment des risques individuels, en sport (montagne, mer) par exemple.

Il faut en conséquence gérer ce risque de façon responsable. L’établissement de scénarios de catastrophes combinant les circonstances des aléas les plus menaçants et préparant la réponse de crise facilité par un ensemble diversifié de mesures de prévention fait partie de cette gestion. Il faut également commencer à prévoir les orientations de la reconstruction après sinistre, de façon à éliminer au mieux les causes de vulnérabilité et éviter le retour d’événements semblables.

La cartographie informatisée des risques est un outil puissant que chacun pourra désormais avoir à sa disposition. Elle comporte une incertitude qui s’inscrit dans une modélisation probabiliste des aléas. Cependant c’est sur la composante vulnérabilité que l’effort d’évaluation doit être réalisé à l’avenir, la méthodologie étant largement à affiner.

Les moyens de prévision et d’alerte ont fait dans certains domaines, comme celui de la météorologie, des progrès considérables. Il faut cependant rester conscient des limites de la prédiction des événements dangereux dans le temps et géographiquement : la méthode retenue pour les événements d’origine météorologique est inspirée de l’expérience des cyclones. Elle consiste, pour les services chargés de la surveillance, à émettre d’abord un message de vigilance qui annonce une éventualité dans un délai de 24 à 48 heures. Le message d’alerte précis, accompagné de consignes peut ensuite être envoyé par les responsables de la sécurité (maires, préfets) lorsque la menace se confirme et se précise sans être jamais absolument certaine. Cependant le maillon faible reste celui qui aboutit aux destinataires, c'est-à-dire la population, avec en surplus un problème d’appropriation du contenu du message et de réaction (une partie de la population refuse d’obéir aux ordres d’évacuation ; une partie des victimes provient des personnes qui prennent leur voiture). L’expérience montre que les communications sont ensuite rapidement saturées quand elles ne sont pas interrompues. Il reste donc beaucoup à faire sur la fiabilité globale du système.

Les recherches pour déceler des signaux précurseurs des séismes n’ont pas abouti jusqu’à présent et on ne peut compter sur un succès futur. Cela donne une importance accrue aux délimitations des zones sujettes à des aléas forts (voisinage de failles, sites correspondant à des effets amplificateurs comme la liquéfaction du sol) et à l’application des méthodes de

Page 124: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 123

construction répondant aux normes. La validité de celles-ci a été prouvée par l’expérience, mais la difficulté principale réside dans l’adaptation des pratiques traditionnelles et dans le coût du renforcement des bâtiments existant.

Les séismes de forte intensité sont localisés dans les minutes qui suivent par le réseau mondial des stations de surveillance. Cette célérité permet de gagner du temps pour l’acheminement des secours et, si le séisme s’est produit sous la mer, de lancer des alertes au tsunami qui est susceptible de toucher les côtes dans les heures (parfois moins) qui suivent.

Des analyses analogues sont conduites sur les éruptions volcaniques, les mouvements de terrain que l’on équipe de capteurs.

En conclusion, le développement doit tenir compte, parmi d’autres, des contraintes résultant des risques naturels. L’aménagement des territoires doit s’adapter. L’homme doit vivre avec la nature, et ne pas ignorer le comportement des forces qui la parcourent, des dangers comme des plaisirs associés qu’elle recèle, garder la mémoire des désastres passés et anticiper les menaces. Skier ou escalader, faire de la voile, vivre au bord de l’eau, construire sur des terrains susceptibles de mouvements, habiter au pied d’un volcan, c’est côtoyer des risques. Connaître ces risques et rester vigilant à leur égard, ne pas s’exposer exagérément, éliminer les imprudences, c’est faire preuve de discernement.

Page 125: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 124

Les risques technologiques

Paul-Henri BOURRELIER

Les risques dits « technologiques » correspondent aux nuisances et dangers pour le voisinage − on dit aujourd’hui l’environnement en y incluant les lieux de vie − des activités économiques : extraction minière, production énergétique et agricole, transformation, transport, stockage et distribution des produits industriels, élimination des déchets. Ils n’incluent pas les accidents de travail qui se produisent à l’intérieur des enceintes, fixes ou mobiles, affectées aux activités, ou au cours des déplacements du personnel se rendant à son travail.

On peut les répartir en deux catégories selon la façon dont les barrières qui séparent l’activité professionnelle du monde extérieur sont mises en défaut :

- par des accidents instantanés tels qu’explosions, incendies, fuites massives qui fracturent les enceintes ;

- par l’émission chronique, dans l’air, dans l’eau ou dans le sol, de produits, de radiations ou d’ondes susceptibles d’être nocifs pour la population et pour l’environnement. On inclut dans cette catégorie les effets des produits commercialisés du fait de leur composition chimique, en plus des dangers qui résultent de la fonction et de l’usage de ces biens (déplacements, alimentation, santé, sport et loisirs par exemple).

On examinera la façon dont ces deux catégories de risques sont évaluées et gérées, puis on abordera les questions d’organisation, de responsabilité et d’éthique qui s’appliquent à l’une comme à l’autre. On s’en tiendra aux principes en donnant des exemples significatifs, car il est hors de notre portée de passer en revue toutes les catégories d’installations et de produits. Les chapitres sur l’eau et l’air, le changement climatique, la santé humaine et les écosystèmes donnent des informations plus détaillées sur certains aspects de ces risques.

1. Les risques d’accidents instantanés

La sécurité repose avant tout sur la réduction des aléas obtenue en remontant à leurs sources : on n’accepte que les procédés qui sont considérés − par l’expérience courante, souvent ancienne, ou à la suite de calculs − comme sûrs, en respectant les normes qui ont été établies, et, s’il y a lieu, en confirmant la confiance qui leur est faite par des essais et des modélisations.

Au cours de l’exploitation, on repère toutes les origines possibles d’aléas en analysant les concours de circonstances qui peuvent aboutir à un accident et en effectuant des retours d’expérience systématiques sur les incidents survenus ; cette discipline permet de mettre en évidence les défaillances possibles, d’établir des consignes opératoires mieux adaptées, d’accentuer la vigilance et de réduire ainsi méthodiquement les aléas.

Page 126: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 125

Le retour d’expérience développé de façon systématique dans les activités à haut risque comme le nucléaire, l’aviation, les trains à grande vitesse… a permis d’en abaisser le risque de façon spectaculaire. La pratique s’est transposée dans les industries pétrolière, chimique et métallurgique. Les opérateurs reçoivent une information sur tout accident révélateur de dangers insoupçonnés ou de pratiques à risques observés ailleurs. Des bases de données sur les accidents sont tenues par les grandes entreprises, les professions (au niveau international comme national) et de façon interprofessionnelle par l’administration nationale chargée de la réglementation et du contrôle de la sécurité (le service de l’environnement industriel du ministère responsable du Développement durable en France). On s’efforce de considérer, dans chaque filière industrielle, la gamme complète des événements anormaux et d’interpréter chacun d’eux en le situant sur une échelle de gravité reconnue internationalement, ce qui permet d’étendre le champ des comparaisons.

Une seconde ligne de défense est constituée de barrières interposées entre les enceintes où l’accident peut se produire et l’environnement ; une d’elles consiste à créer une distance de sécurité entre les installations et l’extérieur, particulièrement s’il comporte des lieux de vie tels qu’écoles, bâtiments recevant du public, habitations collectives…. Là encore, la modélisation sert à évaluer l’efficacité du dispositif.

Des catastrophes ont jalonné l’histoire industrielle et ont été à l’origine de mesures de sécurité qui ont été ainsi prises pour éviter leur renouvellement. En se limitant au XXe siècle, la catastrophe des mines de Courrière (1099 tués) dans ses premières années a fait prendre conscience que les poussières de charbon contenant des substances volatiles créaient, en se mettant en suspension, un mélange explosif plus dangereux que le grisou car susceptible de s’étendre à toute l’installation. Des réponses ont été apportées à cette source de danger. Plus tard, des explosions de silos de farine ont appelé à prendre des mesures de sécurité à l’égard d’un aléa similaire.

L’accident de la raffinerie de Feyzin (4janvier 1966) dans le « Couloir de la Chimie » près de Lyon, a conduit le gouvernement à rattacher l’inspection des établissements classés comme dangereux, créée par un décret de 1910 et une loi de 1917, au service des mines (actuellement la DRIRE) relevant du ministère de l’Industrie, puis du ministère de l’Environnement. Cette réforme a permis de lui donner une forte assise technique et d’accentuer les efforts de formation et d’encadrement des inspecteurs.

Au cours des dernières décennies, l’accident de l’usine chimique Seveso (1976), en Italie, a entrainéla formation d’un nuage toxique de dioxine, rappelant certains effets des explosions de bombes atomiques au Japon. L’émotion suscitée a conduit la Communauté européenne à se doter en 1982 de la directive dite « Seveso », qui a fixé un cadre pour toute l’industrie de la Communauté. Deux ans plus tard, la catastrophe de Bhopal (1984), en Inde, a montré qu’un tel risque est tout à fait réel.

Quant à l’industrie nucléaire, on sait l’importance qu’ont revêtu l’accident de Three Mile Island (1979) aux États-Unis et la catastrophe de Tchernobyl (1986) en URSS. L’accident de Tchernobyl, par exemple, a montré les défauts des centrales nucléaires soviétiques de l’époque : une réaction comportant une instabilité intrinsèque, l’insuffisance des barrières et une culture de sécurité médiocre ; depuis, il a été remédié, dans une certaine mesure, à ces trois faiblesses.

Page 127: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 126

Deux ans après la catastrophe d’AZF à Toulouse le 21 septembre 2001, la loi du 30 juillet 2003 a mis en place une politique de prévention élargie, reposant sur une évaluation probabiliste des risques, accordant toute leur importance aux commissions qui associent le personnel et les riverains à la vigilance, et créant des outils de contrôle de l’urbanisation autour des installations. Comme pour les catastrophes naturelles, l’évolution conduit à accorder de plus en plus d’importance à la vulnérabilité des populations et des milieux naturels. L’effectif de l’Inspection des établissements classés a été considérablement renforcé.

Les réactions des autorités de sécurité sont rapides lorsqu’une nouvelle configuration de risque est ainsi détectée. Comme dans les exemples bien connus des accidents d’avions, les dispositions ont souvent été prises alors que les causes des accidents n’étaient pas totalement élucidées et sans attendre que la justice se soit prononcée. Le caractère révélateur de l’accident compte bien plus que le nombre de victimes : ce sont Seveso et Three Miles Island, accidents sans incidences sur la santé autres que psychologiques, qui ont eu récemment le plus fort retentissement réglementaire.

Ces principes se transposent au transport de matières dangereuses avec des difficultés supplémentaires résultant de la mobilité. Il existe toute une série de réglementations particulières à chaque mode de transport. Elles visent les matériels, les opérateurs et l’exploitation. Les entreprises doivent faire faire un audit annuel et une enquête est réalisée après chaque accident. Il reste beaucoup à faire dans la détermination des itinéraires et dans l’aménagement des aires de stationnement, aussi bien pour le transport ferroviaire que pour le transport routier. Les tunnels et les matières radioactives représentent des segments particulièrement sensibles.

Un cas important est celui des transports maritimes qui relèvent pour l’essentiel d’accords internationaux. La succession des marées noires résultant de naufrages de pétroliers, depuis l’Amoco Cadiz en 1978 jusqu’à l’Erica en 1999 a amorcé une réforme de la loi internationale qui régit les transports en haute mer et un durcissement du contrôle exercé par les autorités maritimes françaises sur les navires qui pénètrent dans nos eaux territoriales.

2. Les risques chroniques

Les principes de prévention des risques chroniques sont comparables : toutes les fuites et émissions, volontaires ou invisibles, de substances nocives sont repérées, supprimées à la source si possible, sinon réduites par des procédés, par recyclage et par des barrières. Des modèles et des mesures de terrain permettent d’évaluer comment les substances se transfèrent dans les milieux, et de vérifier que si elles atteignent les cibles sensibles − par exemple les nappes d’eau exploitées − la contamination sera au-dessous de normes fixées.

Les catastrophes ont joué le même rôle de révélateur de dangers pour les pollutions diffuses que les grands accidents : ce sont les graves effets des rejets de mercure d’une usine d’électrolyse japonaise qui ont servi, dans les années cinquante, de révélateur et d’alerte sur les risques résultant de la concentration des éléments toxiques dans les chaînes trophiques à l’aval de la rivière jusqu’à la population consommatrice de poissons.

Les risques chroniques posent cependant des problèmes particuliers d’évaluation et d’exposition.

Page 128: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 127

2.1. L’évaluation des risques et les doses limites

Il faut d’abord rappeler le vieux principe selon lequel c’est la dose qui fait le poison : à très forte teneur, les produits finissent par être toxiques ou par avoir des impacts sérieux sur l’environnement. L’augmentation des quantités de substances émises est susceptible de créer des effets qui ne sont pas perceptibles en deçà d’un seuil d’élimination par le milieu récepteur. Le cas le plus frappant est celui du dioxyde de carbone, produit en majorité d’origine naturelle, indispensable à la vie, qui fait l’objet d’échanges intenses entre la biosphère et l’atmosphère : on a commencé à la fin du XIXe siècle à soupçonner que la combustion du charbon pourrait aboutir à un accroissement assez sensible de l’effet de serre, mais la modélisation effective et l’observation de conséquences climatiques problématiques n’a pris une véritable consistance que depuis quelques décennies.

Les propriétés des substances utilisées dans le processus de production sont donc un des facteurs du risque technologique. La connaissance de leur cycle est essentielle : il s’agit soit d’éléments comme le mercure ou le plomb, qui sont indestructibles et qu’il faut suivre « du berceau à la tombe » (de l’extraction minière au stockage de déchets) selon une expression imagée, soit de molécules qui peuvent se dégrader, se recomposer, perdre leur nocivité ou en acquérir une nouvelle : leur durée de vie dans les milieux naturels est un élément à considérer.

Cette donnée est essentielle pour toutes les sources diffuses (contamination de l’atmosphère des lieux de travail, émission dans l’environnement, diffusion à partir des produits de consommation). Elle est évaluée à partir d’études toxicologiques, de la documentation épidémiologique et d’essais écotoxicologiques. Finalement, la dose limite est fixée en appliquant des marges élevées pour tenir compte de l’incertitude.

Le choix des modèles d’extension aux faibles doses des dangers des substances reconnues toxiques à des doses appréciables pose en effet un problème qui n’est pas parfaitement résolu scientifiquement. Admettre une loi linéaire revient à considérer qu’une seule molécule peut tuer, comme cela a pu être proclamé pour les substances carcinogènes, alors qu’il est reconnu que certains éléments chimiques comme l’arsenic cessent d’être toxiques et même ont des effets médicinaux au-dessous d’un seuil. Deux exemples montreront les dilemmes auxquels ce choix peut conduire : en utilisant une loi linéaire l’EPA (Agence pour la protection de l’environnement) américaine a préconisé pour les dioxines des teneurs qu’il est impossible de contrôler, qui reviendraient à écarter la population loin du moindre feu ou barbecue, et qui sont cent fois inférieures à celles, plus réalistes, admises par les normes européennes. On sait que l’accident de Tchernobyl a provoqué en peu de temps une quarantaine de morts par irradiation intense ; quel a été, et sera dans le temps, le nombre des décès résultant des faibles irradiations ? Il pourrait aller, si on appliquait les formules les plus extensives, jusqu’à quelques dizaines de milliers. L’ONU, toutes institutions compétentes réunies, a conclu en 2006 que le seul chiffre raisonnablement assuré de morts est de deux mille.

Un des problèmes posés par l’évolution industrielle est la multiplication des molécules − des dizaines de milliers, voire plus de cent mille − produites par l’industrie chimique. Le règlement européen Reach (Registration, Evaluation and Authorisation of CHemical products), qui est entré en vigueur le 1er juin 2007, impose désormais un enregistrement des nouvelles substances et des produits commercialisés au-delà d’un certain tonnage, sur la base d’un dossier contenant une évaluation systématique des risques ; le programme de rattrapage

Page 129: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 128

des connaissances, étalé dans le temps, représente un effort considérable auquel l’industrie s’est engagée.

2.2. La complexité de l’exposition

Il y a d’abord à estimer les transferts des substances nuisibles répandues dans la nature : si les modèles sont à peu près représentatifs pour les milieux homogènes que sont l’air et l’eau, beaucoup plus problématiques sont ceux dans les milieux hétérogènes que sont les sols, sans même parler des chaînes du vivant.

L’épidémiologie des populations vivant autour des installations est un moyen de recoupement et de surveillance des risques chroniques. Cependant, il est très difficile de tirer des conclusions formelles d’une telle étude si elle n’est pas appliquée avec une méthodologie rigoureuse à une population assez nombreuse qui n’existe pas toujours (ce qui est a priori heureux ; c’est souvent le cas des panaches de fumées des incinérateurs contenant des traces de dioxines). Ces travaux coûtent cher. Les annonces sont souvent prématurées ou contestables. Un cas exemplaire de recherche est celui qui a été mené dans le Cotentin, avec la participation des associations, sur les effets des rejets de l’usine de La Hague : cette opération, qui a duré plusieurs années, a montré qu’il n’y avait pas d’effet décelable sur la santé des populations ; très instructive aussi bien pour l’exploitant que pour les associations, elle n’a cependant pas éteint toute contestation. Un autre exemple intéressant est celui des effets des ondes électromagnétiques des lignes à haute tension sur les populations vivant à proximité : des études épidémiologiques extensives, effectuées notamment en Amérique, n’ont rien décelé. Mais le dossier n’est pas clos, et ne le sera sans doute jamais, d’autant que le stress, qu’on évoquera plus loin, peut entrer en compte.

Les résultats des études épidémiologiques sont d’autant plus probants qu’ils s’articulent sur des connaissances toxicologiques actualisées. Les mécanismes de réparation cellulaires progressivement élucidés laissent penser qu’ils créent un seuil pour l’effet cancérigène des radiations, ce qui se recoupe avec les données montrant que les cancers ne sont pas plus fréquents dans les zones où la radioactivité naturelle est notable.

Il faut par ailleurs tenir compte du fait que des substances toxiques se trouvent naturellement dans la nature. On se souvient des procès célèbres pour empoisonnement dont l’accusation reposait sur la présence d’arsenic dont la provenance n’avait rien de criminel. Les « métaux lourds » utilisés dans les objets comme le plomb, le cadmium, le mercure, qui constituent des menaces plus sérieuses, sont issus de gisements naturellement isolés, le plus souvent souterrains. Ils sont dangereux pour la santé au-delà de doses internes (par exemple dans le sang) qui ont été évaluées et font l’objet de normes de l’OMS. On estime le risque de leur présence dans l’environnement selon leur forme chimique (spéciation), leur accessibilité… ; il est interdit de les rejeter, et les centres de stockage de déchets font l’objet de précautions particulières, notamment par la mise en place de barrières entre eux et les eaux qu’ils pourraient contaminer. Cependant, des exploitations clandestines d’or en Guyane utilisant le mercure comme agent de traitement, en contaminant les chaînes alimentaires, font courir des risques à la population locale qui consomme beaucoup de poissons.

Les déchets créent d’autres menaces. La tentation a longtemps été de se limiter à mettre à l’écart de façon sommaire les composants nocifs puis de diluer ce qui subsiste dans des milieux récepteurs. On les réduit désormais en mettant en œuvre des procédés plus propres et

Page 130: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 129

en recyclant ce qui peut l’être (par exemple le plomb des batteries). On pratique d’autre part une épuration beaucoup plus poussée des fumées et des eaux rejetées, en contrôlant mieux les réactions, en réalisant des arrêt sur filtre ou en installant de véritables usines annexes de traitements dont le coût croit au fur et à mesure que les teneurs résiduelles sont abaissées. Les émissions de SO2 par les grandes chaudières à charbon, qui avaient provoqué, il y a une trentaine d’années, de grandes inquiétudes relatives au dépérissement des forêts en Europe, ont été ainsi très fortement réduites. L’abattement des pollutions par les véhicules automobiles fait l’objet de progrès constants, qu’il s’agisse de gaz ou de particules.

Les déchets industriels et les déchets des produits de consommation contenant des substances toxiques (par exemple les piles, les panneaux contenant de l’amiante) sont regroupés et traités dans des installations d’incinération spécialisées, dont les émissions sont contrôlées. Les déchets « ultimes », de volume réduit, sont stockés définitivement en mettant l’environnement à l’abri (matrices stabilisatrices, barrières extérieures contrôlées). Les déchets nucléaires de haute activité constituent un cas extrême avec, comme barrière, l’épaisseur des terrains entre les cavités souterraines et le sol. Des modélisations sont effectuées qui permettent d’évaluer les fuites et leur impact sur une longue période (des siècles pour les éléments toxiques comme les métaux lourds, des dizaines de milliers d’années pour les éléments radioactifs à longue durée de vie).

N’oublions pas enfin les terrils de très grands volumes de déchets miniers ou de cendres de combustion pouvant contenir des quantités notables de métaux lourds ou d’éléments radioactifs méritent certaines mesures d’isolement.

Il existe enfin des cas où les espèces vivantes sont volontairement exposées à des produits chimiques. L’agriculture utilise des engrais qui, s’ils sont en doses trop massives ou s’ils sont inappropriés à la nature des sols, peuvent contaminer les eaux par des substances provoquant des effets indésirables : c’est le cas des nitrates dans les sols acides ; les teneurs limites fixées par la réglementation sont souvent dépassées actuellement dans les eaux de surface et souterraines bretonnes. Mais c’est surtout l’usage des produits phytosanitaires destinés à combattre des espèces considérées comme nuisibles pour la santé humaine, l’élevage ou l’agriculture, qu’il faut contrôler et maîtriser. Les autorisations de mise dans le commerce sont délivrées après des essais et la modélisation des risques qui permettent de fixer des doses limites. Pour optimiser leur emploi, les efforts vont vers un ciblage amélioré des épandages. Une gestion prudente en considération du risque devient un impératif.

3. Questions-réponses sur les problèmes d’organisation et d’éthique

Pourquoi les controverses s’accroissent-elles, malgré le progrès des connaissances ?

Le caractère aléatoire des risques technologiques porte soit sur le caractère imprévisible des accidents, soit sur la méconnaissance des effets ponctuels des émissions dispersées. Les succès dans la réduction des accidents et des émissions spécifiques pour une production donnée sont réels mais en fin de compte limités par la croissance des quantités de produits, du nombre des substances mises en œuvre, de l’importance des effectifs et des biens cibles. Pour évaluer le risque dans les deux catégories, il faut donc, au fur et à mesure des progrès, se livrer à l’exercice de plus en plus difficile qui consiste à multiplier une probabilité minime, celle de l’accident grave ou de l’effet de faibles doses, par des facteurs d’impacts croissants.

Page 131: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 130

L’incertitude qui prévaut alimente l’inquiétude et oblige à une application toujours délicate, sujette à controverse scientifique, du principe de précaution.

Comment le principe de la meilleure technologie disponible s’applique-t-il ?

Le principe retenu pour les installations nouvelles est le choix de la meilleure technologie disponible au moment de la décision d’investir. On recherche celles qui ne mettent pas en œuvre des réactions instables, n’imposent pas des stockages dans des enceintes confinées de quantités importantes de substances toxiques ou pouvant provoquer une explosion. Il n’y a cependant pas d’effet rétroactif de retrait des autorisations accordées antérieurement pour des procédés qui s’avèrent moins performants, du moins pendant une période qui peut être longue, dans la mesure où des aménagements et l’installation de dispositifs de contrôle peuvent en améliorer la sécurité, et qu’une période d’observation d’une technologie nouvelle, qui a toutes probabilités de comporter des risques mal appréciés au départ, est généralement souhaitable.

Pour mettre en œuvre les stratégies complexes qu’imposent des processus et des produits qui sont attirants par leurs avantages mais qui comportent des risques potentiels, l’un n’allant généralement pas sans l’autre, il s’impose de s’appuyer sur des évaluations comparatives coûts/bénéfices dans un contexte d’incertitude, encore peu pratiquées en France.

Comment faire face aux risques de types nouveaux ?

L’industrie nucléaire, les biotechnologies, les nanotechnologies par exemple, qui constituent des avancées considérables, ont comporté et comportent une part d’inconnu quant aux risques. Le principe de précaution implique d’évaluer ceux-ci et de les mettre en balance avec les avantages qu’elles apportent. Mais les technologies ou les substances couramment utilisées comportent souvent des risques dont on prend conscience tardivement : par exemple l’amiante, très bon isolant dont l’utilisation s’est développée au siècle dernier sans que l’on ait attaché assez d’importance aux risques de cancer qu’il faisait courir, le plomb tétra-éthyle, qui a été mélangé à l’essence pour faire du supercarburant sans que l’on ait pris en considération les effets des produits de combustion dilués dans l’air. Le risque peut aussi se manifester lorsque le volume des produits contaminants dépasse un seuil d’autoépuration ou une capacité de stockage limitée : ainsi en est-il des émissions de CO2 qui s’ajoutent à des échanges naturels intenses et finissent par accroître la teneur de cette molécule en trace dans l’atmosphère terrestre. La formation de l’ozone troposphérique ou la destruction de l’ozone stratosphérique, exposées dans d’autres fiches, sont d’autres exemples d’effets complexes.

Le développement technique oblige à disposer des connaissances nécessaires pour comprendre les interactions entre les cycles et pour faire les arbitrages qui permettent de minimiser les risques. La gestion du temps devient une composante essentielle car les essais destinés à évaluer ces risques sont parfois longs : par exemple les avantages qu’apportent les OGM, non seulement en matière d’efficacité mais aussi dans la réduction de certains risques inhérents aux techniques habituelles, justifient-ils qu’on les emploie sans avoir effectué toutes les expérimentations ? La réponse peut être différente selon qu’il s’agit de la production de médicaments ou de cultures, et même varier selon les plantes cultivées, voire selon les besoins alimentaires des sociétés concernées.

Les nanotechnologies qui utilisent des substances très finement divisées (moins de 0,1 micron sur deux dimensions au moins) sont, à l’instar des OGM, mais dans un contexte

Page 132: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 131

d’anticipation qui réduit les polémiques, un bon exemple des stratégies à adopter vis-à-vis de nouveaux produits. Il est prévu que ces particules et fibres qui ont des surfaces spécifiques considérables permettront de mettre en œuvre des procédés très efficaces avec des retombées intéressantes pour les capteurs, les séparateurs, l’énergie, etc., intéressantes du point de vue écologique. Mais on ne connaît presque rien des risques qu’elles peuvent induire et on dispose de données convergentes qui font penser que, liées à certaines contaminations chimiques, elles pourraient se révéler dangereuses pour la santé. Le Comité de la prévention et de la précaution a émis en mai 2006 des recommandations de vigilance qui se classent en quatre chapitres : recenser les nanoparticules, produire de nouvelles connaissances, adopter des mesures de précaution et prendre en compte les aspects sociétaux.

La vulnérabilité est-elle un déterminant des risques technologiques ?

Oui, on s’en rend compte de plus en plus. La loi du 30 juillet 2003 transpose aux risques technologiques les dispositions applicables aux risques naturels en ce qui concerne le contrôle de l’urbanisation (les PPRT, plans de prévention des risques technologiques, sont dérivés des PPRN, plans de prévention des risques naturels) et l’indemnisation des dommages par un dispositif hybride entre l’État et les assureurs.

Comme pour les catastrophes naturelles, les effets de stress sont très importants, parfois les seuls, pour la santé, et ils sont mal comptabilisés s’ils se produisent dans la durée. Un exemple qui a été bien étudié est celui de la décharge de Montchanin dont les odeurs et les inquiétudes accrues par la rumeur, ont eu, de ce fait, des conséquences sur la santé des populations avoisinantes.

Ajoutons aussi que les mesures prises dans la panique, comme les évacuations massives (il y en a eu à Tchernobyl) peuvent aggraver les conséquences d’un accident si l’organisation et la communication ne sont pas soignées.

Qui est responsable ?

Prenons le cas des risques des établissements industriels : le chef d’entreprise a la responsabilité de son installation, de son exploitation et de ses produits. Il doit obtenir du préfet, qui a sous son autorité l’administration chargée de la surveillance des installations classées, l’autorisation de construire l’usine ou l’unité, puis l’autorisation de mise en service. Les dossiers qu’il présente doivent analyser tous les dangers et impacts et exposer les mesures qu’il s’engage à prendre pour réduire les probabilités d’occurrence et les conséquences. La modélisation des risques est devenue une opération lourde et très sophistiquée. Ensuite, il est responsable de la maintenance et de la formation du personnel qu’il emploie et des conditions dans lesquelles il fait appel à des entreprises de sous-traitance (le risque d’abus entraînant une dilution des responsabilités et du contrôle qui en résulte a été un des points soulevés par l’accident d’AZF).

Ces procédés techniques sont d’autant plus efficaces qu’ils sont appliqués dans des entreprises où est développée une culture de la sécurité partagée par tout le personnel, des dirigeants aux exécutants. Cette culture est reflétée par l’organisation. C’est un point qui prend de plus en plus d’importance dans les dossiers déposés pour obtenir des autorisations, dans les inspections et dans les enquêtes après accident.

Page 133: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 132

L’inspection des installations classées fait des contrôles périodiques et peut adresser au chef d’établissement des notifications pour corriger les faiblesses qu’elle a constatées et le cas échéant sanctionner les infractions à la réglementation.

Dans le cas de l’industrie nucléaire, une autorité indépendante a été instituée en 2006 par la loi votée après un travail parlementaire de haute tenue.

L’enchevêtrement des responsabilités est beaucoup plus complexe dans le cas de transports, de produits mis dans le commerce, ou encore de déchets. Un procès comme celui de l’Erika qui oppose l’affréteur propriétaire de la marchandise, le transporteur, les organismes de certification, et les autorités maritimes a l’intérêt de faire progresser les principes juridiques.

Les services de sécurité se cordonnent-ils bien ?

Les travailleurs sont beaucoup plus exposés mais leur protection, leur formation et leur santé peuvent être étroitement surveillées dans le cadre de l’application du contrat de travail, des conventions collectives et de la règlementation. Chaque usine a un comité d’hygiène et de sécurité composé de syndicalistes qui disposent d’informations sur les risques. Il est logique qu’ils s’intéressent aux risques pour le voisinage, ne serait-ce qu’en considération de leur famille.

Les services d’incendie et de secours des collectivités doivent par ailleurs se préparer à intervenir en cas d’accident, d’autant que les agents en sont parfois les premières victimes.

Les échanges d’information et surtout des exercices communs entre ces mondes qui se côtoient sont indispensables.

Comment la population, partie prenante, est-elle consultée et informée ?

Une enquête publique a lieu avant toute autorisation de construction d’installations nouvelles d’une certaine importance. Toutefois, l’expérience montre les limites de cette procédure plus formaliste qu’effective, surtout si la technicité des dossiers rend difficile leur compréhension.

Les commissions locales d’informations et de concertation (CLIC), généralisées depuis l’accident d’AZF, qui fonctionnent durant la durée de fonctionnement seront sans doute plus efficaces. Les syndicats ont aussi, comme les médecins du travail, la possibilité de s’exprimer par le canal des comités d’hygiène et de sécurité des entreprises ; même s’ils sont des intérêts liés, ils sont bien au courant des possibilités de défaillances et dénoncent souvent, à tort ou à raison, l’emploi de sous-traitants. Le pluralisme des expressions est un des facteurs de vigilance.

Les règlementations sont-elles moins sévères dans certains pays ? Cela entraîne-t-il des délocalisations d’activités ?

Les réglementations s’inspirent des mêmes principes mais sont plus ou moins strictes selon les pays. En Europe, elles tendent à s’homogénéiser par la mise en application de « Règlements » européens qui s’imposent à chaque pays membre ou de « Directives » qui

Page 134: Dossier scientifique E n v i r o n n E m E n t

Dossier scientifique Environnement 133

doivent ensuite être transposées dans un délai imparti dans la législation et la réglementation de chaque pays de l’Union européenne. Les exigences réglementaires sont moindres dans les pays du sud, particulièrement à l’égards des déchets et du recyclage, mais c’est surtout le contrôle qui diffère, de nombreux pays en développement ne disposant pas de l’infrastructure administrative et technique nécessaire, ou de la capacité politique à l’exercer correctement en éliminant la tolérance et la corruption. De grand pays émergents comme la Chine et l’Inde n’ont pas encore pleinement assaini une situation qui a été très relâchée jusqu’à présent. En ce qui concerne les délocalisations, ces différences s’intègrent dans des contextes sociaux où bien d’autres « avantages comparatifs » favorisent l’expansion de certaines activités à risques. La communauté internationale et certaines associations, le label du commerce équitable, s’efforcent de lutter contre les situations les plus intolérables.

Certains risques technologiques sont-ils moins acceptables que d’autres ?

Dans l’ensemble, les accidents technologiques font beaucoup moins de victimes et de dégâts dans le monde que d’autres risques : accidents du travail, accidents de la circulation, risques naturels, accidents domestiques… C’est sans doute le résultat de la responsabilisation des entreprises, de l’efficacité des moyens mis en œuvre et de l’exigence publique. L’opinion ne tolère pas que se produisent des accidents collectifs qui pourraient être évités. Toutefois, les progrès se heurtent à un principe de décroissance de l’efficacité des efforts de prévention ; leur coût peut, dans certain cas, devenir considérable par rapport au résultat attendu, surtout lorsque l’incertitude devient élevée, aussi bien sur le caractère effectif du risque que sur les risques collatéraux résultant des mesures envisagées. Les analyses globales sur l’ensemble des risques, de même que les études sur les risques globaux comme ceux qui résultent du changement climatique, doivent mobiliser de plus en plus la recherche.