Chapitre II
N’ayons pas la mémoire trop courte
Disons-le tout net, nous n’avons pas découvert les problèmes qu’on appelle écologiques grâce à la télévision au cours de l’année 2006.
Contrairement à ce qu’écrit Nicolas Hulot dans son livrei, les scientifiques n’ont pas « fini par suivre le mouvement », ils l’ont découvert, initié, étudié et annoncé d’abord ! En science, on parle d’écologie et de pollution depuis plus d’un siècle ! Mais ce, dans une indifférence quasi générale.
Pour le rappeler j’ai choisi de raconter quelques histoires. Si j’en avais le talent, je pourrais presque les transformer en fables, conclues par quelques maximes destinées à fonder une morale.
Ce sont des épisodes importants à connaître pour comprendre les rapports entre les sciences de la nature et la société.
Wegener et la dérive des continents
Alfred Wegener était un météorologue allemand qui vivait au début du XXe siècle. Il a écrit l’un des premiers ouvrages d’application de la thermodynamique à la météorologie et commença à s’intéresser sérieusement aux climats passés, présents et futurs. Avec son beau père Koppen, il fut l’un des premiers à évoquer l’influence des variations climatiques liées à des causes astronomiques. Milankovitch, le créateur de la théorie moderne sur le sujet, leur rendra hommage dans son premier ouvrage.
Alfred Wegenerii était persuadé que la clé de la compréhension des variations climatiques se trouvait dans les régions polaires – beaucoup de théories modernes le pensent aussi. Il avait donc entrepris des missions au Grønland pour mieux étudier les phénomènes météorologiques arctiques. Revenant d’une de ces missions polaires et survolant la banquise en débâcle, Alfred Wegener fut frappé par un phénomène insolite : deux blocs de glace s’écartaient de la fissure qui les avait libérés, et cette dernière avait la forme des côtes de l’Afrique et de l’Amérique du Sud. Il voyait sous ses yeux les deux blocs dériver, donnant naissance entre eux à un mini-océan Atlantique.
Et s’il en avait été de même à grande échelle dans le passé géologique ? se dit-il. Si un bloc continental immense couvrant une partie de l’hémisphère Sud s’était fissuré et que, de part et d’autre, l’Afrique et l’Amérique du Sud avaient dérivé, s’éloignant progressivement l’une de l’autre et créant ainsi l’océan Atlantique ?
L’idée de la dérive des continents avait alors germé dans la tête du jeune météorologue qui pourtant ignorait tout de la géologie. Mais, en science, entre l’intuition et la théorie, il y a l’assemblage d’un corpus de connaissances qu’on appelle les arguments, ou encore les preuves. Alfred Wegener s’attela à la tâche pour étayer sa théorie et rassembla de multiples arguments paléontologiques, géologiques, océanographiques, climatologiques. Plus il avançait, plus il constatait que l’idée de dérive continentale permettait d’expliquer beaucoup d’observations géologiques qu’il découvrait dans la littérature.
Petit à petit, il se persuada que la dérive des continents était une réalité géologique. Il montra que non seulement l’Afrique et l’Amérique du Sud étaient autrefois accolées, mais qu’avec elles il y avait aussi l’Antarctique et l’Australie, formant ce qu’il appela le continent de Gondwana.
L’argumentation géologique d’Alfred Wegener était cohérente, rigoureuse, précise et, pour tout dire, convaincante. Il présenta sa théorie devant la société géologique d’Allemagne en 1910 et publia un ouvrage en 1912. Il reçut un accueil poli et froid. De quoi ce météorologue se mêlait-il ? Pensait-il qu’il pouvait bâtir une théorie géologique, lui qui était incapable de reconnaître une ammonite d’un nautile ou de distinguer un granite d’un basalte ? C’était bien présomptueux !
Néanmoins, sa théorie se répandit dans le monde entier car elle intriguait. Elle était si simple, si naturelle, qu’elle troublait les géologues – sans pour autant les convaincre. Hors de la majorité des sceptiques, quelques géologues étaient pourtant conquis, comme le Sud-Africain Dutoit ou le Suisse Argand. Malgré l’opinion majoritaire, les discussions allaient bon train. Alfred Wegener continuait à accumuler des arguments et on peut dire aujourd’hui qu’il s’agissait de preuves.
Ce qui « tua » la théorie d’Alfred Wegener fut un calcul mathématique – donc irréfutable – réalisé par le plus grand géophysicien de l’époque, sir Harold Jeffreys, fondateur de la sismologie théorique. Il affirma que si les continents se déplaçaient, l’écorce terrestre se plisserait. Lorsqu’on déplace une feuille de papier à cigarette sur une grosse boule, elle se froisse. En termes savants, on appelle cela du « flambage ». Or, l’Afrique s’était déplacée et aucune chaîne de montagnes plissée n’était née de ce mouvement.
Il n’en fallait pas plus pour conforter l’opposition de la communauté des géologues. C’est bien connu, les mathématiques ne mentent jamais ! Des colloques furent organisés. Un consensus fort se dégagea. La théorie d’Alfred Wegener était l’exemple des fausses apparences, les formes conjuguées des côtes d’Afrique et d’Amérique du Sud n’étaient que pure coïncidence !
Alfred Wegener ne put se défendre totalement car il mourut en héros au Grønland, refusant d’abandonner un compagnon blessé lors d’une tempête de neige.
Et pourtant, c’est lui qui avait raison. Nous avons mis soixante ans pour le découvrir. Le calcul de sir Harold Jeffreys était faux. Non pas les mathématiques bien sûr, mais l’utilisation qu’il en avait faite.
Ce qui dérive, ce n’est pas la mince pellicule de l’écorce terrestre de 30 kilomètres d’épaisseur, ce sont des plaques de 200 à 300 kilomètres d’épaisseur. Pour reprendre l’image précédente, ce n’est pas du tout du papier à cigarette, c’est du carton ! Et le carton ne se plisse pas !
L’ostracisme dont avait été victime l’observateur Alfred Wegener de la part du mathématicien Harold Jeffreys évoque pour moi celui dont sont victimes aujourd’hui beaucoup de scientifiques qui travaillent avec les observations sur le climat de la part de ceux qui utilisent les modèles mathématiques-informatiques !
Lorsque, en 1970, la théorie de l’expansion des fonds océaniques, appuyée sur les études océanographiques des dorsales océaniques, fut proposée, la communauté des sciences de la Terre la rejeta encore une fois tout net. Nous ne fûmes en France que trois ou quatre à adopter et défendre cette théorie. Pendant dix ans ou presque, nous restâmes isolés, vertement critiqués, parfois menacés par une communauté géologique unanimement hostile et agressive. Comment pouvions-nous avoir raison à quelques-uns puisque des centaines de scientifiques étaient contre ? Ces attaques étaient bien sûr complaisamment relayées par les médias. On ne s’oppose pas impunément au consensus.
Puis, progressivement, les communautés géologiques et géophysiques d’Amérique et d’Angleterre, d’abord très hostiles, ont basculé. Cette conversion finit par gagner la France dans les années 1975-1978, et les jeunes générations de géologues s’emparèrent avidement de la nouvelle théorie. Peut-être notre action, quoique fort pénible à vivre, n’avait-elle pas été inutile ?
Moralité : 1) il n’est pas nécessaire d’être un spécialiste pour avoir une bonne idée et pour briser un consensus ; 2) les mathématiques à elles seules ne peuvent permettre d’expliquer un phénomène naturel dont on n’a pas compris l’essence (voir le climat aujourd’hui) ; 3) la vérité scientifique met parfois beaucoup de temps à être acceptée. Il est plus facile de briser un atome qu’un préjugé, disait Einstein !
Clair Patterson et le bannissement du plomb
Lorsque je fus en présence de Clair Patterson, j’eus l’impression d’abord d’être en face d’un monument. Cet homme d’un mètre quatre-vingt-dix, filiforme, volubile, parlant autant avec ses immenses mains qu’avec son anglais à l’accent de l’Iowa que j’avais du mal à comprendre, était en effet celui qui, quelques années plus tôt, avait déterminé l’âge de la Terre à 4,55 milliards d’années. Ce qui figure aujourd’hui dans tous les livres !
Mais je ne pus parler avec lui de ce sujet qui me passionnait car, à ce moment, son centre d’intérêt était devenu la pollution par le plomb d’origine humaine. Il m’entraîna dans son jardin où il avait fabriqué un curieux engin de culture physique combinant des poulies et une échelle, et, tout en soulevant consciencieusement des haltères attachées aux poulies, il m’expliqua entre deux respirations comment le plomb était responsable du déclin de l’Empire romain !
« Les Romains, à l’époque des derniers empereurs, buvaient le vin dans des gobelets qui étaient faits d’un alliage d’argile et d’argent, et ce dernier métal contenait des quantités importantes de plomb. Ils avaient donc fini par attraper la terrible maladie qu’on appelle saturnisme. Ainsi s’expliquent les démences des empereurs Caligula, Vespasien, etc. » J’étais venu parler de l’âge de la Terre, j’avais droit à un cours sur la Roma antica ! Continuant sa gymnastique, il me déclara : « C’est ce qui va nous arriver. La cause en est le plomb qu’on met dans l’essence et qui pollue toute l’atmosphère. Ici, dans l’agglomération de Los Angeles, ajouta-t-il, nous sommes dans la région du monde où il y a la plus grande densité de voitures, donc où la teneur en plomb de l’atmosphère est la plus élevée, mais c’est aussi l’endroit où il y a le plus grand nombre d’idiots au mètre carré ! »
Comme je semblais éberlué et un rien incrédule, je me fis vertement sermonner. Clair Patterson m’expliqua que toutes les techniques que nous avions développées à Paris pour mesurer avec une précision et une sensibilité extrêmes le plomb et sa composition isotopique, techniques très supérieures aux siennes, et il le savait, je devais les consacrer à l’étude de la pollution par le plomb plutôt qu’à mesurer les météorites pour connaître l’âge du Soleil ! Le plomb était désormais l’ennemi no 1 de l’Homme. Il fallait toutes affaires cessantes que ceux qui savaient mesurer le plomb s’y consacrent totalement !
Après cette entrée en matière un peu brutale, je compris le lendemain et les jours suivants le cheminement intellectuel de Clair Patterson. Pour déterminer l’âge de la Terre, il faut être capable de mesurer les très faibles teneurs en isotopes du plomb contenu dans les météorites. Les réactifs chimiques ordinaires et l’atmosphère contiennent beaucoup plus de plomb que les échantillons. Après avoir effectué ses mesures à Chicago, il avait migré dans la banlieue de Los Angeles et il constatait que ses mesures étaient difficiles à reproduire. Petit à petit, il avait découvert que l’atmosphère de Los Angeles était beaucoup plus polluée en plomb que celle de Chicago : la densité de voitures y était plus grande d’un facteur 3 !
À partir de là, Clair Patterson entreprit une étude à grande échelle. En mesurant les teneurs en plomb des eaux de mer, il montra que la surface des océans était entièrement contaminée, plus particulièrement près des côtes des grandes villes, alors que les eaux profondes contenaient beaucoup moins de plomb. Il étudia des carottes de glace prélevées au Grønland, dans lesquelles on peut reconnaître les couches de dépôts annuels et qui sont des archives de l’histoire de la neige (donc de la pluie). Il montra que le plomb de l’atmosphère avait augmenté rapidement depuis l’ère industrielle.
Il commença alors à tirer la sonnette d’alarme. Avec un professeur de médecine de Los Angeles, il entreprit une étude pour voir si des teneurs en plomb variables suivant les individus avaient des conséquences sur le plan médical. Ils conclurent de manière significative que la proportion de gens excités, voire illuminés, était plus grande chez ceux dont les teneurs du sang en plomb étaient les plus importantes.
Clair Patterson eut du mal à publier ses résultats car le lobbying de l’industrie du plomb, très vigilant, contrôlait de fait les revues concernant l’environnement et les questions liées au plomb. En fait, son article ne put paraître que parce que le rédacteur en chef de la revue était en vacances et que le rédacteur adjoint était le frère d’un professeur de Caltechiii ! Il prit la décision de publier l’article de Clair Patterson et fut pour cela licencié. Le ministère de la Santé américain, alerté par l’article de Clair Patterson et ses déclarations dans les médias, décida de prendre l’affaire en main. Une étude générale fut ordonnée. Appliquant une méthodologie qui, sur le plan statistique, était irréprochable, elle conclut à la non-nocivité du plomb, et ce résultat fut bien sûr largement diffusé avec l’aide de la société industrielle qui commercialisait l’ajout de plomb dans l’essence !
Clair Patterson fut accusé de ne pas être un scientifique sérieux et ses contrats de recherche avec le ministère de la Santé furent rompus. S’engagea alors un véritable dialogue de sourds. Les médecins chargés de l’étude générale montraient sans aucune contestation possible sur le plan statistique que les teneurs en plomb contenues dans l’énorme nombre d’échantillons qu’ils avaient étudiés étaient supérieures d’un facteur 10 aux teneurs considérées comme dangereuses par Clair Patterson. Or, ces patients ne présentaient aucun trouble visible. L’Académie des sciences des États-Unis, pour en savoir plus, nomma une commission. Clair Patterson en démissionna faute de s’être fait entendre. Un collègue australien et moi-même fûmes chargés par l’Académie d’examiner le débat. La vérité éclata très vite : Clair Patterson avait raison. Les médecins ne savaient pas analyser le plomb ou plus exactement ne savaient pas prélever et analyser les échantillons de sang sans les contaminer par les réactifs et par l’atmosphère. En fait, les véritables teneurs en plomb du sang de leurs échantillons étaient 100 fois inférieures à ce qu’ils croyaient ! Ils ne mesuraient que le plomb de pollution contenu dans les réactifs et l’atmosphère. Clair Patterson avait raison sur le plan de la méthode analytique ; pour les conséquences toxicologiques, je n’en sais rien. Le ministère de la Santé commença alors à admettre que le plomb était peut-être dangereux. Mais on n’alla pas plus loin, car l’industrie du plomb veillait et bloquait les motions déposées au Congrès américain, et ce malgré la volonté de Jimmy Carter qui fut le seul Président américain sincèrement acquis aux thèses écologiques.
L’interdiction de l’utilisation du plomb dans l’essence est venue de Los Angeles, du même Institut que celui de Clair Patterson, le Caltech, mais pas de Clair Patterson lui-même !
Le prédécesseur de Ronald Reagan au poste de gouverneur de Californie décida d’éliminer ce qu’on appelle à Los Angeles le smog qui, en été, rend la vie très pénible, tant pour les poumons que pour les yeux. L’équipe du Caltech qui se chargea de l’étude montra que le facteur décisif dans la fabrication du smog était les gaz de voitures insuffisamment brûlés. Ils proposèrent l’usage du pot catalytique pour réaliser une combustion totale. Malheureusement, le plomb détruit l’action des catalyseurs. Le Sénat de Californie décida donc de supprimer l’essence au plomb. On découvrit très vite de nouvelles technologies permettant de se passer du plomb dans l’essence. Le lobby de l’automobile et de l’industrie pétrolière s’empara rapidement du problème politique et comprit que l’essence sans plomb se vendait bien mieux que l’essence avec plomb.
Le lobby du plomb ne pèse pas lourd en Amérique par rapport à celui de l’automobile ! On interdit donc l’essence au plomb à Los Angeles, puis, petit à petit, dans le reste des États-Unis, enfin en Europe. Notons que la France resta l’une des dernières à prendre des mesures efficaces contre l’essence au plomb.
Quoi qu’il en soit, comme on veut que l’histoire soit morale, on attribua à Clair Patterson médailles et prix scientifiques pour avoir mené et gagné la bataille du plomb ! Effectivement, aujourd’hui, ses successeurs et notamment Boubron, à Grenoble, ont constaté que les teneurs en plomb des neiges du Grønland ont diminué très vite. Y a-t-il moins d’idiots à Los Angeles ? L’histoire ne le dit pas.
Morale de l’histoire : on peut être scientifique et ne pas hésiter à affronter les puissants lobbies industriels et médicaux en tout genre. Mais on n’est pas obligé d’avoir scientifiquement raison pour gagner une bataille. Et quand on a des intérêts économiques avec soi, il est évidemment plus facile de remporter une bataille politique !
Le Club de Rome : Halte à la croissance !
Dans les années 1970, une autre alerte écologique vint défrayer la chronique. Le Club de Rome, animé par le commissaire européen Sico Mansholt, publia un rapport au titre éloquent, Halte à la croissance !
Le Club de Rome avait confié à une équipe de scientifiques dirigée par le professeur Meadowsiv, du prestigieux MITv, le soin d’étudier l’évolution future du système économique mondial. Sous la conduite d’un spécialiste des systèmes, Jay Forester, l’équipe du MIT avait construit un modèle informatique et, à partir de là, calculé des scénarios d’évolution future de la planète.
Le diagnostic était sans appel : les scientifiques démontraient que nous allions rapidement épuiser nos sources d’énergie, nos matières premières métalliques, que les déchets produits par l’industrie, l’agriculture et les villes allaient tout envahir, tout polluer, etc. La catastrophe planétaire était pour bientôt et nous allions tous mourir de faim dans un avenir proche !
Responsable de tout cela : la croissance économique. Il fallait donc arrêter la croissance !
Dans le même temps, aux États-Unis, une autre équipe d’économistes travaillant indépendamment prévoyait une stagnation économique américaine inévitable par suite d’une mauvaise gestion des ressources. Sico Mansholt, fort du porte-voix que constitue la Commission européenne, entreprit de convaincre les gouvernements européens de la nécessité d’une nouvelle stratégie économique, la croissance zéro.
Ceux qui étaient montrés du doigt étaient les multinationales, les cartels pétroliers qui exploitaient sans vergogne les ressources de la planète.
À cette époque, beaucoup, au Parti socialiste que venait de refonder François Mitterrand, furent tentés par la doctrine de la non-croissance. Mais, sous l’influence de jeunes nouveaux responsables comme Lionel Jospin, Pierre Joxe ou Paul Quilès, François Mitterrand finit par la rejeter totalement.
Je me souviens d’une réunion du Parti socialiste où François Mitterrand, assis derrière une table sur une estrade, flanqué de Didier Motchane et Pierre Joxe, s’adressa aux nouveaux adhérents parisiens dans une salle proche du boulevard Saint-Germain en disant : « Nous refusons la doctrine de la non-croissance, quels que soient les problèmes qui se posent aujourd’hui sur les ressources naturelles, parce que nous savons que l’absence de croissance pénalisera d’abord les plus pauvres, les plus démunis, c’est-à-dire ceux que nous voulons défendre. »
Cet avis m’a alors paru frappé au coin du bon sens. Aujourd’hui, la même règle vaut pour l’ensemble de la planète. De quel droit limiterions-nous le développement de la Chine, de l’Inde ou du Brésil, comme veulent le faire les séides de la décroissance ? Inventer une nouvelle manière de se développer, sans doute. Limiter leur croissance ? Impossible.
Les prédictions du Club de Rome et des Cassandres américaines ont, comme on le sait, été démenties par les faits. Les ressources énergétiques ne se sont pas épuisées, les ressources minérales non plus. Nous ne sommes pas morts de faim et les États-Unis ont connu l’une des plus fortes périodes de croissance de leur histoire !
L’analyse des échecs, mais aussi des conséquences de ces prédictions, notamment celles du Club de Rome qui ont eu le plus grand retentissement dans le monde politique, n’est pas dépourvue d’intérêt.
D’abord sur le plan technique de la modélisation.
Toutes les simulations du MIT utilisaient des fonctions exponentielles positives, c’est-à-dire des fonctions où tout va de plus en plus vite. Il n’y avait aucune régulation, aucune boucle de contre-réactions. Or, on sait que l’exponentielle positive n’existe pas dans les phénomènes naturels, qu’il y a toujours des phénomènes régulateurs.
Ensuite, après un premier mouvement d’affolement – c’est l’époque où l’on a créé partout des ministères de l’Environnement –, on a repris le « Business as usual ». L’écologie devint une habitude sécurisante, le ministre de l’Écologie rendait sympathique le gouvernement, mais n’avait aucun poids réel sur la politique. Les scénarios catastrophistes ont donc en apparence décrédibilisé l’écologie.
Paradoxalement, c’est le secteur industriel qui, après avoir lutté pour qu’on ne freine pas le développement économique par des considérations écologiques, en a le plus tenu compte. Pour répondre aux prévisions alarmistes en matière énergétique, la prospection pétrolière s’est intensifiée, notamment avec le développement des forages off shore ; l’industrie minière a entrepris un inventaire des ressources, l’industrie du recyclage des métaux a pris naissance (aujourd’hui 50 % du fer, 80-90 % des métaux rares sont originaires du recyclage), l’usage du plastique et des céramiques dans l’industrie automobile s’est accéléré, réduisant d’autant la dépendance à l’acier, etc. Bref, une mutation technologique a eu lieu.
Et le résultat a été spectaculaire. Au lieu d’un arrêt de la croissance, cette période a été l’une des plus florissantes sur le plan économique. Les contraintes dont l’origine était écologique ont exercé une influence positive sur la croissance.
C’est bien sûr un exemple à suivre aujourd’hui. Utiliser toutes les contraintes écologiques pour en faire le moteur d’une nouvelle période de croissance qui permettra de réduire le chômage, voilà la bonne stratégie !
Mais cet épisode a laissé un souvenir douloureux aux fonctionnaires de la Commission européenne de Bruxelles, imprégnés d’une culture judéo-chrétienne marquée par la philosophie du péché originel et qui ont mal vécu leur échec. Ils recommencent donc aujourd’hui, enfourchant avec enthousiasme le cheval du réchauffement climatique pour imposer la non-croissance de facto. Et, comme les politiques ne travaillent pas, ils suivent. Il faut les arrêter ! L’avenir d’une Europe prospère est à ce prix !
Le trou dans la couche d’ozone et le protocole de Montréal
J’ai vécu l’épisode du trou dans la couche d’ozone (qui n’est peut-être pas terminé) d’assez près. Mon ami le regretté Gérard Mégie, ancien président du CNRS, spécialiste de l’observation de l’atmosphère à l’aide des techniques spatiales, s’y est totalement engagé dès le début et m’a sensibilisé puis initié à toutes les étapes franchies. Par un hasard extraordinaire, je me suis retrouvé dans un comité où siégeait aussi Sherwood Rowland, qui auditait un centre du Max Planck Institute dans lequel Paul Crutzen avait son équipe. Or, Sherwood Rowland, Paul Crutzen et Mario Molina ont reçu le prix Nobel de chimie pour avoir découvert les mécanismes chimiques responsables du trou dans la couche d’ozone. C’est dire si j’ai été bien informé, et en temps réel. Rappelons les péripéties.
L’ozone est un gaz particulier, c’est de l’oxygène oxygéné.
Sa formule, au lieu d’être O2 comme celle de l’oxygène ordinaire, est O3. Et la forme de cette molécule lui donne la propriété d’absorber les rayons ultraviolets.
Dans la basse atmosphère, l’ozone est certes présent en très faible quantité. Sauf près des villes, il ne se forme que dans la haute atmosphère, entre 30 et 50 kilomètres d’altitude. C’est ce qu’on appelle la couche d’ozone. Cette formation est due à des phénomènes photochimiques complexes, mais pour simplifier, disons que le rayonnement solaire dissocie la molécule O2 en deux atomes d’oxygène libres, et que certains de ces atomes se fixent sur une molécule de O2 pour donner O3. Cela à travers des processus d’une extrême complexité. Cet ozone se détruit également par des mécanismes photochimiques.
Le bilan formation-destruction conduit à une concentration de 10 parties par million (ppm) mais cette teneur est suffisante pour arrêter très largement les rayons UV contenus dans le spectre solaire.
Cet ozone atmosphérique est concentré entre 30 et 50 kilomètres : au-dessous, il n’y a pas assez d’UV pour dissocier l’O2, et au-dessus il n’y a pas assez de molécules d’O2. Au-dessous, sauf auprès des villes, la teneur en O2 ne dépasse pas 1 ppm.
Cette couche d’ozone qui entoure le globe est une sorte de filtre protecteur, une sorte de « lunette noire » pour la Terre. S’il n’y avait pas de couche d’ozone, la Terre recevrait un flux important de rayonnement ultraviolet qui provoquerait chez l’homme des cancers de la peau, et chez beaucoup d’animaux ou d’insectes des mutations très importantes, comme l’ont montré des études de laboratoire. De plus, la couche d’ozone est une couche chaude, chauffée par les UV, ces rayons ultraviolets chez lesquels le gradient thermique de l’atmosphère est inversé. C’est grâce à cela que l’atmosphère est structurée en troposphère, stratosphère, etc.
Une disparition de la couche d’ozone entraînerait un bouleversement gigantesque dans la structure et la dynamique de l’atmosphère.
L’ozone a un positionnement dans l’épaisseur de l’atmosphère, il a aussi une géographie. Simplifions-la.
L’ozone se forme dans la stratosphère de la zone tropicale, mais s’accumule vers les pôles où il est piégé par un courant circulaire qu’on appelle le vortex polaire. Au pôle, la teneur en ozone est maximale vers l’équinoxe de printemps et atteint un minimum en automne.
On mesure la teneur de l’ozone antarctique depuis 1960. En 1985, les Japonais signalent un phénomène nouveau. Alors que le minimum d’automne se situait autour de 12 %, il était passé à 30 % en 1985. Les Britanniques enregistraient même une décroissance de 40 %. En 1986-1987-1988, le phénomène se confirma et sembla s’amplifier. C’est ce qu’on a appelé le trou d’ozone antarctique.
Depuis les années 1970, des études très poussées avaient été réalisées sur les mécanismes par lesquels l’ozone se détruisait. Une des motivations des chercheurs était de savoir si l’avion supersonique Concorde allait détruire la couche d’ozone !
Paul Crutzen, un Hollandais travaillant en Allemagne, avait montré en 1970 que les oxydes d’azote injectés dans l’atmosphère par la fermentation bactérienne du sol jouaient un rôle essentiel dans la destruction de l’ozone en exerçant le rôle de catalyseur.
En 1974, Richard Stolarski et Ralph Cicerone, l’actuel président de l’Académie des sciences des États-Unis, d’un côté, Mario Molina et Sherwood Rowland, de l’autre, avaient suggéré que le facteur de destruction de l’ozone servant de catalyseur était lié au chlore. L’une des sources du chlore pouvait être les CFC (chloro-fluoro-carbones), encore appelés Fréons.
En 1987, on se souvint brutalement du travail des chimistes atmosphériques et l’on fit le lien entre la destruction de la couche d’ozone et les émissions de CFC d’origine humaine, les CFC étant je le rappelle massivement utilisés dans les réfrigérateurs et les bombes à raser. Cette relation fut vite confirmée in situ, car on constata que les teneurs en chlore avaient effectivement crû dans l’atmosphère et que la carte de répartition du chlore dans la zone antarctique coïncidait avec le « trou d’ozone ».
Les scientifiques sonnèrent l’alarme. Si la couche d’ozone se détruisait au pôle Sud, cela n’allait guère affecter que les phoques, les ours blancs et les pingouins, mais si cette déchirure gagnait tout le globe, cela pourrait être catastrophique. On imagine alors les dégâts qui pourraient résulter de la destruction de la couche d’ozone : cancers de la peau, mutations animales, sans parler d’une modification de la stratification de l’atmosphère.
Pourtant, un point intrigua les spécialistes. Les Fréons sont utilisés dans les réfrigérateurs et les bombes à raser, donc dans l’hémisphère Nord, or, la couche d’ozone arctique ne semble pas souffrir, c’est la couche antarctique qui se détruit. Pourquoi ? Encore aujourd’hui, on n’a pas d’explication scientifique convaincante, malgré diverses théories compliquées ! Pourtant, par précaution, dès les années 1985-1986, les scientifiques commencèrent à organiser des conférences internationales sur le danger du déchirement de la couche d’ozone.
Dans un premier temps, on constata une non-réceptivité du côté de l’Amérique politique. Pourtant, les scientifiques américains, notamment Sherwood Rowland et Ralph Cicerone, étaient des chercheurs actifs et appréciés.
La firme DuPont de Nemours, qui fabriquait le Fréon et était titulaire du brevet, combattit les « spéculateurs scientifiques » avec vigueur ; les médias et les politiques américains suivirent. C’est alors qu’en 1987 se produisit un événement essentiel. Les chercheurs de DuPont de Nemours découvrirent une molécule chimique, sans chlore, qui remplaçait avantageusement les CFC. Tout changea en quelques mois. Avec le plein accord des États-Unis et le soutien financier de DuPont de Nemours, on organisa une conférence internationale à Montréal et on signa un protocole qui proposait d’interdire les CFC en 1997 !
Les concurrents de DuPont de Nemours pour la fabrication du Fréon protestèrent, car ce protocole donnait, de fait, un monopole à DuPont de Nemours ! La Chine et l’Inde, qui ne possédaient pas la technologie nouvelle, refusèrent tout net le protocole.
La France, grâce à Gérard Mégie, de même que l’Allemagne, grâce à Paul Crutzen, se trouvèrent à la tête des négociations qui allaient suivre pour imposer le protocole.
À ce moment se produisirent divers événements importants. Paul Crutzen, Mario Molina et Sherwood Rowland reçurent le prix Nobel de chimie, en 1995. Ralph Cicerone aurait dû le recevoir aussi, si le règlement du prix Nobel ne limitait pas à trois le nombre maximal de lauréats.
Une négociation discrète mais tenace s’engagea par l’intermédiaire de l’OMC pour faire admettre à DuPont de Nemours qu’il devait donner – gratuitement – son brevet sur les substituts des CFC. Gérard Mégie y a joué un rôle essentiel, avec l’aide du commissaire européen Pascal Lamyvi.
Les scientifiques ont été dans cette négociation des aiguillons, mais sans les diplomates et les politiques ils ne seraient arrivés à rien !
Résultat : aujourd’hui, les CFC sont bannis partout dans le monde, et pourtant on continue à fabriquer des réfrigérateurs et des bombes à raser grâce aux technologies nouvelles ! Voilà un exemple à suivre.
Et la couche d’ozone dans tout cela ? Qu’en est-il du trou qui avait donné l’alerte ? Il n’augmente plus, ce qui est déjà une bonne nouvelle. Mais, après une période euphorique pendant laquelle les scientifiques ont cru qu’on allait assister à une amélioration rapide, comme pour le plomb, on ne parle plus de rien. Aurait-on surestimé le rôle des CFC ? Y aurait-il d’autres poisons plus importants comme les oxydes d’azote ou les composés bromés ? Ou tout simplement le processus n’était-il pas d’origine naturelle ? Aujourd’hui, en 2007, on ne sait que conclure.
Morale de l’histoire :
1) l’homme est capable d’identifier un danger et de prendre des mesures pour le conjurer. Et ce, très vite ;
2) les scientifiques peuvent jouer un rôle d’activistes efficace, notamment pour déclencher l’alerte mais aussi pour inventer des technologies de substitution ;
3) l’atmosphère est un système chimique très complexe qui associe chimie et circulation atmosphérique, et qu’on est loin d’avoir compris.
Les exemples que nous avons pris montrent que, tant bien que mal, entre science, conscience et business, on parvient à conjurer les menaces.
L’amiante à Jussieu
Pourtant, il y a des exemples où, faute d’analyse scientifique valable, sérieuse et contrôlée, on fait n’importe quoi sous la pression des médias et donc des politiques. Avec des conséquences dramatiques. Je prendrai l’exemple de l’amiante à l’université de Jussieu. Voici comment je décrirais la situation de l’amiante en 2007.
En 1980, l’Agence de protection de l’environnement, aux États-Unis, publia un document affligeant, affirmant que toute exposition à de la poussière d’amiante, même à faible dose, était dangereuse. Bien qu’immédiatement critiqué par ceux qui avaient travaillé sur les risques médicaux liés à l’amiante (qui montraient que l’amiante inhalé à forte dose était mortel, mais inoffensif à faible dose), ce rapport fit l’effet d’une bombe.
Aux États-Unis, une véritable psychose commença à se développer. Elle gagna vite le vieux continent. Et, dans les années 1983-1984, on commença à discuter de la nocivité de l’amiante un peu partout en Europe.
En France, les universités de Paris 6 et Paris 7, installées sur le site de Jussieu, devinrent rapidement un point de fixation de cette psychose. Un comité anti-amiante s’y créa. Les personnels furent rapidement sensibilisés. Devant l’émotion qui gagnait, un certain nombre de directeurs de laboratoires, dont je fus, prirent une série de mesures de protection, allant de l’isolement des plafonds chauffants floqués à l’amiante à l’aide de plafonds étanches, jusqu’au revêtement de tout flocage d’amiante par du plâtre. Ils ne reçurent aucune aide de l’État. C’est à partir de leurs crédits ordinaires de laboratoire qu’ils financèrent ces mesures. Preuve qu’ils étaient conscients de la nécessité d’agir.
Ces mesures, dont l’application était pourtant loin d’être générale, semblèrent calmer les esprits. Les manifestations anti-amiante devinrent sporadiques, alors qu’il eût été nécessaire de réclamer la généralisation de ces mesures préventives.
Aux États-Unis, en revanche, le feu qui avait couvé sous la cendre reprit de plus belle. Malgré un nouveau rapport de l’Agence de protection de l’environnement qui contredisait le premier et affirmait qu’à faible dose l’amiante ne présentait pas de danger démontré (ce qui est encore vrai aujourd’hui), les esprits s’enflammèrent.
Bientôt, à la suite de déclarations alarmistes reprises dans la presse, une véritable panique s’empara de la ville de New York. C’est que, dans les années 1989-1990, 1 090 bâtiments scolaires avaient été construits avec de l’amiante et, au dire de certains, les enfants étaient donc exposés à un danger de mort ! Les autorités new-yorkaises, soumises à une violente campagne de presse et à des prises de position des « environnementalistes radicaux », décidèrent alors, sans étude préalable ni précautions particulières, un désamiantage total de toutes les écoles new-yorkaises !
Le coût de l’opération, aujourd’hui achevée, est estimé à 50 milliards de dollars. Pourtant, le jugement des experts est a posteriori sans appel : ce fut une opération dangereuse et… inutile. Si bien que les programmes de désamiantage prévus dans les immeubles new-yorkais ont été annulés, de même que le gigantesque programme de désamiantage de toutes les écoles des États-Unis (qui a été réduit à quelques opérations symboliques).
La désormais fameuse Agence de protection de l’environnement publia alors un troisième rapport affirmant que non seulement l’exposition à la poussière d’amiante à faible dose était sans danger, mais que le désamiantage des buildings était une opération périlleuse, car on risquait d’empoussiérer l’atmosphère avec de hautes doses d’amiante !
Si l’on avait abordé le problème avec un minimum d’esprit scientifique, on se serait aperçu que les taux de fibres auxquels les enfants étaient exposés s’élevaient à 0,0005 fibre par mètre cube d’air. Ces taux étaient de 100 à 10 000 fois moindres que ceux que respiraient les femmes de la ville canadienne d’Asbestosvii. Et pourtant, on n’avait décelé sur ces dernières aucun symptôme inquiétant !
Depuis cette histoire, les spécialistes ont fait un petit calcul de probabilités inverses. Pour un risque pris à l’unité dans les immeubles ou les écoles floqués à l’amiante, le risque, lorsque vous prenez l’avion, est 1 000 fois supérieur – et celui d’avoir un cancer, lorsque vous fumez, 200 000 fois supérieur !
Mais ces péripéties ne furent, semble-t-il, que partiellement perçues en France. L’expérience ne fut pas reproduite en Europe.
Ce qui relança la fièvre anti-amiante en France, ce fut, comme en Amérique, un rapport. Et, comme en Amérique, un rapport bâclé, émanant de l’Institut national de la recherche médicale. À l’époque, le directeur de cet institut aspirait à être « utile à la société » et faisait tout pour qu’on parle de lui dans les médias. Le rapport extrapolait sans précaution les résultats de toxicité obtenus à forte teneur afin de marquer les esprits. L’Inserm, une institution responsable prenant soin de la santé des citoyens !
L’erreur de méthode fut, ici aussi, d’oublier que les phénomènes de toxicité sont gouvernés par des seuils. Au-dessous, la substance n’est pas toxique ; au-dessus, elle l’est. Deux membres de la commission de l’Inserm démissionnèrent pour protester contre cet oubli fondamental, mais la direction passa outre et publia le rapport.
À Jussieu, un comité anti-amiante composé, il faut le dire, de militants d’extrême gauche, se constitua et brandit le rapport de l’Inserm. La science dénonçait le danger ! Il fallait agir. Une certaine agitation régna sur le campus.
Survint le 14 juillet 1996. Ce jour-là, au fond du jardin de l’Élysée, Jacques Chirac était interviewé par deux journalistes. À la surprise générale, il annonça que le campus Jussieu serait totalement désamianté avant la rentrée prochaine et qu’une loi serait votée au Parlement pour interdire tout usage de l’amiante et imposer le désamiantage de tous les bâtiments publics. Stupeur !
Annonce bien sûr « abracadabrantesque », pour ne pas dire complètement idiote ! Penser que les vacances universitaires seraient suffisantes pour désamianter Jussieu dénotait une méconnaissance totale du dossier technique ainsi qu’un mépris complet des citoyens – au premier chef, des étudiants et des personnels de Jussieu.
Devant la nouvelle effervescence, en tant que directeur de laboratoire, je n’étais pas resté inactif. Quelques collègues et moi-même étions opposés au désamiantage de Jussieu, que nous trouvions inutile, trop cher et dangereux pour le personnel. Nous étions parfaitement informés du fiasco new-yorkais – et aussi d’un autre gouffre financier dont on parlait moins : celui occasionné par le désamiantage de l’immeuble de la Commission européenne, à Bruxelles.
Nous savions en outre que l’amiante à faible dose était sans nocivité avérée et nous militions donc pour qu’on recouvre l’amiante de plâtre. Personne n’aurait ainsi été en contact direct avec de l’amiante !
Face au refus du gouvernement de réaliser une véritable étude scientifique préalable, nous avons chargé trois techniciens-chercheurs de la mener à bien dans les bâtiments qui avaient bénéficié des mesures prises en 1983-1984, et ce dans une transparence totale. Le résultat (qu’on peut consulter sur le web) fut le suivant : l’air de Jussieu contenait 0,0005 fibre par mètre cube d’air.
Ce chiffre était identique à celui qui avait été relevé dans les écoles de New York, mais surtout équivalent à celui qui avait été constaté en diverses rues de Paris entre juillet 1993 et mars 1995 par les autorités chargées de mener à bien cette étude. Bref, s’il fallait évacuer Jussieu, il fallait aussi évacuer Paris ! Par ailleurs, aussitôt qu’on entreprendrait des travaux dans les locaux de Jussieu, le taux de fibres augmenterait d’un facteur 10 à 15 (on resterait toutefois loin des doses dangereuses).
Nous fûmes traités d’irresponsables par les médias.
En 2007, dix ans après la fameuse déclaration de Jacques Chirac, Jussieu, qui devait l’être en un été, n’a toujours pas été désamianté ! Pourtant, le chantier a déjà coûté 1,4 milliard d’euros. Ce chiffre représente la construction de six universités neuves et de quarante lycées d’enseignement général. Le chantier Jussieu a englouti tous les crédits de rénovation prévus pour l’ensemble des universités parisiennes, si bien qu’elles restent dans un état lamentable. Il va engloutir un nouveau milliard d’ici son terme, en 2012 ! C’est l’un des plus gros scandales financiers de la Ve République.
Mais ce n’est pas tout : le chantier lui-même a été déclaré dangereux par l’Agence de veille environnementale et les fibres synthétiques utilisées pour remplacer l’amiante sont aujourd’hui accusées d’être cancérigènes, autant que l’amiante !
Les médias ont là aussi une responsabilité écrasante car ils ont comme toujours penché pour le catastrophisme. Il y eut certes cinq ou six morts, parmi le personnel de Jussieu, liées à l’amiante. Mais il s’agissait de travailleurs ou de chercheurs qui avaient été exposés à l’amiante à haute dose au début de l’installation du campus.
Par contre, sur les 1,5 million de personnes ayant travaillé ou étudié sur le campus pendant les quarante ans de fonctionnement, dont je suis, et qui y ont été exposées à faible dose, il n’y a aucun accident démontré.
Par-delà ces enseignements particuliers, je voudrais tirer de ces quelques exemples des conclusions générales.
1) Comme le dit mon confrère de l’Académie des sciences Jean-Paul Poirier, le mot consensus devrait être rayé du vocabulaire scientifique. Tous les progrès de la science se sont faits en brisant des consensus. En sciences, on doit examiner les arguments des uns et des autres sans a priori, sans comptabiliser les pour et les contre. La science ne relève pas de la démocratie directe !
2) En sciences de haut niveau, il ne doit pas y avoir de corporatisme. Aucune communauté n’est propriétaire de son domaine d’étude. Bien sûr, avant de travailler sur un sujet, il faut en connaître un certain nombre d’éléments de base, mais aucun scientifique digne de ce nom ne se risque dans un domaine qui n’est pas le sien sans cette information de base. C’est ainsi que beaucoup de progrès importants ont été dus à des « outsiders » qui venaient d’ailleurs, mais contestaient la vérité établie.
3) Il est clair que les études scientifiques, aussi convaincantes soient-elles, ne déclenchent pas à elles seules les actions utiles pour modifier tel ou tel comportement, telle ou telle réaction politique. Même si on peut le regretter, l’économie seule gouverne et si l’intérêt économique de telle ou telle action n’est pas démontré, rien ne se passe.
Mais si de nouvelles technologies permettent de satisfaire les exigences écologiques dans des conditions économiquement acceptables, le système économique s’en empare et les développe. Pour deux raisons : la première, c’est qu’il ne perd plus les « clients » sensibilisés par les arguments écologiques. La seconde, c’est que tout économiste sait bien qu’une transition technologique majeure amorce toujours un cycle de croissance dynamique.
La science peut et doit sensibiliser le monde économique, elle doit aider à proposer des solutions techniques originales qui permettent de satisfaire tout à la fois les exigences de l’économie et des équilibres écologiques.
4) Dans ces domaines, les médias jouent, hélas, un rôle globalement néfaste habités qu’ils sont par le catastrophisme militant. Les scientifiques qui utilisent les médias pour obtenir des moyens de recherches ou affirmer leur importance rendent un mauvais service à la science et à terme à eux-mêmes.
En général, ce comportement se retourne contre eux un jour ou l’autre.