Text
stringlengths
1.01k
101k
Label
stringclasses
3 values
Effectifs insuffisants, grèves, manque d'investissements : les failles dans le contrôle aérien en Europe font monter en flèche le nombre de retards d'avions, avec pour résultat un allongement des trajectoires, désastreux pour l'environnement. Face à l'engorgement, les avions doivent patienter sur le tarmac au décollage ou en l'air pour atterrir, ou encore, en altitude de croisière, emprunter des itinéraires "bis", plus longs ou à des paliers différents entraînant une surconsommation de carburant. En conséquence, ils génèrent davantage de gaz à effet de serre. La situation a atteint son paroxysme l'été 2018 en raison, en grande partie, d'une "pénurie de contrôleurs aériens en Allemagne et de grèves en France", selon Eamonn Brennan, le directeur général d'Eurocontrol, une organisation intergouvernementale chargée d'harmoniser la navigation aérienne en Europe. "2018 a été la pire année jamais vue en Europe. En moyenne un vol sur trois a été en retard et le retard moyen a été de 41 minutes", a-t-il expliqué. "Il faut recruter des contrôleurs aériens. Le retour à un niveau suffisant ce ne sera pas avant 2021-2022", estime Maurice Georges directeur de la navigation aérienne à la Direction générale de l'aviation aérienne (DGAC). Selon lui, l'Europe "s'est fait un peu surprendre par la vigueur de la reprise du trafic depuis 2015", après un creux de la vague lié à la crise financière de 2008. Pour éviter qu'une situation similaire ne se reproduise cet été, des mesures ont été prises pour contourner les points de congestionnement. Un certain nombre de trajectoires ont été déplacées pour éviter les endroits les plus saturés notamment l'Allemagne, le Benelux mais aussi le centre d'Aix-en-Provence dans le sud de la France conduisant à "des trajectoires plus longues, mauvaises pour l'environnement", reconnaît Eamonn Brennan. Il espère que cette année la situation sera maintenue à peu près au même niveau que l'an dernier mais, avec un trafic qui devrait croître de 2,5%, "si rien n'avait été fait ils auraient doublé pour atteindre 44 millions de minutes" de retard, contre 19 millions en 2018. LIRE AUSSI >> Des députés veulent interdire certains vols intérieurs "Nous devons d'urgence réformer l'espace européen pour faire des vols plus directs, suivre des routes plus efficaces pour arriver à une réduction en émission carbone de 10%", estime pour sa part Thomas Reynaert, directeur de l'association Airlines for Europe (A4E) née du ras-le-bol d'une quinzaine de compagnies aériennes face aux retards récurrents. Outre l'impact négatif de ces retards pour l'image des compagnies, ils pèsent sur leurs finances, puisqu'un règlement européen prévoit des indemnisations forfaitaires en cas de retard de plus de trois heures, en fonction de la distance parcourue. En 2018, "la croissance du trafic a été de 3,5% et celle des émissions (polluantes) de 5%" et cela en raison d'un schéma dépassé d'organisation du réseau européen de trafic aérien qui date de "près de 50 ans", regrette Eamonn Brennan. La "fragmentation" du ciel européen où les frontières entre États perdurent est une autre absurdité, selon lui. "L'idée est de redessiner complètement l'espace aérien. Le travail est déjà réalisé. Il reste juste aux États de le mettre en oeuvre", souligne Eamonn Brennan qui espère que la nouvelle Commission européenne prendra le sujet à bras-le-corps. Un groupe de sages de la Commission a publié en début d'année dix recommandations sur une réforme du contrôle aérien en Europe, prévoyant notamment une gestion de réseau centralisée par Eurocontrol. En 2004, l'Europe avait lancé le programme de "Ciel unique européen" et son bras technologique Sesar. "On a un portefeuille d'une soixantaine de solutions Sesar, mais on a une carence dans la mise en oeuvre", déplore Florian Guillermet, directeur exécutif de Sesar JU.
true
Quand Ursula von der Leyen s’adressait à la grande convention de l’UMP en 2011, elle nous donnait déjà un avant-goût de son discours d’investiture qu’elle a prononcé hier au parlement européen à Strasbourg. Des phrases vides, embellies ici et là d’anecdotes émotionnelles. La nouvelle présidente de la Commission adore évoquer son papa, rappeler qu’elle est née à Bruxelles, et que le français lui a été enseigné dans l’esprit de réunir les peuples d’Europe. Envoyée par Dieu donc. Pour Emmanuel Macron, le fait que madame von der Leyen sache argumenter dans la langue de Molière est un avantage, tout comme le fait qu’elle n’ait jamais critiqué le choix de maintenir Strasbourg comme deuxième siège du parlement européen. Aujourd’hui, l’Élysée insistera probablement beaucoup plus sur le fait que c’est la première femme présidente de la Commission. Très esthétique. J’étais moi-même à Strasbourg quand le nom de von der Leyen a été annoncé par le Conseil Européen. Dans les couloirs du parlement, les eurodéputés ne croyaient déjà plus au système du « Spitzenkandidaten« , par lequel le groupe politique avec le plus de sièges peut nominer un candidat prédéterminé. Durant les mois qui précédaient les élections européennes, on avait bien vendu à l’électorat la fiction de la démocratisation de la Commission : une gifle à tous ceux qui y ont cru ! En l’occurrence, la nomination d’Ursula von der Leyen n’est passée qu’à neuf voix près (383 voix pour, sur les 374 nécessaires). La première femme présidente de la Commission semble donc aussi être la plus controversée. Les écologistes avaient annoncé qu’ils voteraient Non, et plusieurs centristes et sociaux-démocrates (principalement les Allemands) se disaient sceptiques. Dans un acte de transparence bien bruxello-strasbourgeois, le vote pour le président de la Commission est secret… Une source du parti PiS (le parti au pouvoir en Pologne) explique au journaliste Oskar Górzyński de Wirtualna Polska que c’est un appel de la chancelière Angela Merkel qui a fait basculer quelques eurodéputés polonais. Que leur a donc promis madame Merkel ? Davantage d’argent à travers les subventions agricoles ? L’abandon de la procédure de sanction d’article 7 contre la réforme de la justice en Pologne ? Seule madame Merkel le sait et elle ne vous le dira pas. Ceci dit, Ursula von der Leyen était bien la candidate parfaite pour le poste. Sans opinions concrètes, elle est parfaitement flexible et ajustable aux préférences du moment des eurocrates du Berlaymont – le bâtiment de la Commission européenne gérant plus de 30 000 bureaucrates. De plus, comme Jean-Claude Juncker, elle arrive à Bruxelles avec un bagage exemplaire de négligences coupables commises dans son pays d’origine. Autant monsieur Juncker était arrivé en étant accusé d’avoir manqué à son devoir d’informer le parlement luxembourgeois d’écoutes illégales de ses services de renseignements, autant madame von der Leyen arrive en étant accusée de népotisme. Elle a en effet admis en octobre 2018, alors qu’elle était encore ministre de la Défense de son pays, que son ministère a commis des erreurs dans l’attribution de contrats à des consultants externes, atteignant une valeur de plusieurs centaines de millions d’euros. Histoire de rester dans l’exemplarité, on retiendra qu’en 2012, monsieur Josep Borrell, ancien président du Parlement européen et ancien ministre de différents gouvernements socialistes espagnols, a été contraint de démissionner de son poste de président de l’Institut universitaire européen (IUE) à la suite d’allégations de conflit d’intérêts. Il percevait alors 300 000 euros en tant que membre du conseil d’administration de la société espagnole d’énergie durable Abengoa, tout en promouvant au même moment les biofuels à travers l’institut. Qu’à cela ne tienne, avec madame von der Leyen, il sera confirmé comme nouveau chef de la diplomatie de l’Union Européenne. Encore un candidat parfait. Ayant peur de ne pas récolter les voix nécessaires, madame von der Leyen a commencé son discours d’ouverture en évoquant le climat. Elle propose la création d’une banque d’investissement verte capable de débloquer un billion d’euros (oui, on parle bien de mille millard d’euros, soit 1 000 000 000 000 euros). De plus, elle veut réduire de 50 % les émissions de carbone dans l’Union Européenne, « ou même de 55 % » d’ici 2050, l’objectif actuel de la Commission étant de 40 %. Cette ambition de plaire aux Verts coûtera aux consommateurs encore plus de taxes sur l’aviation, encore plus de subventions écologiques et une réforme du système communautaire d’échange de quotas d’émission (SCEQE). L’économie de marché doit être sociale, nous explique-t-elle. Madame von der Leyen souhaite continuer le programme de la garantie d’emplois pour les jeunes, et évoque un SMIC européen, ainsi que d’un fonds européen d’allocation de chômage. Des transferts sociaux, probablement financés à travers de nouvelles taxes sur la consommation d’énergie. Les Gilets jaunes vont s’en réjouir. Au niveau institutionnel, la nouvelle présidente de la Commission plaît au parlement européen en exprimant son appui pour le droit d’initiative législative des eurodéputés (un droit réservé à la Commission). Puisqu’une telle réforme nécessiterait un changement de traité improbable en ce moment, madame von der Leyen a promis de réagir à toute résolution du parlement européen avec une proposition de directive. En gros, cela veut dire que les demandes écologistes des députés, qui vont toujours plus loin que celles de la commission, seront accélérées. En septembre prochain, les pays membres de l’Union européenne proposeront leurs candidats aux postes de commissaire. Le vote pour confirmer la Commission tout entière aura probablement lieu au mois d’octobre. C’est à nouveau ce moment la qu’Ursula von der Leyen nommera des radicaux de tous les bords sur les questions écologistes et financières. Un groupe de 27 super-bureaucrates, entièrement dédiés à une vision : être la Commission la plus antilibérale de l’Histoire. Le concours de mauvaises idées ne fait que commencer.
fake
Sous les décors de carte postale qu'offre la Corse se cache en fait une réalité moins paradisiaque... Des chercheurs viennent de découvrir une île de déchets en plastique, qui dérive entre les côtes corses et l'île d'Elbe. "C'est une situation qui est chronique, c'est-à-dire que la disposition des courants fait que régulièrement on a de très fortes concentrations dans cette zone-là", explique François Galgani, responsable de l'Ifremer à Bastia au micro de France bleu RCFM. "Les courants en Méditerranée nord-occidentale sont organisés de telle manière que l'eau remonte le long de la côte italienne et lorsqu'elle arrive sur le socle de l'île d'Elbe, de l'archipel toscan, en fait elle ne peut pas passer et elle va s'engouffrer dans le canal de Corse. C'est la raison pour laquelle on a de plus fortes densités. Le risque, c'est que quand on a des conditions météo défavorables, par exemple le vent de nord-est en été, on a des arrivées massives sur le littoral corse", détaille le chercheur. François Galgani se veut toutefois rassurant et affirme que "ces déchets forment une île de manière temporaire, ils ne restent jamais présents plus de trois mois", contrairement à "des îles de plastiques dans le Pacifique ou dans l'Atlantique" qui sont "des courants permanents" provoquant des accumulations "toujours aux mêmes endroits".
true
Des travaux de forage pétrolier off-shore profond pourraient commencer demain le 25 février, à 150 km au large de Cayenne, en Guyane française. Quelques mois après la catastrophe de la plate-forme Deepwater Horizon dans le Golfe du Mexique, les mesures de sécurité déployées pour parer à une éventuelle marée noire restent insuffisantes et les enjeux environnementaux n’ont toujours pas été pris en compte. La Guyane s’apprête à battre un inquiétant record de France : celui du plus profond forage jamais réalisé sur le territoire national. C’est en effet au large de Cayenne que l’entreprise britannique TULLOW se prépare à engager dans quelques jours des travaux de forage à une profondeur record de 6000m (2000m de colonne d’eau et 4000m de sous-sol océanique). Pour rallier une poche pouvant éventuellement contenir des hydrocarbures, cette entreprise a reçu le soutien des multinationales SHELL et TOTAL, contribuant aux 100 millions d’euros d’investissements nécessaires. Sur le plan climatique, le Potsdam Institute for Climate Impact Research indique que si l’on veut garder la hausse des températures en dessous des deux degrés et ainsi éviter les pires conséquences des changements climatiques, moins d’un quart des réserves prouvées en fossiles (pétrole, gaz et charbon) peuvent être consommés d’ici à 2050. La science du climat nous impose donc aujourd’hui de stopper notre fuite en avant vers toujours plus de prospections pétrolières à haut risque. Après l’échec d’une tentative de concertation initiée par les associations locales de protection de la nature, force est de constater que le projet comporte toujours des failles : suivi insuffisant des impacts des travaux sur l’écosystème, moyens de lutte contre la pollution mobilisables sous des délais trop longs, Plan POLMAR local totalement inadapté… Pourtant les enjeux écologiques sont importants. Les eaux guyanaises sont l’un des dix macros écosystèmes marins les plus productifs au monde (en biomasse par an). Alors que les stocks d’espèces commercialisables sont presque partout en baisse, cette particularité est remarquable. La pêche représente d’ailleurs localement une activité durable qui pourrait être touchée de plein fouet en cas d’accident. Les eaux guyanaises recèlent aussi une biodiversité marine très riche. Entre les deltas de l’Amazone et de l’Orénoque se développent ainsi 933 espèces de poissons, 29 espèces de mammifères marins et 5 espèces de tortues marines. Les tortues luths pourraient être tout particulièrement affectées, le calendrier de forage coïncidant en effet avec les saisons de ponte. Rappelons que les conclusions du rapport d’enquête sur la catastrophe de la plate forme Deepwater Horizon n’ont été rendues publiques qu’en janvier dernier et n’ont pas encore été exploitées. Que les Etats-Unis se sont prononcés récemment en faveur d’un moratoire sur les travaux de forage dans le Golfe du Mexique. Et qu’au niveau européen, la Commission a engagé les Etats membres, le 12 octobre dernier, à user du principe de précaution sur les forages profonds, dans l’attente d’un renforcement du cadre juridique européen. Dans ce contexte international et régional où la prudence est de mise, compte tenu de la vulnérabilité aux risques des écosystèmes marins, des activités littorales, pêche et tourisme, des pratiquants d’activités nautiques et de la faiblesse des mesures de sécurité, les organisations environnementales demandent la suspension immédiate de l’autorisation d’ouverture des travaux. Le projet de forage doit amener la société à s’interroger : aller toujours plus loin chercher du pétrole, avec des conséquences environnementales –climat et biodiversité- toujours plus fortes ne résoudra ni la question du climat, ni celle du renchérissement du prix des hydrocarbures. Le temps est venu de repenser les investissements d’aujourd’hui pour qu’ils reflètent les priorités de demain. C’est le devoir de la France -et des Etats- de préparer dès aujourd’hui la sortie du pétrole et d’investir massivement dans les économies d’énergies et les renouvelables. Guyane Nature Environnement – France Nature Environnement – Fondation Nicolas Hulot – Surfride Foundation Europe – Greenpeace – WWF
true
Un séisme de magnitude 5,6 a eu lieu mardi dans le nord-est de Tokyo, a annoncé l'Agence météorologique du Japon. L'épicentre a été situé au large de la côte de la préfecture de Fukushima, où en 2011 un accident majeur a eu lieu en raison d'un tsunami. Les secousses ont été ressenties jusqu'à Tokyo. Les secousses ont duré plus de 30 secondes, selon des habitants de la zone où elles ont été le plus fortement ressenties, cités par la chaîne NHK. Dans le train, donc je ne l'ai pas senti Le tremblement de terre se trouve à une profondeur de 50 kilomètres. Aucune menace d'un tsunami n'a été annoncée, ni aucune donnée sur les dommages occasionnés. La magnitude indique la puissance de l'énergie libérée lors d'un séisme et représente l'amplitude maximale des ondes sismiques. Cependant, elle ne permet pas de juger la force de l'influence des tremblements de terre sur les objets situés à la surface de la Terre. L'aéroport de Miyagi a été temporairement fermé Des trains ont été stoppés en raison d'une coupure de courant et pour contrôler les voies. Le Japon utilise son propre système de sept points. Selon ce système, la force du tremblement de terre en cours dans la préfecture de Miyagi est de plus de cinq points. Plusieurs secousses se sont produites ces derniers jours dans la même région, celle qui a été dévastée il y a six ans par un gigantesque tsunami qui a emporté 18.500 vies et provoqué la catastrophe nucléaire de Fukushima. L'archipel nippon a aussi connu en avril 2016 deux forts tremblements de terre dans la région de Kumamoto (sud-ouest), suivis de plus de 1.700 répliques, qui avaient fait sur le coup une cinquantaine de morts et causé d'importants dommages.
true
La compagnie Montagne d'or qui porte le projet de mine industrielle du même nom en Guyane, "prend acte" des déclarations du gouvernement sur l'abandon de son projet, et "réaffirme sa volonté" d'un "dialogue constructif" afin de le "rendre compatible avec les exigences de protection environnementale". À l'issue du premier Conseil de défense écologique, instance annoncée le 25 avril dans le cadre des mesures post-grand débat, le Premier ministre Édouard Philippe et son ministre de l'Environnement, François de Rugy, ont confirmé jeudi l'abandon du projet, le jugeant "incompatible avec les exigences de protection de l'environnement". "Le projet Montagne d'or ne se fera pas", a affirmé François de Rugy. Dans un communiqué, la Compagnie Montagne d'or "réaffirme sa volonté de mener un dialogue ouvert et constructif avec l'ensemble des parties prenantes à ce dossier en vue de rendre ce projet en Guyane compatible avec les exigences de protection environnementale". VIDEO >> En Guyane, une montagne d'or et de polémiques Elle dit aussi soutenir "la volonté du gouvernement d'accélérer la réforme du code minier. Cette modernisation permettra d'intégrer les exigences environnementales et de clarifier le cadre de l'exploitation minière en France, condition indispensable pour attirer les investissements".
true
Gerd Leipold, le directeur international de Greenpeace vient de signer en Allemagne le contrat pour la construction du nouveau navire : le Rainbow Warrior III, le 3ème du nom qui remplacera en 2011 son prédécesseur (le Rainbow Warrior II) arrivé en fin de vie. L’histoire de Greenpeace a toujours été étroitement liée à la mer et à sa flotte, utilisée pour témoigner des crimes environnementaux comme la surpêche, la chasse baleinière ou pour bloquer les cargos transportant des matières dangereuses (déchets nucléaires, bois illégal, charbon) et responsables du changement climatique. Le Rainbow Warrior II a servi les campagnes de Greenpeace pendant 29 longues années et remporté les victoires les plus significatives (fin des essais nucléaires dans le Pacifique, création de la réserve naturelle de l’Antarctique…). Dès sa mise à l’eau en 1989, le bateau sillonne les océans du globe pour sensibiliser les populations aux enjeux environnementaux : changement climatique, prolifération nucléaire, dégradation de la biodiversité… « Le Rainbow Warrior II a été un bateau grandiose, obtenant de nombreux avancées environnementales, mais même les plus grands guerriers se retirent un jour » raconte Gerd Leipold lors de la signature du contrat. Un navire à la pointe des technologies environnementales et marines Par le passé, Greenpeace a toujours opté pour des bateaux d’occasion afin de les remettre en état. Aujourd’hui, cette solution s’avère peu pertinente à long terme en raison de ses impacts économiques et environnementaux. En effet, les principales sources d’émission de gaz à effet de serre provenant des bateaux ne concernent pas tant la construction ou le démantèlement mais essentiellement la consommation de fuel. C’est pourquoi, le Rainbow Warrior III sera à l’avant garde des technologies environnementales et marines. Propulsé principalement par voile et par l’énergie éolienne, il disposera également d’un moteur hybride diesel et électrique pour naviguer lors de conditions météorologiques difficiles. Les lignes de sa coque ont été spécialement dessinées pour diminuer au maximum la consommation de fuel. La structure des mâts et la forme des voiles ont été étudiées afin d’optimiser la prise au vent et la navigation. Le Rainbow Warrior III possèdera également un passeport vert où seront consignées les spécificités techniques et environementales du bateau. De plus, la chaleur générée par les moteurs sera réutilisée pour chauffer l’eau à bord. A la pointe de la technologie, le Rainbow Warrior III est la preuve qu’une alliance entre innovation et respect de l’environnement est possible.
true
Montée des océans. « La situation planétaire est alarmante » Éric Chaumillon, professeur et chercheur en géologie marine, revient sur le phénomène de la montée des océans aux Sables-d’Olonne. Le public pourra le rencontrer vendredi 17 septembre, au Havre d’Olonne, lors d’une conférence gratuite. Pour mieux comprendre les risques de submersion marine, l’agglomération des Sables-d’Olonne propose une conférence « Hé… la mer monte », du scientifique Eric Chaumillon. Dans son livre éponyme, ce professeur de Géologie marine et littorale, responsable du Master Géosciences et Géophysique du Littoral à l’université de La Rochelle, traite de façon scientifique et ludique les raisons et les enjeux de la montée du niveau des océans. Comment expliquer le risque de submersion marine ? Il faut distinguer deux types de submersions. La première est dite lente. Elle est liée à l’élévation globale des océans, elle-même produite par la fonte des glaciers et la dilation des océans qui se réchauffe. Cela représente aujourd’hui +3,6 mm/an en absolu. Mais il y a des variations spatiales de l’élévation : dans le sud-ouest du Pacifique par exemple, l’élévation est plus rapide. Aux Sables-d’Olonne, elle est un peu moins rapide que 3,6… Mais la côte peut elle aussi bouger et avoir des mouvements verticaux. Elle peut par exemple s’enfoncer ; dans ce cas, la mer va monter plus vite. Elle peut se soulever, la mer va alors baisser. Si la cote est stable, et c’est le cas des Sables-d’Olonne en première approximation, les élévations du niveau marin sont les mêmes. La deuxième submersion possible est celle dite « rapide ». Elle est liée aux tempêtes, avec les effets conjugués de la chute de pression qui fait élever le niveau marin ; du vent qui souffle vers la terre et entraîne les masses d’eau dans sa direction ; des vagues qui après déferlement font s’élever le niveau marin entre la zone de déferlement et la côte. À noter que la submersion rapide sur les côtes ne peut se produire qu’à marée haute, et principalement à marée haute de vive-eau. Existe-t-il un risque de submersion aux Sables-d’Olonne ? Les zones à risques concernant les submersions sont les zones littorales basses, comme les marais ou les terrains issus de la poldérisation, c’est-à-dire conquis sur l’océan. Ceinturés de digues, ils ne reçoivent plus de sédiments, se compactent et s’affaissent, ils deviennent alors plus bas que les plus hautes mers. Avec le niveau marin qui augmente, la situation empire… Aujourd’hui, ces zones sont protégées par des défenses normalement dimensionnées pour résister à la combinaison « hautes mers, surcote de tempête, et élévation globale du niveau de la mer ». Mais si un aléa les dépasse, il y a submersion. Ces défenses peuvent aussi se rompre. Finalement, la question qui se pose surtout c’est jusqu’à quand on élèvera les défenses contre la mer. Sinon le littoral des Sables-d’Olonne est naturellement bien défendu par des cordons dunaires bien développés et par des côtes rocheuses. Plus au sud, dans le marais poitevin, la situation est beaucoup plus problématique par contre : territoires plus bas, plus vastes, et des cordons littoraux étroits ou inexistants… L’érosion du trait de côte et les fuites de sable sont-elles inéluctables ? En France, beaucoup de côtes exposées aux vagues sont en érosion. Avec l’élévation du niveau de la mer, la situation va empirer. Il faut savoir qu’en cas de franchissement de la dune par paquet de mer, le sable ne part plus en mer, mais vers la terre et permet à la dune se reconstituer en arrière, le sable n’est donc plus perdu ! Pour que ce phénomène puisse se produire, il faut de la place en arrière de ces dunes, c’est-à-dire qu’il ne faut pas de constructions proches de la cote. Sinon le sable est pris en sandwich et sa seule porte de sortie, c’est la mer. Existe-t-il des solutions pour lutter contre ? Oui, beaucoup. Il y a les défenses dures comme les digues, les enrochements, etc. On a le rechargement des plages. On peut aussi reculer les constructions. Ou rendre les aléas acceptables en construisant des maisons sur pilotis ou des maisons flottantes. Nous avons aussi des solutions fondées sur les écosystèmes. Elles ont vocation à utiliser la capacité naturelle des écosystèmes côtiers à s’adapter aux aléas, C’est-à-dire ? De laisser faire la nature ? Non, il s’agit bien d’interventions de l’homme sur les écosystèmes. L’idée est d’optimiser leurs capacités de défenses de côtes. Par exemple, les marais littoraux et prés-salés, les mangroves, les dunes, les récifs coralliens ou les récifs construits par des coquillages… Ils favorisent l’accumulation de sédiments et peuvent à la fois s’élever avec le niveau de la mer, réduire l’impact des submersions rapides et des vagues de tempêtes et limiter les phénomènes d’érosion. Ils peuvent aussi, d’ailleurs, piéger du carbone, augmenter la biomasse et la biodiversité, et créer des beaux paysages. Mais il n’existe pas une solution d’adaptation unique… Tout dépend des contextes géographiques, sociaux et institutionnels. La diversité́ des contextes peut conduire à̀ chercher une mixité́ dans les stratégies à mettre en place. Quelles sont les données scientifiques nous permettant d’évaluer ces risques et différentes solutions ? Pour mieux comprendre et prédire les aléas côtiers que sont les submersions et l’érosion, il faut des mesures fréquentes et des modélisations pour faire des « expériences numériques ». Il faut donc des moyens, surtout humains, et ça, nous en manquons… Pourquoi tenir des conférences, écrire des livres… ? La situation planétaire est alarmante, mais les faits scientifiques s’imposent à nous : nous devons changer profondément nos sociétés et notre relation à la nature. Cela passe par des connaissances, mais il faut les partager avec tous, car étaler les graphiques et les rapports a un pouvoir très limité. Il suffit de voir la succession des rapports du GIEC et la non prise de décisions… Il faut donc une appropriation du savoir par les usagers, qu’ils puissent évaluer eux-mêmes le pour et le contre de différentes options. Les conférences ne permettent que d’effleurer les problèmes. Les livres que nous éditons sont le complément idéal. Mais mon discours étant globalement anxiogène, pour éviter la sidération et la morosité, j’ai décidé de m’associer avec des artistes qui dédramatisent mon discours et rendent le public heureux et plus prêt à l’action… Vendredi 17 septembre, 20 h 30, Les Sables-d’Olonne, sur réservation au 02 51 23 86 05. Gratuit.
true
Par MD La presse s’est fait récemment l’écho d’une plainte déposée par onze familles ou communautés : neuf européennes, une des îles Fidji et une du Kenya, à l’encontre de l’Union européenne (Parlement et Conseil). La juridiction choisie par les plaignants est la Cour de justice de l’UE (qui siège à Luxembourg). Il n’est pas inutile de rappeler succinctement les compétences de la CJUE. Elle « assure le respect du droit dans l’interprétation et l’application des traités » (art 19 du traité de l’UE).Elle : « contrôle la légalité des actes législatifs, des actes du Conseil, de la Commission (…) et des actes du Parlement européen et du Conseil européen destinés à produire des effets juridiques à l’égard des tiers (…) Toute personne physique ou morale peut former (…) un recours contre les actes dont elle est le destinataire ou qui la concernent directement et individuellement, ainsi que contre les actes réglementaires qui la concernent directement et qui ne comportent pas de mesures d’exécution » (art 363). En l’espèce, le grief invoqué par les familles plaignantes concerne l’insuffisance alléguée des dispositions législatives prises ou envisagées par l’UE pour limiter ses émissions de CO2 et partant le « réchauffement climatique » et ses effets dévastateurs bien connus. Elles demandent en conséquence la réforme ou l’abrogation de ces dispositions. On se contentera ici d’examiner le cas de la famille allemande. Une île menacée. La scène se passe en Allemagne sur l’île de Langeoog, en Frise orientale, à quelques encablures de la côte de la mer du Nord. Cette île est une destination touristique réputée. Elle compte quelques 2 000 résidents (hors saison), des maisons pimpantes, une quinzaine d’hôtels ou résidences, un aéroport, un musée maritime, des installations sportives, enfin au nord une immense plage de sable (14 km) avec la mer à perte de vue [1] . Les dépliants publicitaires la concernant sont enthousiastes [2], et des promoteurs-constructeurs nous invitent à y investir et à y bâtir [3]. Les liaisons avec le continent sont assurées, non par un pont ce qui garantit son insularité, mais par un service continu de ferries (8 allers-retours par jour en été). Bref, une île prospère, dynamique et optimiste quant à l’avenir. Mais ce n’est qu’une apparence. En effet, cette île paradisiaque est menacée par la montée des eaux. Pour le démontrer, on dispose de trois marégraphes situés dans un rayon de 60 km environ, dont deux comportent des séries longues. Voici le graphique correspondant (RLR, Revised Local Reference, est une échelle conventionnelle).On s’est permis d’y ajouter les droites de tendances linéaires pour fixer les idées. Il est facile de voir que, depuis 150 ans, au-delà de fluctuations notables d’une année à l’autre, le niveau de la mer a augmenté dans cette région de1,7à 2,3 mm par an en moyenne, soit environ 20 cm par siècle, sans accélération récente manifeste. Il s’agit bien essentiellement du niveau marin, car l’altitude du socle terrestre, mesurée en différents endroits proches par GPS (source NASA), est stable au moins depuis plus de vingt ans, début des mesures. On apprend même grâce à Wikipedia que « Langegoog est une des îles frisonnes les plus stables, et a peu dérivé au fil des siècles ; sa partie orientale a même gagné de la surface ». A ce rythme, l’altitude moyenne de l’île étant de 5 à 6 mètres, on pourra peut-être commencer à se préoccuper du problème, s’il se confirme, dans trois ou quatre siècles. C’est apparemment ce que pensent les deux mille habitants de cette île paradisiaque. D’ailleurs, à l’époque de l’essor de l’équipement de l’île (après la seconde guerre mondiale), on disposait déjà d’un siècle d’observations du niveau marin, ce qui n’a nullement découragé les investisseurs. Une famille prophétique. Toutefois, une famille de l’île ne partage pas la frivolité générale et a décidé d’agir sans tarder. Il s’agit de la famille Recktenwald, exploitant le restaurant panoramique Seekrug, juché sur la dune de dix mètres de hauteur qui borde la plage (Hohenpromenade, n°1). Le restaurant lui-même occupe le troisième étage du bâtiment. Voici deux vues recto-verso permettant de situer l’établissement dans son environnement : Restaurant panoramique Seekrug L’altitude de la dune et la végétation abondante qui la protège suggèrent que cet édifice (avec les quelques autres constructions riveraines de la Hohenpromenade) pourra servir en l’an 3000 ou 3500 d’ultime refuge aux derniers habitants, tous les autres ayant été chassés par la mer vers le continent. C’est donc à bon droit que les propriétaires se préoccupent dès maintenant de la préservation de ce nouveau mont Ararat. De toute évidence, c’est bien l’Union européenne, par sa politique climatique écervelée, qui est la grande coupable. Il était donc urgent de la harceler pour la ramener à la raison. Convergence ou complot ? On pourrait s’appesantir de la même façon sur les dix autres plaignants, qui constituent une liste dispersée et hétéroclite (champ de lavande en Provence, ferme biologique au Portugal, élevage de Rennes en Suède, exploitations diverses en Italie, Roumanie, etc., plus Fidji et Kenya). On ferait probablement des découvertes analogues. Toutes ces familles ou communautés déclarent souffrir du réchauffement ou changement climatique et de ses conséquences diverses : trop de pluie, pas assez de pluie, trop chaud, trop froid, montée des eaux, bref le temps qu’il fait. Elles incriminent l’UE au motif (en substance) que celle-ci ne préserve pas leur droit à la vie, à la santé, au moyen d’existence et à la propriété, ceci à cause d’une législation européenne trop laxiste en matière climatique. Elles ne demandent pas de réparations (au moins pour le moment), mais un durcissement des textes. On ne sera pas surpris de trouver derrière ces plaignants des associations, des « experts » et des cabinets d’avocats spécialisés [4]. L’ONG allemande « Protect the Planet » est censée assumer les frais de procédures (mais enfin l’argent ne lui tombe pas du ciel ?) ; l’initiative est aussi appuyée par « Climate action network Europe » et quelques autres de la même mouvance. Chacun peut penser ce qu’il veut, mais on a peine à croire que ces plaintes puissent être spontanées et se trouver miraculeusement regroupées sous une même bannière. Le plus vraisemblable est que des officines spécialisées procèdent à des recrutements sur la base du volontariat (on espère), et moyennant des promesses ou des compensations. Ces chasseurs de primes d’un nouveau genre semblent se multiplier partout dans le monde. En cas de succès, les retombées peuvent être juteuses en termes d’honoraires et de renommée. Affaire(s) à suivre. A l’heure actuelle, très peu des « contentieux climatiques » ont encore donné lieu à des jugements en dernier ressort (voire aucun). L’affaire Urgenda c/ Pays-Bas est en appel, de même que Saul (Pérou) c/ RWE. L’affaire Oakland, San Francisco et autres c/ cinq majors pétroliers est en première instance devant un juge californien (William Alsup) qui semble poser les bonnes questions. Aux yeux du commun des mortels, les griefs invoqués apparaissent souvent comme assez loufoques ; mais la justice démocratique, et c’est son honneur, ne peut les décliner d’un revers de main, elle se doit de les considérer avec sérieux et patience, et elle a obligation de motiver ses verdicts. Personne ne peut prévoir comment va se dérouler et encore moins se conclure cette plainte contre l’Union européenne, la première du genre. En bonne règle, les plaignants sont tenus de démontrer leur intérêt à agir, ainsi que le caractère personnel, direct, actuel et certain des dommages allégués, comme on apprend dans le moindre cours de droit civil. Mais on sait que même ces notions peuvent donner lieu à des interprétations : par exemple, les pronostics hasardeux du GIEC concernant le réchauffement climatique ou la montée du niveau marin présentent-ils aux yeux des juges un caractère de « certitude » suffisant ? Il faut dire que les sociétés et les gouvernements ainsi attaqués, et en tout premier lieu l’UE, ont déroulé le tapis rouge devant les plaignants « climatiques » en battant leur coulpe en permanence et en adoptant dans l’enthousiasme les conclusions du GIEC et les accords des « COP » dont évidemment celui de Paris (COP21). Un document officiel de début 2017 émanant de l’UNEP est éclairant à cet égard : tout en recensant les contentieux climatiques, il constitue un manuel du parfait plaignant, n’omettant aucun type de grief [5]. Il sera intéressant de voir si, et comment, va se défendre l’UE, qui constitue maintenant le « ventre mou » mondial et s’est offerte comme cible de choix.Va-t-elle se coucher platement, ou argumenter méthodiquement et scientifiquement, ou aller jusqu’à une action reconventionnelle pour procédure abusive ? « La quantité d’énergie nécessaire pour réfuter des idioties est supérieure d’un ordre de grandeur à celle nécessaire pour les produire. » (loi de Brandolini) A suivre [6] [1] Les parcs d’éoliennes offshore les plus proches (Gode Wind et Borkum Riffgrund) ont été prudemment implantées à plus de 50 km et ne polluent donc pas l’horizon. Pas si fous ces Allemands ! [2]https://www.langeoog.de/die-insel [3] A titre d’exemple : https://www.engelvoelkers.com/en-de/properties/buy-investment-properties/lower-saxony/langeoog/ [4] Une des avocates allemande des plaignants, Roda Verheyen, est celle même qui conseille le paysan péruvien Saul dans sa plainte contre la compagnie énergétique allemande RWE (qui entre parenthèse n’a jamais mis les pieds au Pérou). Elle est l’auteur d’un ouvrage intitulé « Climate change damage and international law ». [5] « Status of climate change litigation » http://wedocs.unep.org/handle/20.500.11822/20767. Rappelons que l’UNEP est à l’origine de la création du GIEC avec le WMO. On sait – ou on ne sait pas – que l’UNEP est basée à Nairobi, au Kenya, où, comme par hasard, est domicilié l’un des onze plaignants contre l’UE. [6] Les lecteurs intéressés par le sujet peuvent en quelques clics sur Google obtenir une foison d’informations supplémentaires sur cette affaire et bien d’autres du même genre.
fake
Chaque année, les inégalités mondiales s’aggravent. C’est le rappel régulier qu’effectue l’ONG Oxfam, son dernier rapport en date ayant indiqué, début 2020, que les 1% les plus riches de la planète cumulaient « plus du double des richesses des 6,9 milliards les moins riches, soit 92 % de la population du globe »… Ce lundi 21 septembre, dans un rapport publié conjointement avec le think tank Stockholm Environnement Institute (SEI), il est de nouveau question des 1% les plus riches. Cette fois, c’est leur contribution à la crise climatique qui est analysée. Les données sur les émissions de CO2 liées à la consommation nationale de 117 pays de 1990 à 2015 – « période critique pendant laquelle les émissions annuelles ont augmenté de 60%, et les émissions cumulées ont doublé »- ont été analysées. En s’appuyant sur les « nouveaux ensembles de données sur la répartition de revenus », Oxfam et le SEI ont estimé la contribution des différentes catégories de revenus à ces émissions (la méthodologie est détaillée ici). Un budget carbone mondial en chute libre Les principales conclusions d’Oxfam sont éloquentes : les 10% les plus riches de la population mondiale (environ 630 millions de personnes) ont été responsables de 52% des émissions de CO2 cumulées au cours des vint-cinq dernières années. Ils ont ainsi consommé près d’un tiers (31%) du budget carbone mondial (ce dernier correspondant au volume maximum d’émissions cumulées admissible pour limiter la hausse de la température à + 1,5°C, objectif défini dans le cadre de l’Accord de Paris). Les 1% les plus riches de la population (environ 63 millions de personnes) ont été responsables à eux seuls de 15% des émissions cumulées (et de 9% du budget carbone). Cela représente deux fois plus que la moitié la plus pauvre de la population mondiale : les 50% les plus pauvres (environ 3,1 milliards de personnes) ont en effet été responsables de seulement 7% des émissions cumulées (soit 4% dans le budget carbone disponible). En montrant l’impact immense de la part la plus aisée de la population mondiale, l’ONG espère contribuer aux « nombreux débats publics et politiques sur le changement climatique portant, ces 20 dernières années, sur l’impact de la classe moyenne mondiale dans des pays comme la Chine et l’Inde ». Un autre chiffre répond à ces débats : plus d’un tiers des émissions des 1% les plus riches (5,7% des émissions mondiales) sont imputables à des citoyens des États-Unis. Viennent ensuite les résidents du Moyen-Orient et de Chine. Si des « actions volontaires » de la part des plus aisés pourront faire une « réelle différence », le transport représentant la plus grande part des émission (voir Figure ci-dessous), elles seront « loin d’être suffisantes », souligne Oxfam, les causes de ces inégalités extrêmes en matière de CO2 étant surtout « systémiques ». Ainsi, « elles exigent des solutions systémiques : de nouveaux modèles économiques qui ne s’appuient pas sur une croissance indéfinie de la consommation de la population déjà aisée », poursuit le rapport. Un budget carbone mondial en chute libre L’ONG énumère quelques leviers potentiels pour faire évoluer la situation : des taxes carbone sur les produits et service de luxe (sur les ventes de SUV, les jets privés ou les super-yachts, ou des taxes sur les vols fréquents ou en classe affaires), une tarification progressive étendue du carbone afin de financer par exemple l’extension de services sociaux universels, l’arrêt de l’exonération fiscale sur le carburant d’aviation et l’arrêt des plans de sauvetage inconditionnels de l’industrie aéronautique. Mais aussi des investissements publics (construction d’infrastructures pour la mobilité électrique, les transports publics, le vélo, la marche (…), amélioration de l’efficacité énergétique des logements, développement des secteurs sobres en carbone comme la santé et l’aide sociale, bénéficiant surtout aux femmes et aux groupes marginalisés ou à faibles revenus), ou encore l’interdiction de la publicité dans les lieux publics ou le développement d’un droit à la réparation des biens manufacturés. « De façon générale, ce sont les plus vulnérables qui sont les plus touchés, tout en étant les moins responsables de la situation » « De façon générale, ce sont les plus vulnérables qui sont les plus touchés, tout en étant les moins responsables de la situation »
true
Interdire la publicité pour les moyens de transport (voitures, bateaux, avions…) et les activités qui consomment des énergies fossiles est la nouvelle idée farfelue (une de plus) des activistes écologistes et de ceux qui ont encadré la fumeuse Convention citoyenne pour atteindre la décroissance dont ils rêvent. L’ÉNERGIE, C’EST LA VIE ! Toutes les activités consomment de l’énergie directement pour produire, ou indirectement pour transporter, stocker, manipuler… Ostraciser les énergies fossiles qui représentent toujours 90 % de la consommation mondiale d’énergie, et quasiment 100 % des transports en France, c’est effectivement un bon moyen pour les décroissants d’effondrer l’économie. Que n’y ont-ils pas pensé plus tôt ! L’électricité et l’hydrogène qu’il faut fabriquer massivement (avec du nucléaire ?) ne succéderont pas aux énergies fossiles, notamment dans les avions et les transports lourds. C’est un leurre savamment entretenu qui permet d’enrichir des affairistes et de subventionner en pure perte tout un pan industriel sans avenir. Il faudra donc fermer les agences de voyages dont le métier est d’organiser des voyages qui utilisent des moyens de transports. Il restera à promouvoir la marche et le vélo, mais sans respirer trop fort car l’Homme émet aussi du CO2 par kilomètre parcouru, et à se balader autour de chez soi car aller loin en voiture ou en avion sera un délit pour les réactionnaires verts. Les concerts des vedettes qui voyagent en avion et dont le barnum se déplace avec de nombreux immenses camions et bus devront aussi être bannis, ainsi que les dizaines de milliers de spectateurs qui viennent dans des véhicule à pétrole. Après avoir répandu l’idée fausse selon laquelle la meilleure énergie est celle qui n’est pas consommée (le meilleur livre sera bientôt celui qui n’a pas été écrit…), l’étape suivante est donc d’interdire l’énergie fossile et nucléaire. Il ne restera plus grand-chose à consommer s’il reste seulement les faiblardes énergies intermittentes du vent et du soleil ; en France, l’énergie hydraulique est déjà exploitée à son quasi-maximum. La vie commence, certes, par se nourrir et se protéger des intempéries (ce qui exige déjà de l’énergie), mais c’est aussi le mouvement, la découverte, la rencontre. L’énergie c’est la vie ! UN SONDAGE FAVORABLE ? Les Français qui saturent du trop-plein de publicités dans les médias (TV, journaux, panneaux, radios, prospectus…) ont, semble-t-il, répondu spontanément favorablement (quelle était la question ?) à cette proposition dans un sondage. Ils n’ont probablement pas perçu les terribles conséquences et les graves inconvénients que cette insidieuse proposition de loi implique. Elle porte en elle le germe liberticide de la réclusion perpétuelle à domicile ! Des associations d’activistes écologistes réclament « l’interdiction de toute promotion ou publicité, directe ou indirecte en faveur des énergies fossiles ou des entreprises qui exploitent, produisent ou distribuent ces énergies fossiles ». Les Français n’ont pas encore découvert la folie qui se cache derrière cette proposition de loi qui veut bannir les énergies fossiles de nos vies en les rendant détestables au même titre que les cigarettes ou l’alcool avec la loi Evin qui eux sont directement nuisibles à la santé. Faudra-t-il bientôt avoir honte d’aller en vacances dans une voiture confortable à l’autre bout de la France, ou en avion à l’autre bout du monde, et montrer du doigt les croisiéristes sur les rivières ou en mer, et les promenades en bateau sur les lacs ? Faudra-t-il interdire les entreprises « contribuant au changement climatique » comme, par exemple, les marques de vêtements (importations d’Asie et d’Afrique), les importateurs d’ananas, et même bannir la publicité pour la France à destination des touristes étrangers, notamment américains et asiatiques qui se déplacent en avion ? UNE DICTATURE VERTE ? Certes, réduire les consommations d’énergies fossiles coûteuses à importer comme les panneaux photovoltaïques et les éoliennes, et qui vont se tarir un jour (la date fait débat mais probablement au-delà du siècle), est indispensable. Mais imposer aux entreprises par la loi des restrictions à la liberté, faire connaître leurs productions par la publicité et de circuler librement en rendant honteux les moyens de transports avant d’avoir des solutions de remplacement viables à grande échelle est une grossière erreur et un cruel manque de vision à long terme. Il y a parfois des lois d’apparences sympathiques mais liberticides et dignes d’une dictature qui se cachent sous les meilleures intentions bien habillées. Comme le chantait Jacques Dutronc en parlant du dragueur des supermarchés : « Il est sympa et attirant, mais… méfiez-vous : c’est un truand ! »
fake
C'est une photographie inédite des usages très répandus des pesticides domestiques, réalisée en pleine polémique sur la distance minimale entre habitations et zones d'épandage des produits phytosanitaires chimique. Même contre les cafards ou les puces de votre chat, les insecticides doivent être utilisés avec précaution, met en garde ce lundi l'agence sanitaire Anses (Agence de nationale de sécurité sanitaire de l'alimentation, de l'environnement et du travail) dans une étude de terrain. Baptisée Pesti'Home, elle a été réalisée en 2014 chez 1500 ménages de France métropolitaine afin d'avoir une meilleure évaluation des expositions et des risques potentiels pour la santé. L'étude de l'Anses révèle ainsi que 75% d'entre eux ont utilisé au moins un pesticide dans les 12 mois précédents. Et cette utilisation "généralisée" est loin de concerner uniquement le soin des plantes. Ainsi, 61% des détenteurs d'animaux domestiques (qui représentent près de la moitié de l'échantillon) traitent leur chat, leur chien ou leur lapin contre les puces et les tiques. D'autre part, 40 % des ménages ont recours à des biocides contre les insectes volants et 28 % contre les insectes rampants, 12 % utilisent des répulsifs corporels contre les insectes, 9 % des produits contre les rongeurs, 7 % contre les poux humains, 4 % contre les acariens. Les produits phytopharmaceutiques chimiques ne sont pas absents : 20 % des détenteurs d'un espace extérieur font par exemple appel à des produits contre les maladies des plantes. Mais pour les usages liés au jardinage, les utilisateurs sont généralement plus prudents, lisant les notices et les respectant mieux. "70 % des personnes qui ont des produits pour le jardin déclarent suivre les précautions d'emploi. Ils sont plus au courant pour les pesticides utilisés au jardin, parce qu'on en parle beaucoup dans le débat public", explique à l'AFP Jean-Luc Volatier, adjoint à l'évaluation des risques à l'Anses. LIRE AUSSI >> Roundup : Bayer condamné à verser deux milliards de dollars à un couple américain Le chiffre est similaire pour les solutions contre les poux. Mais en revanche, seulement un peu plus d'un tiers des particuliers respectent les règles de prudence avec les produits contre les insectes volants. Pourtant, "ce sont les mêmes molécules", insiste Jean-Luc Volatier. "Par exemple, les pyréthrinoïdes, qui sont les plus utilisés, peuvent être utilisés contre les cafards ou les fourmis, mais aussi dans le jardin ou pour protéger les animaux domestiques contre les puces". Les Français ne se renseignent pas assez sur les précautions d'emplois et ne les mettent donc pas en oeuvre. "On n'y pense pas toujours mais c'est important, parce que ce ne sont pas des produits anodins", martèle l'expert. Ces précautions parfois "écrites en lettres un petit peu petites sur les emballages" sont différentes d'un produit à l'autre. Se laver les mains après utilisation, porter des gants voire un masque de protection, sortir de la pièce après pulvérisation, etc. La vigilance est encore plus nécessaire pour les femmes enceintes ou les enfants qui, par exemple, ne doivent pas dormir avec leur chat ou leur chien tout juste traité avec une pipette antiparasite. Le responsable de l'Anses renvoie d'ailleurs pour ces personnes vulnérables sur le site agir-pour-bébé.fr, qui donne quelques clés notamment pour rendre son logement plus sain. Autre problème révélé par l'enquête, un quart des ménages avaient sur leurs étagères des pesticides achetés parfois longtemps auparavant, mais ensuite interdits. Et il est possible que cette proportion soit aujourd'hui encore plus élevée : les produits phytosanitaires chimiques utilisés en jardinage sont en effet totalement bannis pour les particuliers, depuis le 1er janvier. Cela pose de façon encore plus aiguë un autre problème soulevé par Pesti'Home : 60 % des Français jettent à la poubelle les produits non utilisés ou périmés, qui devraient être apportés en déchetterie. "Jeter ces produits à la poubelle ou dans l'évier peut poser problème d'un point de vue environnemental et sanitaire", souligne Jean-Luc Volatier. Au-delà des recommandations d'utilisation et d'élimination de ces produits, cette photographie, une "première" au niveau international, permettra d'orienter la surveillance de la qualité de l'air intérieur vers certaines des molécules identifiées.
true
Le 18 mai 2016 Les nouvelles données climatiques montrent que le réchauffement mondial empire, s’accélérant à un rythme plus rapide que ce qui était prévu à la conférence de Paris sur le changement climatique, écrit Nicolas C. Arguimbau. Par Nicholas C. Arguimbau Les participants à la conférence de Paris sur le changement climatique ont conclu « un accord qualifié d’historique, de durable et d’ambitieux » et présenté comme « le plus grand succès diplomatique du monde, » selon le Guardian du 15 décembre 2015. Le président du Conseil de la défense des ressources naturelles a déclaré : « Le vent a tourné. Le monde a fini par s’unir contre le défi écologique qui se trouve au cœur de notre temps. » L’image de la Terre qui se lève sur la surface de la lune. Photographie prise par les premiers astronautes étatsuniens placés en orbite autour de la Lune. Ils se réjouissaient encore de leur succès, quand est arrivée la nouvelle d’une hausse soudaine et excessive de la température mondiale, décrite par les climatologues comme « stupéfiante », « ahurissante », « une vraie bombe » , « un élément qui, à une vitesse effrayante, se heurte à la limitation de 2 degrés centigrades par rapport à l’ère pré-industrielle » , « une sorte d’urgence climatique », un événement qui ne nous laisse plus de marge de manœuvre ». Le Guardian britannique : « Le mois de février bat les records de température mondiaux d’une façon plus que préoccupante. » Un événement, en bref, qui rend obsolète tout ce qui a été accompli à la Conférence de Paris. L’aspect le plus significatif de ce qui s’est produit en février est probablement la vitesse avec laquelle cela s’est passé. Il y a des pics de la température mondiale lors des épisodes El Niño, même si, d’habitude, cela n’a pas lieu dans les régions arctiques ou l’hémisphère Sud, et ce pic a été le plus important qui ait jamais eu lieu. Il fait paraître dérisoire la pointe du dernier épisode El Niño de 1998. Voici à quoi ressemble l’histoire récente de la température mondiale mensuelle moyenne de la surface de la mer et de la terre. Comme vous le voyez, la température mondiale moyenne a augmenté dans les deux derniers mois d’à peu près autant qu’elle l’avait fait dans les 35 ans précédents. Certes, El Niño a des effets bizarres, mais il est bien difficile de trouver un El Niño qui ait de telles conséquences. Comme vous le voyez, l’anomalie de température de février a atteint 1,35 degré, de loin la plus importante de l’histoire alors que, quelques semaines plus tôt, la Conférence de Paris avait exprimé un attachement de pure forme à la limitation d’une hausse en dessous de 1,5 degré. Et il est manifestement déjà impossible d’atteindre cet objectif avec une température qui monte anormalement de 0,8 degré. Cela n’était pas censé se produire jusqu’à ce que nous dépassions les 2 degrés, mais nous voici à 1,35 deux ans seulement après avoir atteint la barre de 0,8 degré. On a l’impression qu’on aurait dû tracer la limite de sécurité relative à 0,8 degré ou au-dessous au lieu de 2, mais on dispose de BEAUCOUP trop peu d’informations parce que les chiffres sont trop « criants ». Lecture des données Que ce passe-y-il réellement ? Nous savons qu’El Niño produit des pics de température mais pas comme le montre ce graphique de la glace sur l’eau en février. february-sea-ice-chart-300×231.png La glace fond dans l’Arctique, nous le savons tous, ce qui inquiète puisque la ville de Miami pourrait être engloutie dans la mer si une certaine quantité de glace fond. On se rend compte cependant que l’engloutissement des villes n’est pas tout. Voici une photo de la couverture de la glace arctique en septembre depuis 1979. Comme on peut le voir, la couverture de glace a diminué d’une façon très spectaculaire dans la dernière décennie, et elle s’est particulièrement affinée ces neuf dernières années. Il y a une étonnante vidéo de la fonte de la glace de l’Arctique si on préfère les documents visuels. On fait beaucoup plus attention à la glace de l’Océan arctique qu’à celle de la neige à l’intérieur des terres, peut-être parce que la couverture de glace recouvre de grands champs pétrolifères et comme l’a demandé Peter Seeger : « Allons-nous apprendre un jour ? » Mais le même phénomène se produit sur une échelle beaucoup plus grande pour la couverture de neige du printemps dans l’hémisphère Nord. Voici un graphique de l’anomalie de la couche de neige en juin. Dans la même période durant laquelle l’Océan arctique a perdu 3 millions de kilomètres carrés de glace, l’hémisphère Nord, dans son ensemble, a perdu, et c’est incroyable, 7 millions de kilomètres carrés de couche de neige. Voir la figure 4 ci-dessous. Miami a de quoi s’inquiéter et nous aussi. On appelle la fraction de lumière réfléchie par un objet « son albédo ». Les albédos de la glace et de la neige sont proches de 1 tandis que les albédos de la terre et de l’océan sont proches de 0. Ainsi si la neige et la glace fondent, la terre absorbera plus de lumière et sa température augmentera. C’est l’effet albédo. Le réchauffement provoque la fonte de la glace et de la neige et cette fonte provoque le réchauffement, un cercle vicieux qui pourrait s’accélérer jusqu’à ce qu’il ne reste plus de glace ni de neige. Contentez-vous de vous souvenir de cette formule. Si la neige ou la glace fondent, l’augmentation de l’énergie de la chaleur entrante absorbée par la terre est égale à l’albédo de la neige ou de la glace moins l’albédo de ce qu’elle découvre, multiplié par l’intensité par surface unitaire de l’énergie radiante entrante, multiplié par la surface impliquée. C’est un réchauffement qui est indépendant de celui provoqué par le CO2 qui entre dans l’atmosphère et auquel il s’ajoute. Ainsi, si la neige fond mais ne découvre que de la neige, rien ne change, et, dans le cas contraire, le changement est proportionnel à la surface d’eau ou de terre dévoilée. Évaluation de l’effet albédo Ce n’est que récemment que les scientifiques ont découvert la puissance de l’effet albédo. On a élaboré des modèles dans les années 60 pour évaluer ce problème, desquels on concluait que la couverture nuageuse de l’Arctique pourrait l’empêcher de devenir un problème sérieux. On n’a pas cependant mesuré effectivement ce phénomène jusqu’à il y a deux ans en utilisant des données satellitaires. Pourquoi cela a-t-il pris tant de temps ? C’est un mystère. Voulions-« nous » vraiment savoir ? Quoi qu’il en soit, les scientifiques ont montré que, sur la période de 1979 à 2014, le réchauffement attribuable à l’effet albédo dans le seul Océan arctique a atteint 25 pour cent du réchauffement directement attribuable au CO2. Pistone, Eisenman et Ramanathan, de l’Académie Nationale des Sciences; « Détermination observationnelle de la réduction de l’albédo causée par la disparition de la glace de mer arctique. » Ces gens devraient recevoir un prix Nobel. Ce n’est pas un petit effet. Cela signifie que si nous évaluons le réchauffement global en mesurant les gaz à effet de serre dans l’atmosphère, nous manquons 20 pour cent du réchauffement rien que pour une petite partie de la couverture de neige et de glace de l’hémisphère Nord. C’est beaucoup, et ça indique au moins une raison pour laquelle le réchauffement est encore plus rapide que tout ce qu’on attendait, et, en fait, de plus en plus rapide. De plus en plus rapide parce que c’est ce que fait une « boucle de rétroaction positive ». L’aspect vraiment problématique de la boucle de rétroaction positive est qu’elle opère dès lors que la température est au-dessus d’un niveau critique, et que réduire les émissions de gaz à effet de serre peut ralentir le réchauffement mais pas l’inverser. L’effet albédo était complètement ignoré à Paris. En conséquence, les nations ont systématiquement sous-estimé le degré de réchauffement auquel nous avons à faire face, surestimé le temps que nous avons pour cela, et se sont par erreur données un large « budget » d’augmentation permise des émissions. Elles doivent se rencontrer dans cinq ans pour un rapport d’état, et au train où vont les choses, nous aurons passé les deux degrés d’ici là. Une situation déplorable et qui empire C’est déjà mauvais mais il y a pire. Nous devons être prudents dans la manière dont nous comprenons ce nombre, 25 pour cent, parce qu’il concerne le réchauffement accumulé depuis 1979 sur presque quatre décennies, pas le réchauffement ici et maintenant. Comme vous pouvez le voir sur le graphique ci-dessus, la fonte des glaces s’est énormément accélérée dans la dernière décennie, et en conséquence l’effet albédo de l’Océan arctique. Si on utilisait la dernière décennie comme période de comparaison entre le réchauffement global lié à l’albédo dans l’Arctique et le réchauffement global lié aux gaz à effet de serre sur la dernière décennie, les chiffres pourraient être plus proches de 100 pour cent. Et ça empirera encore, parce que jusqu’ici l’Océan arctique conserve encore au moins un quart de sa couverture de glace en été, mais celle-ci tombera à zéro à une date encore indéterminée, réduisant l’albédo moyen substantiellement. « Quand l’Arctique sera-t-il libre de glace en été ? Peut-être dans quatre ans. Ou dans 40, » dit le Washington Post. Ainsi, si l’effet albédo n’est pas encore aussi fort que l’effet des gaz à effet de serre, il le sera bientôt. Tout ceci est une TRÈS mauvaise nouvelle. Les gens sont allés à Paris et ont parlé de réduction des émissions de CO2. Le but pendant des années a été de prendre des mesures de façon à limiter le réchauffement global dans la limite de 2 degrés Celsius avec une probabilité de 2/3. L’industrie pétrolière se plaint de ce que ça lui coûterait 30 milliards de dollars. En pratique, en cédant aux doléances de l’industrie, les documents de Paris ont « budgété » 30 milliards de dollars de pétrole supplémentaires à brûler, réduisant ainsi la probabilité de rester sous les 2 degrés de moitié. Une fois démarré, l’effet albédo devient sa propre cause, et l’arrêt total des émissions de CO2 n’arrêtera plus le réchauffement. En décembre, il semblait que nous avions une toute petite marge de sécurité que nous pouvions dépenser afin que le public puisse acheter et que l’industrie des combustibles fossiles puisse vendre encore 30 milliards de dollars de carbone. [Voir « Les ‘recettes’ de l’Agence Internationale de l’Énergie pour Paris: une ‘dernière chance’ qui ne fait que prolonger 40 ans d’échecs » par N. Arguimbau] Mais ceci ne semble plus possible. Nous pouvons contrôler les émissions mondiales de CO2, au moins en théorie, et nous ferions sacrément bien, MAINTENANT (l’effet albédo signifie que les milliers de gigatonnes d’émissions supplémentaires de CO2 que les nations se sont autorisées comme « budget » et ont donné gratuitement à l’industrie n’existent plus), mais le réchauffement pour cause de fonte des glaces arctiques continuera, quoi que nous fassions pour ralentir les émissions de CO2. De même pour le réchauffement dû à la fonte de la neige de Sibérie et d’Amérique du Nord, qui est apparemment deux fois celle de la glace arctique et qui, la neige occupant une surface plusieurs fois plus étendue que l’Océan arctique, aura finalement un effet albédo plusieurs fois plus grand. La disparition de la neige La couverture de neige de l’hémisphère Nord doit réchauffer la terre à peu près deux fois aussi vite que la fonte de la glace de l’Arctique. Puis, bien sûr, il y a la glace fondue qui flotte sur la mer qui entoure l’Antarctique et qui vient d’une surface comparable à celle où la glace de l’Arctique a fondu mais qui n’a pas encore atteint le même stade. Enfin, le réchauffement provoqué par la fonte de la couverture de neige et de glace du Groenland — et de l’Antarctique mais le réchauffement actuel n’est sans doute pas encore suffisant pour affirmer cela —, ne se produit pas encore. En effet, jusqu’à maintenant la neige et la glace sont trop épaisses pour que la terre soit à découvert au moment où elles fondent, mais ce réchauffement aura un début à moins que, pour quelque raison non encore découverte, un rafraîchissement n’ait lieu ailleurs. Et puis il y a le méthane. Aïe ! Et ne l’oublions pas, ce sont les effets qu’on peut attendre à cause des effets de l’albédo même si l’on arrête aujourd’hui toutes les émissions de gaz à effet de serre. En tout cas, c’est ce qui semble à l’auteur de ces lignes, qui s’excuse de ne pas être un scientifique, mais qui ne s’excuse pas tant que cela parce que les scientifiques auraient dû se pencher là-dessus depuis des décennies. Il n’y a rien manifestement qui puisse empêcher un réchauffement comme celui que provoquerait l’effet albédo après la disparition de toute la glace et de la neige de l’hémisphère Nord PLUS le réchauffement dû aux émissions de gaz à effet de serre que nous pourrons peut-être ou peut-être pas contrôler. L’auteur de ces lignes a une hypothèse fondée : on en arrivera à 3,5 degrés aussi bien à cause de l’effet albédo que des émissions de gaz à effet de serre, mais il n’entrera pas dans les détails pour rester bref et peut-être pourra-t-on persuader les climatologues de sortir de la clandestinité. Un réchauffement considérable outre celui provoqué directement par les émissions de CO2 est maintenant inévitable si on ne commence pas très vite à inverser le réchauffement EXISTANT et/ou la contamination atmosphérique EXISTANTE par le CO2. Tout au plus la rapidité du réchauffement par l’effet albédo et peut-être par l’entrée dans la danse de la terre de l’Antarctique peut être affectée par la masse de CO2 que nous continuons à déverser dans l’atmosphère. Et souvenez-vous, le « budget » de plusieurs milliers de gigatonnes que nous nous sommes donné n’existe plus. Les scientifiques et les pays ont besoin de se réunir de nouveau et de recommencer de zéro. Qu’ils aient les tripes pour le faire, ça, c’est autre chose. Il n’y a absolument rien de nouveau au sujet de ce que l’auteur de ces lignes affirme, sauf que l’inévitable est en train de se produire et que c’est indéniable. Les choses n’étaient pas censées échapper à notre contrôle jusqu’à ce que nous ayons atteint les 2 degrés, un chiffre fixé par presque tous les gouvernements et tous les grands groupes écologistes. Mais il n’y a pas et il n’y a jamais eu de justification scientifique pour le choix de 2 degrés comme barrière de sécurité. Deux degrés a été un compromis politique du style : « Nous sommes d’accord. Nous n’allons couper que la moitié de la tête du bébé. » Nous voulions acheter les énergies fossiles et l’industrie voulait les vendre, pour des milliers de milliards par an aussi longtemps qu’ils le pourraient. Et c’est ainsi que nous avons conclu ce compromis irrémédiable. La prophétie ignorée Les scientifiques de la NASA ont évoqué ce sujet il y a une dizaine d’années. James Hansen de la NASA disait à l’époque que « pour éviter le point de non-retour », nous devions « commencer à réduire non seulement les émissions de carbone, mais encore sa présence totale dans l’atmosphère » et il suggérait un objectif de 300-350 ppm de CO2 dans l’atmosphère, 300 ppm étant équivalent à 1 degré de réchauffement. D’autres affirmaient que nous avions déjà atteint le point où la glace arctique était condamnée. Ce qu’ils disaient et que leurs pays ignoraient est maintenant prouvé. Comment en sommes-nous arrivés là ? Cela a été notre choix. Les compromis politiques. C’est juste la façon dont l’humanité prend ses décisions et l’a toujours fait. Et nos propres grands groupes d’écologistes ont acquiescé. Le compromis politique est quelque chose qui fonctionne quand il s’agit d’une petite communauté, n quand les décisions n’impliquent pas l’avenir de la Terre. Les décisions sur le climat impactent l’avenir de la Terre et nous ne sommes pas une petite communauté. Et personne ne sait comment prendre des décisions au sujet de la société sans compromis politique. Nous aimons blâmer les hommes politiques corrompus, mais c’est nous qui les avons élus. Nous aimons blâmer ces voleurs de capitalistes, mais nous sommes ravis de les employer pour des milliers de millions de dollars. Nous aimons en appeler à la révolution, mais combien de temps cela prendra-t-il ? Si nous nous tirons de cette situation impossible, qu’on aurait pu éviter en réduisant de moitié le plafond de la température du réchauffement mondial, et peut-être un peu plus, nous devrons nous rappeler quelque chose. Si nous survivons, nous aurons besoin de nous réorganiser en populations et communautés assez petites et inoffensives pour que les compromis politiques ne puissent pas nous rapprocher de la destruction de la Terre. Nous avons appris que si nous pouvons le faire, nous le ferons, tôt ou tard. Nicholas C. Aguimbau est un avocat en retraite, titulaire d’une licence de physique de Harvard et d’une licence de droit de l’UCLA. Il vit avec un chat, un chien et 40 arbres fruitiers dans l’ouest du Massachusetts.
biased
L’Arctique se réchauffe trois fois plus vite que le reste de la planète On savait que l’Arctique se réchauffait plus vite que le reste de la Terre, à une vitesse estimée presque double. Un nouveau rapport affirme que depuis 1971, l’augmentation de température y est en fait trois fois plus rapide qu’ailleurs. L’Arctique s’est réchauffé trois fois plus vite que la planète depuis 1971, plus que ce qu’on ne croyait jusqu’à présent, prévient un rapport du Programme de surveillance et d’évaluation de l’Arctique (AMAP) publié ce jeudi 20 mai 2021. Chaque fraction de degré compte : les probabilités pour que la banquise disparaisse totalement l’été – avant de se reformer pendant la saison hivernale – sont dix fois plus élevées si la température sur Terre augmente de 2 °C plutôt que 1,5 °C, les objectifs établis par l’Accord de Paris. Ces données alarmantes figurent dans un rapport actualisé de l’AMAP sur le changement climatique dans l’Arctique rendu public à l’occasion d’une réunion ministérielle du Conseil de l’Arctique qui rassemble cette semaine à Reykjavik les pays riverains de la région. Une réunion où les ambitions russes sur ces territoires ont dominé pour l’instant l’actualité... Une mise à jour importante est que l’augmentation annuelle moyenne à la surface de l’Arctique (terre et océan) entre 1971 et 2019 a été trois fois plus élevée que l’augmentation de la moyenne mondiale pendant la même période. C’est plus qu’indiqué dans les précédentes évaluations de l’AMAP, indiquent les auteurs. 3,1 °C depuis 1971 La précédente actualisation, parue en 2019, indiquait que le réchauffement dans l’Arctique atteignait plus du double de la moyenne mondiale, un écart encore accentué en hiver. En moins d’un demi-siècle, de 1971 à 2019, la température moyenne annuelle dans cette région septentrionale a grimpé de 3,1 °C quand la planète se réchauffait au même moment de 1 °C, selon le document actualisé paru jeudi. Dans la plupart des scénarios d’émissions (de gaz à effet de serre, ndlr), la grande majorité des modèles […] laisse entrevoir avant 2050 un Arctique pour la première fois quasiment sans banquise en septembre, le mois où elle est généralement à son plus bas, ajoutent ses auteurs. La probabilité d’un été arctique sans glace (marine) est dix fois plus grande avec le scénario d’un réchauffement planétaire de 2 °C qu’avec un scénario de 1,5 °C, soulignent-ils. Selon les projections citées par le rapport, les températures moyennes de l’Arctique devraient d’ici la fin du siècle grimper entre 3,3 °C et 10 °C au-delà de leur moyenne sur la période 1985-2014, le chiffre exact dépendant du volume des futures émissions de gaz à effet de serre. Un réchauffement qui rend la région de moins en moins hostile et attise les convoitises.
true
Car évidemment, Shell aurait préféré opérer dans l’ombre et ne pas avoir à affronter le rapport de force imposé par Greenpeace dans l’espace public. Preuve que quand la société civile s’en mêle, elle est plus forte que les intérêts privés et lucratifs de quelques-uns qui portent atteinte à l’environnement. Une mobilisation de longue haleine… En effet, depuis 2012, nous menons une campagne de tous les instants pour la protection de l’Arctique, notamment contre toute activité d’exploitation pétrolière et de pêche industrielle dans ses eaux, parce que l’Arctique joue un rôle critique dans la régulation du climat et la biodiversité. Cette région du monde est aussi un concentré des conséquences des dérèglements climatiques, les pétroliers profitant des effets du dérèglement et de la fonte des glaces pour aller toujours plus loin et plus profond, ignorant les signaux d’alarme flagrants. Pourtant, la science est claire : pour limiter le réchauffement de la planète en deçà de 2°C, il faudrait laisser 80% des ressources fossiles connues dans le sol. L’implication de 7 millions de personnes à travers le monde dans la campagne Save The Arctic a donc fragilisé l’action des pétroliers dans cette zone. De même qu’elle a contribué à faire évoluer la position des décideurs politiques – comme Hillary Clinton, par exemple, opposée à tous les forages en Arctique. Si Shell disposait de milliards de dollars (Shell a investi 7 milliards de dollars pour ce projet de forage en Alaska), nous avions des millions de gens. Et ça fait toute la différence. La bataille pour le climat est aussi un combat pour la démocratie. Un gouffre financier pour Shell Shell a donc parié gros et perdu beaucoup, tant d’un point de vue financier que d’un point de vue réputationnel. Selon le communiqué de la compagnie, les activités de Shell en Alaska pèsent environ 3 milliards de dollars dans son bilan, auxquels s’ajoutent environ 1,1 milliard de dollars d’engagements contractuels futurs. A perte sèche. Les majors pétrolières pensaient que forer en Arctique, y investir des milliards, pourrait être facilement rentabilisé. Il s’avère que le coût est encore plus élevé que leurs prédictions. Un jeu qui n’en vaut pas la chandelle De plus, les réserves de pétrole estimées sous l’Arctique ne correspondent pas à plus de 3 ans de notre consommation actuelle. Investir en Arctique, c’est reculer pour mieux sauter. La décision de Shell, c’est un signe de plus que les investissements dans les fossiles peuvent être très risqués, même à très court terme, et qu’il faut s’engager dans une nouvelle voie. A ce jour, Shell ne prévoit pas de retourner en Alaska. Certes, la compagnie possède aussi une licence pour explorer au Groenland, mais forer là-bas est encore plus compliqué que dans les eaux de l’Alaska. Autant dire que les projets de forage de Shell sont aujourd’hui gelés. Prochaine étape : sanctuariser l’Arctique… Pour autant, notre action ne s’arrête pas là. Nous sortons renforcés de cette bataille. Et nous continuons notre campagne pour interdire les forages pétroliers et la pêche industrielle dans les eaux arctiques, et créer une zone naturelle préservée dans la région inhabitée autour du Pôle Nord. Ainsi, comme le rappelle Kumi Naidoo, directeur exécutif de Greenpeace International : « Le président Obama devrait saisir cette occasion pour annuler tout autre projet de forage dans la région et déclarer l’océan Arctique zone interdite pour les compagnies pétrolières. C’est sans doute la meilleure façon de protéger l’Arctique et d’engager la transition énergétique. » …et engager la transition énergétique La défaite de Shell nous indique le sens du vent : les projets énergétiques extrêmes n’ont plus leur place dans un monde qui doit faire face à un enjeu historique, à savoir les changements climatiques. En cette année de conférence sur le climat, nous rappelons en l’occurrence qu’il est urgent de sortir des énergies fossiles pour rester sous les 2°C de réchauffement, et éviter les dérèglements les plus catastrophiques. Nous devons changer radicalement notre façon de penser et évoluer rapidement vers les énergies renouvelables. Forer des puits de pétrole dans l’Arctique qui fond à vue d’œil, pour courir après des énergies sales, c’est freiner la transition énergétique dont nous avons besoin. Car il n’y a qu’un avenir possible : 100 % d’énergies renouvelables. Nous l’avons maintes fois prouvé. Reste à le mettre en œuvre. Ce n’est qu’une victoire d’étape : le combat continue.
biased
C’est un phénomène repéré un peu partout dans le monde : le raisin arrive de plus en plus tôt à maturité. « Cette avance est d’environ huit jours de plus tous les dix ans dans le sud de l’Australie, même chose dans la région de Colmar, en France, et à Geisenheim, en Allemagne, on parle de quatre jours », souligne une étude publiée dans la revue Nature Climate Change. Les auteurs, des chercheurs australiens, qui ont plus précisément analysé dix exploitations viticoles dans leur pays, concluent au rôle de l’humidité du sol ou à la gestion du vignoble, mais ils soulignent aussi le rôle prépondérant du réchauffement climatique (sept cas sur dix). Cette maturation accélérée présente plusieurs inconvénients. Il faut ramasser les grappes en période de grosses chaleurs. En Languedoc-Roussillon, les fruits sont désormais cueillis au mois d’août, au lieu de septembre auparavant. « Ce n’est pas favorable à la qualité du vin », commente Hernan Ojeda, directeur à Gruissan (Aude) de l’unité expérimentale Inra de Pech-Rouge. « Il vaut mieux récolter quand il fait plus frais. Dans le cas du vin blanc, la chaleur accentue également l’oxydation », ajoute le chercheur. Mais le plus gros inconvénient provient de l’élévation de la teneur en alcool du vin. Il est désormais courant de voir des vins de qualité titrer 13, 14, voire 15 degrés. « Depuis le début des années 1980, le vin languedocien a gagné près de 1° tous les dix ans. Il est passé d’une moyenne de 11° à plus de 13° », explique Hernan Ojeda. Vers une désalcoolisation L’enjeu pour la viticulture française est tel que, dans le cadre des projets de l’ANR (Agence nationale de la recherche), l’Inra s’est lancée dans un programme baptisé « vin de qualité à teneur réduite en alcool » (VDQA), rassemblant douze partenaires publics et privés. À court terme, les chercheurs se sont d’abord attelés à la mise au point d’une technologie pour « désalcooliser » le vin. Aujourd’hui, cela fonctionne parfaitement. Une fraction d’eau et d’alcool est séparée du vin, l’alcool est ensuite en partie éliminée et l’eau végétale récupérée est à nouveau réincorporée au vin original. « Cela n’altère pas les caractéristiques organoleptiques, la perception des arômes », assure le scientifique et cela permet de répondre à une demande de plus en plus importante des consommateurs. « Légalement, on n’a pas le droit de réduire le taux de plus de 2° et il ne faut pas descendre en dessous de 9° pour conserver le droit de parler de vin », poursuit-il. « Il y a actuellement des discussions pour que la diminution de la teneur en alcool soit non plus de 2°, mais de 20 %, ce qui pour un vin à 15° permettrait de le ramener à 12° », précise de son côté Jean-Louis Escudier, ingénieur recherche Inra à Pech-Rouge. La deuxième étape pour les scientifiques est de réussir à mettre au point des nouveaux cépages produisant des raisins avec moins de teneur en sucre et donc, à terme, moins d’alcool. À l’inverse de ce qui était recherché il y a une trentaine d’années ! « Le raisin a longtemps été payé par les coopératives en fonction de la quantité de sucre qu’il contenait. C’est progressivement en train de changer, car le modèle de qualité évolue », explique encore Hernan Ojeda. La recherche porte également sur des vignes résistantes à la sécheresse, même si, toujours en Languedoc-Roussillon, les viticulteurs ont désormais le droit d’irriguer jusqu’à la mi-août, un dernier verrou qui pourrait prochainement sauter, assure-t-on à l’Inra. Si le sud de l’Angleterre se frotte désormais les mains en voyant certaines de ses terres se transformer en vignobles, les vignes ne vont pas pour autant disparaître du sud de l’Europe en général et de la France en particulier. Et si la plupart de nos cépages traditionnels vont petit à petit se déplacer vers le nord, dans quelques années, de nouveaux plans de vignes permettant de produire des raisins à teneur réduite en sucre seront portés sur les fonts baptismaux. 📨 Ne passez plus à côté des infos de l'écologie
true
La surfaces occupées par les glaciers du massif du Mont-Blanc s’est réduite de façon spectaculaire au cours de la période récente. Des chercheurs ont cherché à savoir si durant l’Holocène (10 000 dernières années), le massif du Mont Blanc a été fréquemment moins englacé qu’actuellement. Dans ce but , ils ont échantillonné les roches de ce massif afin d’évaluer et de dater les épisodes de retrait des glaciers. Ces recherches sont menées dans le cadre du programme ANR « VIP Mont-Blanc » (vitesses des processus contrôlant les évolutions morphologiques et environnementales du massif du Mont-Blanc). Le coordinateur du projet est Jean-Louis Mugnier de l’Institut des sciences de la Terre de Chambéry. Lorsqu’une roche n’est plus recouverte de glace, elle est bombardée de particules cosmiques qui interagissent avec les atomes des minéraux pour produire des isotopes rares, comme le béryllium 10. Ces isotopes s’accumulent ainsi dans le quartz de la roche au fil du temps. Les particules cosmiques n’affectant que les premiers mètres de roche sous la surface, les chercheurs n’ont donc prélevé que la surface des roches polies par les glaces, lorsqu’elles en étaient recouvertes. Ces mesures permettent de déterminer une durée totale d’exposition des roches aux rayons cosmiques durant les 10 000 dernières années, soit la durée cumulée du retrait du glacier. Les premières analyses montrent que depuis 10 000 ans, la Terre a connu des périodes de réchauffement climatique d’origine naturelle. Durant « l’optimum climatique holocène » (il y a entre 5 000 et 9 000 ans), le réchauffement a atteint son maximum et fait diminuer considérablement tous les glaciers du massif du Mont-Blanc.
true
Désolation. C’est le premier terme qui me vient en tête en voyant les conséquences tragiques de la catastrophe humanitaire causée par le super-typhon Haiyan qui a frappé les Philippines le 8 novembre 2013. Même si l’exagération des premiers jours, mentionnant 10 000 morts, est fort heureusement retombée, il s’agit bien d’une immense tragédie qui a fait plus de 4000 morts, ensevelis sous des montagnes de boue et de détritus en tout genre. Semant la mort et la désolation sur son passage, ce typhon a jeté une lumière crue sur l’état économique et social des Philippines qui est, hélas, similaire à celui de nombreux autres pays du Sud-est asiatique. Certains ont cru devoir profiter de cette hécatombe pour mettre de nouveau en avant la sempiternelle cause du changement climatique d’origine humaine et, partant, de culpabiliser ceux qui dans les pays riches utilisent des énergies fossiles. C’est d’autant plus surprenant que quelques semaines plus tôt, le cinquième rapport du GIEC spécifiait que : À force d’être contredits dans leurs prévisions catastrophistes, les militants commencent à prendre des précautions de langage. Ainsi sur La Première RTBF (Radio Télévision Belge de langue française), le 13 novembre à 8 h 25, on a entendu ceci : Mais la suite du billet est en totale contradiction avec cette précaution de langage et fait des amalgames politiquement corrects qui laissent croire à l’auditeur peu au fait de la réalité que ce typhon est bel et bien causé par le dérèglement climatique, causé par notre utilisation de l’énergie fossile. Cqfd. Pour ceux qui veulent bien enlever les lunettes de l’idéologie, la réalité est tout autre. Une grande partie de la destruction initiale a été causée par des vents soufflant à 235 km/h – et parfois à des vitesses allant jusqu’à 275 km/h. Le qualificatif de « super » est accordé lorsque la vitesse dépasse 215 km/h. Un autre super-cyclone, nommé Yasi, a frappé le Queensland, en Australie, en février 2011. Lui aussi était énorme, avec son diamètre de 100 km, et il était également accompagné de vents soufflant jusqu’à 285 km/h. Pourtant, pas une seule personne n’est morte des conséquences directes de ce cyclone destructeur. Pourquoi ? Parce que l’Australie est un pays moderne et qui consomme beaucoup d’énergie. L’occasion était trop belle pour que certains ne jouent pas sur les sentiments et ne déforment pas les faits afin d’accentuer l’importance d’un accord contraignant à la conférence de Varsovie sur le changement climatique. Étrangement, une autre coïncidence n’a pas reçu le même écho. Le 12 novembre, l’Agence Internationale de l’Énergie, un organe de l’OCDE basé à Paris qui analyse la situation énergétique mondiale et qui est une espèce de chien de garde face à l’OPEP, publiait son World Energy Outlook de 2013. Dans son rapport sur l’état du monde énergétique et son avenir, on y découvre qu’aux Philippines 30 % de la population, soit 28 millions d’habitants, n’a pas accès à l’électricité et 50 %, soit 47 millions d’habitants, mangent des plats cuisinés à l’aide de la biomasse traditionnelle. Derrière ce vocable technique se cache une misère terrible : non seulement les femmes et les enfants doivent aller glaner dans la nature des branchages ou des déjections animales qui jonchent le sol, mais s’ils ne trouvent rien de semblable, il leur faut couper des branches vertes. Rien de plus naturel ! Pas d’énergie fossile. Pas de pillage des ressources de la planète. Mais ensuite, ces mêmes personnes respirent des fumées nocives qui se dégagent des feux utilisés pour la préparation de leurs maigres repas. Chez nous, les amendes pleuvent si vous avez le malheur de brûler quelques branchages dans le fond de votre jardin ; eux n’ont que cela pour préparer à manger, au détriment de leur santé. Il est évident que, dans une telle situation de dénuement énergétique, la population n’a pas les moyens de se protéger. Les amas de tôles ondulées que l’on a vus partout à l’occasion de cette catastrophe démontrent cruellement que le problème n’est pas le changement climatique mais bien la pauvreté puisqu’une catastrophe semblable dans des pays consommateurs de beaucoup d’énergie aurait occasionné infiniment moins de pertes humaines et de dégâts matériels. C’est d’ailleurs régulièrement le cas à La Réunion – mais là c’est dans l’UE ! Bien avant cette hécatombe, la population des Philippines ne voulait plus dépendre des énergies renouvelables. Les prévisions de l’Agence Internationale de l’Énergie indiquent que la part des énergies renouvelables dans ce pays, qui était encore de 40 % en 2011, devrait chuter à 29 % en 2035. Cette diminution proviendrait d’une forte réduction de l’utilisation de la biomasse traditionnelle en raison de la hausse du niveau de vie et de l’urbanisation. Dans ce même rapport, l’Agence rappelle que 1,3 milliard d’humains n’ont pas accès à l’électricité et que 2,6 milliards de personnes manquent d’installations propres de cuisine. En 2035, le monde consommera 14 920 millions de tonnes équivalent pétrole, soit une utilisation en nette augmentation par rapport à aujourd’hui. On apprend que 65 % de cette énergie primaire sera consommée dans les pays non-OCDE de l’Asie et que les énergies fossiles, qui représentent à ce jour 82 % du bilan énergétique mondial, représenteront encore 77 % en 2035. Cette diminution ne doit pas cacher qu’en valeur absolue la consommation d’énergies fossiles sera en croissance. Il n’y a donc aucune chance de voir les émissions mondiales de CO2 être réduites dans un proche futur. Dès lors, ne vaudrait-il pas mieux donner la priorité à la résilience face aux catastrophes naturelles ? Pour cela, il faut que les pays pauvres aient accès a davantage d’énergie. Pour commencer, il leur faut construire des habitations solides et non pas des baraques en tôles ondulées qui s’envolent sous l’effet d’une tempête. Et cela exige de l’énergie ! C’est la raison pour laquelle les Conférence des États Parties à la Convention des Nations Unies sur le Changement climatique de Varsovie s’est embourbée dans des discussions sur les transferts « nord-sud » (pour parler simplement). Il est très difficile d’espérer que les « riches » payeront pour les « pauvres » et encore moins pour ceux qui se font passer pour pauvres. Quand donc comprendra-t-on qu’il faut donner la priorité à l’éradication de la misère humaine, une réalité tragiquement concrète, plutôt qu’a un écologisme politiquement correct ? On croit rêver lorsque d’aucuns s’opposent à l’élargissement du ring de Bruxelles sous le prétexte fallacieux que cela n’est pas le bon signal pour inciter les gens à prendre leur vélo pour aller travailler et que, partant, on contribue au dérèglement climatique. Paul-Henri Spaak et les pères fondateurs de l’UE disaient dans leur résolution de Messines du 5 juin 1955 « qu’il n’y aura pas d’avenir pour la Communauté européenne sans une énergie abondante et bon marché ». Il est temps de clamer haut et fort qu’il n’y aura pas d’avenir pour les pays pauvres sans une utilisation massive d’une énergie bon marché. Le problème n’est pas le changement climatique mais la pauvreté énergétique. Pour l’amour des Hommes, changeons nos priorités ! Les Philippines ont perdu, la réunion de Varsovie aussi. Et pour la même raison. Annexe En liaison avec cet article, il est intéressant de lire – ou relire – l’étude de l’économiste américain Indur Goklany, « Wealth and Safety: The Amazing Decline in Deaths from Extreme Weather in an Era of Global Warming, 1900–2010 », publiée par la Reason Foundation (Policy Study No. 393, September 2011) dont voici le résumé introductif (traduction Henri Lepage) : Les partisans d’une réduction drastique des émissions de gaz à effet de serre affirment que ces émissions sont la cause du réchauffement climatique et que cela conduit notamment à une intensification de la fréquence d’événements climatiques extrêmes tels que fortes chaleurs, sécheresses, tempêtes, ouragans et cyclones. Mais ce qui importe n’est pas tant le nombre en soi ni la récurrence de ces accidents climatiques que leurs conséquences sur les populations humaines. C’est pourquoi il est particulièrement intéressant de regarder ce que nous disent les statistiques pour ce qui concerne l’évolution du nombre total de gens tués dans le monde lors de tels événements extrêmes, ainsi que l’évolution des taux de mortalité qui y sont associés (nombre de morts rapporté au chiffre total de la population). Ce travail a été fait pour la période 1900-2010, soit une période de 111 années, et ce sont ces résultats qui figurent dans l’étude d’Indur Goklany. Il apparaît que le nombre total de victimes attribuables dans le monde entier aux catastrophes climatiques a diminué de plus de 90 % depuis les années 1920, et cela malgré une multiplication par quatre du chiffre total de la population mondiale, ainsi qu’une meilleure couverture statistique des conséquences humaines de tels accidents. Globalement, la mortalité due a ces phénomènes a baissé de 98 %, du fait principalement de la réduction du nombre de victimes enregistrées dans trois domaines : Ces chiffres signifient que la mortalité associée à des événements climatiques exceptionnels ne concerne que 0,07 % du nombre total de décès enregistrés dans le monde. Par ailleurs il faut noter que la régression du nombre des victimes est intervenue alors même que l’on enregistrait une progression globale des taux de mortalité toutes causes confondues. Ce qui veut dire que l’humanité d’aujourd’hui maîtrise finalement beaucoup mieux les aléas liés aux phénomènes climatiques extrêmes qu’elle ne sait en fait le faire pour répondre aux autres grands problèmes de santé et de sécurité qui menacent nombre de populations contemporaines. Ces diminutions du nombre total de victimes et des taux de mortalité traduisent un formidable renforcement de la capacité d’adaptation de la société lié à l’enrichissement et au progrès des technologies – notamment celles qu’a apporté l’usage généralisé des hydrocarbures. Mais la volonté d’en restreindre la consommation risque d’avoir pour conséquence de réduire le rythme de progression de ces capacités adaptatives, et par là même d’aggraver l’impact négatif de tout changement climatique. Moyennant quoi il convient de peser attentivement les éventuels effets négatifs d’une telle évolution contre les avantages possibles que l’on attend d’une telle politique. — Sur le web.
fake
Depuis quelques décennies, l'économie des pays occidentaux a perdu la superbe qu'elle a connue pendant ce qu'il est convenu d'appeler les Trente Glorieuses - de l'immédiat après-guerre aux chocs pétroliers des années 1970. Ces dernières décennies, la question climatique monte en puissance, depuis cette année 1992 où fut signée, au Sommet de la Terre à Rio (Brésil), la convention-cadre des Nations unies sur les changements climatiques dont l'accord de Paris de 2015 est un des textes d'application. Deux problèmes, une solution : la croissance verte ! La stratégie nationale bas carbone, parfois connue sous son diminutif SNBC, est la feuille de route de l'Etat français pour nous mener, d'ici à 2050, à une France débarrassée de ses émissions domestiques. Cette même SNBC considère que l'économie sera continuellement en croissance, hors pandémie de Covid-19 ou impact d'astéroïde, bien sûr. Mieux : la décarbonisation accélérera la croissance. La France n'est pas un cas isolé : le scénario de décarbonisation de l'économie mondiale publié par l'Agence internationale de l'énergie (IEA) prévoit aussi une économie en croissance pendant que les émissions de CO2 disparaîtront, et le Green Deal européen fait de même. En fait, où que se tourne le regard, la même histoire se répète : envoyer le CO2 dans les oubliettes de l'Histoire n'empêche en rien l'économie de croître, voire accélère la croissance... Une telle conjonction semble pourtant hautement improbable sur le plan physique. L'économie ne fait que compter en euros des flux de transformation de ressources naturelles que l'ingénieur peut compter en énergie. Si la production de biens et services a tant augmenté depuis le début de la révolution industrielle, c'est parce que les machines se sont mises à travailler, en plus de nous. Sans machines, nous ne produirions pas chaque année une telle quantité de logements, vêtements, voitures et camions, meubles et produits électroménagers, jouets, hôpitaux, routes et ponts, sans parler de ce qui se trouve dans nos assiettes, cultivé, transformé, emballé et transporté par des machines.
true
La lutte contre le dérèglement climatique sera longue. Même si le monde réduit drastiquement les émissions de gaz à effet de serre, l'impact sur le réchauffement pourrait ne pas être visible avant le milieu du siècle, selon des chercheurs qui craignent une réaction boomerang face à des mesures qui paraîtraient à tort inefficaces. En raison des activités humaines, la planète a déjà gagné au moins +1°C depuis l'ère pré-industrielle, multipliant les catastrophes climatiques. Pour lutter contre ce dérèglement climatique appelé à s'aggraver avec chaque demi degré supplémentaire, les signataires de l'accord de Paris de 2015 se sont engagés à réduire leurs émissions pour limiter le réchauffement à +2°C, voire +1,5°C. Pour le moment, ces engagements des États ne sont pas tenus. Même s'ils l'étaient, "ces efforts pourraient être visibles d'ici le milieu du siècle, mais probablement pas avant", écrivent les auteurs de l'étude publiée mardi dans Nature Communications. "La réduction des émissions, nécessaire, est efficace dès le premier jour, mais il faudra du temps avant que nous puissions mesurer cet effet avec certitude", commente dans un communiqué Bjorn Samset, du centre de recherche norvégien sur le climat Cicero. Le système climatique est en effet notamment caractérisé naturellement par une importante force d'inertie et une forte variabilité d'une année à l'autre. LIRE AUSSI >> Avec le réchauffement climatique, la neige devient verte en Antarctique "Le changement climatique provoqué par l'Homme peut être comparé à un porte-conteneur lancé à pleine vitesse au milieu de grosses vagues. Si vous voulez ralentir le navire, vous pouvez enclencher la marche arrière, mais cela prendra du temps avant de pouvoir remarquer qu'il a ralenti", poursuit le climatologue. Ainsi, une baisse importante des émissions pourra se voir immédiatement sur les concentrations de CO2 dans l'atmosphère, mais pas sur la hausse des températures qui est pourtant responsable de la multiplication des événements météo extrêmes. Même dans les scénarios les plus optimistes, les premiers signes d'un impact sur le réchauffement pourraient être invisibles au moins jusqu'en 2035, selon les chercheurs. Alors patience!, plaident-ils, craignant que ce délai ne provoque un effet boomerang. Cette réalité "doit être clairement expliquée aux décideurs et à la population, si nous voulons éviter un contrecoup négatif contre des politiques d'atténuation des émissions qui seraient perçues comme inefficaces", insiste l'étude. "Cela ne veut pas dire que la baisse (des émissions) n'a pas d'effet. Cela veut simplement dire que nous devons être patients", insiste Bjorn Samset. "Nous avons emmagasiné des problèmes pour notre avenir. Mais ce n'est pas une raison pour ne pas limiter les dommages dès maintenant", a commenté Grant Allen, chercheur à l'université de Manchester, non impliqué dans l'étude. Même si dans le même temps, il va falloir s'adapter aux conséquences déjà programmées, note-t-il. Plusieurs autres scientifiques ont salué la nouvelle étude mais Piers Forster, climatologue à l'université de Leeds, a contesté ses conclusions, les qualifiant de "vision sombre et inutile de notre influence sur le climat dans les décennies à venir". "Selon nos propres travaux, la société peut avoir un impact perceptible de baisse de la température de la planète dans les 15 à 20 ans qui viennent grâce à des efforts importants de réduction des émissions", a-t-il insisté.
true
Le Parlement britannique a pris une initiative inédite. Après une mobilisation du mouvement Extinction Rebellion, il est devenu mercredi le premier à déclarer l'"urgence écologique et climatique", a annoncé le parti travailliste. "Le moment est venu de prendre des mesures concrètes pour lutter contre le changement climatique", a déclaré le parti sur sa page Twitter, assurant que le vote avait eu lieu "grâce aux pressions du parti travailliste". Le chef du parti, Jeremy Corbyn, a dit espérer que ce vote "déclenchera[it] une vague d'action de la part des parlements et des gouvernements du monde entier". La motion du Labour votée mercredi soir par les députés n'est cependant pas contraignante. Le mouvement Extinction Rebellion, qui prône la désobéissance civile non violente contre l'inaction climatique et a mené une série d'actions de blocages dans la capitale britannique, s'est réjoui sur Twitter "qu'on dise la vérité sur le climat et l'urgence écologique". "La pression exercée sur nos politiciens va désormais s'accroître", estime le mouvement, qui attend désormais des "actions décisives". Ce vote intervient alors que la Commission britannique sur le changement climatique (CCC) devrait recommander au gouvernement de Theresa May d'atteindre la neutralité carbone d'ici 2050. Cette recommandation devrait être au coeur d'un rapport qui sera publié ce jeudi par la CCC, chargée de conseiller l'exécutif britannique sur le dossier du changement climatique. Cet objectif va plus loin que celui visé actuellement par le Royaume-Uni, qui vise une réduction de 80% du volume net des émissions de gaz à effet de serre par rapport à 1990 d'ici 2050.
true
Greenpeace France déplore la frilosité du Conseil constitutionnel qui n’a pas saisi l’occasion d’exiger une action de la France plus ambitieuse face au changement climatique. “Le Conseil constitutionnel n’a retoqué que quelques articles, alors que c’est la loi entière qu’il fallait censurer. Le rapport du GIEC rendu public ce lundi démontre l’urgence extrême de la situation, or la loi climat telle que votée n’est pas assez ambitieuse. Cette loi ne défend pas l’intérêt général, le Conseil aurait dû prendre une décision protégeant nos droits et libertés qui sont menacés par l’aggravation croissante du changement climatique“, souligne Laura Monnier, chargée de campagne juridique pour Greenpeace France. 79 députés et députées des groupes socialiste, LFI, GDR et de Libertés et territoires avaient saisi le 27 juillet dernier le Conseil constitutionnel. Ils demandaient la censure globale de la loi en se fondant notamment sur la Charte de l’environnement et l’avis du Haut Conseil pour le Climat (HCC) du 30 juin qui soulignait que « les efforts actuels sont insuffisants pour garantir l’atteinte des objectifs de 2030 » et les politiques publiques trop incertaines pour faire face au défi du changement climatique. Une absence d’efficacité de la loi climat A la suite de la saisine des députés, Greenpeace France a déposé le 11 août une contribution extérieure (« porte étroite ») rédigée par des spécialistes consultants en droit public (MM. les Professeurs Régis Ponsard, Fabien Bottini, M. le Maître de conférence Julien Bétaille, Me Antoine Le Dylio). Dans leur analyse, ils demandaient aux juges constitutionnels de censurer dans son ensemble la loi climat et résilience, notamment du fait de son absence d’efficacité au regard des objectifs de réduction des émissions de gaz à effet de serre. En l’état, cette loi ne permettra pas de faire baisser nos émissions de gaz à effet de serre de 40% d’ici 2030, et encore moins d’atteindre le nouvel objectif européen (55% de réduction de GES). Un précédent en Allemagne Dans sa décision du 24 mars 2021, la Cour constitutionnelle allemande a censuré la loi climat nationale en raison de son insuffisance afin de prévenir les atteintes aux droits et libertés fondamentaux des générations futures qui vont devoir faire face à des mesures drastiques en raison de l’inefficacité des politiques publiques actuelles. “Les Cours constitutionnelles devraient jouer un rôle central de protection de l’environnement en exigeant que les atteintes et menaces du changement climatique soient prises au sérieux par le législateur”, ajoute Laura Monnier. L’inaction climatique de la France déjà reconnue par d’autres juridictions Le contexte juridique français de la décision du Conseil constitutionnel est d’autant plus singulier qu’il a été précédé des décisions L’Affaire du Siècle et Grande Synthe où l’inaction climatique de l’Etat a été reconnue par les juridictions administratives. Face à ces constats unanimes – institutionnels et juridictionnels – sur la carence étatique pour lutter contre le changement climatique et à un rapport du GIEC implacable, la décision du Conseil constitutionnel se retrouve bien isolée et à contre-courant des menaces pour nos droits et libertés.
biased
C'est une performance dont la France se serait bien passée. Ce 1er juillet, une étude publiée par l'organisme Santé publique France démontre que tous les Français sont contaminés par des métaux lourds, quel que soit leur âge. Pour la première fois, la grande enquête épidémiologique Esteban (Etude de santé sur l'environnement, la biosurveillance, l'activité physique et la nutrition) mesure dans tout le pays l'exposition des plus jeunes à ces métaux. Réalisée entre avril 2014 et mars 2016 sur 1104 enfants et 2503 adultes, elle s'adosse sur des prélèvements de sang, d'urines et de cheveux, ainsi que sur un questionnaire portant sur leurs habitudes de vie ou alimentaire. Son bilan montre que l'Hexagone détient un triste record : ces niveaux d'imprégnation dépassent ceux relevés dans la plupart des pays européens et d'Amérique du Nord. Et ils sont en progression. Pour décrypter ces résultats, L'Express a interrogé la sociologue Annie Thébaud-Mony, directrice de recherche honoraire l'Inserm, connue pour son travail sur les maladies professionnelles et présidente de l'association Henri Pézerat. L'Express : Qu'avez-vous pensé de l'étude Esteban menée par Santé publique France ? Annie Thébaud-Mony : J'ai répondu à votre demande pour pousser un cri d'alerte. Ces chiffres sont inquiétants, il y a de quoi en tirer des conclusions alarmantes. Toutefois, je regrette que cet outil de santé publique soit pour ainsi dire "hors sol". L'étude Esteban donne un état des lieux général, mais pas de clé pour localiser les lieux de pollution. On perd en précision sur le suivi de la population et sur l'endroit - et donc la source - dont sont originaires ces données. Il est regrettable que ces études n'incitent pas les pouvoirs publics à instaurer d'autres outils, qui pourraient nous permettre d'aller plus loin dans la prévention. Elle est manifestement aujourd'hui insuffisante. L'étude relève notamment des niveaux d'imprégnation élevés de cadmium, de chrome ou de plomb... Comment l'expliquer ? Établissons déjà que même si certains éléments sont présents dans la nature, comme le cadmium, la pollution relevée par l'étude est majoritairement anthropique, donc liée à l'activité humaine. On trouve notamment le chrome dans les peintures industrielles, qui sont présentes dans notre vie de tous les jours. La question se pose particulièrement pour les travailleurs en contact avec ces déchets. Le cadmium est notamment utilisé dans l'industrie automobile. Par ailleurs, il faut souligner le cas particulier du plomb : l'essence au plomb a été interdite en France en 2000. Il y a donc probablement une charge biologique au plomb, car ce polluant, comme le cadmium, se stocke dans le système osseux et y reste plusieurs décennies. Nous faisons donc face aux conséquences de l'utilisation de ce carburant, plus de vingt ans après son interdiction. Il ne faut pas prendre le plomb à la légère : l'incendie de Notre-Dame, qui a libéré des poussières de plomb, a par exemple laissé place à une situation très préoccupante.
true
Climat. Gaz à effet de serre : pourquoi la France est-elle à – 40 % et l’Europe à – 55 % ? Tandis que l’Union européenne a déposé un engagement de réduction de ses émissions de gaz à effet de serre de 55 % d’ici à 2030, la France reste autour des 40 %. Contrairement à ses voisins, le gouvernement a choisi d’attendre la répartition des efforts pour afficher le sien. L’Union européenne, qui dépose les engagements climatiques des vingt-sept pays membres aux Nations unies, prévoit de réduire ses émissions de gaz à effet de serre de 55 % d’ici à 2030 (57 % avec les puits de carbone naturels). Chaque État peut avoir ses propres objectifs, à condition que la somme atteigne ces 55 %. Ainsi, certains de nos voisins sont mieux-disants, c’est le cas du Danemark, avec 70 % prévus dès 2030. D’autres se sont sagement alignés sur le choix de Bruxelles, comme la Belgique ou l’Allemagne. Enfin, plusieurs pays jugent de telles cibles inatteignables. La Pologne a déclaré qu’elle était dans l’incapacité de réduire de plus de 30 % ses émissions d’ici à dix ans. Quelle répartition des efforts ? La répartition des efforts est justement le grand sujet de discussion dans l’Union. Deux méthodes sont passées au crible. L’une consiste à mettre le paquet – l’argent et la pression – sur les pays qui utilisent trop de charbon (Pologne, Hongrie, Slovaque, République tchèque, Allemagne…). Ce qui serait sans doute efficace. L’autre serait basée sur la solidarité : les pays les plus riches fournissent le plus d’efforts. Pour la France, l’issue de ces discussions change la donne. Ainsi, selon le ministère de la Transition écologique, si l’effort est mis sur le charbon, le gouvernement peut se contenter d’une réduction de 43 %. Elle grimperait à 50 % si la solidarité des plus riches est requise. Le gouvernement a donc choisi d’attendre, plutôt que d’afficher des ambitions. Clairement, 43 % l’arrangerait, car ce sont précisément la réduction des émissions que les politiques climatiques actuelles permettraient d’atteindre, selon les calculs du ministère. Pour mémoire, les scientifiques du climat estiment qu’une première étape ambitieuse est nécessaire pour mettre sur les rails une économie décarbonée et atteindre la neutralité carbone en 2050. Le Parlement européen avait suivi ces recommandations et voté une baisse de 60 % dès 2030.
true
La ministre de la Transition écologique Barbara Pompili présentera demain, jeudi 9 juillet, la Stratégie nationale en matière d’aires protégées, afin d’atteindre l’objectif de protection de 30% du territoire terrestre et maritime dont 10% de protection forte. Concernant spécifiquement les aires marines protégées, au regard des crises environnementales et climatiques, les organisations de défense de l’environnement [1] s’inquiètent du manque d’ambition du texte et soulignent le peu de cohérence avec les recommandations de la communauté scientifique. C’est un enjeu primordial alors que l’importance des écosystèmes marins dans la lutte contre le changement climatique est bien documentée et que selon le rapport de l’IPBES de mai 2019, l’Océan est toujours plus menacé par la surpêche, les pollutions plastiques et les activités d’extractions. L’Union Internationale pour la Conservation de la Nature (UICN) recommande qu’au moins 30% de l’ensemble de l’Océan bénéficient d’une protection forte. Emmanuel Macron avait annoncé en mai 2019 l’objectif de préserver 30% des eaux françaises d’ici 2022, dont un tiers en « pleine naturalité ». Malheureusement, au moment de les décliner en mesures concrètes, ces déclarations ont perdu leur portée. Les ONG demandent à la ministre qui vient de prendre ses fonctions, de relever l’ambition du texte présenté ce jeudi et appellent à la cohérence entre les déclarations et les actes. Des aires marines trop peu protégées, donc inefficaces L’enjeu principal est de renforcer le niveau de protection, la cohérence et la représentativité territoriale des AMP existantes, afin d’atteindre les objectifs de conservation et de ne pas se cantonner à une simple approche surfacique. Ainsi, si sur le papier plus de 20% des eaux françaises ont un statut d’AMP, à peine 1.7% ont une protection forte : 0,05% en métropole et 1,65 % en Outre-mer (dont 80% sont dans les Terres Australes et Antarctiques Françaises (TAAF)). Par ailleurs une étude de 2019 a montré que près de 95% des AMP françaises n’avaient pas de plan de gestion. Les AMP fortement protégées sont les plus efficaces pour restaurer la biodiversité marine et s’adapter aux changements climatiques, or la France en manque cruellement. Si l’ambition d’arriver à 10% de protection forte est bien affirmée, elle manque de précision dans sa définition et laisse la porte ouverte à des activités trop nombreuses. Le texte précise ainsi que les pressions engendrées dans ces zones seraient « significativement limitées », une notion floue. En outre, elle est très en deçà des recommandations et définitions des protections fortes établies par l’UICN. Nos organisations demandent à ce que dans ces zones dites de protection forte, les activités humaines et spécifiquement les activités extractives soient interdites. Dans le reste des AMP, elles devraient déjà être fortement limitées. Le modèle d’AMP « à la française » gagnerait à être cohérent avec les définitions scientifiques internationalement reconnues et qui font référence. Nous déplorons aussi le retard pris par la France et le manque d’ambition en matière de création de réseaux de réserves marines strictement protégées. Des zones de protection forte mal réparties sur le territoire Enfin, la stratégie se concentre davantage sur la quantité plutôt que sur la répartition équilibrée de ces zones de protection forte, sur l’ensemble du domaine maritime. Atteindre 10% de protection forte en termes de surface, sans s’engager sur la représentativité des AMP sur l’ensemble des façades et écorégions qui constituent le domaine maritime français n’aurait pas de sens. C’est pour cette raison que nous demandons que ce soit chaque façade de la métropole et chaque région maritime des territoires d’outre-mer qui bénéficient de 10% de protection forte. La constitution de zones de protection forte dans les TAAF est évidemment importante, mais ne peut substituer à elle seule à ce qu’il faudrait faire sur l’ensemble du domaine maritime. La Méditerranée ou l’Atlantique, mais aussi le Pacifique sont, entre autres, des territoires bien plus menacés par les activités humaines et pour l’instant opportunément exclus du plan d’action à 2023 de la stratégie. Nous demandons donc qu’au moins 10 % de chaque écorégion du territoire national de métropole et d’outre-mer soit couverts par des mesures de protection forte d’ici 2022 . Consulter la position des ONGs sur le volet marin de la future Stratégie Nationale pour les Aires Protégées 2020-2030 [1] Bloom, Fondation Bertarelli/Pew Charitable Trusts, France Nature Environnement, Greenpeace France, Ligue pour la Protection des Oiseaux, Mediterranean Recovery Action Network, Oceana Europe, Pleine Mer, Sea Shepherd France.
biased
Le « hiatus » est l’apothéose des jeux d’interaction entre ceux qui tracent l’historique de l’indicateur et ceux qui modélisent le climat. En effet, il faut bien, au moins, que les modèles reproduisent le passé. Or même ça, ce n’est pas gagné. Heureusement, comme on est loin de tout savoir des paramètres climatiques, cela laisse paradoxalement de la latitude pour « ajuster » les modèles (« tuning en anglais ») par des facteurs arbitraires (« fudge factors » en anglais, terme généralement employé, pas vraiment flatteur). La cuisine interne aux protagonistes nous a été révélée par le « Climate gate » comme on le verra ci dessous : un des protagonistes, Michael Mann, parle de « dirty laundry » (lessivage pas très propre). Evidemment, il ne faut pas généraliser à la majorité des scientifiques travaillant sur le climat ! LE CLIMATE GATE Fin 2009, on a pu voir sur le net une série de plusieurs milliers d’e-mails professionnels d’une vingtaine de scientifiques travaillant sur la question du climat. Ils ont été identifiés comme réels. On ne sait toujours pas, 10 ans plus tard, comment cette fuite a pu être possible. Toujours est-il que des milliers d’internautes se sont mis à les éplucher, et ce qu’on y a trouvé est édifiant. Le Climate Research Unit de l’université de l’East Anglia, un organisme dépendant de l’Office Météo Britannique, abritant aussi l’équipe traçant les températures mondiales, le Hadley Center, avait été piraté. Les données et emails (61 Megabytes) avaient été soigneusement collectés, et disposaient même d’un moteur de recherche associé ! L’affaire a été un peu oubliée depuis, mais certains internautes continuent d’exploiter cette mine. Pour les lecteurs intéressés, le Climategate a fait l’objet de plusieurs livres : « Climategate: A Veteran Meteorologist Exposes the Global Warming Scam » ou « Climategate: The CRUtape Letters » Les auteurs de ces emails ont protesté, arguant de la nécessité de les replacer dans un contexte d’échanges libres au fil de l’eau entre confrères. En réalité, c’est l’inverse. Quand on connaît le contexte, ces échanges sont catastrophiques par ce qu’on y découvre. Une petite confrérie de « climatologues » essayait, dans les années 2000, de « contrôler » la communication scientifique sur le climat. Ils s’appelaient entre eux « The Team ». Quel rapport avec l’interaction modèles climatiques/températures ? Nous allons voir un exemple. LE REFROIDISSEMENT DES ANNÉES 60 : LE « BLIP » De 1945 à 1975 environ, les courbes de température montrent un refroidissement. A l’époque, les media prédisaient un nouvel âge glaciaire, catastrophes à la clé. Cet épisode n’est contesté par personne, et c’est ce qui fait qu’il n’y a pas vraiment corrélation entre températures et CO2. Il fallait donc trouver une explication « rationnelle » : soit les températures étaient fausses, soit il y avait un truc, de préférence d’origine humane, pour ne pas introduire l’épineux dossier des variations naturelles du climat. Kenneth Richard, un observateur attentif de ces affaires climatiques, a cherché à faire le point sur ces manœuvres : Quelques échanges savoureux via les mails du Climategate extraits par Richard : Ou encore : Ou encore : Merci à Kenneth Richard et quelques autres de s’être plongés dans ces échanges révélateurs… MAIS IL CONVIENT D’ÉCLAIRER LES SUJETS DONT IL EST QUESTION DANS CES E-MAILS L’affaire des « baquets » : la température de l’air en surface des océans est assimilée à la température superficielle de l’eau. On demandait donc aux navires de faire des prélèvements. Entre les navires à voile du 19ème siècle et les porte conteneurs, il y a évidemment des différences ; la hauteur par exemple, qui donne le temps entre le prélèvement et la mesure. Mais le contenant aussi : entre les baquets en bois d’origine, et les baquets en fer, ça peut faire un écart. Enfin, depuis la deuxième guerre mondiale, on prélève l’eau de refroidissement des moteurs, en entrée. Tout cela n’est pas anecdotique : souvenons nous qu’on parle de réchauffements de 0,1 degrés tous les dix ans…Les échanges de mails montrent que la difficulté d’évaluer les écarts entre les méthodes donne pas mal de latitude pour « ajuster »… L’avenir de l’humanité se jouerait elle sur une histoire de baquets ? La deuxième allusion des emails concerne les aérosols. Les aérosols sont censés avoir un effet refroidissant. « L’argument aérosol » consiste à supposer que le développement industriel des 30 glorieuses a produit tellement de pollution que ces aérosols (des poussières et des gaz se combinant en poussières fines) ont annihilé l’effet CO2. Les modélisateurs, pour faire coller leurs modèles au passé, ont donc « injecté » virtuellement des aérosols pour « refroidir » leur planète fictive. Mais on recherche en vain les mesures incontestables qui auraient dû permettre cet audacieux « tuning ». LE HIATUS Tout allait bien dans le meilleur des mondes. On avait expliqué le « blip » de 1945. Les courbes de températures collaient entre elles (ce qui n’est pas étonnant, les données brutes étant en grande partie les mêmes.) Mieux, les courbes par satellites, disponibles à partir de 1979, étaient, elles aussi, à peu près cohérentes avec l’ensemble. Mais à partir de 1998, ça ne chauffait plus. C’était gênant. Après le « blip », on entrait dans le « hiatus ». C’est difficile de traduire ce que les climatologues voulaient dire par là : une pause, une interruption, un arrêt ? En plein dans la préparation du 5ème rapport du GIEC, finalisé en 2013, cela en chagrinait plus d’un. Un climatologue éminent, K Trenberth, disait : « Le fait est que nous ne pouvons rendre compte pour expliquer l’absence de réchauffement pour le moment, et c’est grotesque » Il y eut même une discussion serrée au sein du GIEC s’il fallait mentionner le hiatus ou le passer discrètement sous silence dans le 5ème rapport. Chacun y alla de son explication. Certains auraient bien refait le coup des aérosols, avec le développement de la Chine, mais c’était osé. L’explication générale était que la « chaleur » avait plongé momentanément dans les océans. LA GAFFE Il y avait quand même des climatologues qui trouvaient cela dommage. Un chercheur lié à NOAA, Thomas R Karl, un peu inconscient, sortit en 2015 une étude montrant que les dernières mesures de températures avaient été très sous estimées. Une des raisons principales tiendraient à l’écart entre les mesures en baquet et en seau et les mesures avec les bouées en mer, qui serait bien plus grand qu’initialement estimé. Le hiatus, largement discuté dans le dernier rapport du GIEC, allait il disparaître ? On avouerait presque en même temps que la publication du rapport, qu’on découvre que les courbes de températures utilisées seraient fausses ? Malgré un malaise quasi général, cela a conduit NOAA à aligner plus ou moins les températures des bouées (hautement technologiques) sur celle des baquets (hautement domestiques). Qu’allaient donc faire les deux organismes, GISS et HADCRU, qui publient en relation avec NOAA ? Eh bien ils ont fini par s’aligner. Il restait un problème : les courbes par satellite. Il y avait de plus en plus d’écart entre elles et les autres comme on peut le voir ci-dessous. Mais RSS a découvert opportunément un problème de calibration qui diminue l’écart. Fini le hiatus, comme on peut le voir sur les dernières mises à jour des courbes (en dehors du fait que depuis il y a eu un phénomène El Nino important, mais ça c’est de la météo). Il y a tout de même un organisme indépendant, UAH, qui lui, n’a pas jugé bon de « calibrer » ses satellites, arguant qu’ils n’en n’avaient pas besoin. Il y a maintenant un écart entre les deux courbes satellites, et la confusion devient totale : La situation devient inextricable, mais ce n’est rien à coté de ce qui se passe, quand on veut reculer plus encore dans les séries de température, comme on va le voir dans le prochain bulletin. Ouf ! Quelle histoire !
fake
Les projets de dictature écologiste avancent désormais à visage découvert, et les garde-fous sociétaux n’opèrent plus : impossible d’éviter ce constat en lisant le titre de l’interview du climatologue François-Marie Bréon dans Libération du 29/07 : « La lutte pour le climat est contraire aux libertés individuelles ». Ce titre seul pourrait laisser croire à une grille de lecture de bon aloi pour évaluer tel ou tel projet de loi écologiquement punitif. Hélas, c’est tout le contraire : pour lutter contre l’évolution du climat, l’interviewé s’affiche comme favorable à une restriction des libertés individuelles. Le plus inquiétant est qu’il puisse ainsi le faire dans un quotidien national sans susciter une levée de boucliers. La phrase complète dont le titre est issu est pourtant encore plus claire : « On peut dire que la lutte contre le changement climatique est contraire aux libertés individuelles et donc sans doute avec la démocratie. » Entendant cette affirmation, la journaliste a-t-elle un mouvement de recul, un mot pour inciter à pondérer un propos si évidemment dangereux ? Que nenni : les questions de démocratie et des libertés individuelles étant probablement secondaires, l’entretien se focalise aussitôt après sur la très grave question de la climatisation — évidemment mère de tous les vices puisque consommatrice d’énergie. EN ROUTE VERS LA CLIMATOCRATURE On pourra se rassurer en se disant que cette interview n’est que l’une de ces perles collectionnées par temps de chaleur dans certains journaux en manque de sujets, et que tout cela disparaîtra aux premiers frimas. Mais on peut aussi y voir l’illustration d’une faiblesse préoccupante du corps social, silencieux devant un appel à instituer ce qu’il faudrait bien appeler une climatocrature. Sans réaction des citoyens, la climatocrature progresse lentement mais sûrement. Il y a trois ans, Cécile Duflot proposait d’inscrire la lutte contre les changements climatiques dans la Constitution. Personne n’y avait prêté attention. Aujourd’hui, la réforme constitutionnelle se prépare à donner satisfaction à l’ex-ministre du Logement de façon spectaculaire : c’est rien de moins que l’article premier qui doit être défiguré pour y mentionner la « lutte contre le changement climatique ». Qui pour questionner l’opportunité d’une telle modification ? Personne. Quel constitutionnaliste pour rappeler que notre loi fondamentale n’a pas pour fonction d’afficher une vertu fût-elle écologiste mais d’organiser la répartition des pouvoirs ? Aucun. Le fait est que nous avons perdu toute capacité collective à mener un débat normal sur le climat. Chacun demeure tétanisé à la perspective que le plus léger questionnement de la doxa climatique ou de ses implications (transition énergétique, politique environnementale, diplomatie climatique…) lui colle aussitôt sur le front l’étiquette d’inconscient, d’égoïste, et pourquoi pas de négationniste. Est-il encore temps de reprendre la main, ou n’est-ce plus qu’une question de temps avant l’instauration de cette climatocrature qui solderait les libertés publiques « pour le bien de la planète » ? Pour que l’église soit remise au milieu du village, commençons peut-être par réautoriser à chacun l’exercice de son esprit critique, sans aussitôt lui jeter un Trump à la figure. Songeons aussi à faire en sorte que la qualité de climatologue n’offre plus de protection morale à ceux qui affichent leur volonté de s’en prendre à nos valeurs. Que notre monde devienne plus chaud ou pas, et que nous en soyons responsables ou pas, nous avons le droit imprescriptible de rester libres. — Sur le web
fake
Les nappes phréatiques sont revenues à un niveau proche de la moyenne, voire haut, grâce aux pluies automnales et hivernales, a fait savoir ce mardi le Bureau de recherches géologiques et minières (BRGM). "La recharge a débuté précocement dès octobre et s'est généralisée à l'ensemble des nappes en novembre", indique le BRGM dans son bulletin mensuel. "Les pluies efficaces ont été particulièrement importantes durant l'automne et le mois de décembre se caractérise par une forte remontée des niveaux", détaille-t-il. Plusieurs maxima historiques ont même été enregistrés en Adour-Garonne durant ces deux derniers mois, tandis que "la situation est moins favorable sur les nappes du couloir rhodanien", qui accusent toujours les déficits pluviométriques de ces dernières années, précise le BRGM. Des nappes sont à un niveau haut en Bretagne, sur la côte d'Azur et en Corse. Les niveaux des nappes restent en revanche "stables et bas" en Alsace au sud de Colmar, à cause d'une "pluviométrie déficitaire en décembre". De même, des nappes en Bourgogne et sur le Rhône restent affectées par "les déficits pluviométriques successifs depuis 2017".
true
Une expérience menée sur la Grande Barrière de corail en Australie vient de montrer, et c’est une première, que l’acidification des océans altérait la croissance des récifs coralliens. Comme l’indique notre étude parue le 24 février dernier dans Nature, la diminution du pH de l’eau de mer – causée notamment par le dioxyde de carbone provenant des activités humaines telles que la combustion fossile – perturbe les récifs dans la construction et la préservation de leur squelette. Notre équipe, emmenée par Rebecca Albright et Ken Calderia de la Carnegie Institution for Science de Stanford (Californie), a conduit la première manipulation expérimentale de la chimie de l’eau de mer en milieu naturel. Les études précédentes relatives à l’impact des changements climatiques sur les récifs coralliens avaient été réalisées soit en laboratoire, soit au sein de réservoirs installés à même le récif. La topographie particulière et isolée de l’île de One Tree Island a permis de tester différents niveaux de pH. One Tree Island Research Station/University of Sydney/Nature Les écosystèmes coralliens sont particulièrement sensibles à l’acidification des océans, car le carbonate de calcium – l’élément minéral indispensable à construction de leur squelette – se dégrade sous l’effet de l’acidité. À un certain pH, cette érosion prend le pas sur l’accumulation de nouveau carbonate de calcium qui permet aux récifs de survivre aux épisodes d’érosion, comme après une tempête par exemple. De précédentes études ont mis en lumière l’altération de grande ampleur qui touche les récifs coralliens depuis quelques décennies. À titre comparatif, le taux de calcification des récifs apparaît moins élevé de 40 % en 2008-2009 qu’en 1975-1976. Mais il était jusqu’à présent difficile d’établir clairement la part de l’acidification dans ce phénomène, de même que celle causée par d’autres perturbations d’origine anthropique comme la hausse de température des eaux, la pollution ou la surpêche. Or ceci est essentiel pour envisager la situation des récifs coralliens confrontés de manière continue aux changements climatiques. On suit grâce à sa couleur rose l’évolution de la solution utilisée pour diminuer l’acidité des eaux. Rebecca Albright/Nature Pour répondre à cette question, nous sommes intervenus sur le pH de l’eau de mer présente sur un platier récifal de l’île de One Tree Island située dans la partie sud de la Grande Barrière. Par l’ajout d’hydroxyde de sodium (un métal alcalin), nous sommes parvenus à ramener le pH du récif à des niveaux très proches de ceux de l’ère pré-industrielle (1750), en nous basant sur des estimations relatives au dioxyde de carbone atmosphérique de cette époque. En procédant ainsi, nous avons fait en quelque sorte « remonter le temps » au corail dans le but d’observer sa vitesse de croissance. Nos résultats parlent d’eux-mêmes : la calcification du récif fut de 7 % supérieure dans ces conditions. Les expériences menées sur l’acidification recréent dans leur grande majorité des conditions de niveaux de pH bas, comme on peut s’y attendre dans le futur. Nous avons clairement établi avec cette nouvelle étude que les conditions actuelles ont déjà des effets néfastes sur les récifs coralliens. Comme le souligne Rebecca Albright : Nos travaux – qui s’appuient sur des expériences en milieu naturel – ont fourni la preuve solide, et à ce jour inédite, que l’acidification des océans est déjà à l’origine de la croissance ralentie des coraux. L’acidification des océans provoque des ravages sur les communautés de récifs coralliens. Ceci n’est plus une crainte pour l’avenir ; c’est la réalité d’aujourd’hui. Avec la progression continue des émissions de gaz à effet de serre, notre étude indique que le futur s’annonce bien sombre pour les récifs coralliens, souffrant d’une calcification dégradée et de plus grands risques d’érosion. Ceci est tout à fait préoccupant étant donné les épisodes de blanchissement majeurs qu’ils ont subi ces dernières années, suite à la hausse des températures des eaux de surface. Les effets conjugués du réchauffement des océans et de l’acidification, ainsi que d’autres facteurs de stress d’origine anthropique ou naturelle, constituent des menaces graves pour ces écosystèmes. Une initiative de géo-ingénierie, consistant à accroître l’alcalinité de l’eau de mer autour des récifs coralliens, a été proposée pour sauver ces écosystèmes marins. Nos résultats montrent que si de telles mesures peuvent se concevoir pour des zones isolées, elles sont presque inenvisageables à grande échelle. Comme le rappelle Ken Caldeira, la seule solution réelle et durable consiste en une réduction forte et rapide de nos émissions de dioxyde de carbone. Sans quoi, le siècle prochain pourrait bien être privé de récifs coralliens.
true
Dans quelle mesure la fonte des calottes glaciaires participe à la hausse du niveau de la mer ? Des scientifiques de 13 pays différents se sont penchés sur la question en tentant d'apporter des calculs plus précis dans leurs projections publiées ce jeudi. 99% de la glace présente sur la surface du globe se situent sur les calottes glaciaires de l'Antarctique et du Groenland. Leur fonte, sous l'effet du réchauffement climatique, participe à l'élévation globale du niveau de la mer. Des glaciologues, des océanographes et des climatologues, ont travaillé ensemble pour tenter de mesurer cet impact de la fonte des calottes en y intégrant les changements de l'atmosphère et de la mer dans les régions polaires. Selon leurs calculs, la calotte glaciaire antarctique pourrait contribuer jusqu'à 30 cm à la hausse du niveau marin de 2015 à 2100. En 2013, le Groupe international d'expert pour le climat (Giec) avait estimé que le niveau des mers monterait de 60 centimètres d'ici la fin du siècle. "L'originalité de ce groupe de travail international c'est qu'il ne comprend pas seulement des glaciologues, mais aussi des océanographes et des spécialistes de l'atmosphère, cela a changé la manière de faire les prévisions", évoque Nicolas Jourdain, océanographe et climatologue spécialiste de l'Antarctique au CNRS et qui a participé à l'étude. Les scientifiques ont notamment pris en compte un nouvel effet du réchauffement des océans : les précipitations. Sous l'effet du réchauffement climatique, l'atmosphère de l'Antarctique pourrait se charger en humidité de façon plus importante que ce qui est observé actuellement. De quoi provoquer des chutes de neige qui pourraient, selon certains scénarios, compenser en partie l'élévation globale des océans. L'accumulation de neige sur la calotte antarctique pourrait ainsi réduire de 7,8 centimètres la hausse du niveau des océans, estiment les scientifiques.
true
Depuis 10 000 ans, l’Holocène (la période interglaciaire actuelle) montre une alternance d’optima et de minima climatiques avec une cyclicité parfois millénaire. L’époque fraîche la plus récente est appelée Petit Âge Glaciaire et se situe entre 1550 et 1850. Une des conséquences les plus spectaculaires de ce refroidissement général est l’accroissement des glaciers. Il s’observe sur tous les glaciers de la planète, seules les chronologies de début, de fin et de paroxysmes diffèrent selon les régions du globe (Francou, 2007). Inversement depuis la sortie du petit âge glaciaire à la fin du 19ème siècle tous les glaciers sont en recul. La coïncidence temporelle de ce repli avec l’augmentation des émissions de gaz à effet de serre est souvent citée comme preuve du réchauffement climatique anthropique. Mais la corrélation est douteuse : la régression des glaciers a commencé avant le début de l’ère industrielle. D’autre part l’alternance au cours du XXe siècle de périodes de crue (entre 1953 et 1981) et de décrues (1942-1953 et à partir de 1981), évoque des cycle climatiques plus que l’effet de nos émissions de gaz à effet de serre. Enfin la caractère lacunaire des séries de données disponibles limite notre compréhension de la relation entre les changements climatiques et glaciaires à l’échelle régionale et globale. Près de 200 000 glaciers recensés dans le monde Un inventaire établi par le Randolph Glacier Inventory répertorie 197 654 glaciers répartis dans 19 régions du monde, pour une superficie estimée à 726 792 km2 (avec une incertitude de ± 35 000 km2) répartis en trois groupes de glaciers : en périphérie du Groenland (90 000 km2), en périphérie de l’Antarctique (135 000 km2) et les glaciers du reste du monde (505 000 km2). Un nombre réduit de ces glaciers est suivi par des mesures de terrain : le World Glacier Monitoring Service [1] ne dispose des bilans de masse que pour 410 glaciers (soit 0,2% des 200 000 glaciers recensés), dont seulement 37 ont des séries de données supérieures à 40 ans. Le recours à la modélisation est limité par le caractère lacunaire des séries de données. Ben Marzeion, glaciologue à l’Université d’Innsbruck, indiquait dans un article publié en 2012 dans la revue The cryosphere que notre connaissance du comportement des glaciers est fortement limitée par l’insuffisance des observations : « le sous échantillonnage impose de sévères limites à la modélisation du comportement des glaciers d’une part du fait du faible nombre de paramètres pouvant être déterminés empiriquement, et d’autre part de la fiabilité et le représentativité de ces paramètres ». La télédétection spatiale est la solution d’avenir pour quantifier le bilan de masse de surface annuel des glaciers mais il faudra attendre des décennies avant de pouvoir disposer de séries de données significatives. Un bilan de masse global évalué sur la base de 40 glaciers L’évolution du climat en haute montagne est souvent évaluée à l’aune des fluctuations des fronts des glaciers. Or les variations du front produisent une information où se mêlent l’influence du climat et les caractéristiques morphologiques propres à chaque glacier ; d’autre part, les fronts réagissent aux conditions climatiques avec plusieurs années ou décennies de retard selon les glaciers. Pour étudier la relation entre climat et glaciers, il est nécessaire de connaître les variations annuelles de volume que l’on nomme bilans de masse [2]: les bilans hivernaux (accumulation) dépendent des précipitations hivernales et les bilans estivaux (fusion) dépendent des variations des flux d’énergie en surface (fortement corrélées aux fluctuations des températures estivales). Les premières observations directes des bilans de masse glaciaires datent du milieu du 20e siècle. La plupart des glaciers ont reculé depuis la fin du Petit Age Glaciaire (vers 1850). Cette décrue aurait tendance à s’accélérer depuis 1990 comme le montre le graphique ci-dessous établi par le World Glacier Monitoring Service dont on rappelle que le référentiel ne comporte que 40 glaciers. Bilan annuel moyen des glaciers de référence (40 glaciers). Source : World glacier monitoring service ) Les Alpes (presque) libres de glace à l’époque romaine. Selon le géologue suisse Christian Schlüchter [3], les Alpes étaient pratiquement libres de glace à l’époque romaine. Le réchauffement de l’optimum romain a marqué l’ histoire en permettant à Hannibal de traverser les Alpes pendant la 2éme guerre punique comme le rappelle la revue geologierandonneurs. Lors du petit âge glaciaire, on redoutait l’avancée des glaciers qui menaçaient d’engloutir des villages de montagne, avec pour seul remède connu des processions et des prières, puis des actions de grâce une fois le péril écarté. De 1550 à 1820, ce petit âge de glace s’étend sur 3 siècles en présentant de nombreux maxima, dont celui de 1820 qui termine la période, comme le montre le graphique ci-dessous établi par le glaciologue Sylvain Coutterand: Source : Sylvian Coutterand (glaciers-climat.com) Une compilation des connaissances disponibles sur les glaciers alpins est disponible sur le site risknat.org. Selon le site glaciers-climat.fr, les glaciers alpins européens ont perdu environ 30 à 40% de leur surface et environ 50 % de leur volume depuis 1850. Cette régression n’a pas été linéaire et le 20ème siècle peut être avec 2 périodes d’état stationnaire (1907-1941 et 1954-1981) au cours desquelles la masse des glaciers est restée à peu près constante, et 2 périodes déficitaires (1942-1953 et 1982-1999) marquées par une importante réduction de la masse des glaciers. La décennie 1980-1990, les pertes de masses glaciaire auraient augmenté de 50 % par rapport à la moyenne séculaire du 20ème siècle. Cette évolution est clairement liée à l’élévation des températures dans les Alpes qui serait compris entre 1 et 2°C au 20ème siècle. 1°C de cette augmentation des températures est survenue depuis 1990 (en même temps qu’une diminution des précipitations). L’analyse des bilans de masse [4] glaciaires français révèle quatre périodes principales : Quatre glaciers [5] voisins du massif du Mont Blanc montrent des variations de longueurs assez semblables avec une crue vers 1890, une autre vers 1920, et une troisième vers 1960, le tout superposé sur une tendance généralement décroissante. La décrue de 1940, la plus forte de ce siècle, a profondément marqué les paysages glaciaires des Alpes. Evolution de 4 glaciers du massif du Mont-Blanc (Source : glaciers-climat.fr) Trois chercheurs suisses ont publié dans la revue Geophysical Research Letters un article [6] montrant un taux de fonte dans les années 1940 plus important que celui de la période actuelle attribuable selon ces chercheurs à une irradiance solaire plus élevée pendant les mois d’été. Glaciers alpins et glaciers Scandinaves en opposition de phase sous l’effet de la NAO Selon une étude publiée en 2001 [7] par des scientifiques français, les glaciers alpins régressent, en opposition avec les glaciers scandinaves (Norvège et Suède) qui voient leurs longueurs, surface et volume augmenter. Le graphique ci-dessous représente l’évolution du bilan moyen de glaciers représentatifs de ces deux régions (9 glaciers alpins, 7 glaciers scandinaves) sur la période 1967 – 1997. On constate que, sur ce laps de temps, les bilans de ces deux régions varient de façon opposée. Bilans moyens de neuf glaciers des Alpes et de sept glaciers scandinaves sur la période commune 1967–1997, comparés à l’indice de NAO annuel. Selon cette étude l’oscillation Nord-Atlantique (NAO) est l’origine commune aux variations décennales de ces glaciers. Le glaciologue Louis Reynaud (CNRS) qui a participé à l’étude indique que « cela suggère qu’il a existé ces dernières décennies des cycles d’une durée décennale où les conditions de régime dépressionnaire sur l’Atlantique Nord favorisent successivement, en moyenne, l’alimentation des glaciers scandinaves (indices NAO positifs) puis des glaciers alpins (indices NAO négatifs) ». Mais il ajoute : « les reconstitutions antérieures aux années 1960, bien qu’encore partielles, suggèrent cependant que de plus amples variations existent comme le grand recul glaciaire ayant eu lieu dans les années 1940-50, recul commun à la fois aux glaciers scandinaves et aux glaciers alpins ». Les glaciers des Pyrénées On compte une trentaine de glaciers dans les Pyrénées qui sont du fait de leur faible taille très vulnérables aux changements climatiques. Vers 1850 on comptait environ 23 km² de glace répartis sur 90 glaciers. Depuis 2001, la superficie des glaciers pyrénéens est passée de 5 km2 à 3 km2 et une quinzaine de glaciers ont disparu. Selon la revue Sud-Ouest Européen le retrait des glaciers pyrénéens entre 1850 et 2007 (mesuré sur 17 glaciers) serait de 725 m. Les deux glaciers principaux (Ossoue et la Maladeta) perdraient environ 1,20 mètre d’épaisseur chaque année. Comme dans les Alpes les glaciers pyrénéens ont énormément régressé dans les années 1940, une période qui est analogue à celle que l’on connait aujourd’hui. La tendance générale à la régression est entrecoupée de stabilisations voire de légères progressions des glaciers, comme dans les années 1970. Pierre René (Association pyrénéenne de glaciologie), indique dans Sud-ouest que si les années 2012 et 2015 ont été particulièrement défavorables les glaciers se sont maintenus en 2013 et 2014. Globalement Pierre René confirme une régression de la superficie des glaciers pyrénéens de 40% depuis 2001. El Niño explique l’évolution récente des glaciers andins Les glaciers andins ne couvrent qu’une très petite superficie du globe (de l’ordre de 1900 km2). mais représentent la quasi totalité des glaciers tropicaux. Le magazine en ligne Futura leur a consacré un article en 2009 à l’occasion d’une interview du glaciologue Bernard Francou [8]. Comme dans les Alpes, les glaciers andins ont entamé un lent déclin à la fin du Petit Age Glaciaire vers 1880-1890. Après les hauts et les bas des années 1920-1970, une très forte déglaciation a commencé à partir de 1975. Selon Bernard Francou, ce basculement est le signe que le climat des Andes a profondément changé au cours de ces 35 dernières années. Il explique que les glaciers andins sont très sensibles aux variations climatiques engendrées par le phénomène El Niño. Or depuis 1976, les conditions El Niño prévalent, mettant en place des conditions anormalement chaudes sur les hautes Andes et provoquant une forte rupture d’équilibre des glaciers à partir de cette date. Bernard Francou qui travaille sur les effets respectifs du phénomène El Niño et du réchauffement global sur l’évolution des glaciers andins convient que la séparation de ces deux signaux n’est pas simple car le Pacifique équatorial, du fait de la dynamique de son immense réservoir d’eau chaude qui tend à se déplacer périodiquement d’Asie vers les côtes américaines, contrôle une partie importante de la variabilité du climat à l’échelle de la planète toute entière. 87% des 2018 glaciers de l’Himalaya sont stables depuis 2001 Une récente étude conduite par l’organisation Indian Space Research Organisation (ISRO) en collaboration avec le Ministère de l’environnement et des forêts (MoEF) sur l’évolution de 2018 glaciers de l’Himalaya entre 2004 et 2011 a produit les résultats suivants : Même s’il n’est pas exhaustif, ce bilan est plutôt rassurant. Conclusions L’attribution de la régression mondiale des glaciers depuis 1850 à nos émissions de gaz à effet de serre relève d’une coïncidence temporelle et non d’une relation de causalité. Selon certains auteurs c’est la baisse de l’activité solaire qui serait à l’origine du Petit Âge Glaciaire. Or S.K.Solanki [9], de l’Institut Max Planck (recherche sur le système solaire), montre qu’avec le cycle 24, l’un des plus faibles de l’histoire, le soleil sortirait d’une période de cinquante à soixante ans d’intense activité solaire sans équivalent depuis huit mille ans. Information corroborée par le Dr. David Hathaway chercheur au « Marshall Space Flight Center » de la NASA selon qui les 10 cycles solaires les plus intenses se sont produits dans les 50 dernières années. La Royal Astronomical Society prévoit de son côté que l’activité du soleil pourrait baisser de 60% lors du 26ème cycle (2030-2040). Dès lors il n’est pas absurde de penser que l’évolution à long terme des glaciers est pilotée par l’activité solaire, même si sur de courtes périodes (décennales), d’autres mécanismes sont probablement à l’œuvre et notamment les oscillations océaniques (NAO, El Niño). La science n’a en tout cas pas apporté de réponse convaincante à la question de savoir pourquoi les glaciers ont tous reculé vers le milieu du 19ème siècle, bien avant l’augmentation de la teneur en CO2 dans l’atmosphère. [1] Pfeffer & al ont publié en juin 2014 une synthèse des publications antérieures dans la revue Journal of Glaciologie. Voir aussi Global Terrestrial Network for Glaciers. [2] Un glacier est composé de deux zones distinctes : la zone d’accumulation, où l’accumulation annuelle de neige est plus importante que la fonte et la zone d’ablation où la fonte est plus importante que l’apport de neige. Ces deux régions sont séparées par la ligne de névé (ou ligne d’équilibre glaciaire). Le bilan de masse est positif dans la zone d’accumulation, négatif dans la zone d’ablation et nul à la ligne d’équilibre. Le bilan de masse annuel est la différence entre l’accumulation et l’ablation du glacier. [3] Professor emeritus for Quaternary Geology and Paleoclimatology at the University of Bern in Switzerland. He has authored/co-authored over 250 papers [4] Les données suivantes proviennent du rapport de l’ONERC et du Laboratoire de glaciologie et géophysique de l’environnement de Grenoble. [5] Une histoire de la Mer de glace (dont l’étiage d’aujourd’hui est proche de celui la période médiévale) a été reconstituée par le glaciologue Sylvain Coutterand . [6] «Strong Alpine glacier melt in the 1940 due to enhanced solar radiation» [7] Bilans de masse des glaciers alpins et scandinaves,leurs relations avec l’oscillation du climat de l’Atlantique nord [8] Bernard Francou est Directeur de recherche à l’Institut de Recherche pour le Développement (IRD). il contributeur aux travaux du Giec [9] The nature of solar brightness variations (Nature Astronomy 21 août 2017)
fake
Cette technique est employée un peu partout dans le monde, comme au nord de l’Inde (doc). Qui fait attention à cette eau si précieuse et indispensable à la vie ? Partagez! Dans les Hautes-Alpes, l’accès à l’eau pour les pâturages est essentiel. Mais nul besoin ici d’énergie fossile ou électrique pour irriguer : des canaux ont été construits à flanc de montagne voici plus de 500 ans. Grâce à la gravité, l’eau y circule jusque dans les vallées. Mais ce mode d’irrigation, qui favorise l’autonomie en fourrage des fermes d’élevage, est aujourd’hui menacé par le désengagement de l’État. Des paysans, avec l’aide du Département, ont décidé de reprendre en main l’entretien des canaux, en misant sur la solidarité entre les usagers. Voilà vingt ans que Sylvain Martin s’est installé comme maraîcher à Vallouise, une petite commune des Hautes-Alpes – 800 habitants – située à 1300 mètres d’altitude, au cœur du massif des Écrins. Sur ce territoire marqué par un climat méditerranéen, l’accès à l’eau pour les cultures est « vital ». « Comme il y a des ruisseaux partout, des glaciers à proximité, je n’avais pas d’inquiétude lorsque je me suis installé, se rappelle Sylvain. Mais j’ai rapidement ressenti les effets du changement climatique, avec son lot de sécheresses répétées. » Néanmoins pour arroser ses cultures, Sylvain n’a pas besoin de pompe électrique. Ses parcelles, comme celles d’une grande partie des Hautes-Alpes, sont desservies par un vaste réseau de canaux d’irrigation par gravité. « L’eau est prélevée dans les rivières en amont et circule dans des canaux à flanc de montagne jusque dans les vallées », explique le paysan. En pratique, l’eau s’écoule par gravité sur la parcelle, du fait de la pente, avant de s’infiltrer dans les sols. Dans le monde, plus de 80% de l’irrigation est gravitaire Peu connus, ces canaux ont pourtant une vieille histoire, la plupart ayant été creusés au 15ème siècle [1]. « Ces canaux, c’est plus qu’un patrimoine culturel, c’est un patrimoine de vie ! Sans cela, il n’y aurait pas ces villages de montagne avec des cultures maraîchères et de l’élevage », insiste Sylvain. En France, on trouve des réseaux d’irrigation gravitaires similaires à ceux des Hautes-Alpes principalement dans les Pyrénées-Orientales, dans les régions de montagne sèche ou dans des plaines comme celle de la Crau (Bouches-du-Rhône). A l’échelle mondiale, ce type d’irrigation est majoritaire : alors que la surface irriguée globale avoisine les 250 millions d’hectares, 80 à 90 % seraient en irrigation gravitaire, en particulier au Proche-Orient. Ce n’est pas le cas de l’hexagone, où plus des trois-quart de l’irrigation repose sur l’aspersion avec pompe, l’irrigation gravitaire ne représentant que 14% des usages agricoles, malgré de nombreuses régions montagneuses ou vallonnées. Une méthode d’irrigation cinq fois moins chère « S’il reste beaucoup de ces canaux dans les Hautes-Alpes, c’est parce qu’ils sont très adaptés à l’agriculture de montagne avec ses petites fermes d’élevage », observe Thomas Raso, ingénieur en hydraulique travaillant au Conseil départemental. Même si l’usage peut paraître désuet, les prairies naturelles des Alpes du Sud sont régulièrement arrosées par ruissellement ou inondation, grâce aux canaux d’irrigation par gravité. « Les éleveurs font déborder le canal, ce qui entraine un gros arrosage. L’herbe en profite bien : elle prélève pendant deux à trois semaines de suite l’eau stockée dans les sols. C’est un arrosage très adapté aux prairies naturelles qui ont besoin d’une grosse quantité d’eau régulière. » Ces pratiques contribuent à l’autonomie globale des fermes d’élevage en montagne. « Avec l’irrigation, on fait deux ou trois coupes d’herbe l’été, ce qui nous permet une forte autonomie en fourrage pour les six mois d’hiver », confirme Sylvain Martin. « Cette irrigation sécurise notre stock de foin. » Le regain de pousse permet également aux vaches de pâturer ces prairies durant l’automne. L’intérêt économique de ce mode d’irrigation est sans conteste pour les bénéficiaires : « Il faut compter entre 20 et 50 euros par an et par hectare avec l’irrigation gravitaire, alors que l’irrigation sous pression coûte de 100 à 200, voire 300 euros l’hectare », relève Thomas Raso. Une irrigation sans énergie fossile ni électrique Ces canaux garantissent-ils pour autant une plus-value écologique par rapport aux autres modes d’irrigation ? « C’est un peu controversé, reconnaît l’ingénieur. « L’irrigation gravitaire est un mode d’arrosage qui prélève beaucoup d’eau en amont dans les torrents. Il faut en effet un débit minimum pour que l’eau arrive jusque dans les vallées. Or cette eau en amont du canal est considérée par certaines institutions de contrôle comme de l’eau gaspillée : elle est prélevée dans le torrent et n’est pas utilisée directement pour l’arrosage mais pour pousser et transporter l’eau. » Toutefois, pour l’ingénieur territorial, « les canaux ne gaspillent pas l’eau d’un point de vue global ». Selon lui, l’ensemble de cette eau finit par retourner dans le milieu naturel, que ce soit dans les plantes, les nappes phréatiques ou les torrents. Quant aux infiltrations éventuelles des canaux d’irrigation à ciel ouvert, elles peuvent contribuer à alimenter les nappes phréatiques. Autre avantage : les canaux d’irrigation gravitaire n’ont besoin d’aucune énergie fossile ou électrique pour fonctionner, contrairement à l’arrosage par aspersion dont les tuyaux sont mis sous pression. Des recherches avancent même que ces canaux pourraient temporiser des crues torrentielles : lors de fortes précipitations, les eaux de ruissellement rencontrent obligatoirement des canaux qu’elles empruntent avant de rejoindre les rivières, étalant ainsi les précipitations dans le temps [2]. Thomas Raso admet néanmoins que la forte concentration de canaux sur certains secteurs a pu conduire à l’assèchement de cours d’eau : « Il y a des efforts à réaliser dans les secteurs où les prélèvements d’eau sont supérieurs à la ressource. ». Désengagement de l’État Les conflits d’usage et la surconsommation qui peuvent en résulter sont en partie liés à l’abandon, ces dernières années, de la gestion de ces canaux. Historiquement, ceux-ci ont été gérés sous forme d’ « association syndicale autorisée » (ASA), une structure composée des propriétaires de parcelles bénéficiant de l’irrigation [3]. « Dans notre cas à Vallouise, cette association remonte à 1850, illustre Sylvain Martin. Mais un certain désintérêt et le manque d’agriculteurs ont contribué à ce que l’ASA soit en sommeil ces dernières années. » Vallouise est loin d’être un cas isolé. Jusque dans les années 2000, c’est l’État, via l’ancienne Direction départementale de l’agriculture et de la forêt (DDAF), qui accompagnait les associations d’irrigation. Mais l’ingénierie publique d’État a progressivement été démantelée, avant d’être complètement supprimée dans le cadre de la Révision générale des politiques publiques engagée en 2007. « La conséquence, c’est que peu de travaux ont été réalisés pendant près de dix ans sur les petites structures d’irrigation, observe Thomas Raso. Mais les sécheresses récurrentes et le besoin de faire des économies d’eau ont décidé les élus des Hautes-Alpes à consacrer des moyens à l’assistance des communes et des ASA. » A ce jour, le département compte plus de 200 associations d’irrigation, la plupart couvrant entre dix et deux cents hectares. « Entre 100 et 150 ASA sont réellement actives d’un point de vue comptable et juridique », détaille Thomas Raso. D’autres sont en situation difficile : si elles parviennent à maintenir l’irrigation, elles ne s’occupent plus des démarches administratives ou comptables. Certaines ASA ont même été abandonnées, l’eau ne circulant plus dans les canaux du fait du manque d’entretien. « Parfois, on ne voit même plus les canaux dans le paysage, constate l’ingénieur. Relancer une ASA est réalisable, mais demande beaucoup de pugnacité ». Un fonctionnement reposant sur la solidarité entre usagers Cela fait bientôt dix ans que Sylvain Martin s’attelle avec d’autres bénévoles à réactiver l’ASA d’irrigation à Vallouise : « Cela suppose de redéfinir un périmètre, d’installer des compteurs volumétriques, de mettre en place une comptabilité et une gestion spécifiques », témoigne t-il [4]. Le fonctionnement de l’ASA repose notamment sur le paiement d’une redevance, le « rôle ». « Nous sommes partis sur un montant fixe pour redémarrer et constituer une trésorerie. Il faut compter par exemple 3000 euros par an pour la gestion administrative de la structure. » Mais la collecte du « rôle » n’est pas simple : l’ASA de Vallouise compte 800 propriétaires, 4000 parcelles très morcelées, et la dernière redevance a été payée en 1973… « Aujourd’hui, les plus gros utilisateurs rechignent à payer. Ils ne semblent pas réaliser que s’ils peuvent exercer leur métier, c’est parce ces canaux sont là, et depuis longtemps. » D’ici l’assemblée générale de l’ASA de Vallouise, au printemps 2018, la cogestion se fait avec l’appui de la préfecture. « Le vrai problème, c’est l’entretien des canaux », poursuit Sylvain. « Certains sont à flanc de montagne, d’autres sont inaccessibles avec des engins. » Historiquement, cet entretien est basé sur le système dit « des corvées » effectuées par tous les usagers des canaux. « Si on est dans le périmètre de l’ASA, il faut compter quelques journées d’entretien pour curer, élaguer, remonter des murs, enlever des blocs… Avant, il y avait des centaines de personnes, mais de moins en moins de gens sont venus aux corvées. » Aujourd’hui, une quinzaine de personnes se retrouvent trois demi-journées dans l’année, pour entretenir près de 20 km de canaux porteurs, plus ou moins faciles d’accès. La clé pour qu’une ASA fonctionne ? « On a besoin que tout le monde soit solidaire dans la corvée et le paiement du rôle. » Sophie Chapelle pour BastaMag Photos © SGMB. Une : Canal de ville de Monêtier-les-Bains dans la plaine du Casset. Canal du Guibertin à Monêtier-les-Bains, en zone urbanisée. Corvée annuelle dans le Grand Canal de Ville de Briançon (mise en eau).
true
Le fondateur de Microsoft, Bill Gates, estime que le monde plongera prochainement dans une crise écologique dont les retombées seront bien plus tragiques que celles de la crise du Covid-19. L’épidémie de Covid-19 qui a frappé de plein fouet le monde a provoqué une crise, fait de nombreux morts et entraîné des difficultés économiques sans pareilles depuis plusieurs générations, a écrit le milliardaire Bill Gates sur son blog. « Évidemment, je parle du Covid-19. Mais dans quelques décennies, la même description conviendra à une autre crise mondiale : le changement climatique. Aussi horrible que soit cette pandémie, le changement climatique pourrait être pire », affirme-t-il. Il rappelle qu’en cas de catastrophe, il est dans la nature humaine de ne se soucier que des besoins immédiats. « Mais le fait que des températures considérablement plus élevées semblent lointaines dans le futur n’en fait pas moins un problème », indique Bill Gates. Le seul moyen d’éviter le pire est d’amplifier aujourd’hui les efforts à l’échelle planétaire. « Nous devons agir maintenant pour éviter une catastrophe climatique en créant et en déployant des innovations qui nous permettront d’éliminer nos émissions de gaz à effet de serre », note-t-il. Bill Gates compare les conséquences du Covid-19 et du réchauffement climatique. Le réchauffement, tout aussi mortel que le Covid Selon lui, il faut se baser dans ce calcul sur le taux de mortalité qui, selon lui, est de 14 pour 100 000 personnes. Au cours des 40 prochaines années, la montée des températures pourrait accroître le taux de mortalité du même montant : 14 décès pour 100 000 habitants. Mais par la suite, le chiffre pourrait augmenter. « D’ici 2060, le changement climatique pourrait être tout aussi mortel que le Covid-19, et d’ici 2100, il pourrait être cinq fois plus mortel », indique-t-il. Pour remédier à la situation, il estime vital de mettre la science et l’innovation au service du monde et s’assurer que « les solutions fonctionnent également pour les pays pauvres ». En outre, il s’agit de « commencer maintenant ». « Contrairement au nouveau coronavirus, pour lequel nous devrions avoir un vaccin l’année prochaine, il n’y a pas de solution rapide pour le changement climatique », souligne-t-il. Il faudra des décennies pour développer et déployer toutes les inventions d’énergie propre dont l’humanité a besoin, fait encore remarquer Bill Gates.
true
L’ensemble de la presse est unanime le soir du 17 septembre 2019 : si on ne fait rien, il fera 7 degrés de plus sur la Terre en 2100. Ce sont les modèles qui le disent, donc c’est du lourd. Peu importe qu’ils soient déjà un degré plus chaud que la réalité actuelle : ils seront encore plus chauds. Précédemment, ils étaient faux parce que trop froids par rapport aux derniers calculs (ils prévoyaient 4,5 degrés) qui viennent de sortir. Mais maintenant, avec sept degrés, ils sont justes, c’est juré. Même si pour l’instant, ils sont trop chauds. Peu importe qu’on ait fait un degré en 150 ans ; dorénavant, on fera six en 80 ans, soit 0,75 degré tous les dix ans, une accélération d’un ordre de grandeur… Vous savez, les hydrates de méthane marins, le méthane des sols gelés, tout ça quoi… Le ridicule ne tue plus dans les labos. Les scenarii du GIEC sont basés sur plusieurs hypothèses d’évolution des concentrations en CO2 dans l’atmosphère (donc de nos émissions) baptisées RCP 2,6, RCP 4,5, RCP 6 et RCP 8,5. Les chiffres correspondent à une puissance en W/m2 qui intervient dans le calcul des élévations de température planétaire correspondantes. Cette puissance est le « forçage » dû au CO2, lui-même défini par une analyse technico-économique de ce que seront nos émissions… à 2100, il faut une foi d’enfer pour y croire…. LE SCÉNARIO EXTRÊME Le RCP 8,5 est le scénario extrême. Il a été défini en prenant les hypothèses les plus pessimistes pour tous les facteurs entrant dans la prévision. (En 2100 une population de 12 milliards, peu de développements technologiques, une croissance faible du PIB, une utilisation intensive de l’énergie avec de fortes émissions. (Detlef P. van Vuuren et al, Climatic Change, Nov 2011.) En fait, ce qui était au départ une hypothèse académique d’étude aux limites (worst case) a glissé vers un statut de scénario de continuité ; business as usual. Et cela donne la figure ci-dessous : Et c’est évidemment le scénario 8,5 qui remporte la Une des médias. Il est exponentiel. On peut avoir une discussion sur les énergies fossiles disponibles, qui peuvent singulièrement tronquer la courbe. Mais on entrerait sur un débat genre peak oil qui serait difficile à arbitrer… Kevin Murphy, un économiste, a lui utilisé une méthode classique d’analyse pour étudier la crédibilité du scénario 8,5. L’approche de Murphy est une approche système qui se fiche des hypothèses et se base sur une méthode assez utilisée dans des domaines très variés, à partir d’une fonction logistique issue d’observation de process similaires à ce qu’on pourrait attendre des évolutions énergétiques : des substitutions progressives au fur et à mesure des progrès et ruptures technologiques.( J.C. Fisher & R.H. Pry in their landmark forecasting paper, A Simple Substitution Model of Technological Change. ) Cette méthode stipule que le taux de croissance (ici de nos émissions) croît d’abord exponentiellement, atteint un pic et redescend vers une asymptote. Si on étudie le taux de croissance historique du CO2, on voit que nous sommes dans la portion de courbe où il n’y a plus d’accélération, mais pas encore au niveau du pic. Cela donne la courbe ci-dessous. On voit bien aussi que l’hypothèse RCP 8,5 ne colle pas avec un phénomène de substitution à long terme tel qu’il est analysé généralement. Le paramétrage de la courbe logistique donne une concentration de CO2 en 2100 de 654 ppm, alors que RCP 8,5 donne 936 ppm. En fait, le scénario de référence devrait être proche de RCP 6. UNE RUPTURE HISTORIQUE Surtout, la courbe d’évolution des taux de croissance montre que pour atteindre RCP 8,5, il faut une rupture complète par rapport à l’évolution historique. Or, tous les calculs des objectifs à ne pas dépasser en température sont basés sur 936 ppm, voire plus. L’étude citée plus haut montre que cela a une probabilité très faible de se produire. On pourrait dire que la courbe logistique est justement le résultat des efforts des COP diverses pour trouver des moyens de réduire nos émissions. En réalité il n’en sera rien : en contexte libéral et démocratique, ces efforts se feront sous des contraintes financières liées aux marchés, et pas aux réglementations. Ils dépendront essentiellement d’avancées technologiques, parfois en rupture, et donc peu prévisibles. Cela ne sert à rien d’essayer de les provoquer à grands frais si l’environnement technique n’y est pas prêt. C’est de l’argent, du temps, des ressources utilisées en pure perte. Et un frein à l’accession à la prospérité des peuples. S’agissant d’une « menace » à long terme et incertaine, on doit la relativiser. C’est ce que font les économistes depuis toujours, cela s’appelle un taux d’actualisation. C’est le message que rabâche depuis de nombreuses années l’économiste et statisticien danois Bjorn Lomborg. Ainsi, les objectifs de limitation de montée en température planétaire sont non seulement entachés de l’incertitude sur la sensibilité climatique elle-même (la fourchette indiquée par le GIEC est entre 1,5 degré et 4,5 degrés pour un doublement du CO2) mais aussi sur des hypothèses d’évolution « naturelle » des concentrations en CO2 irréalistes. Mais les sauveurs de la planète pourront dire que la limitation des émissions à 654 ppm, c’est bien grâce à eux. Et pour peu qu’on soit sur la fourchette basse de la sensibilité climatique (ce qui semble actuellement le résultat le plus fréquent des dernières études), on réussira l’objectif de l’accord de Paris. En 2100, Al Gore aura des montagnes de fleurs en permanence sur sa tombe, Jean Jouzel sera le héros de mangas cultes, et Emmanuel Macron peut être au Panthéon… Jean Cocteau disait : « Lorsque ces mystères nous dépassent, feignons d’en être les organisateurs » Réf : l’étude complète est ici https://judithcurry.com/2019/01/28/reassessing-the-rcps/
fake
par Jacques Henry. La parution du dernier rapport de l’IPCC que seuls quelques curieux courageux lisent comporte un résumé destiné aux décideurs politiques et celui-ci est un chef-d’œuvre de désinformation scientifique. Pour preuve le graphique ci-dessous qui est un résumé de tous les mensonges accumulés depuis la création de cet organisme. L’examen détaillé de cette illustration présentée par les « experts » de cet organisme onusien montre déjà trois fraudes : la disparition de l’optimum climatique médiéval (950-1250), ce qui a été observé depuis 1850 provenant essentiellement des analyses des carottes glaciaires réalisées au Dôme C en Antarctique sont erronées puisqu’il faut au moins 250 ans pour être certain que la glace s’est stabilisée, tous les spécialistes s’accordent sur ce point et enfin le segment vertical figurant sur la gauche de cette illustration indique « la plus chaude période depuis 100 000 ans ». Quels « proxys » ont été utilisés pour la construction de la courbe des faits « observés » depuis 1850, personne n’est capable d’apporter des précisions. Tout est faux dans ce graphique. Au cours du Dryas récent, il y a 15 000 ans les températures étaient supérieures de plus de 2 degrés à celles d’aujourd’hui. La fameuse courbe en crosse de hockey a donc de nouveau fait son apparition et ce rapport est encore une fois un instrument de propagande pour que les décideurs politiques se trouvent libérés de toutes contraintes pour imposer des mesures dévastatrices de sobriété énergétique. En effet, ce graphique ne figure que dans le résumé à l’usage des décideurs politiques mais est absent du rapport lui-même selon l’analyste du climat Steve MnIntyre qui s’étonne de cette quasi forfaiture Ingrid Vesterlund, élue suédoise et membre du parti centriste, s’est émue de cette supercherie et a déclaré que ce rapport n’était qu’un pamphlet de propagande politique destiné à affoler les populations. Pour elle, ce qui ressort de ce rapport est qu’il est catastrophiste qu’il s’agisse du Soleil, de la pluie, du vent, de la mer ou de l’eau des rivières : tout est devenu source de préoccupation en raison du dérèglement climatique. Madame Vesterlund a été exclue de son parti pour propos mensongers et extrémistes, on croit rêver, quand elle a déclaré que ce document ne servait que l’agenda de l’ONU pour imposer à tous les peuples une baisse conséquente de leurs émissions de carbone (lien en fin de billet). Paradoxalement le président Biden a mis un frein à la production de gaz de roches mères et à la production de pétrole domestique et il a demandé aux membres de l’OPEP+ d’augmenter leur production car son pays allait de nouveau devenir importateur net d’hydrocarbures. Aussi longtemps que ces fonctionnaires de l’ONU continueront à être payés par les gouvernements du monde entier ils auront tout le loisir de produire des torchons indignes d’un scientifique honnête. On vit dans un monde étrange …
fake
Une étude sur la montée du niveau des océans révèle que certaines parties de l’Asie et du Moyen-Orient sont bien plus menacées que nous le pensions. De temps en temps, les climatologues publient une nouvelle étude qui précise à quel point la crise climatique est grave pour des millions de personnes dans le monde. L’un de ces articles a été publié dans Nature Communications par des scientifiques de Climate Central. L’article corrige ce qui était avant tout une erreur dans les données des calculs précédents quant au nombre de personnes qui sont exposées au risque d’une montée des eaux. Selon cette analyse, environ trois fois plus de personnes risquent d’être submergées par la montée des eaux que ce qui avait été rapporté précédemment – 150 millions de personnes vivent maintenant sur des terres qui se retrouveront en dessous des zones de pleine mer d’ici 2050. Et c’est un scénario optimiste, où le réchauffement est contenu à 2°C et où les calottes glaciaires ne s’effondrent pas dans un avenir proche. Dans un scénario plus pessimiste, les chiffres doublent pour atteindre 300 millions de personnes submergées d’ici 2050. Cela équivaut à peu près à toute la population des États-Unis submergée au cours des trois prochaines décennies. L’étude révèle qu’environ 70 % des personnes actuellement à risque se trouvent dans huit pays asiatiques : Chine, Bangladesh, Inde, Vietnam, Indonésie, Thaïlande, Philippines et Japon. Dès 2050, la majeure partie du Sud Vietnam pourrait disparaître à marée haute, ce qui mettrait 20 millions de personnes sous l’eau. En Thaïlande, 10 % de la population vit sur des terres qui seront inondées, contre 1 % actuellement. Une grande partie de Bangkok et de Mumbai [anciennement Bombay, NdT], deux centres financiers d’Asie qui abritent des dizaines de millions de personnes, risque d’être inondée dans les décennies à venir. Pourquoi cette importante réévaluation de notre perception du risque d’élévation du niveau de la mer ? Jusqu’à présent, le calcul du risque d’élévation du niveau de la mer dépendait largement de deux variables : premièrement, la vitesse à laquelle les émissions de carbone continueront d’augmenter, ce qui affecte la vitesse à laquelle le climat continue de se réchauffer ; deuxièmement, la réactivité des glaciers à cette augmentation, particulièrement dans la région occidentale de l’Antarctique qui représente la variable des projections futures en ce qui concerne la montée des océans (il en est beaucoup plus question dans The Big Melt, un nouveau livre audio sur ma dernière expédition en Antarctique). [La grande fonte : ouvrage non traduit, NdT] Cependant, une des variables largement négligée est la hauteur réelle des terres le long des côtes, ainsi que le nombre de personnes qui y vivent. Après tout, lorsqu’il s’agit de l’élévation du niveau de la mer, ce qui importe, ce n’est pas seulement la hauteur de l’eau, mais aussi la hauteur de la terre qui se trouve au niveau de l’eau. Trois pieds [91 centimètres, NdT] d’élévation du niveau de la mer dans le sud de la Floride, qui est une région basse, plate et densément peuplée, auront un impact beaucoup plus important que 3 pieds d’élévation le long de la côte élevée, rocheuse et peu densément habitée de l’Oregon et du Maine. Cela fait des années que les scientifiques savent que les mesures de relief des côtes sont approximatives. Les altitudes sont basées sur les données de la mission Endeavor de la navette spatiale de 2000, qui a utilisé un radar spatial pour créer une carte topographique du monde civilisé (l’Arctique et l’Antarctique en étaient omis). Cela a bien fonctionné dans certaines régions, mais le radar a souvent mal interprété la partie supérieure des bâtiments et la cime des arbres en les prenant pour la surface des terres, ce qui a entraîné des mesures altimétriques qui étaient décalées de 10 pieds ou plus [3 m et plus, NdT]. Et c’est un vrai problème lorsque l’on essaie de calculer le risque d’inondation, où même 6 pieds d’altitude entraînent de grandes conséquences. [1,8 m, NdT] Aux États-Unis, en Europe et en Australie, les problèmes de mesure de la hauteur des côtes ont été corrigés grâce au LIDAR (Light Detection and Ranging), qui est en fait une méthode pour tirer au laser depuis un avion pour mesurer le contour du sol. C’est beaucoup plus précis que les radars spatiaux, mais c’est aussi coûteux et prend beaucoup de temps. Mais il n’existait pas de données LIDAR accessibles au public pour l’Asie, l’Afrique et le Moyen-Orient, ce qui rendait difficile pour les scientifiques le calcul précis des risques d’élévation du niveau de la mer dans ces régions. C’était particulièrement un problème en Asie, où la région est basse et plate et où la végétation dense permettait de confondre facilement la cime des arbres avec la terre qui se trouvait au-dessous. « Dès 2014, nous savions que les données topographiques conduisaient à une forte sous-estimation du risque d’élévation du niveau de la mer », explique Ben Strauss, coauteur de ce rapport. « Nous avons passé quelques années à chercher de meilleures données. Puis, il y a trois ans, nous avons perdu patience. Au lieu d’attendre de meilleures données, nous avons décidé de le faire nous-mêmes. » Strauss et Scott Kulp, informaticien à Climate Central, ont en substance trouvé un moyen pour recourir à l’intelligence artificielle afin d’imiter le travail du LIDAR. Nous avons examiné 50 millions de points de données sur la côte américaine et avons dit à l’ordinateur : « Voici l’altitude, voici ce que le radar de la navette spatiale pense que la donnée représente, et donc fais un modèle qui répare l’erreur ». Strauss et Kulp ont comparé leur modèle aux données d’autres régions des États-Unis et de l’Australie, où ils disposent de données altimétriques précises et ont découvert le modèle d’IA (connu sous le nom de CoastalDEM) qui pouvait faire la correction précise des altitudes et à certains endroits cela allait de 10 pieds (3 m) à 1 pouce (2,5 cm). Lorsqu’ils ont réanalysé les données de la navette spatiale avec le nouveau modèle, les résultats ont été étonnants. Et pas dans le sens positif du terme. D’une part, Strauss et Kulp ont découvert que les variations au niveau des risques dues à des erreurs antérieures dans les données altimétriques « dépassent les effets combinés du niveau des émissions, du comportement de l’Antarctique, et de l’intégration des inondations annuelles, évalués en utilisant [les données de la navette spatiale] ». En d’autres termes, une simple correction des données altimétriques a éclipsé tout calcul de l’élévation du niveau des océans résultant de la quantité de combustibles fossiles que nous consommons, ou de leur augmentation si les grandes banquises deviennent aussi fragiles que certains scientifiques le craignent. Par exemple, l’analyse précédente des risques d’inondation à l’aide des données de la navette spatiale, dans le cadre de scénarios d’émissions élevées et d’instabilité en Antarctique, a révélé que 95 millions de personnes vivront sous la ligne de haute mer moyenne en 2100. Dans la nouvelle analyse, même avec un scénario de faibles émissions et des calottes glaciaires relativement stables, 190 millions de personnes vivront sous la ligne de flottaison. En d’autres termes, avec ces nouvelles données, même le meilleur scénario concernant les risques d’inondation futurs est deux fois plus mauvais que le pire scénario précédent. Les nouvelles ne sont pas toutes mauvaises dans cette étude. En positif, Strauss et Kulp ont constaté que 110 millions de personnes vivent déjà dans des zones situées sous le niveau de pleine mer, principalement derrière des digues et autres barrières. « Cela me laisse un certain espoir quant à notre capacité d’adaptation », dit Strauss, bien qu’il souligne également que ces barrières et digues ne seront probablement pas suffisantes à mesure que le niveau de la mer montera en flèche dans les années à venir. Aussi importante que puisse être cette étude, dit Strauss, « ce ne sont pas des résultats définitifs ». De nouveaux satellites dotés d’une meilleure technologie seront lancés au cours des prochaines années, ce qui ouvrira la voie à des mesures altimétriques plus précises depuis l’espace. Et l’étude ne tient pas compte de la nature dynamique de la terre elle-même, comme l’érosion qui se produit lorsque la mer monte. Ou le fait que, dans de nombreux endroits, les terres s’enfoncent rapidement, souvent à cause du pompage des eaux souterraines. L’étude fait également abstraction du fait que l’élévation du niveau de la mer n’est pas la même partout. Par exemple, de 2011 à 2015, une étude coécrite par Andrea Dutton, lauréate du prix MacArthur, a révélé que les mers ont augmenté trois fois plus vite que la moyenne mondiale sur certaines parties de la côte atlantique, en partie à cause des impacts d’El Niño. Comme la plupart des sciences du climat fondées sur des données, la chose la plus importante que l’étude laisse de côté est l’élément humain. Elle ne tient pas compte du type de nouvelles défenses qui pourraient être construites pour se protéger contre la montée des eaux – murs, barrières, digues. Ou comment les gens pourraient s’adapter d’autres manières, avec des canaux de type Venise ou des structures flottantes. Elle ne tient pas compte non plus des facteurs politiques et économiques, tels que la rapidité avec laquelle la valeur des propriétés diminuera à mesure que le risque d’inondation augmentera et l’impact que cela aura sur les recettes fiscales et les administrations locales. Ou à quel point les gens se battront pour rester sur leur terre en voie de submersion, même s’il est plus sensé de fuir. Ou, plus important encore, combien de millions de personnes seront déplacées, et où elles iront, et comment elles seront traitées par les gens qui vivent sur des territoires plus élevés. Il est impossible de penser à la submersion du sol sous les pieds de centaines de millions de personnes et de ne pas penser aux misères, à la souffrance, à la guerre. En fin de compte, le véritable facteur X de cette étude n’a rien à voir avec l’élévation du sol ou la montée des mers, et tout à voir avec les vastes mystères du cœur et de l’esprit humains.
true
Depuis lundi, des centaines d’affiches et de graffs à la craie invitant les maires à s’engager en faveur d’une alimentation plus végétale colorent les murs de nombreuses villes dont Lyon, Nantes, Le Mans ou encore Paris. Pour lutter efficacement contre les changements climatiques, Greenpeace France demande aux communes d’augmenter l’offre de menus végétariens dans les cantines tout en proposant une viande de meilleure qualité, produite localement. Photos des affichages mises en ligne ici : https://media.greenpeace.fr/1291 “Il est urgent de sortir de l’opposition stérile “menus végétariens contre produits carnés” explique Laure Ducos, experte Agriculture et Alimentation chez Greenpeace France. “L’Observatoire nationale de la restauration collective bio et durable a montré que les villes qui mettent en place des menus végétariens sont aussi celles qui investissent le plus dans de la viande bio et locale [1]. Il s’agit simplement de consommer moins et mieux de viande ! Tout le monde y gagne : la planète, notre santé et les éleveurs et éleveuses des territoires.” Cette campagne d’affichage nationale déclinée par une vingtaine de groupes locaux de Greenpeace intervient dans le cadre de l’entrée en vigueur de la loi EGalim (Etats Généraux de l’alimentation), qui impose à toutes les cantines scolaires de proposer au moins un repas végétarien par semaine aux enfants depuis le 1er novembre 2019. “Aujourd’hui, les enfants consomment entre 2 et 4 fois trop de protéines animales, un constat alarmant… surtout lorsque l’on sait que des représentants de l’industrie de la viande et des produits laitiers continuent d’influencer la composition des menus des cantines !” comme en témoigne une mise à jour d’un rapport de Greenpeace sur les lobbies de la viande sortie cette semaine [2]. Alors que les émissions de gaz à effet de serres liées à l’élevage représentent 14,5 % des émissions mondiales, Greenpeace France appelle l’ensemble des collectivités territoriales à mettre en place deux menus sans viande ni poisson par semaine dans les cantines, comme le font déjà Lille, Grenoble, Paris 2e, 19e et 11e ou encore Mouans-Sartoux, et invite les citoyennes et citoyens à rejoindre le mouvement Cantineverte.fr. À titre d’exemple, en instaurant un menu végétarien hebdomadaire supplémentaire dans l’ensemble de ses écoles scolaires (maternelles et élémentaires), la ville de Paris réduirait les émissions de gaz à effet de serre de ses cantines scolaires de 12% [3], soit 11.500 allers/retours Lille-Marseille en voiture. Notes aux rédactions [1] http://observatoire-restauration-biodurable.fr/sites/default/files/RESULTATS%202019%20-%20Observatoire%20de%20la%20restauration%20collective%20bio%20et%20durable.pdf [2] Cantines scolaires : les lobbies continuent de défendre leur bifteck, 2019 [3] https://parcel-app.org/
true
Maintenir la pression Mais attention : il ne s’agit pas d’une procédure de ratification en tant que telle. La ratification doit emprunter des voies nationales : dans la majorité des cas, la ratification de l’accord requiert l’aval de la représentation nationale de chaque pays, donc le vote du Parlement (quand il y en a un). L’accord de Paris est censé servir ensuite de principe directeur à des politiques publiques concrètes. L’enjeu de cette cérémonie est donc plutôt de donner de la visibilité à l’agenda climatique international, d’assurer une continuité et une mobilisation des diplomaties environnementales et de maintenir la pression sur les parties (les États membres de la COP). En somme, entretenir une dynamique. Pour que l’accord entre en vigueur au niveau international, il faut que les États qui le ratifient représentent au moins 55% des émissions de gaz à effet de serre (GES) mondiales. Pour l’instant, ce sont les États-Unis, la Chine et le Canada – lesquels devraient parvenir à une ratification cette année – qui poussent pour une entrée en vigueur la plus rapide possible de l’accord. Du côté des mauvais élèves, on trouve plutôt l’Australie (plombée par un gouvernement climato-sceptique), l’Inde (qui prétend avoir encore besoin des centrales à charbon pour soutenir sa croissance et résorber les inégalités extrêmes du pays) ou certains États pétroliers du Proche-Orient. Les choses risquent également de traîner du côté de l’Union européenne : il faut que les 28 États membres se mettent d’accord. L’ONU prévoit cependant un nombre record de signataires (autour de 160). Discours de Barack Obama à la COP21 © Christophe Calais / Signatures / Greenpeace D’accord mais insuffisant Rappelons que l’Accord de Paris fixe comme objectif de maintenir la hausse des températures mondiales en-deçà de 1,5°C d’ici à la fin du siècle. Il prévoit aussi que les parties devront se retrouver dès 2018 pour renforcer leurs contributions nationales à la lutte contre le réchauffement climatique ; l’accord doit entrer en vigueur en 2020 au plus tard. Il crée donc un agenda et sécurise un espace multilatéral de discussion et de coordination. Mais le texte ne contient pas grand-chose d’autre. Il continue de s’appuyer sur les contributions libres de chaque État, lesquelles nous placent au mieux sur une trajectoire de 3°C d’augmentation des températures d’ici à la fin du siècle, alors que pendant ce temps-là, les records de chaleur [EN] ne cessent de se succéder. Il parle de “neutralité carbone”, ce qui ouvre la porte à tous les délires en matière de géo-ingénierie et de captation du carbone émis, au lieu de nous orienter clairement vers une sortie pourtant urgente et nécessaire des énergies fossiles qui sont les principales émettrices de GES. Des secteurs très polluants, comme le transport aérien (ou maritime), restent d’ailleurs en dehors du périmètre de l’accord. Enfin, il n’organise pas une solidarité financière internationale susceptible d’aider suffisamment les pays pauvres dans leur adaptation aux changements climatiques. Il est donc urgent que chaque État s’engage dès à présent dans des politiques environnementales plus ambitieuses, en commençant par stopper toute subvention au secteur des énergies fossiles – 80% des ressources connues doivent impérativement rester dans le sol pour avoir une chance d’atteindre l’objectif fixé par l’accord. Laurent Fabius, alors président de la COP21, lors du coup de marteau final à Paris © Christophe Calais / Signatures / Greenpeace La France à la traîne sur la transition énergétique On attend toujours un pas dans la bonne direction du gouvernement français, qui tiendra la dernière conférence environnementale du quinquennat dans la foulée de la cérémonie new-yorkaise. Les signaux ne sont pour l’instant pas bons. Car si la transition énergétique vers les énergies renouvelables semble s’accélérer au niveau mondial, ce n’est pas le cas en France, où la filière nucléaire pourtant en perdition, incapable de faire face aux enjeux de compétitivité économique, de sûreté et de sécurité, reste un verrou à la transition. La France est toujours en retard sur ses voisins européens : dans le dernier classement européen publié en 2015, la France est 16e et a reculé de trois rangs depuis 2010. Rappelons que pour tenir les prescriptions scientifiques, il faut que la planète ait basculé vers 100% d’énergies renouvelables d’ici à 2050. Dans cette optique, il est important que la Programmation pluriannuelle de l’énergie (PPE), qui doit mettre en musique la loi sur la transition énergétique votée l’année dernière, engage réellement une sortie du nucléaire pour aller vers un déploiement massif des énergies renouvelables (croissance record en 2015, avec des investissements à hauteur de 300 milliards d’euros dans le monde) – ce qui ne semble pas vraiment se dessiner à l’heure actuelle. Une feuille de route doit voir le jour début juillet 2016. Or l’équation est claire : pour parvenir à réduire la production nucléaire à 50% du mix électrique français d’ici à 2025, comme le prévoit la loi, il faut fermer 29 réacteurs. Des éoliennes en Chine © Greenpeace Changer la donne sur les transports et la fiscalité En outre, peu de choses vont vraiment dans le bon sens en ce qui concerne le secteur des transports, responsable de 27% des émissions de GES en France : beaucoup de lignes ferroviaires sont abandonnées au profit du transport routier, aucun plan de déploiement massif des transports collectifs n’est à l’ordre du jour, et des projets obsolètes comme l’aéroport de Notre-Dame-des-Landes sont toujours à l’agenda, malgré des tentatives de bricolage référendaire inacceptables. Par ailleurs, l’État français continue de soutenir le secteur fossile à l’étranger, notamment via des institutions financières internationales. Rappelons également qu’ENGIE et EDF possèdent encore une cinquantaine de centrales à charbon, qu’elles se refusent toujours à fermer. En outre, Total vient de récupérer son autorisation d’exploration d’hydrocarbures non conventionnels à Montélimar. Enfin, la fiscalité écologique de la France n’est toujours pas au niveau. La “contribution carbone” actuelle, fixée à 22 euros par tonne de carbone, ne permet pas de contrer la baisse du prix du baril de pétrole. Trop de niches fiscales permettent à certains secteurs d’éviter de payer cette taxe, et certaines entreprises n’y sont pas soumises au prétexte qu’elles respectent les quotas européens qui fixent la tonne à seulement… cinq euros. Autrement dit, la fiscalité actuelle n’est pas à même de transformer réellement notre modèle économique. La société civile décisive La société civile doit donc rester active, vigilante et mobilisatrice pour que, d’une part, les efforts internationaux entamés lors de la COP21 perdurent et se renforcent, et que d’autre part chaque État, chaque région, chaque commune, bref chaque échelon de la société se tourne résolument vers des modes de production et de consommation compatibles avec une préservation durable de l’environnement. Pendant la marche mondiale pour le climat à Helsinki, en novembre 2015 © Jani Sipilä / Greenpeace Nous n’avons pas le choix. Car sans pression venant de la société civile, des citoyens engagés, les pouvoirs en place ne prendront pas leurs responsabilités. La crise écologique est un enjeu démocratique.
true
Fonte des glaces au Groenland © Greenpeace / Nick Cobbing Le seuil des 2°C, enjeu principal Rappelons d’abord que l’enjeu principal de l’accord à Paris est de parvenir à contenir l’augmentation des températures en deçà des 2°C – voire 1,5°C si l’on en croit les dernières études scientifiques. Ce qui implique grosso modo deux choses : 1) engager une transition énergétique mondiale, en finir avec les énergies fossiles et s’engager résolument en faveur du développement des énergies renouvelables, et 2) organiser un soutien financier aux pays en développement qui font d’ores et déjà face à toutes sortes de cataclysmes climatiques. Car le dérèglement climatique tue d’ores et déjà – et les Etats du nord ont une responsabilité proéminente dans cet état de fait. Des contributions nationales insuffisantes Pour le moment, 150 Etats ont publié leur contribution, leur feuille de route. Mais elles sont insuffisantes. Additionnées, les mesures sur la table nous placent plutôt sur une courbe de +3,5 °C. Quelques bons élèves : le Costa Rica, l’Ethiopie, quelques îles menacées par la montée des eaux. Mais en face, les gros pollueurs affichent un manque flagrant d’ambition. L’objectif d’un accord de Paris, c’est de créer un cadre clair qui permette de s’assurer que ces contributions ne seront que des points de départ, régulièrement évalués et revus à la hausse, même avant 2020 (date de l’entrée en vigueur de l’accord), et que les Etats seront effectivement redevables des engagements pris. Mais le brouillon reste trop frileux et très fragile sur ces enjeux majeurs. Tensions nord/sud Le G77, coalition des pays les plus vulnérables au bouleversement climatique, s’est ému des déséquilbres contenus dans le texte présenté par les co-présidents des négociations, tant il ne reflétait pas leurs préoccupations en matière d’adaptation, de financements, de “pertes et dommages”… Bref, du peu de place de la notion de justice climatique. Le brouillon d’accord a donc été amendé pour inclure les demandes du sud. Fresque murale pour la justice climatique sur les îles Tuvalu, menacées par la montée des eaux © Steven Lyon / Greenpeace S’il est plus long et moins clair que la précédente mouture, il est néanmoins accepté par tous les Etats comme une base de négociation, et il prend en compte des options plus ambitieuses. Mais il reste cependant trop flou pour le moment, et fragilisé par le jeu de “poker menteur” des Etats et les embûches semées par les producteurs de pétrole et les lobbyistes privés, qui défendent en coulisse des intérêts à court terme. En outre, la question de sa portée juridique – sera-t-il contraignant ? – n’est pas encore tranchée. Quel objectif pour quelle échéance ? Concernant les demandes spécifiquement portées par Greenpeace, le compte n’y est pas. A grands traits, deux enjeux majeurs concernent ce texte : quelle est la nature de l’objectif de long terme qu’il se donne et quelle est l’échéance qu’il prévoit pour s’y tenir. Sur la nature de l’objectif, les négociateurs refusent de parler d’une sortie des énergies fossiles et d’une transition vers un monde alimenté à 100% par des énergies renouvelables – un comble. Pour autant, le désastre complet a été évité puisque le texte parle à nouveau de “décabornisation” – si le texte s’en tenait à demander une simple baisse des gaz à effet de serre sans s’avancer sur les changements structurels à mener, il serait totalement vain. Mais encore faudrait-il préciser quelle décarbonisation pour ne pas sombrer dans de fausses solutions comme le nucléaire. Second enjeu : l’échéance. Pour l’instant rien n’est fixé. Mais l’option d’une échéance à 2100 – quand il sera définitivement trop tard – est malheureusement encore sur la table. D’autres options au contraire s’inscrivent dans notre démarche, à savoir un objectif de long terme à 2050. Rappelons-le : plusieurs scénarios scientifiques démontrent qu’une transition vers 100% de renouvelables en 2050 est parfaitement possible. Question de volonté politique. Des éoliennes offshore au large du Royaume-Uni © Ashley Cooper / Greenpeace Le financement de la transition et de l’adaptation, question cruciale La question financière sera peut-être la plus polémique à Paris. Il s’agira de discuter d’une réorientation des investissements et des subventions publiques qui dessinent les évolutions économiques, mais aussi de l’importance du financement des efforts d’adaptation des pays les plus vulnérables. Rappelons qu’engager une transition énergétique conséquente demande des investissements publics de taille – auxquels les pays en développement devront eux aussi souscrire. Pour cela, il faut que des transferts financiers effectifs circulent du nord vers le sud afin d’aider les pays défavorisés face aux nouvelles contraintes climatiques, ce sur quoi certains pays industrialisés commencent déjà, malheureusement, à ergoter. Cet enjeu recoupe la question transversale des négociations, à savoir celle de la “différenciation” entre pays dit “développés” et pays “en développement”, ce qui implique des responsabilités et des contributions différentes. La notion de “différenciation” conditionne ainsi l’acceptabilité des populations et des gouvernements quant aux efforts à engager. Total manœuvre Le dernier round à Bonn a aussi mis en évidence l’offensive des pétroliers sur les négociations. Le « Plan d’action Lima-Paris », héritage du Sommet sur le climat de septembre 2014 à New York, est un dispositif conduit par les présidences péruvienne de la COP20 et française de la COP21, le secrétariat de la Convention-Cadre des Nations unies sur les changements climatiques (CCNUCC), et le Secrétariat général des Nations unies. Il vise à regrouper et mettre en valeur les initiatives portées par des entreprises, collectivités, organisations internationales, ONG. Et, selon les décisions prises pendant la COP à Paris, cet Agenda « parallèle » pourrait en fait se retrouver institutionnalisé comme espace au sein de la Convention. Or nous avons appris que Total et les autres multinationales de l’énergie et du gaz qui prétendent s’engager pour le climat – sans pour autant prévoir de geler leurs réserves d’énergies fossiles – pourraient être acceptés dans le dispositif ! Greenwashing et lobbying à tous les étages. De mauvais augure. Action contre de nouvelles explorations pétrolières en Nouvelle Zélande © Greenpeace / Fraser Newman Manque de transparence Enfin, cette dernière session a vu les relations entre les Etats et la société civile se tendre. En effet, à la demande du Japon, les négociations se sont déroulées à huis-clos, à l’écart des ONG. Ce qui pose la question de la façon dont la COP va être gérée à Paris : un tel manque de transparence est inacceptable. Rappelons que Greenpeace, parmi d’autres ONG, a un statut d’observateur au sein de la CCNUCC (ONU) et qu’il est dans ses prérogatives de pouvoir témoigner de ce qui se déroule au sein de ces négociations. Car le climat concerne tout un chacun : c’est un enjeu démocratique. Prochaines étapes Il reste 6 semaines jusqu’à Paris : on sait déjà que l’accord ne sera pas pleinement satisfaisant, mais il doit a minima proposer un chemin qui va dans la bonne direction. Dans les semaines qui viennent, les sujets tendus vont être discutés à haut niveau, dans les ministères et à plusieurs occasions (G20, pré-COP juste avant l’ouverture des négociations officielles, etc). Charge à nos décideurs politiques de trouver des compromis ambitieux, au lieu de s’en remettre systématiquement au plus petit dénominateur commun. S’engager En début de semaine, la planète a connu l’ouragan le plus puissant jamais enregistré. Face à l’inertie des négociateurs, il va falloir un mouvement citoyen de même ampleur pour renverser la table. Rendez-vous à nos côtés les 28/11, 29/11 et 12/12 pour donner de la voix !
true
Étonnant paradoxe. C’est au beau milieu d’une intense polémique sur sa crédibilité que le Groupe intergouvernemental d’experts sur l’évolution du climat (GIEC) a lancé, mercredi 10 février, son appel à auteurs pour la rédaction de son prochain rapport, prévu pour 2014. Depuis près de deux mois, le GIEC subit une rafale de critiques. D’abord accusé d’avoir commis des erreurs dans son dernier rapport (2007), il a vu son président, l’Indien Rajendra Pachauri, mis en cause pour des conflits d’intérêts présumés entre son poste à la tête du panel d’experts et ses fonctions de directeur d’un centre de recherche. Puis jeudi, la revue Nature a ouvert ses colonnes à cinq climatologues, dont quatre proposent de réformer profondément l’institution. Le GIEC dans la tourmente, c’est l’un des deux piliers sur lesquels s’appuient les gouvernements pour forger leur opinion sur le danger climatique qui vacille. Car, à côté des documents du GIEC, le rapport de l’économiste britannique Nicholas Stern n’est jamais loin. Commandé par le premier ministre Tony Blair, son rapport publié en 2006, L’Economie du changement climatique, constitue le travail le plus ambitieux réalisé jusqu’alors sur les possibles impacts du réchauffement. Avec des conclusions pour le moins inquiétantes : à défaut d’une action rapide, le changement climatique pourrait coûter chaque année de 5 % à 20 % de la richesse mondiale. L’exercice du GIEC et celui de M. Stern ne sont pas à mettre sur le même pied. Quand le premier est censé refléter un consensus objectif de la communauté scientifique, le deuxième exprime un point de vue personnel tout à fait assumé. Mais ils ont en commun d’alerter sans ambages sur les périls du réchauffement. Quitte à se voir soupçonnés d’alarmisme. Qu’en est-il ? Une erreur grossière, dans le dernier rapport du GIEC, donnant les glaciers himalayens - châteaux d’eau de l’Asie - pour quasi disparus en 2035, a réactivé cette critique déjà ancienne. D’autant que ce chiffre, alarmant et erroné, a été largement repris dans les médias depuis plus de deux ans, pour justifier de l’urgence à agir. Le GIEC a reconnu la réalité de cette erreur, mais se défend de tout pessimisme exagéré et ne reconnaît pas comme fondés les autres reproches qui lui sont adressés depuis deux mois. Pour sa part, Nicholas Stern, qui n’a jamais cessé d’être la cible de critiques virulentes pour les hypothèses iconoclastes sur lesquelles il fonde son travail, maintient ses conclusions. Se reprochant même d’avoir été "trop optimiste", en sous-estimant les dangers. Image écornée Fondées ou non, les critiques qui pleuvent arrivent dans le sillage du Climategate - cette affaire de piratage et de divulgation des courriels privés de climatologues, intervenue en novembre 2009. Pour l’heure, ces messages embarrassants n’ont donné lieu à aucune remise en cause de la science climatique mais ont durablement écorné l’image d’intégrité des chercheurs en climatologie. Cette atmosphère de rumeurs et de soupçons sur l’expertise scientifique risque de peser sur la poursuite des négociations internationales déjà bien mal en point après l’échec de la conférence de Copenhague (Danemark), en décembre 2009.
true
Je suis né et j’ai grandi à Paris. Je suis ce qu’on appelle un véritable « titi parisien » : l’odeur du métro, les façades des immeubles, le mobilier urbain et les monuments… Tout cela fait partie de mon ADN, tout cela résonne en moi plus que ce qu’aucun touriste, tout appréciateur de la capitale qu’il soit, ne peut comprendre. Bien que j’aie beaucoup vécu à l’étranger, que j’aie visité de nombreux pays sur les cinq continents, Paris reste pour moi la plus belle cité du monde. Ce lundi 15 avril, en fin de journée, je marchais dans le quartier Saint-Michel lorsque j’ai vu d’épaisses volutes de fumée s’élever dans le ciel parisien. Notre-Dame en feu ! Incrédule et angoissé, je me suis rapproché de l’Île de la Cité, espérant que l’impensable ne se produirait pas, que ce n’était pas ce vaisseau qui nous vient d’un autre millénaire qui se trouvait rongé par les flammes. Je ne décrirai pas le spectacle auquel j’ai assisté, ni l’émotion que cela a générée en moi. D’autres l’ont fait, je n’étais pas le seul : nous étions des centaines sur place, puis des milliers, à assister à la catastrophe. Vous étiez des millions à voir ces images sur vos écrans. Vous savez donc. Je suis resté deux heures, sidéré, sous le choc, la gorge serrée et les yeux humides au milieu d’une foule qui retenait ses émotions. Je ne pouvais pas croire qu’un tel symbole de l’immuabilité et de notre identité pouvait ainsi disparaître, telle une vulgaire grange de paille… Après le drame, un autre malaise Le soir, à la radio, les commentateurs ont commencé à évoquer la reconstruction de l’édifice. C’est là, très rapidement, qu’un second malaise m’a étreint : l’émotion générée par cet immense incendie avait un tel impact sur les gens que l’argent semblait couler à flot. J’ai réalisé que l’être humain semblait bien plus attaché à ses propres œuvres qui ne l’est à son environnement. L’impressionnante charpente de Notre-Dame, qui a nécessité tellement de bois qu’on l’appelait « la Forêt », n’est pas malheureusement la seule forêt à partir en flamme. Au début des années 2000, un ancien président français a dit « Notre maison brûle, et nous regardons ailleurs ». Cette « maison » c’est notre planète, bien évidemment. Et il est vrai qu’elle brûle. Je ne parle pas ici de ces centaines d’hectares de forêt qui partent en fumée quotidiennement pour que des plantations de palmiers fournissent l’huile nécessaire à certains de nos aliments. Je parle de la vingtaine d’espèces d’animaux et de plantes qui disparaissent chaque jour. Je parle de ces 75 % d’insectes volants disparus des aires protégées d’Europe en moins de 30 ans ; et du tiers des oiseaux disparus en France dans le même temps. Je parle de ces deux tiers des populations terrestres et de la moitié des populations marines disparus en moins de 40 ans. Je parle des centaines d’espèces rayées de la surface de la planète chaque année, depuis un siècle au moins. À jamais. Notre patrimoine naturel en danger La crise actuelle de la biodiversité, cette sixième « extinction de masse » des espèces vivantes dont on parle tant, ne semble pourtant pas toucher nos contemporains autant que le drame de Notre-Dame. Celle du changement climatique à peine plus. Pourquoi ? Pourquoi des milliardaires donnent-ils si rapidement des centaines de millions pour reconstruire un monument, et pas pour sauver les derniers rhinocéros noirs ? Pourquoi le Président lance-t-il immédiatement une souscription nationale, quand l’une des causes nationales de la France, pays doté d’une biodiversité parmi les plus riches au monde, devrait plutôt être de protéger les espèces sur ses sols ? Pourquoi la télévision nationale fait-elle immédiatement appel aux dons des Français, mais oublie si souvent d’informer sur les problèmes – et les solutions ! – qui concernent l’environnement ? Pourquoi les catholiques, sans doute profondément touchés, semblent-ils accorder plus d’importance à préserver la création de l’homme que celle de Dieu ? Pourquoi les Français, si fiers de leur intellect, de leur culture et de leur amour des belles choses, ne font-ils pas leur priorité des causes environnementales ? Notre-Dame constitue un patrimoine historique, spirituel et culturel vieux de 850 ans ; chaque espèce sur Terre représente un patrimoine vivant de 3 milliards et demi d’années d’évolution. Notre-Dame peut être reconstruite et renaître ; les espèces éteintes le seront à jamais. Nous dépendons de la biodiversité pour notre alimentation, pour nos matières premières, nos médicaments, notre climat, la fertilisation de nos champs et la pollinisation de nos cultures ; aussi pour notre plaisir, notre culture et notre spiritualité. Nous nous proclamons « l’espèce sage » (homo sapiens), l’espèce intelligente. Mais où est donc notre sagesse quand nous échouons à protéger notre plus grande richesse – et ce alors même que nous avons visiblement les moyens pour réagir vite et massivement ? Arrêter de détruire Il n’est d’ailleurs pas si juste de parler de « protection » : il ne s’agit pas en effet de protéger la biodiversité d’une entité extérieure, mais bien de nos actions. Il n’est donc pas question de commencer à protéger, mais bien d’arrêter de détruire. Nous détruisons la biodiversité autour de nous, par les flammes, les bulldozers et les chaluts. Par les fusils, par le pétrole et le plastique… par notre carte de crédit. Les responsables politiques, aujourd’hui tous unis dans cette émotion soulevée par la défiguration de Notre-Dame oublient le reste de leur mandat que leur responsabilité première est d’œuvrer pur notre futur et donc contre la destruction de la « cathédrale du vivant ». Certains diront qu’il est malvenu de critiquer la générosité des mécènes pour Notre-Dame, qu’il existe nombre d’autres causes pour lesquelles on pourrait regretter l’absence d’une telle largesse. Il reste que les plus fortunés se mobilisent rarement en faveur de la préservation du patrimoine naturel de l’humanité et la richesse inestimable de sa diversité biologique, à savoir les espèces vivantes. Au moment même où l’incendie ravageait Notre-Dame, plusieurs espèces se sont éteintes à différents endroits de la planète. Elles ne renaîtront pas de leurs cendres, mais on pourrait éviter d’éliminer celles qui se trouvent au bord du gouffre… Avec de la volonté et de l’implication, qui existent, on le sait désormais. Souvent, je me dis que c’est à nous, scientifiques – et aussi aux journalistes – que la responsabilité incombe : si nous n’arrivons pas à faire comprendre aux puissants et fortunés de ce monde à quel point la biodiversité est importante pour le bien-être et la survie de l’humanité et à quel point nous la détruisons irrémédiablement, alors comment leur reprocher de ne pas débloquer pour la défendre un milliard d’euros en 48 heures… Ce lundi 15 avril, j’étais triste de voir le toit de Notre-Dame partir en fumée. Mais aujourd’hui, je suis doublement triste : oui, il est possible de se mobiliser, mais on préfère le faire pour la pierre que pour la sève et le sang.
biased
Il était impossible d’échapper cette semaine au matraquage annuel autour de la « biocapacité » de la planète, un concept de pure comm’ destiné à nous inciter à l’autoflagellation hautement scientifique avec plein de chiffres partout (c’est dire si c’est sérieux). L’ONG Global Footprint Network compare l’exploitation des ressources naturelles et cette « biocapacité » de notre planète. Ce calcul montre que l’Homme prédateur se gave des trésors offerts par la Sainte Terre plus vite qu’elle ne peut les produire. Chaque année, l’ONG calcule en combien de jours sont utilisés les bienfaits dispensés par notre si généreuse planète en un an et annonce triomphalement la mort dans l’âme le triste résultat : en 2015, c’est au bout de seulement 225 jours que les ressources annuelles ont été dilapidées. Et le 225e jour de l’année, c’était le 13 août. Depuis cette semaine, qu’on se le dise : nous sommes en dette écologique. Les citoyens l’ignoraient sans doute, mais le Journalderéférence a publié cette sinistre nouvelle avec tout le recul et toutes les précautions qu’on lui connaît pour la dénonciation des invisibles cataclysmes causés par l’Homme, emportant le titre de cette semaine. Épargnant au lecteur des détails soporifiques trop techniques sur le calcul de la date fatidique, l’article insiste plutôt sur l’inexorable avancée de ce « jour de dépassement » et réussit à rattacher cet outil de propagande utile indicateur à la COP 2015. On apprend ainsi que « Rien que pour absorber les gaz à effet de serre émis par l’homme, 85 % de la biocapacité totale de la planète sont aujourd’hui nécessaires ». Rassurons tout de suite les lecteurs du Climathon, la notoire absurdité, l’incontestable crédibilité de ce pourcentage n’est aucunement discutée dans l’article du Monde, ce dernier confortant ainsi en toute légitimité son rôle envié de Pravda climatique de référence. Les accessits de la semaine La rigueur du jury du Climathon l’a conduit à étudier le traitement de la même information par une radio du service public : une courte dépêche sur le site internet de France Inter fournit un planisphère représentant les pays écologiquement créditeurs et débiteurs. On y apprend que l’empreinte écologique de la France est supérieure de 120 % à ses ressources naturelles, chiffre en contradiction avec celui du Journalderéférence qui annonce que la France consomme 1,4 fois ses capacités, soit un excès de 40 %. Bon, c’est vrai que 40 % ou 120 %, c’est à peu près pareil. Plus intrigant, on apprend dans l’article de France Inter que l’empreinte écologique de la Russie, de l’Australie, du Brésil et de bien d’autres est « inférieure de plus de 100 % » à leurs ressources naturelles. Ces pays sont certainement des membres fondateurs du Fonds Écologique International car ils créent des ressources naturelles ex nihilo. Le jury du Climathon remercie France Inter de nous informer qu’Obi-Wan Poutine est notre seul espoir pour nous sauver de nos turpitudes écologiques. Enfin, la période estivale est le moment de prodiguer quelques encouragements à des compétiteurs modestes mais méritants. Ainsi de Jean-Paul Baquiast pour son article de Médiapart. L’écrivain scientifique y regrette amèrement l’absence probable de James Hansen à la conférence COP21, sans doute après avoir oublié que le susnommé avait souhaité l’échec de Copenhague en 2009. Après avoir rappelé, objectivement et sans alarmisme aucun, que « des scientifiques éprouvés considèrent aujourd’hui que même si la hausse restait en deçà de la limite des 2°, des effets terriblement destructeurs se produiraient d’ici 2100 : hausse minimum de 10m du niveau des mers, tempêtes d’une force jamais éprouvée à ce jour de mémoire d’hommes…« , M. Baquiast insiste sur « la rigueur morale et professionnelle indiscutable » du Dr Hansen. Rappelons en effet que celui-ci a émis des prévisions particulièrement foireuses précises pendant toute sa carrière, notamment ses remarquables projections des années 1970 qui tablaient sur un refroidissement généralisé. Il a également maintes fois prouvé sa rigueur morale et scientifique par ses affirmations totalement détachées de toute forme d’action politique. Un joli exercice de postmodernisme de la part de notre nominé, donc, qui met habilement en regard la pratique d’un James Hansen (introduire la politique dans une analyse supposée scientifique) avec celle de son propre article qui présente la « science » selon le point de vue d’un professionnel de la haute administration. — Sur le web
fake
Des scientifiques norvégiens ont découvert une zone «sombre» sur la calotte glaciaire au Groenland où la glace fond très rapidement. Cela a un impact sur l’augmentation du niveau de la mer et fait craindre l’inondation de vastes zones côtières à travers le monde, relate le Science Alert. Des scientifiques norvégiens ont découvert une zone «sombre» sur la calotte glaciaire au Groenland, formée par une couche de poussière et de suie. Comme la glace fond rapidement dans cette zone, ce processus pourra avoir des répercussions sur l'augmentation du niveau de la mer en créant des risques d'inondation de vastes zones côtières partout à travers le monde, lit-on dans le Science Alert. Selon le journal, la longueur de la zone «sombre» est de 400 kilomètres, sa largeur maximale étant de 100 kilomètres. Des algues foncées poussent sur ce territoire, ce qui change la couleur de la glace. En conséquence, la glace perd sa capacité à refléter les rayons du soleil et ainsi fond plus rapidement. À son tour, l'eau contribue à la croissance des algues, à cause desquelles la zone «sombre» augmente. Ainsi est enclenché un mécanisme qui s'auto-alimente, faisant s'accélérer la fonte de la glace. Selon les experts, la contribution la plus importante à la réduction du volume de glace provient des suies consécutives aux feux de forêt et d'autres processus de combustion. Elles sont responsables de 73% des changements de la capacité de la surface de la glace à refléter les rayons du soleil.
true
Royaume-Uni. Le port de Douvres bloqué par des militants écologistes Des militants écologistes ont bloqué l’accès au port de Douvres ce vendredi 24 septembre 2021, pour réclamer une meilleure isolation des logements sociaux au Royaume-Uni. Des militants écologistes ont bloqué vendredi matin l’accès au port ferry de Douvres, causant des perturbations autour de cette importante porte d’entrée maritime dans le sud de l’Angleterre pour le commerce avec l’Union européenne. Le groupe Insulate Britain, qui a déjà bloqué plusieurs fois le périphérique de Londres ces derniers jours, réclame une meilleure isolation des logements au Royaume-Uni afin de lutter contre le changement climatique. Il a indiqué dans un communiqué que plus de 40 manifestants avaient bloqué l’autoroute A20 près du premier port transmanche britannique, face à la France. La police du Kent a confirmé une manifestation qui entraîne des perturbations du trafic à Douvres le long de l’autoroute A20. Dans un communiqué, elle a précisé avoir procédé à 17 arrestations et dégagé deux des trois endroits où le trafic était bloqué, ajoutant tenter de réduire les retards. À la mi-journée, les autorités portuaires ont indiqué sur Twitter que le trafic entrant et sortant du port avait repris lentement, demandant aux voyageurs de prévoir davantage de temps pour leur déplacement. Nous sommes désolés pour les perturbations que nous occasionnons. Cela semble être l’unique manière de maintenir la question de l’isolation à l’ordre du jour et d’attirer l’attention sur le fait que des logements mal isolés entraînent mauvaise santé, misère et mort prématurée pour des milliers de personnes, a déclaré un porte-parole d’Insulate Britain dans un communiqué. Multiplication des actions Cette action intervient dans un contexte mouvementé au Royaume-Uni, confronté à des problèmes d’approvisionnement en carburants mais aussi dans les supermarchés, en raison d’un manque de chauffeurs routiers. Depuis la mi-septembre, Insulate Britain avait déjà bloqué à cinq reprises le périphérique de Londres, l’autoroute M25, la plus fréquentée du Royaume-Uni, provoquant des confrontations avec les automobilistes. Ils se sont notamment collés au bitume ou y ont déversé de la peinture bleue. Ces manifestants risquent désormais des sanctions allant jusqu’à deux ans de prison en vertu d’une injonction de justice annoncée mercredi par le gouvernement, très remonté contre ces actions. Malgré cette menace de sanctions plus sévères, Insulate Britain a indiqué qu’il poursuivra ses actions tant que le gouvernement ne se sera pas engagé à financer l’isolation de tous les logements sociaux d’ici 2025 et qu’il n’aura pas présenté un programme de modernisation de tous les logements d’ici 2030. S’ajoutant à une série de manifestations d’Extinction Rebellion ces dernières semaines, ces actions interviennent à l’approche de la conférence sur le climat COP26 prévu début novembre en Écosse, pour laquelle d’importants moyens policiers sont prévus.
true
La découverte avait de quoi donner des haut-le-coeur. 50 000 litres de déchets ont été déversés à cinq emplacements différents dans la forêt de Fontainebleau, rapporte Le Parisien. Des promeneurs ont découvert lundi l'immense dépôt sauvage et l'Office national des forêts (ONF) et le SMICTOM, le syndicat de collecte des ordures ménagères du Pays de Fontainebleau, se sont chargés ce mercredi de déblayer l'équivalent de 400 baignoires de sacs-poubelle, explique le journal. "C'est du jamais-vu ici", assure au Parisien la cheffe du service accueil et biodiversité à l'ONF de Fontainebleau, Gaëtane Hay. Si l'ONF recense chaque année "400 dépôts sauvages de déchets", ceux-ci représentent en moyenne un mètre cube de déchets. Cette fois, la quantité était si importante que les policiers ont répondu mardi à l'appel de l'ONF à venir inspecter les lieux. Pour l'heure, les premiers éléments montrent que les déchets ont été abandonnés par un professionnel qui les transportait dans un camion benne, les déchets n'étant pas "compactés" comme s'ils sortaient d'un camion poubelle, précise auprès du Parisien Pascal Gouhoury, président du SMICTOM. Au milieu des sacs recouverts d'asticots se trouvent aussi des conteneurs sur lesquels on lit "Agglomération Melun Val de Seine", ajoute le journal. De leur côté, les policiers ont notamment saisi les "nombreux sacs à main présents" au milieu des déchets pour voir s'ils n'auraient pas été volés, a ajouté Gaëtane Hay au Parisien. Les responsables de ces dépôts sauvages risquent jusqu'à 75 000 euros d'amende, deux ans de prison ainsi qu'un retrait du permis de conduire. Les promeneurs, eux, peuvent revenir se balader sans se boucher le nez.
true
Paris, le 10 juin 2011 – La décision est tombée hier en fin d’après-midi à Amsterdam : Cairn Energy – l’entreprise écossaise que Greenpeace tente d’empêcher d’effectuer des forages dans la très fragile région arctique – a eu gain de cause auprès du juge qui a décidé d’une injonction contre Greenpeace. Le magistrat n’a pas suivi les souhaits de la société de forage et a réduit le montant des amendes demandé. Cairn Energy réclamait une amende de 2 millions d’euros dès qu’un militant de Greenpeace s’approcherait à moins de 500 m de sa plateforme ; le juge a abaissé ce montant à 50 000€ par jour (le total ne pouvant dépasser un million). « Cette injonction ne nous arrêtera pas, déclare Anne Valette, chargée de campagne Climat/Énergie pour Greenpeace France. Cairn Energy peut bien recruter tous les avocats de la planète, nous continuerons à lutter contre la venue des compagnies pétrolières dans l’Arctique. La bataille contre les forages en Arctique ne fait que commencer et va se poursuivre aussi bien en haute mer, que devant les tribunaux, dans la rue et dans les urnes. » Pas de plan d’urgence en cas de marée noire en Arctique Par ailleurs, le juge hollandais a déclaré que « les craintes du public quant aux risques de tels forages sont réelles » et souligné que la campagne de Greenpeace a permis enfin « d’attirer l’attention du grand public sur ces risques ». Il a également demandé à la compagnie pourquoi elle ne rendait pas public son plan d’urgence détaillant toutes les mesures qu’elle déploierait en cas de marée noire, chose que réclame Greenpeace. L’avocat de Cairn a répondu ne pas savoir et a avancé ensuite que c’était sans doute parce que les autorités et la législation du Groenland n’autorisaient pas la publication de ce document. Après vérification auprès de sources juridiques, rien dans la loi groenlandaise ne pourrait justifier une telle interdiction. « La raison pour laquelle ils refusent de le publier est très simple : les experts estiment qu’aucun plan d’urgence ne serait efficace car les dégâts d’une marée noire dans l’Arctique seraient irréparables », reprend Anne Valette. Greenpeace a déposé une plainte auprès du Parlement du Groenland pour ne pas avoir eu accès à ce plan. Jusqu’à présent, le bureau des Mines et du pétrole du Groenland n’a rendu public que deux documents sur les 17 auxquels Greenpeace aurait du légalement avoir accès. Cairn Energy tente de bâillonner Greenpeace Depuis six semaines, Greenpeace mène campagne contre la société de forage écossaise et déploie une série d’actions contre sa plateforme géante Leiv Eirikson, depuis le détroit des Dardanelles jusqu’à l’ouest du Groenland. Cette semaine, Cairn a fini par sortir l’arme juridique lourde, suite à deux opérations qui ont vu, en une semaine, deux activistes enfermés dans une tente de survie suspendue à la plateforme bloquer le forage pendant 4 jours, puis 18 autres militants passer à l’abordage du Leiv Eirikson. La ruée vers l’Arctique : vers un désastre écologique Au mépris de toutes les règles qui doivent s’appliquer aux industriels, Cairn refuse de publier ces plans car il lui est tout bonnement impossible de démontrer qu’il peut faire face à une catastrophe pétrolière en Arctique. « De nombreux groupes pétroliers sont sur les rangs pour exploiter les réserves de cette région et chercher un pétrole toujours plus profond et risqué. Ils misent sur la fonte des glaces et un accès plus facile à certaines zones. Or cette fonte des glaces est elle-même favorisée par les changements climatiques, que le pétrole qui serait extrait en Arctique ne ferait qu’accélérer. C’est de la pure folie ! », conclut Anne Valette.
biased
L’incontournable place Saint-Marc, haut lieu des attractions touristiques vénitiennes, subit désormais des inondations 60 fois par an… contre 4 en 1900. Les récentes tempêtes ont couvert d’eau 70 % de la ville, le niveau des eaux ayant grimpé de 156 centimètres. Carte de la lagune de Venise. Wikimedia Si aucune intervention n’est menée, ce type d’inondations pourrait d’ici 50 ans se produire à chaque marée haute ou presque, indique une recherche en cours, conduite par nos collègues du Centre national de recherche de Venise. Certains experts considèrent même que la cité des Doges aura disparu sous les eaux d’ici à 2100. Chaussées, passerelles et digues La multiplication des inondations à Venise s’explique par les effets combinés de l’affaissement du sol, qui fait plonger la ville, et du changement climatique, qui provoque une montée globale du niveau des mers. Mais la solution pour laquelle a opté la ville, soit un plan inachevé de 78 digues flottantes baptisé Mose, risque d’endommager la lagune qui entoure la Sérénissime et pourrait bien n’avoir aucun effet à long terme sur sa préservation. Le projet Mose envisage de construire 78 digues flottantes pour protéger Venise de l'inondation. Site Internet du projet Mose Les Vénitiens gèrent la lagune par des méthodes d’ingénierie depuis le XIIᵉ siècle. La ville est construite sur un ensemble de 118 petites îles, drainées grâce à un réseau de canaux, et situées dans une lagune littorale entre la côte italienne et une digue formée de blocs de pierre, connue sous le nom de murazzi. Parmi les interventions menées, six importants cours d’eau ont été détournés de la lagune pour éviter que les voies navigables ne se remplissent de limon (dépôt argileux). Les murazzi ont également été reconstruits et étendus, les entrées entre les blocs passant de neuf à trois. Les Vénitiens ont aussi combattu les inondations en surélevant chaussées et passerelles et en construisant des digues ; mais cette stratégie endommage désormais l’architecture de la ville. En 2003, le projet Mose a été lancé dans l’idée de protéger Venise contre l’aggravation des inondations. La communauté scientifique vénitienne se montre aujourd’hui divisée quant à l’impact de ce projet sur la lagune, dans un contexte où les inondations pourraient atteindre un niveau inimaginable. L’écosystème de la lagune en danger Les registres tenus à Venise montrent que le niveau de la mer a augmenté au total de 26 centimètres depuis 1870. Sur ces 26 centimètres, environ 12 sont liés au fait que les îles vénitiennes s’enfoncent ; cela est dû au retrait de l’eau de l’aquifère, cette formation géologique située sous la lagune vénitienne. Des mesures plus approfondies soulignent que le niveau de la mer augmente encore de 2,4 mm par an. Par conséquent, si le niveau de la mer augmente de 50 cm, les digues flottantes de Mose devront fermer presque quotidiennement pour protéger la ville des inondations. Or une partie des eaux non traitées de Venise s’écoule directement dans la lagune via les canaux, puis s’évacue dans la mer. Fermer quotidiennement les entrées pourrait ainsi aggraver la pollution microbiologique et l’eutrophisation dans la lagune – c’est-à-dire son enrichissement en sels nutritifs provenant des eaux usées, de l’agriculture ou de l’élevage. Dans ces conditions, l’eau devient si riche en nutriments qu’elle engendre une croissance excessive de plantes et d’algues, au détriment des autres espèces. Cela s’ajouterait à d’autres dommages que subit déjà l’écosystème de la lagune, provoqués par la perte des marais d’eau salée et des zones marécageuses – et la réquisition de marécages dans d’autres zones pour la pisciculture. Entre temps, l’érosion des fonds marins liée au dragage et à la pêche illégale de palourdes ont creusé de 50 cm depuis 1970 la profondeur du centre de la lagune. Il existe de réelles inquiétudes parmi les scientifiques sur le fait que des fermetures et restrictions autour de la lagune menacent un peu plus son équilibre. Venise sous les eaux Le plan Mose pose une autre question : il ne répond en rien à la problématique du niveau de montée de la mer, dont le sel et l’humidité attaquent les bâtiments de la ville, malgré les importantes rénovations de fondations et de canaux. Le conservateur de la cathédrale Saint Marc a ainsi montré que l’eau salée avait grimpé de plusieurs mètres le long des murs fondateurs de l’église. Les eaux vénitiennes ont récemment grimpé de 156 cm. Andrea Merola/EPA Différentes alternatives au projet Mose ont été proposées, y compris pomper l’eau dans le sol afin de redresser la ville ; mais aucune n’a reçu l’adhésion unanime de la communauté scientifique. Il y a toutefois consensus sur le fait que les marais d’eau salée et les vasières qui ont un jour entouré Venise devraient regagner leur étendue initiale pour en préserver l’écosystème. Mais cela ne résoudra certainement pas le problème du niveau de la mer qui augmente. S’il devient incontrôlable, l’unique solution sera de couper de manière permanente la lagune de la mer Adriatique. Une solution radicale envisageable seulement si les problèmes de pollution, d’eaux usées et d’activités portuaires sont résolus. Nous aurons alors une lagune d’eau douce, différente de celle que nous connaissons, mais à même de sauver la Sérénissime.
true
Les besoins industriels, la consommation de la population mais aussi la pollution laissent planer le spectre de la pénurie d'eau en France comme dans le reste du monde. Il n'y avait pas grand monde, l'autre semaine, au salon des expositions du Bourget, pour inaugurer les journées techniques consacrées à "L'homme et à l'eau". Dans une ambiance qui tenait du Concours Lépine et de la leçon de choses, au milieu d'un déploiement de corps de pompes, de mini-torrents artificiels et de graphiques bicolores, pendant que les conférenciers s'évertuaient à dominer le bruit des moteurs d'avion, M. Edouard Bonnefous, ancien ministre et président de l'Association nationale pour la protection des eaux, somnolait. Tant il est vrai que, dans un pays où la pluie est surtout une menace pour les jours de vacances, où l'on trouve partout de l'eau potable au robinet, il est difficile de convaincre l'opinion que l'eau peut poser d'autres problèmes que d'hygiène. Que l'homme moderne, qui a conquis la Lune et plonge au fond des océans, risque pourtant de manquer de la plus banale et de la plus nécessaire des denrées, l'eau. Il y a cinq ans, maintenant, que l'Unesco a lancé un cri d'alarme. Inaugurant, le 1er janvier 1965, une "décennie hydrologique internationale", elle demandait à toutes les nations de l'aider à faire l'inventaire des besoins de l'humanité et des ressources de la planète. Un premier bilan sera tenté avant la fin de l'année. Il risque d'être décevant. En Allemagne, par exemple, on n'a pas encore réussi à se mettre d'accord sur les méthodes de travail. En France, le Bureau des recherches géologiques et minières (B.r.g.m.) a été chargé de dresser la carte des ressources hydrologiques du pays. Mais, pour l'instant, à peine un centième du territoire est couvert. "La carte au cinquante millième de la ville de Paris n'est pas encore sortie de l'imprimerie, constate M. Jean Margat, ingénieur du B.r.g.m. En attendant, on continue de vider la grande nappe souterraine de l'Albin, la seule eau vraiment pure, de source, de la région parisienne. Elle alimente la piscine Blomet, le système de climatisation de la Maison de la Radio, et plusieurs grandes brasseries. En 1840, elle jaillissait au puits de Grenelle, maintenant il faut la chercher à 50 m de profondeur. Dans dix ans, ce ne sera même plus la peine de faire une carte elle sera à sec." En ce domaine aussi, les Etats-Unis ont une grande avance sur l'Europe. Par nécessité. Parce que le New-Yorkais consomme 800 litres d'eau par jour, alors que le Parisien se contente encore de 500. Parce que, dans tous les pays civilisés, la consommation d'eau double tous les quinze ans, presque aussi vite que celle d'électricité. Sur la côte Est, les experts se disputent pour fixer la date à laquelle toutes les ressources en eau seront définitivement épuisées. Au plus tard avant la fin du siècle. Au Far West, où jadis les cow-boys se disputaient à coups de colt les points d'eau pour abreuver leurs troupeaux, la guerre a repris. Mais cette fois à l'échelle des Etats et par voie diplomatique. LIRE AUSSI CETTE SEMAINE-LÀ >> Le procès du Vatican L'Arizona voulait construire un aqueduc gigantesque pour détourner les eaux du Colorado. Fureur de la Californie, située en aval, qui fait aussitôt alliance avec les cinq Etats riverains. On leur suggère de puiser dans la rivière Columbia. Mais quatre autres Etats, qui ne les avaient pas attendus pour cela, hurlent qu'on veut les condamner au régime sec. Quant au Texas, toujours ambitieux, il ne voit d'autre solution à ses problèmes que de subtiliser à ses voisins les eaux du Mississippi. Au pays de la libre entreprise, les idées les plus fantastiques ont droit de cité. Certains proposent, très sérieusement, de capturer en mer les icebergs, de les haler jusqu'à la côte et de récupérer l'eau de la fonte. A-t-on le droit, cependant, de parler de pénurie, au sens comptable du terme ? Même si l'on calcule que 95% des eaux de la planète se retrouvent dans les mers, donc salées, même si l'on renonce à faire fondre les 4% bloquées dans les banquises, il y a encore, théoriquement, de quoi satisfaire les besoins d'une humanité, même beaucoup plus nombreuse qu'aujourd'hui, avec le 1% qui reste. Le bilan français est à cet égard significatif. La France consomme annuellement 20 milliards de mètres cubes, dont 2 pour les besoins individuels. Or on estime qu'au total, en surface et sous terre, elle dispose de 170 milliards de mètres cubes de réserves disponibles. Sans doute existe-t-il des déficits locaux. Metz a manqué d'eau en 1963, les Cévennes en ont manqué en 1965, le Pays Basque en 1966. Les restrictions sont courantes, en période de vacances, dans la région du Var. Et chaque année, pendant les mois d'été, l'alimentation de la banlieue parisienne est plus difficile. Mais il ne viendrait pas à l'idée des victimes de s'en prendre à quelque fatalité naturelle. Ils accusent les autorités publiques, municipales ou régionales, coupables de ne pas avoir été chercher l'eau assez loin ou assez profond. Avec raison. Apparemment, puisque les chiffres montrent qu'elle existe. Si l'opinion est alertée, de nos jours, c'est plutôt par l'état de l'eau, la menace de pollution. Au temps de Philippe Auguste, les flâneurs des berges de la Cité pouvaient apercevoir le lit du fleuve. Passe encore pour la Seine, où Paris déverse ses égouts. Mais, successivement, cet été, le Rhin, la Moselle, l'Orne, l'Allier et ses affluents, la Marne, la Nièvre, sans parler d'une quantité de rivières secondaires, ont été contaminés. Des dizaines de milliers de poissons ont péri. Le 15 août, au camping de Bénodet, dans le Finistère, 250 personnes ont été intoxiquées par de l'eau polluée. Le danger n'est pas imaginaire. Déjà, toute vie a pratiquement disparu de certains lacs suisses. Quiconque se plonge dans les grands lacs américains risque fort d'attraper une maladie. Même en Sibérie, les eaux du lac Baïkal, considéré comme la réserve la plus vaste et la plus pure du monde, commencent à se détériorer sérieusement. Mais le problème ne concerne pas seulement les amoureux de la nature. En fait, si la pénurie d'eau menace le monde, c'est justement par le biais de cette pollution. De tout temps, l'homme a utilisé l'eau, non seulement pour étancher sa soif, mais pour satisfaire quantité de besoins. Aujourd'hui, elle est devenue une matière première indispensable à son industrie. Il faut 200 000 litres d'eau pour produire une tonne d'acier. 300 000 pour une tonne de papier et 20 000 000 pour un gramme de matière fissile. Normalement, l'eau utilisée à ces besognes serviles, salie, souillée, a le pouvoir de se régénérer. Par décantation, filtration, sous l'action des rayons ultraviolets du soleil ou sous celle des micro-organismes qu'elle contient. Mais trop est trop. Un moment vient où l'eau, saturée de poisons, asphyxiée, ne peut plus resservir. Elle est "usée". LIRE AUSSI CETTE SEMAINE-LÀ >> Ronald Reagan contre Angela Davis Tel est le drame. L'homme est en train de dénaturer le cycle de l'eau à la surface de la terre. Parfois, il contamine même l'eau dont il ne se sert pas, telles ces nappes peu profondes qui sont souillées, par les pesticides agricoles entraînés par les eaux de pluie. Alors il est obligé de puiser dans les réserves. Il va chercher toujours plus loin des nappes protégées des souillures par des filtres naturels épais de plusieurs centaines de mètres. Mais ces nappes ont mis très longtemps à se constituer. La plupart remontent aux âges géologiques où l'homme n'existait pas encore sur la Terre. On est en train de les vider beaucoup plus rapidement qu'elles ne peuvent se reconstituer. Et les géologues s'inquiètent en constatant que la civilisation industrielle, en ce qui concerne l'eau, s'est installée dans un état d'inflation permanente. Consommant plus qu'elle ne restitue. Aussi les remèdes sont-ils clairs. Comme n'importe quel bon ministre des Finances, les géologues prêchent aujourd'hui la déflation. M. Jean Archambault, directeur du Bureau de géologie appliquée, demande que l'on réinjecte à force des eaux dans le sous-sol, au lieu de les laisser couler vers la mer. Ainsi bénéficierait-on de l'emploi des filtres naturels et pourrait-on reconstituer artificiellement les nappes profondes. A chaque étape, il faut songer à pratiquer artificiellement la régénération qui ne se fait plus naturellement. Le gouvernement s'en préoccupe. Une loi du 16 décembre 1964 a divisé la France en six bassins hydrauliques surveillés par six directions du ministère de l'Intérieur. Elles conseillent les usines pour leur implantation, elles taxent d'autant plus lourdement l'eau qu'elles utilisent que celle-ci est plus polluée. Mais la bonne volonté et les mesures administratives risquent de demeurer impuissantes devant la montée, aveugle, des besoins. L'expérience enseigne que les politiques de déflation ne réussissent que si elles ont l'appui de l'opinion. Ce ne sont pas des expositions comme celle du Bourget, ou les 200 000 tracts que vient de faire distribuer dans le département de la Seine M. Bernard Lafay, secrétaire d'Etat au Développement industriel, qui ont des chances de la convaincre. Pourtant, l'enjeu en vaut la peine. Car l'eau n'est pas une monnaie. Au terme de l'inflation, il n'y a pas de dévaluation, mais quelque chose de beaucoup plus grave. "La situation hydrologique de la France en 1969, déclare à L'Express M. Archambault, est beaucoup plus proche de celle d'Israël que de celle de la France en 1949. " A trop l'ignorer, on risque que l'expression de désert français cesse d'être une image.
true
En France, le charbon représente seulement 3% de la production d'électricité et le gouvernement compte s'en débarrasser définitivement en 2022. Chez nos voisins allemands, l'ambition écologique vis-à-vis du charbon est plus complexe, est pour cause : il représente encore plus d'un tiers de sa production d'électricité. C'est ce qui rend l'annonce d'une sortie du charbon en 2038 d'autant plus importante. "C'est un jour historique", s'est même félicité le président de la commission nationale sur l'avenir du charbon, Ronald Pofalla, lors de l'annonce ce samedi durant une conférence de presse à Berlin. Après des mois d'âpres négociations, cette instance composée d'experts, associations écologistes et représentants des employeurs et salariés du secteur est parvenue à un accord sur une feuille de route proposée au gouvernement, qui devrait suivre ces recommandations après une réunion prévue la semaine prochaine. LIRE AUSSI >> La fermeture des centrales à charbon va-t-elle doper le nucléaire? Cette transition progressive avec plusieurs fermetures de centrales électriques dans les années à venir va pousser le pays à miser tout, ou presque, sur les énergies renouvelables mais va avoir un coût : plusieurs dizaines de milliards d'euros sur 20 ans. Les régions touchées dans l'ouest et l'est du pays doivent recevoir 40 milliards d'euros d'aides structurelles à la reconversion au cours des vingt prochaines années. Des dizaines de milliers d'emplois sont directement ou indirectement liés à la production de lignite et de charbon dans le pays. Parallèlement, l'Etat est invité à débourser au moins deux milliards d'euros par an pour empêcher un envol des prix de l'électricité. Un élément jugé essentiel par les industriels. Le directeur général de la fédération de la chimie allemande, Utz Tillmann, a appelé le gouvernement à soutenir "la compétitivité" des entreprises allemandes. L'objectif du pays est de respecter ses engagements climatiques de réduction d'émissions polluantes, ce qu'il n'est pas en mesure de faire actuellement. Toutefois certaines ONG environnementales, comme Greenpeace, jugent l'objectif de 2038 insuffisant pour atteindre les objectifs de réduction de CO2. La plupart des pays européens se sont aussi fixés des dates de fermeture des centrales au charbon, et notamment en 2025 pour la Grande-Bretagne et l'Italie, bien que cette source d'énergie représente encore respectivement 23% et 17% de la production d'électricité de ces deux pays. Mais plusieurs rechignent. La proportion de charbon est ainsi nettement plus élevée dans les pays d'Europe de l'Est, notamment en Pologne qui tire 80% de son électricité du charbon et ouvre de nouvelles mines.
true
Avec +0,597°C au-dessus de la moyenne 1981-2010, le mois de janvier 2020 est le 2e plus chaud des archives NCEP-NCAR. L’année 2020 commence donc sur de solides bases, l’anomalie de janvier se situant dans la lignée de la moyenne 2019. Les réanalyses comme NCEP-NCAR intègrent de multiples observations dans un modèle permettant de suivre quasi quotidiennement l’évolution du climat. Les données sont donc immédiatement publiées, contrairement aux bilans mensuels des stations au sol. Les réanalyses permettent ainsi de se faire une idée des futures annonces des agences comme la NASA, la NOAA et le Met Office qui ne sont pas faites avant le milieu du mois suivant (en l’occurrence à la mi-février). Le top 10 des mois de janvier les plus chauds Avec +0,597°C au-dessus de la moyenne 1981-2010, le mois de janvier 2020 est le 2e plus chaud des annales NCEP-NCAR qui remontent à 1948. L’anomalie de température mondiale est en baisse par rapport à décembre 2019 mais dans la lignée de la moyenne de l’an dernier. L’année 2019 a en effet été la 2e plus chaude des mesures avec une anomalie de +0,57°C sur 12 mois, d’après NCEP-NCAR. Top 10 des mois de janvier les plus chauds depuis 1948 (anomalies par rapport à 1981-2010). D’après NCEP-NCAR. On peut voir ci-dessous l’évolution de la température mondiale en janvier avec une tendance de fond au réchauffement depuis 1948. La tendance est de +0,092°C par décennie depuis 1948, avec une accélération sur les 20 dernières années à +0,217°C. Anomalies de température mondiale en janvier par rapport à la moyenne 1981-2010. D’après NCEP-NCAR. Les anomalies régionales en janvier 2020 Le record de chaleur a été battu dans l’hémisphère sud en janvier 2020 avec une anomalie de +0,377°C, battant les deux précédents pics relevés lors des El Niño extrêmes de 1983 et 2016. Pour l’hémisphère nord, l’anomalie en janvier 2020 se situe au 2e rang avec +0,826°C, derrière le maximum de 2016. A noter que les anomalies sont habituellement moins importantes dans l’hémisphère sud, ce qui explique qu’un +0,377°C puisse être un record dans cet hémisphère. On relève en ce mois de janvier 2020 des anomalies particulièrement positives en Scandinavie et en Russie. Pour la première fois de l’histoire des relevés, Oslo, Stockholm, Helsinki et Copenhague ont connu des températures au-dessus du point de congélation (0°C) tous les jours du mois de janvier. Record de chaleur au Danemark avec une température moyenne de 5,5°C, battant le précédent pic de 2007 (5°C). Même chose pour 60% de la Finlande, selon Mika Rantanen, chercheur au Finnish Meteorological Institute. A Helsinki, la température a atteint une moyenne de 3°C, battant le précédent record de 1,6°C. A Moscou (Russie), c’est la première fois en 200 années de mesures que la température moyenne d’un mois de janvier n’est pas négative, d’après Etienne Kapikan, de Météo France. Carte d’anomalies pour le mois de janvier 2020. D’après NCEP-NCAR. Des conditions ENSO neutres prévalent actuellement dans le Pacifique, d’après la NOAA. Les températures de surface de la mer équatoriale sont proches de la moyenne dans l’océan Pacifique et la circulation atmosphérique tropicale est généralement compatible avec des conditions ENSO-neutre. Cette situation devrait perdurer jusqu’au printemps 2020 dans l’hémisphère Nord (~ 60% chance), voire se poursuivre jusqu’à l’été 2020 (~ 50% de chance). +1,38°C en janvier 2020 par rapport à l’ère préindustrielle
true
Plafonnement des volumes, usages limités : l'agence sanitaire Anses a annoncé ce vendredi des restrictions d'utilisation du glyphosate pour la viticulture, l'arboriculture ou les céréales, qui entreront en vigueur dans les six mois pour avancer vers la fin totale de l'herbicide controversé promise pour 2023. "Cette limitation des conditions d'emploi et des doses par hectare contribuera à réduire dès 2021 les quantités de glyphosate utilisées en France", assure l'Anses, qui ne donne pas d'estimation de cette baisse. Le glyphosate est le deuxième produit phytosanitaire le plus utilisé en France (derrière le souffre), avec 9700 tonnes de la substance active vendues en 2018 - contre 8800 en 2017. En 2017, la France s'était fixé pour objectif de sortir de l'essentiel des usages du glyphosate en 2021, et d'une interdiction totale en 2023. Un nouveau plan prévoit aussi de réduire de 50% l'utilisation des pesticides de synthèse en général d'ici 2025. Mais les précédents plans ayant échoué, les défenseurs de l'environnement doutent des promesses du gouvernement, qui vient en outre de faire voter la réautorisation temporaire d'autres pesticides controversés, les néonicotinoïdes, pour sauver la filière betterave. Dans le cadre du plan de sortie du glyphosate, l'Anses avait lancé fin 2018 une évaluation des alternatives à l'utilisation de cette substance, classée cancérogène par le Centre international de recherche sur le cancer (CIRC) mais pas par les autorités européennes. LIRE AUSSI >> Promesses, rétropédalage... Les ratés du gouvernement sur le glyphosate Pour la viticulture, l'arboriculture fruitière, les grandes cultures (céréales, colza, tournesol) et les forêts, l'agence a ainsi passé en revue chaque usage du produit pour voir s'il pouvait répondre aux trois conditions requises par les règles européennes : s'il existe une alternative non chimique, courante et qui ne pose pas d'inconvénients pratiques ou économiques "majeurs". Résultat : les experts estiment que le glyphosate peut être le plus souvent remplacé, en particulier par des moyens mécaniques (désherbage manuel ou avec des machines dédiées...) même si cela entraîne des surcoûts liés notamment à la main d'oeuvre supplémentaire nécessaire. Les nouvelles règles s'appliqueront dans les six mois pour la vingtaine de produits encore sur le marché (pour permettre notamment de changer les étiquettes) et immédiatement aux nouvelles autorisations, a précisé l'Anses. L'usage du glyphosate est ainsi interdit entre les rangs de vigne, entre les rangs d'arbres et dans un champ qui a été labouré entre deux cultures. Les doses annuelles maximales par hectare sont également largement réduites : de 80% pour la viticulture, de 60% pour l'arboriculture fruitière et 60% également pour les grandes cultures. Des exceptions sont toutefois prévues, notamment quand le désherbage mécanique n'est pas possible : vignes en forte pente ou en terrasse, sols caillouteux, récolte mécanique de fruits au sol ou production de type buissonnante (noisettes). Mais aussi pour l'agriculture de conservation où il n'y a pas de labour. Pour les forêts, le glyphosate ne pourra plus être utilisé pour dévitaliser une souche et pour l'entretien, il est limité aux premières années de développement de la forêt. À ÉCOUTER >> L'efficace lobbying des vendeurs de glyphosate En revanche, l'Anses estime que le glyphosate - déjà interdit pour les particuliers et les collectivités comme tous les pesticides chimiques - ne peut être substitué pour le désherbage des voies ferrées, des aéroports ou des sites industriels. Des usages considérés comme mineurs (la SNCF, très grosse consommatrice, en utilise environ 40 tonnes par an). Reste à voir comment les nouvelles règles dans l'agriculture seront appliquées, alors que les produits seront toujours autorisés. Le volume total de vente du produit sera un signe à suivre. Les agriculteurs doivent également tenir un registre phytosanitaire où ils consignent pour chaque utilisation le nom du produit, la date, le lieu, la culture et la quantité, document qu'ils doivent pouvoir présenter pendant cinq ans en cas de contrôle. Alors qu'il n'existe toujours pas de consensus autour de l'impact sanitaire du glyphosate, l'Anses devait financer une vaste étude sur le potentiel cancérogène de la substance, attendue en 2021, dans le cadre du réexamen en 2022 de l'autorisation du produit au niveau européen. Mais en juillet, le consortium piloté par l'Institut Pasteur de Lille, retenu pour mener ces travaux, s'est retiré après des accusations de conflit d'intérêt contre certains scientifiques. L'appel à candidatures ne sera pas relancé et seule une étude plus spécifique du CIRC sera réalisée.
true
Marlène Schiappa, secrétaire d’État chargée de l’Égalité entre les femmes et les hommes, sera co-animatrice avec Cyril Hanouna, dans la soirée du 25 janvier, d’une émission pour, nous dit-on, populariser le grand débat national. En service commandé probablement. Il y a des échanges médiatiques dont on ressort sinon convaincu du moins ébranlé dans ses certitudes. Quand j’ai quitté L’Heure des Pros au cours de cette matinée après une discussion animée sur la présence de Marlène Schiappa à Balance Ton Post, je n’avais pas changé d’avis. Au contraire, malgré la qualité de certains de mes contradicteurs (Cnews). Qu’on me comprenne bien : je ne suis pas indigné — l’indignation mérite des causes moins frivoles, plus profondes — mais attristé. Je ne déteste pas du tout Cyril Hanouna qui est un histrion assumé de grand talent et j’ai toujours trouvé choquant le regard que des élites prétendues raffinées portaient sur lui. Ce n’est donc pas cet animateur volubile et omniprésent qui constitue le problème si on admet qu’il y en a un. SANCTIFICATION DES GILETS JAUNES Cette sanctification des Gilets jaunes, encore aujourd’hui, peut me sembler démesurée même si elle excepte deux excités Maxime Nicolle et Éric Drouet, qui n’ont pour vocation que de créer du bruit sulfureux et provocateur autour d’eux. Pourtant il est tout à fait normal de leur donner la parole et de les écouter mais il convient de cesser ce procès qui à la longue devient insupportable : nous serions tous des citoyens incapables de considération à leur égard et nous les mépriserons alors qu’eux, ils seraient le peuple ! Cette absurdité a assez duré. Cyril Hanouna, pour la télévision, affirme avoir été le premier à inviter des Gilets jaunes sur un plateau. En tout cas Sud Radio les a mis en valeur depuis le début du mouvement. Pas une journée à Paris ou ailleurs sans que l’un d’entre eux ait été convié et écouté dans un climat serein, sans condescendance ni hypocrisie. Pourquoi suis-je attristé par avance par l’intervention de Madame Schiappa le 25 si elle décide de ne pas suivre l’injonction de mon titre ? Je plaisante pour ceux qui prendraient tout au premier degré ! Parce que la présence d’une ministre n’est pas souhaitable dans un tel type d’émission sauf si on suppute qu’elle est tellement atypique et sans véritable impact politique qu’on peut lui laisser, au gouvernement, avoir la bride sur le cou ? Pour ma part, si je ne l’apprécie pas comme secrétaire d’État, si beaucoup de ses propos et actions me paraissent relever d’un féminisme totalitaire, je vais tenter de m’abstraire de mon opinion personnelle pour aborder honnêtement cette interrogation. Je conçois qu’il faille écouter les Gilets jaunes mais est-il nécessaire, à ce stade de nos joutes démocratiques, d’apporter des éclairages ou des contradictions à leurs doléances, à leurs réclamations ? UN DÉBAT MÉDIATIQUE PRÉCIPITÉ Je ne dénie pas que Marlène Schiappa puisse disposer du savoir pour répliquer ou informer mais, alors que les Français « se prennent au jeu du grand débat national », qu’il est en cours, incertain, inachevé, riche, effervescent avant le 15 mars, était-il obligatoire de laisser apposer par une secrétaire d’État un label prématuré sur un évènement capital mais en élaboration (Le Figaro) ? Pour l’instant il est clair qu’il n’avait pas besoin d’elle, toute comparaison avec le dialogue engagé par le président avec les maires — et dont les modalités vont heureusement changer — étant inadéquate. Celui-ci, dans ses deux manifestations très réussies, nous maintient dans le registre politique et le 25 on va forcément le quitter. Ce ne serait pas dramatique si le politique avait sa chance. Mais pour peu qu’on examine notre histoire à la fois politique et médiatique, avec sa tenue longtemps puis ses dérives, enfin ses vulgarités, il est patent que mettre ensemble le divertissement et la politique conduit à dégrader la seconde à cause du premier sans que jamais le sérieux puisse espérer ennoblir le rigolard, même si on m’a bien précisé que l’émission du vendredi n’avait rien à voir avec celle des autres soirs. Il n’empêche. Cet étouffement va d’autant plus se produire avec une personnalité qui n’est pas naturellement respectée et consensuelle. La conclusion est que la désaffection civique va s’amplifier et que la démocratie accentuera ce qui lui fait perdre toute grandeur, toute allure : on fera tout pour qu’elle n’élève plus le citoyen, jeune ou moins jeune, mais qu’elle ressemble à sa caricature, à sa grimace. Je ne veux pas éluder les seuls arguments de ceux qui approuvent l’engagement de Marlène Schiappa dans cette aventure médiatique. On nous dit que beaucoup de jeunes gens regardent l’émission de Cyril Hanouna et qu’il convient de mettre la politique à leur portée. Quel intolérable mépris que cette vision des choses qui, peu ou prou, revient à les traiter de médiocres puisqu’ils ne seraient accessibles qu’à une vision dégradée, dénaturée, démagogique de la politique ! Croit-on vraiment qu’on va ainsi les séduire et les persuader de revenir vers le grave et le républicain ? HALTE AU JEUNISME Ce sera le contraire. Faire de la politique une plaisanterie médiatique et bruyamment spectaculaire continuera à faire mourir à petit feu l’appétence qu’elle devrait susciter par morale et par civisme. Les jeunes ne sont pas une denrée à traiter comme une publicité. Rien de plus navrant que ce jeunisme qui feint de courtiser mais pour accabler ! De la même manière, quand on use de ce sempiternel et lassant « c’est l’époque » pour se consoler d’approuver ce qu’on est impuissant à empêcher, il me semble que cette triste résignation démontre la nécessité d’une pensée réactionnaire. Le fil du temps n’est pas en lui-même progressiste, le présent n’est pas forcément une boussole. Le pouvoir a le droit de résister à ce que l’histoire entraîne avec elle de dégénérescence. Il en aurait même le devoir s’il avait du courage, vertu quasiment disparue. Décrire avec complaisance et une sorte de volupté amère la perversion de plus en plus scandaleuse engendrée par la relation entre politique et divertissement, entre bateleurs et ministres est une fuite, une impuissance. Il faut arrêter cette prétendue fatalité. En tout cas le pire n’a jamais justifié qu’on se prive délibérément du meilleur. Je sais, je ne suis qu’un homme ! Mais Marlène Schiappa, je vous en prie, n’y allez pas ! — Sur le web
fake
C'est le genre d'annonces qui sont célébrées à Saint-Nazaire. En annonçant, ce week-end, la signature de trois accords entre les Chantiers de l'Atlantique de Saint-Nazaire, et l'armateur de paquebots de croisière MSC, avec notamment une commande ferme de 2 milliards d'euros, Édouard Philippe s'est félicité d'une "excellente nouvelle pour l'économie" mais aussi pour l'environnement. Le géant de la croisière, l'Italo-suisse MSC, a passé commande de deux nouveaux paquebots "World Class", c'est-à-dire pouvant accueillir 6700 passagers, qui devraient être livrés entre 2025 et 2027 et fonctionneraient au gaz naturel liquéfié, le GNL. Cette annonce, de la part d'un des acteurs majeurs de ce secteur très décrié pour son empreinte écologique, vient renforcer un peu plus l'image voulue par les croisiéristes d'un milieu qui opte pour la transition écologique. Car le gaz naturel liquéfié est beaucoup moins nocif pour l'environnement que le fioul utilisé d'ordinaire par les immenses paquebots, mais aussi par une très large part des transporteurs maritimes. En juin dernier, une étude réalisée par l'ONG Transport et environnement démontrait que le leader mondial de la croisière de luxe, Carnival Corporation, a émis à lui seul en 2017 dix fois plus d'oxyde de soufre autour des côtes européennes que l'ensemble des 260 millions de voitures du parc européen. Avec le GNL, fini les émissions de dioxyde de soufre (des microparticules particulièrement nocives pour les voies respiratoires). Ce type de carburant devrait également permettre de réduire jusqu'à 20% les émissions de CO2 et de plus de 95% les particules fines. Avec la prise de conscience écologique de certains voyageurs et les nouvelles réglementations internationales, le GNL devrait se développer dans ce secteur. L'Organisation maritime internationale (OMI) a d'ailleurs adopté des normes plus strictes sur la teneur en soufre des carburants marins qui, au niveau mondial, ne doivent pas dépasser 0,5% à partir de 2020 contre 3,5% auparavant. LIRE AUSSI >> EN IMAGES. Le plus gros paquebot au monde quitte Saint-Nazaire Erminio Eschena, Président de CLIA France, la principale fédération des industries de croisières et directeur des affaires institutionnelles et des relations industrielles de la compagnie MSC explique d'ailleurs à L'Express que cette tendance va s'accroître malgré le coût plus élevé du GNL par rapport au fioul. "Construire un paquebot propulsé au GNL est déjà plus onéreux mais le carburant lui-même nous coûte aussi plus cher à la pompe. Pour autant, les investissements des armateurs sont considérables : plusieurs dizaines de navires sont actuellement en chantier, toutes compagnies confondues, et ils devraient tous être livrés d'ici à 2025." Une charte avait ainsi été signée à Marseille pour réduire la teneur en soufre des carburants. Louis Marelle, chercheur associé au Latmos (laboratoire d'analyse de l'atmosphère rattaché au CNRS), et spécialiste du trafic maritime explique : "Il y a deux aspects, la pollution de l'air et le changement climatique". "Il y a les pollutions par les composés à base de soufre et le dioxyde d'azote qui est nocif pour l'environnement et les personnes, et ensuite il y a les émissions de CO2, qui a un effet sur le climat", détaille-t-il. Ainsi pour ce chercheur cette annonce est "sûrement une bonne nouvelle, mais ce n'est pas une solution à long terme, car elle n'empêche pas les émissions de gaz carbonique". Du côté des associations écologiques cette transition est plutôt saluée, mais elle reste encore partielle compte tenu de l'impact généré par ces navires, "mini-villes", sur l'environnement. "Ce qui m'étonne encore c'est que l'on construise des paquebots pour plus de 6 000 personnes", juge ainsi Élodie Martinie Cousty, responsable du réseau Océans, mers et littoraux au sein de l'ONG France Nature Environnement. "C'est toute la chaîne de la construction du bateau et les rejets de ces navires qui devraient être repensés", juge cette environnementaliste qui souligne que "le transport maritime est en train de prendre la bonne voie mais de façon beaucoup trop lente". Dans son rapport 2020 d'état des lieux du secteur, CLIA estime que "32 millions de passagers devraient voguer sur les mers en 2020". L'association annonce qu'elle devrait lancer "19 nouveaux navires au cours de l'année à venir, sur un total de 278 navires de la CLIA en service d'ici la fin 2020". Au sein des Chantiers de l'Atlantique, d'autres expérimentations maritimes devraient voir le jour, avec des navires de croisières équipés de voiles ou de piles à combustibles. "Je ne sais pas comment ce type de bateau peut s'engager dans la transition écologique s'il n'assure pas un minimum de son besoin en énergie avec des formes d'énergies renouvelables, et des voiles", doute Élodie Martinie Cousty. "L'industrie regarde déjà vers les années 2050", assure pour sa part Erminio Eschena. "Nous allons initier quelque chose de totalement révolutionnaire dans le transport de passagers, et faire en sorte que nos délires technologiques d'aujourd'hui deviennent des réalités demain, tout comme le GNL était une folie il y a dix ans".
true
Je satisfaisais tranquillement à des fonctions biologiques basiques dans les toilettes du rez-de-chaussée de la maison de ma fille quand mon attention a été attirée par un magazine au nom évocateur de Petit Quotidien de PlayBac presse (www.playbacpresse.fr) destiné à la tranche d’âge 8-12 ans. Le bandeau « spécial planète Terre » a éveillé ma curiosité et j’ai parcouru ce magazine, bien que n’appartenant plus à cette tranche d’âge, pour me rendre compte de ce qui pouvait y être raconté à propos de la planète. Pour 5 euros, on endoctrine les enfants et comme ils n’ont aucun sens critique, c’est encore plus facile de les formater et d’en faire des citoyens qui penseront correctement, c’est-à-dire conformément à la propagande scandaleusement distillée par ce magazine au sujet du réchauffement climatique. Tout y est : la fonte des neiges du Kilimanjaro, la disparition des atolls de Polynésie, la montée du niveau des océans, l’effet de serre, les gaz à effet de serre, le dérèglement climatique, la disparition des ours blancs… n’en jetez plus. Ces bambins sont dès la sortie de l’enfance formés pour être plus tard des citoyens, de bons citoyens qui croiront ce que les politiciens leur raconteront sans même pouvoir formuler une quelconque critique, en raison de ce qu’on leur aura inculqué à force de magazines de ce genre comme fausses certitudes, reprises par des professeurs des écoles1. Ils seront conduits à admettre que c’est la vérité, celle à laquelle on doit croire sans se poser la moindre question. L’effet de serre : un dessin contredisant le deuxième principe de la thermodynamique qui dit qu’un corps froid, en l’occurrence l’atmosphère, ne peut pas transférer de chaleur à un corps plus chaud, la surface de la Terre, à moins d’une intervention externe comme par exemple le compresseur d’une machine frigorifique. Jamais le deuxième principe de la thermodynamique formulé en 1824 par Sadi Carnot n’a pu être infirmé et ce ne sont certainement pas les pseudo-scientifiques du GIEC qui pourront arriver à cette fin. Voilà le genre d’ineptie qu’on enfonce dans le crâne des enfants avec de tels magazines dont l’orientation idéologique ne fait aucun doute, jugez par vous-même : C’est franchement révoltant car ces mêmes bambins finiront par convaincre leurs parents pour peu que ces derniers soient dénués aussi de sens critique.
fake
À l’automne de 1969, Gaylord Nelson, sénateur du Wisconsin, dévoila son projet d’une « journée de prise de conscience environnementale », d’une journée consacrée chaque année à des initiatives écologiques et à la défense de l’environnement. Ses paroles rallièrent notre nation, et la première Journée de la Terre, comme elle allait s’intituler, vit des millions de personnes s’unir pour faire face à l’un des défis les plus importants de notre époque : l’intendance de notre planète. Ce que le sénateur Nelson et les autres organisateurs pensaient alors, et ce que nous croyons toujours aujourd’hui, c’était que notre environnement est un bienfait partagé. Notre avenir est inextricablement lié à celui de notre planète, et nous devons être de bons gestionnaires de notre milieu, à l’image de notre entraide mutuelle. En ce quarantième anniversaire de la Journée de la Terre, nous nous rassemblons une fois de plus pour réaffirmer ces convictions. Nous avons beaucoup progressé en ces quatre décennies. Un an avant la première Journée de la Terre, notre nation avait vu, horrifiée, la rivière Cuyahoga, à Cleveland (Ohio), polluée et encombrée de débris, prendre feu. En réaction, une génération d’Américains s’est levée pour exiger mieux. Ses réalisations, durant les décennies suivantes ont assuré une meilleure santé à nos enfants, une eau et une atmosphère plus propres et une planète plus vivable. Nous avons adopté les lois sur la salubrité de l’air et de l’eau, créé l’Agence de protection de l’environnement et sauvegardé les trésors de notre patrimoine naturel. Les Américains ont pu observer les effets de ces mesures partout, et en particulier à Cleveland, où la rivière Cuyahoga est aujourd’hui plus propre qu’elle ne l’était il y a un siècle. Nous poursuivons ces progrès aujourd’hui. Mon gouvernement a investi dans des infrastructures d’énergie propre et d’eau salubre dans tout le pays. Nous sommes également résolus à faire adopter des lois énergétiques et climatiques d’envergure qui créeront des emplois, diminueront notre dépendance à l’égard du pétrole étranger et réduiront la pollution au carbone. Toutefois, il nous reste encore du travail à faire, et le changement ne saurait provenir uniquement de Washington. Les accomplissements passés ont été possibles parce que des Américains ordinaires les ont réclamés, et la solution des problèmes environnementaux d’aujourd’hui exigera qu’une nouvelle génération se voue à la cause de la Journée de la Terre. De l’isolation de nos maisons à la plantation d’arbres dans nos quartiers, il existe, pour tous les Américains, jeunes et vieux, d’innombrables moyens de participer. J’encourage tous mes concitoyens à se rendre sur le site Whitehouse.gov/Earthday pour trouver les renseignements et les ressources nécessaires pour démarrer. Le quarantième anniversaire de la Journée de la Terre nous est une occasion de réfléchir à l’héritage reçu des générations précédentes et à celui que nous laisserons aux générations futures. L’avenir de ces dernières dépend des actions que nous entreprenons maintenant, et nous ne devons pas faillir à cette responsabilité. Dans quarante ans, lorsque nos enfants et nos petits-enfants évoqueront ce que nous avons fait à ce moment précis, qu’ils puissent dire que nous aussi, nous avons relevé les défis de notre époque et que noue leur avons laissé une planète plus propre et en meilleure santé. C’est pourquoi je, soussigné, Barack Obama, président des États-Unis d’Amérique, en vertu de l’autorité que me confèrent la Constitution et le droit des États-Unis, proclame par la présente le 22 avril 2010 Journée de la Terre. J’invite tous mes concitoyens à participer à des programmes et à des activités qui protégeront notre environnement et contribueront durablement à un avenir sain. En foi de quoi, j’ai apposé ma signature en ce vingt et unième jour d’avril de l’an de grâce deux mille dix, deux cent trente-quatrième année de l’indépendance des États-Unis d’Amérique.
true
Mark Felix–AFP/Getty Images En février 2021, l'État du Texas aux États-Unis a connu une grave crise de l'électricité provoquée par trois vagues de froid, où près de 5 millions d’américains ont été privés d’électricité pendant plusieurs jours et induisant pénuries d'eau, de nourriture et de chaleur[i]. [i]https://time.com/5939633/texas-power-outage-blackouts/ Vulnérabilité climatique des réseaux électriques : de quoi parle-t-on ? L'infrastructure de transmission et de distribution est l'épine dorsale du système électrique, car elle permet l'acheminement de l'électricité des centrales aux clients finaux (et inversement pour l’autoproduction dont une partie peut être évacuée sur le réseau). L'énergie est produite dans les centrales électriques à une tension relativement basse. Pour préparer cette énergie au transport, son niveau de tension est augmenté par des transformateurs de puissance afin de réduire les pertes d'énergie pendant le transport le long des lignes de transmission. Les lignes de « transmission » transportent l'électricité entre les régions jusqu'aux sous-stations, où le niveau de tension est cette fois-ci réduit (ou "abaissé") à l’aide de transformateurs de distribution afin de circuler sur les lignes de « distribution », les lignes qui distribuent l’électricité aux utilisateurs finaux, notamment aux clients résidentiels, commerciaux et industriels. Les lignes de distribution acheminent l'électricité par des lignes aériennes ou souterraines. Tout le long de cette chaîne d’approvisionnement, des équipements de captage et transmission d’information mesurent et enregistrent l’état du réseau électrique, afin d’en faciliter le pilotage de l’équilibre et donc sa sécurité. En effet, l’équilibre du réseau doit être assuré à tout instant afin d’éviter un « blackout »[1] électrique, généré par l’un des phénomènes suivants[i] : la cascade de surcharges de lignes de transport et leur déclenchement ; l’écroulement de fréquence ; l’écroulement de tension ; la rupture de synchronisme entre les groupes de production. Ainsi, la panne d’un élément du système peut entrainer des conséquences en chaîne et amener à une panne généralisée du système électrique. À noter que les aléas climatiques ne sont pas les seuls événements perturbateurs de l’équilibre réseau, de nombreux phénomènes entrent en jeu lors d’une rupture d’approvisionnement en électricité, où surviennent des incidents multiples, proches dans le temps, voire simultanés. [1] Terme anglais pour désigner une panne de courant généralisée [i] A. Cheimanoff, L. Feignier, J.C. Gougeuil, "Analyse des incidents d'exploitation conduisant à un fonctionnement dégradé: 1) Facteurs propices à un fonctionnement dégradé et mécanismes correspondants, 2) Analyse de quatre processus de dégradation", Revue Générale de l'Électricité (RGE), tome 87, n°3, mars 1978 A New Delhi, le 31 juillet 2012. AFP/SAJJAD HUSSAIN Lors du blackout de juillet 2012 en Inde (un des plus important de l’histoire avec près de 670 millions d’individus impactés), la panne est attribuée à une combinaison de facteurs structurels et conjoncturels : un déficit structurel de production d’électricité pour faire face la hausse de consommation électrique, et une sécheresse, qui a diminué les capacités de production hydro-électriques[i]. [i]https://www.bbc.com/news/world-asia-india-19043972 Les aléas climatiques peuvent venir affecter la sécurité de l’approvisionnement via plusieurs canaux comme l’illustre le schéma en Figure 1. Figure 1 - Schéma général d’un réseau électrique Dans le reste de l’article, nous nous concentrerons sur l’infrastructure de réseau (transmission et distribution). Plusieurs éléments constituant ces infrastructures sont particulièrement sensibles aux aléas climatiques, c’est-à-dire que la fonction qu’ils assurent peut être altérée, voire interrompue, par ces aléas. Parmi les éléments les plus critiques, il y a : Les lignes électriques : pylônes, poteaux et câbles électriques Les transformateurs électriques : de puissance, de courant ou de tension Les équipements de pilotage et de sécurité du réseau : disjoncteurs, sectionneurs, parafoudre, etc. Les équipements de mesure et télécommunication En Figure 2, nous résumons les principales sensibilités climatiques de ces équipements recensés dans la littérature[i][ii][iii]. Figure 2- Sensibilité aux aléas climatiques des principaux éléments des réseaux électriques (Source : Carbone 4) [i] Dumas, M., Kc, B., & Cunliff, C. I. (2019). Extreme weather and climate vulnerabilities of the electric grid: a summary of environmental sensitivity quantification methods (No. ORNL/TM-2019/1252). Oak Ridge National Lab.(ORNL), Oak Ridge, TN (United States). [ii] Finster, M., Phillips, J., & Wallace, K. (2016). Front-line resilience perspectives: The electric grid (No. ANL/GSS-16/2). Argonne National Lab.(ANL), Argonne, IL (United States). [iii]Mikellidou, C. V., Shakou, L. M., Boustras, G., & Dimopoulos, C. (2018). Energy critical infrastructures at risk from climate change: A state of the art review. Safety Science, 110, 110-120 Les réseaux électriques américains sont exposés et vulnérables aux aléas climatiques État des lieux : le système électrique américain est de plus en plus impacté par le changement climatique Les aléas climatiques sont la principale cause des pannes d'électricité aux États-Unis. Les pannes causées par les aléas tels que les orages, les ouragans et les blizzards, représentent 58 % des pannes observées depuis 2002 et 87 % des pannes touchant 50 000 clients ou plus. Au total, 679 pannes généralisées sont survenues entre 2003 et 2012 en raison des conditions climatiques[ix]. Les analyses des blackouts majeurs recensés montrent de plus que cette tendance est à la hausse. En effet, le nombre de pannes d'électricité majeures (celles qui touchent plus de 50 000 foyers ou entreprises) a été multiplié par dix entre le milieu des années 1980 et 2012. Cette augmentation s'explique en partie par la mise en place, depuis 2003, de l’obligation des opérateurs de réseaux électriques de signaler toute panne et son origine aux autorités. Pourtant, même depuis 2003, le nombre annuel moyen de pannes d'électricité liées aux conditions météorologiques a doublé[x]. Les pannes d'électricité entraînent la fermeture des écoles et des entreprises et entravent les services d'urgence. Cela aurait coûté entre 18 et 33 milliards de dollars par an à l’économie américaine entre 2003 et 2012ix. Figure 3 - Pannes d'électricité majeures aux États-Unis, 1992-2012ix Des infrastructures de plus en plus exposées aux aléas climatiques auxquels elles sont vulnérables La hausse du nombre de pannes de courant aux États-Unis peut être mise en perspective de l’évolution du nombre d’événement de précipitation intense. Comme le montre la Figure 4, les États-Unis ont connu une hausse significative de tels évènements entre la moitié du XXe siècle et nos jours. On observe de fortes augmentations dans la moitié Est des États-Unis et de plus petites augmentations, ou de légères diminutions, dans la moitié Ouest. Figure 4 – Évolution du nombre d'événements sur 2 jours avec un total de précipitations dépassant la plus grande quantité sur 2 jours qui devrait se produire, en moyenne, seulement une fois tous les 5 ans, entre 1901-2016[xi] Des études[xii][xiii] prévoient que l'augmentation observée des événements de fortes précipitations se poursuivra à l'avenir dans toutes les régions, même celles où les précipitations totales devraient diminuer, comme le sud-ouest des États-Unis. Dans le scénario d’émissions RCP8.5, le nombre d'événements extrêmes augmente de deux à trois fois par rapport à la moyenne historique dans toutes les régions d'ici la fin du 21e siècle, les augmentations les plus importantes étant prévues dans le Nord-Est. Les États-Unis seront aussi exposés à un nombre croissant d’épisodes de forte chaleur, dont les équipements du réseau électrique sont fortement sensibles. D’ici le milieu du XXIe siècle, il y aura 20 à 30 jours de plus par an où la température dépassera 32°C dans la plupart des régions des États-Unis, selon le scénario d’émissions RCP8.5[xiv]. Figure 5 - Évolution du nombre de jours par an avec une température maximale supérieure à 32°C entre le présent proche (1976-2005) et le milieu du siècle (2036-2065), selon le scénario d’émissions RCP 8.5 (moyenne de 32 modèles climatiques) Des infrastructures de plus en plus fragiles face aux aléas climatiques, car vieillissantes Parmi les chaînes d’impacts qui ont causé ces blackouts électriques, nombre d’entre eux sont attribuables à la vulnérabilité climatique des réseaux de transport et distribution de l’électricité américains. En effet, ces infrastructures sont de plus en plus sensibles à ces aléas car elles sont vieillissantes et mal entretenues. De fait, le ministère américain de l'Énergie estime que 70 % des transformateurs de puissance du pays ont 25 ans ou plus et que 60 % des disjoncteurs ont plus de 30 ans, alors que leur durée de vie utile est respectivement de 25 ans et de 20 ans. De plus, sur les 450 000 kilomètres de transmission aux États-Unis, on estime que 70 % ont 25 ans ou plus et approchent de la fin de leur vie utile. Cette situation critique est due à un manque d'investissement dans les infrastructures de transmission, qui ont diminué de 44 % entre 1980 et 1999, alors que la consommation d'électricité a, elle, augmenté de 58 % sur la même période[xv]. Le vieillissement et le manque d’entretien des infrastructures aggravent alors la sensibilité des infrastructures aux aléas climatiques mais deviennent aussi des facteurs de risque supplémentaires dans les chaines d’impacts liées à la dérive climatique. L’exemple le plus emblématique étant le cas de Pacific Gas & Electric, la plus grande compagnie d'électricité de Californie, qui a été responsable (par manque d’investissements et d’entretien) en 2015, 2017 et 2018 d'incendies de forêt qui ont détruit des centaines de milliers d'hectares et ont fait plusieurs dizaines de morts. En conséquence, l’entreprise a dû priver intentionnellement d’électricité 750 000 ménages pour prévenir les incendies en 2019[xvi]. Les transformateurs de puissance constituent un enjeu majeur de la résilience des réseaux électriques Le transformateur de puissance est un élément indispensable du réseau qui est utilisé en continu. En France, 70% de la production d’électricité passe par les 58 transformateurs en sortie des tranches nucléaires. Similairement, aux États-Unis les transformateurs de puissance représentent moins de 3% des transformateurs des postes électriques américains, mais ils supportent 60% à 70% de l'électricité du pays. La Federal Energy Regulatory Commission (FERC) a identifié 30 d'entre eux comme étant critiques. La perte simultanée de seulement 9 d'entre eux, dans diverses combinaisons, pourrait paralyser le réseau et conduire à une panne en cascade, entraînant un blackout total du réseau d'électricité, d'une côte à l'autre[xvii]. Dans cette section, nous démontrons l’importance de planifier et assurer la disponibilité des transformateurs de puissance pour augmenter la résilience de l’approvisionnement en électricité face au changement climatique. Le changement climatique accélère la nécessité des États-Unis de renouveler son parc de transformateurs de puissance Retournons aux États-Unis, où en 2012 une tempête désignée « SuperStorm Sandy », d’une intensité particulièrement forte, frappe la côte Est des États-Unis. L’impact total de cet aléa extrême est estimé à 32 milliards de dollars de dommages et de pertes. En particulier, la tempête a provoqué l’explosion d’un transformateur de puissance de la compagnie ConEd contribuant à un blackout privant d’électricité plus de 8,1 millions de foyers et entreprises à New York et ses environs, dont 800 000 pendant 10 jours[xviii]. L’explosion aurait été provoquée par l’infiltration d’eau dans le transformateur, un défaut d’isolation lié à l’usure. Un tel évènement aurait eu moins de chances de se produire sur un transformateur moderne, ces derniers étant désormais équipés d'un réservoir de gel de silice qui absorbe l'eau de l'air entrant dans l’appareil[xix]. Cet évènement est un exemple de la nécessité du pays de renouveler son parc de transformateurs dans les prochaines décennies. En effet, comme mentionné précédemment, le parc de transformateur américain est vieillissant, et la probabilité qu’un transformateur soit hors d’usage augmente avec son âge. La Figure 6, présentant l’historique des installations de transformateurs du pays associée à la courbe de taux de défaillance du transformateur, démontre la situation critique des États-Unis à cet égard. Figure 6 – Historique d’installation de transformateurs de puissance aux États-Unis et courbe du taux de défaillance en fonction de l'âge des transformateurs[xx] La situation est d’autant plus alarmante en prenant en considération les sensibilités climatiques des transformateurs (cf. Figure 2), car la durée de vie de ces derniers risques d’être raccourcie plus encore par les aléas climatiques, qu’ils soient chroniques ou aigus. Une étude[xxi] a modélisé l’impact de l’augmentation de la température de l’air ambiant sur la durée de vie des transformateurs[2] et montre que, à l’horizon 2090, les transformateurs de puissance américains perdront jusqu’à 35% de leur durée de vie selon le scénario d’émissions RCP 8.5. Les résultats de l’étude sont présentés en Figure 7. Figure 7 – Impact de l’augmentation des températures de l’air ambiant sur la durée de vie des transformateurs de puissance aux États-Unis en 2090 par rapport à la référence, selon un scénario RCP 8.5xxii Une tension croissante de l’approvisionnement en transformateurs de puissance est à prévoir Les éléments présentés précédemment démontrent que les États-Unis, et très probablement d’autres pays aussi, devront renouveler leur parc de transformateurs de puissance. Or, la capacité de production mondiale de ces appareils est déjà à flux tendu. En effet, le cœur des transformateurs est fait d’acier électrique (un alliage de fer aux propriétés magnétiques spécifiques). La production de cet alliage est limitée, avec moins de 10 producteurs dans le monde pour cette qualité d’acier. Cette matière première constitue 25% du coût final d’un transformateur et il y a une compétition forte sur son approvisionnement, car l’acier électrique est aussi indispensable pour la fabrication des stators (éoliennes, turbines), et des moteurs électriques. Par exemple, le prix de cet alliage a triplé entre 2011 et 2013[xxii]. On observe d’ailleurs que les délais de livraison des transformateurs s’allongent. Pendant des années, les fournisseurs ont pu livrer les nouveaux transformateurs dans un délai moyen de 8 à 12 semaines après la passation de la commande. Les délais de livraison sont maintenant d’environ 12 mois, et parfois plus longs[xxiii]. Le sujet est connu des autorités aux États-Unis, puisqu’en 2017, le US Department of Energy recommande au Congrès la constitution d’un stock d’État de transformateurs de puissance[xxiv]. Ainsi, une tension croissante sur l’approvisionnement en transformateurs de puissance est à prévoir du fait que (i) de nouveaux transformateurs seront nécessaires pour supporter l’extension du réseau électrique des pays en développement et (ii) la décarbonation des pays développés induira une hausse de la demande en acier électrique, nécessaire à la fabrication des transformateurs, pour la fabrication d’éoliennes et de véhicules électriques. En conclusion, il est permis d’affirmer : Que les infrastructures de transmission et distribution de l’électricité, et pas uniquement les capacités de production, sont sensibles à des aléas climatiques dont la fréquence et l’intensité vont être modifiées par le changement climatique. Qu’aux États-Unis particulièrement, les infrastructures sont vieillissantes et de plus en plus vulnérables aux aléas climatiques. Que le dérèglement climatique va imposer une tension croissante sur les transformateurs, un élément critique des infrastructures de transport et de distribution du réseau électrique. Que les projections climatiques fournissent des informations très utiles et exploitables pour anticiper ces changements et planifier des actions d’adaptation visant la résilience du réseau électrique. Cette analyse met en avant l’importance d’évaluer les risques physiques liés au changement climatique à une échelle la plus opérationnelle possible, afin de dégager les vulnérabilités climatiques des processus essentiels aux activités et les capacités d’adaptation qu’il est possible de mettre en œuvre pour augmenter sa résilience face au changement climatique. Contactez-nous pour plus d'information sur notre accompagnement - [1]Terme anglais pour désigner une panne de courant généralisée [2] Les transformateurs sont généralement refroidis avec des dissipateurs thermiques à convection à base d'huile. Ces systèmes de refroidissement développent parfois des « points chauds », qui peuvent endommager le papier isolant qui empêche les courts-circuits. Des températures de fonctionnement plus élevées réduisent la durée de vie prévue des transformateurs car ce papier isolant vieillit plus rapidement. [i]https://www.iea.org/data-and-statistics/data-tables?country=WORLD&energy=Balances&year=2018 [ii]https://www.iea.org/commentaries/the-world-s-electricity-systems-must-be-ready-to-counter-the-growing-climate- [iii]https://time.com/5939633/texas-power-outage-blackouts/ [iv] A. Cheimanoff, L. Feignier, J.C. Gougeuil, "Analyse des incidents d'exploitation conduisant à un fonctionnement dégradé: 1) Facteurs propices à un fonctionnement dégradé et mécanismes correspondants, 2) Analyse de quatre processus de dégradation", Revue Générale de l'Électricité (RGE), tome 87, n°3, mars 1978 [v]https://www.bbc.com/news/world-asia-india-19043972 [vi] Dumas, M., Kc, B., & Cunliff, C. I. (2019). Extreme weather and climate vulnerabilities of the electric grid: a summary of environmental sensitivity quantification methods (No. ORNL/TM-2019/1252). Oak Ridge National Lab.(ORNL), Oak Ridge, TN (United States). [vii] Finster, M., Phillips, J., & Wallace, K. (2016). Front-line resilience perspectives: The electric grid (No. ANL/GSS-16/2). Argonne National Lab.(ANL), Argonne, IL (United States). [viii]Mikellidou, C. V., Shakou, L. M., Boustras, G., & Dimopoulos, C. (2018). Energy critical infrastructures at risk from climate change: A state of the art review. Safety Science, 110, 110-120 [ix] Economic benefits of increasing electric grid resilience to weather outages, Executive Office of the President, 2013. [x] Kenward, A., & Raja, U. (2014). Blackout: Extreme weather, climate change and power outages. Climate central, 10, 1-23. [xi] https://science2017.globalchange.gov/chapter/7/ [xii] Janssen, E., D. J. Wuebbles, K. E. Kunkel, S. C. Olsen, and A. Goodman, 2014: Observational- and model-based trends and projections of extreme precipitation over the contiguous United States. Earth’s Future, 2, 99–113 [xiii] Janssen, E., R. L. Sriver, D. J. Wuebbles, and K. E. Kunkel, 2016: Seasonal and regional variations in extreme precipitation event frequency using CMIP5. Geophysical Research Letters, 43, 5385–5393, [xiv] https://science2017.globalchange.gov/chapter/6/ [xv] Williams, H. (2010). Transmission & distribution infrastructure. White Paper, Harris Williams & co Ltd, Richmond, VA, Summer. [xvi] https://www.revolution-energetique.com/californie-750-000-menages-prives-intentionnellement-delectricite-pour-prevenir-les-incendies/ [xvii] Parfomak PW (2014) Physical security of the U.S. power grid: high-voltage transformer substations. Congressional Research Service, p 6. [xviii] https://www.reuters.com/article/us-storm-sandy-powercuts-idUSBRE89T10G20121030 [xix] https://slate.com/news-and-politics/2012/10/hurricane-sandy-blackout-what-causes-transformers-to-explode.html [xx] Williams, H. (2010). Transmission & distribution infrastructure. White Paper, Harris Williams & co Ltd, Richmond, VA, Summer. [xxi] Fant, C., Boehlert, B., Strzepek, K., Larsen, P., White, A., Gulati, S., ... & Martinich, J. (2020). Climate change impacts and costs to US electricity transmission and distribution infrastructure. Energy, 195, 116899. [xxii] Hoffman, P., & Bryan, W. (2012). Large power transformers and the US electric grid. Report of US Department of Energy. [xxiii] https://www.umatillaelectric.com/transformer-shortage-cause-long-delays/ [xxiv] Strategic Transformer Reserve Report to Congress - March 2017
true
Et Soleil Vert c’est pour quand ? Des chercheurs de l’université de Floride ont reçu une bourse fédérale de 733.000 dollars pour mettre au point une vache génétiquement modifiée qui pourra s’adapter au réchauffement climatique. L’objectif est de conserver la qualité de la viande malgré les températures qui s’annoncent de plus en plus élevées dans l’avenir. Et si au lieu de lutter contre le changement climatique, nous l’acceptions et cherchions des solutions pour vivre avec ? Ce raisonnement, des chercheurs américains ont décidé de le mettre en pratique en essayant de mettre au point des vaches génétiquement modifiées qui pourront résister au réchauffement climatique. Plus de la moitié du bétail dans le monde vit déjà dans des environnements chauds et humides. Aux États-Unis, cela concerne 40 % des vaches, d’après Raluca Mateescu, qui travaille sur ce projet à l’UF/IFAS (University of Florida Institute of Food and Agricultural Sciences). La première étape de cette recherche consiste donc à étudier celles qui supportent le mieux la chaleur, ce qui est le cas de la Brangus, un croisement entre les races Angus et Brahmane. Les chercheurs espèrent trouver comment la vache Brangus contrôle sa température corporelle pour vivre dans des climats chauds. Lorsqu’ils auront identifié des variants génétiques intéressants, ils pourront utiliser un outil d’édition génomique (CRISPR) pour transmettre cette propriété à d’autres races. Rappelons que CRISPR a déjà permis de créer des vaches transgéniques résistantes à la tuberculose. Rachel Mateescu a expliqué à Digital Trends : « Le stress thermique est un des principaux facteurs limitant la production de protéines animales et affecte négativement la santé et le bien-être des bovins dans les régions subtropicales et tropicales, et son impact devrait augmenter considérablement en raison du changement climatique. D’où la nécessité de trouver des moyens de faire face au stress thermique pour améliorer la productivité de l’industrie du bétail des États-Unis et sécuriser les approvisionnements alimentaires mondiaux. » Insecticides et champignon pathogène : le cocktail mortel des abeilles
true
Votre Sainteté, Si le sort de nos frères humains, de la nature et de notre environnement est d’une importance capitale, il est tout aussi impératif, dans une démarche se revendiquant de la science, que les règles fondamentales de celle-ci soient scrupuleusement respectées. Force est de constater en lisant votre encyclique, Laudato Si’, dont la parution à quelques mois de la prochaine congrégation sur le changement climatique à Paris (COP21) donne un signal fort d’encouragement aux dirigeants de notre monde et aux organismes alarmistes non-gouvernementaux, et montre que vous avez choisi de vous aligner sur les thèses officielles basées sur les conclusions du GIEC (groupe intergouvernemental sur l’étude du climat). Au lieu de produire un rapport pour décideurs prudent et basé sur des preuves scientifiques irréfutables, cet organisme politique, émanation de l’ONU, nous propose des affirmations hautement spéculatives et purement théoriques présentées comme des vérités scientifiques affirmées. Au cours de ce processus, la science elle-même est pervertie. De nombreuses autorités politiques, morales et religieuses, toutes bien intentionnées, tentent d’offrir des solutions à des problèmes inexistants, basés sur une science tronquée et trompeuse, dont les conséquences risquent d’être dramatiques pour ceux-là mêmes que nous cherchons à aider. Aujourd’hui, lorsque des scientifiques utilisent des modèles climatiques simplistes pour simuler des systèmes naturels d’une complexité inouïe, tel le climat de la terre, ils oublient trop facilement, ainsi que le public et les décideurs, que les modèles informatiques ne sont pas la réalité mais seulement « de bien séduisantes simulations ». Si les résultats de ces prévisions sont en désaccord avec l’observation, alors les modèles, et non pas la nature, doivent être corrigés et la théorie sous-jacente jetée et remplacée. En climatologie, science aujourd’hui corrodée par le politique, l’inverse tient lieu de règle. Je viens d’en avoir une preuve supplémentaire en écrivant au Vice-Président de la Commission européenne, Maros Šefčovič pour lui en faire part. La réponse que j’ai reçue ne peut que désespérer d’un monde politique ignare de la réalité, à moins qu’il ne soit hypocrite pour ne pas se départir du politiquement correct, ce qui in fine est encore pire. Parallèlement à l’utilisation d’une science exacte et honnête, il est impératif de tenir compte, lors des décisions en matière de politique climatique, du bien-être des plus pauvres parce qu’ils sont les plus vulnérables et les moins en mesure de se protéger. Dès lors, nous devons éviter tout choix dogmatique ou idéologique qui entraverait leur ascension hors de la pauvreté. Il est préoccupant de constater que de nombreuses voix éminentes considèrent aujourd’hui l’humanité comme étant un fléau pour notre terre, estimant que l’homme est LE problème de notre planète. Ce n’est heureusement pas votre position. Mais il est quand même surprenant que vous défendiez une thèse qui est le fonds de commerce de ceux qui se battent pour limiter le parasite de la nature : l’homme. Affirmant que « la science du climat est totalement maîtrisée» et qu’un réchauffement climatique catastrophique dû à l’homme risque de perturber irrémédiablement notre planète d’ici l’an 2100, ces voix exigent l’abandon des combustibles fossiles, qui fournissent pourtant l’essentiel (86,3% en 2014) de l’énergie nécessaire à l’épanouissement humain, quand bien même cela signifie rester dans le dénuement ou y retourner. L’extrême pauvreté, la faim généralisée, les maladies endémiques et une existence pénible et écourtée étaient les conditions ordinaires de l’humanité jusqu’à ces derniers deux siècles et demi. Ces tragédies semblent normales pour les mouvements environnementaux qui préfèrent que les êtres humains vivent et soient traités comme de simples animaux se soumettant à la Nature, plutôt que de l’adapter à leur besoin tout en la respectant. La délivrance de la plus grande partie de l’humanité de la pauvreté matérielle absolue résulte notamment d’un accès à de l’énergie fiable, abondante et bon marché, générée à partir de combustibles à haute densité énergétique que sont les matières fossiles et nucléaires. En remplaçant l’animal, le muscle humain, y compris l’esclavage, le bois et la bouse séchée, les combustibles fossiles et nucléaires ont libéré les hommes des tâches associées à leur simple survie et ont engendré les immenses progrès scientifiques, technologiques et médicaux qui ont façonné notre société moderne. Sous l’impulsion de personnes influentes et de puissantes organisations internationales, s’est répandue l’idée que la production de CO2 conduisait à un réchauffement climatique dangereux et sans précédent historique. Toujours à l’affut pour exploiter les naïfs, le système financier est devenu le paladin de la cause tant il y a de l’argent à gagner grâce aux gigantesques subsides accordés pour faire diminuer de quelques pourcents à peine la part des énergies fossiles (elle a diminué de 0,4% de 2013 à 2014 !). Pourtant, à ce jour, aucune preuve scientifique n’est venue étayer cette affirmation, basée uniquement sur les résultats de modèles climatiques plus qu’imparfaits. Ceux-ci sont tellement peu fiables que 98% d’entre eux prédisent plus du double du réchauffement réellement mesuré. Non seulement y a-t-il une divergence croissante entre les observations de la température du monde réel et les simulations des modèles, mais aucun de ces modèles n’a été capable de prédire l’absence complète de réchauffement observée au cours des 18 dernières années, un comble pour « une science totalement maîtrisée ». De plus, les erreurs des modèles ne sont pas aléatoires, mais apparaissent clairement biaisées et constamment au-dessus des températures observées. Ces modèles obéissent aux demandes de leurs maîtres et de leurs financeurs, leur offrant une fausse légitimité scientifique sur laquelle ils formulent leurs désidératas et exigent de nouvelles lois liberticides, de plus en plus contraignantes. Les énergies renouvelables, en raison de leurs coûts élevés, de leur efficacité réduite et de leur intermittence, ne peuvent remplacer les énergies fossiles aussi simplement que l’on tente de nous le faire croire. La catastrophique transition énergétique allemande est une parfaite illustration de l’irrationalité d’une telle décision. Elle aurait dû servir d’exemple aux autres nations, tout comme le choix de Bill Gates et celui de Google d’abandonner les énergies renouvelables, après plus de 10 ans de recherches. Une telle substitution serait insupportable pour les pauvres de ce monde conduisant, non seulement à une augmentation du coût de l’énergie, mais aussi à celle des biens et des services qui en dépendent largement. La décision de remplacer les énergies fossiles par d’autres bien moins efficaces ralentira la sortie des pauvres de la précarité et pourrait même en renvoyer des millions d’autres à la misère. Plus de 1,3 milliard d’êtres humains n’ont pas accès du tout à l’électricité et plus de 2,7 milliards vivant dans les pays en développement dépendent encore du bois et de bouse séchée pour cuisiner et se chauffer. Les fumées produites par ces combustibles naturels, ces énergies renouvelables tant vantées, tuent plus de 4 millions de personnes chaque année et en handicapent des centaines de millions d’autres annuellement. L’Organisation Mondiale de la Santé (OMS) s‘en est vivement inquiétée et demande que l’on offre à ces malheureux un accès à une énergie « moderne ». Plus les coûts de l’énergie augmenteront, pire sera la situation des pauvres, y compris ceux des pays « riches ». Certains mourront de froid parce qu’ils ne pourront payer leurs factures d’électricité et de chauffage, comme observé au Royaume-Uni où des dizaines de milliers de personnes sont déjà mortes lors des hivers récents, en raison de la précipitation de la Grande-Bretagne à substituer l’éolien et le solaire au charbon. Les risques associés à l’indigence et à des politiques énergétiques erronées sont bien plus importants et plus graves que les hypothétiques dangers dus au changement climatique. Une richesse adéquate permet aux hommes de prospérer dans un large éventail de climats ; la pauvreté, elle, sape toute prospérité humaine, même dans le meilleur des climats. Il en résulte que la réduction de l’utilisation de combustibles fossiles condamne les sociétés pauvres à le rester et oblige leurs habitants à se sacrifier pour le bien des « riches » de ce monde. Il s’agit là d’une injustice manifeste et intolérable. Ce fut d’ailleurs une grande désillusion pour le mouvement environnementaliste que vous défendez dans votre encyclique lorsqu’en 2013, pour fêter les 20 ans du « Sommet de la terre » de Rio de Janeiro qui sanctifiait l’écologisme, la présidente Brésilienne Vilma Roussef est parvenue à modifier la déclaration finale afin qu’elle ne soit pas centrée sur l’écologisme politique – le changement climatique – mais au contraire sur la question de la pauvreté énergétique que je viens d’évoquer. Tandis qu’ajouter du dioxyde de carbone dans l’atmosphère ne semble pas provoquer le réchauffement climatique catastrophique tant espéré par certains (plus d’un tiers du CO2 produit par l’homme depuis l’ère industrielle a été émis dans l’atmosphère au cours de ces 18 dernières années sans que la température globale ne change d’un iota), le CO2 a un effet positif sur la vie des plantes. Avec plus de dioxyde de carbone dans l’air, les plantes poussent davantage, font un meilleur usage des nutriments du sol et de l’eau, résistent mieux aux maladies, augmentent leur production de fruits, élargissent leur territoire et « verdissent » la Terre. Davantage de nourriture devient ainsi disponible et, les rendements agricoles augmentant, l’alimentation devient plus abordable pour les pauvres de ce monde. Réduire le taux de CO2 – une action qui non seulement coûtera des trillions d’euros mais dont le résultat sur le réchauffement climatique est essentiellement nul –frappera de nouveau de plein fouet les populations pauvres que vous défendez tant, en augmentant les coûts de l’énergie et en réduisant la production alimentaire. Une telle décision est moralement inacceptable, condamnera des centaines de millions de nos frères humains à une pauvreté constante et ne peut décemment recevoir votre aval.
fake
C'est l'un des angles morts du mix énergétique à la française, l'éolien offshore, produisant de l'électricité en mer. Alors le gouvernement a décidé de fixer de grands objectifs pour y remédier, dans un pays qui sous-utilise une façade maritime comptant pourtant parmi les plus importantes au monde : d'ici 2050, un quart de la production d'électricité en France devra être issue d'éoliennes au large des côtes, a annoncé Annick Girardin ce dimanche. Le message est passé à travers une tribune publiée dans le JDD, écrite par la ministre de la Mer. Annick Girardin presse la France de rattraper son retard et estime qu'il s'agit ni plus ni moins d'une "révolution pour la transition écologique à l'échelle planétaire qui est en cours". Le parc éolien français en la matière est effectivement insignifiant comparé à certains voisins européens : le Royaume-Uni avait déjà posé 2225 éoliennes en mer fin 2019, l'Allemagne 1469, et le Danemark 559, contre une seule pour la France, "Floatgen", au large du Croisic (Loire-Atlantique). Pourtant, selon la ministre de la Mer, "notre pays possède le plus grand gisement d'énergie éolienne en mer de l'Union européenne". A titre de comparaison, fin 2019, le parc "terrestre" comportait 8000 éoliennes produisant 16,5 gigawatts. Annick Girardin avance des objectifs chiffrés : "25% de l'électricité française pourrait être produite en mer" en 2050, avec 10 milliards d'euros de chiffre d'affaires en perspective pour la filière et 5000 emplois directs et non délocalisables. L'objectif est cohérent compte tenu de l'orientation fixée le 19 novembre par la Commission européenne. Pour l'instant, la capacité offshore des pays d'Europe se situe à 23 gigawatts. Elle doit être portée à 60 d'ici à 2030, puis 300 gigawatts en 2050. Une énergie qui ruissellera dans l'Hexagone, estime auprès de L'Express la chercheuse du CNRS Anne Blavette, spécialiste des énergies renouvelables au laboratoire Satie et rattachée à l'ENS de Rennes : "S'il y a une grosse part d'éolien offshore en Europe, il y en aura forcément en France, qui possède une façade maritime très importante. Notre pays a un très bon potentiel énergétique éolien et il est logique que sa part dans l'électricité française augmente dans le futur." Autant prendre le train en marche, semble dire Annick Girardin dans sa tribune. Elle s'interroge : "Pourquoi la France se tiendrait-elle à l'écart d'une telle révolution ? Conservatisme, frilosité par rapport aux évolutions technologiques ? Préférence pour d'autres énergies ? Crainte de froisser les usagers traditionnels de la mer ? Concurrence avec la pêche ? Peur de dénaturer les paysages maritimes ? Mise en danger des trésors de biodiversité marine ? Coût faramineux ?" Certaines de ces questions soulèvent néanmoins des réponses contrastées. Le coût, par exemple, est bien un frein, pour l'instant. La particularité négative de l'éolien est connue, elle réside dans sa variabilité, sa production étant fluctuante au gré du vent, littéralement. Pour parer au problème, il faut stocker les surplus d'électricité. Or cette technologie a un coût en termes d'infrastructures. Le Pacte vert pour l'Europe (European Green Deal) prévoit néanmoins de gros investissements pour résoudre cette problématique, avec des pistes pour des solutions de stockage et de gestion énergétique à base d'hydrogène, ou encore de circuits électrochimiques. "J'aurais tendance à être plutôt confiante. En Europe, le paysage de la recherche au niveau académique comme industriel est très bon. Nous avons tous les atouts et les investissements promis dans ce secteur devraient nous permettre d'atteindre ces buts", assure Anne Blavette.
true
Le blocage anticyclonique sur le nord de l’Europe qui a débuté début mai a provoqué des records de chaleur, notamment en Scandinavie. Selon le site Meteo Contact la vague de chaleur est comparable à celle de l’été 1997 avec une anomalie de température positive de +6°C sur l’ensemble de la Scandinavie. Le Figaro consacre le 12 juillet une double page à l’événement titrant « coup de chaleur extrême sur toute la planète ». Robert Vautard, chercheur à l’Institut Pierre-Simon Laplace y livre son verdict : « Il y a peu de doute quant au rôle des activités humaines et de l’émission des gaz à effet de serre sur les vagues de chaleur actuelles ». Le Figaro évoque également un mois de juin chaud aux États-Unis confondant ainsi climat et météorologie comme le dit le climatologue Roy Spencer qui explique dans cet article pourquoi cette vague de chaleur n’a rien d’exceptionnel. Les blocages anticycloniques sont courants en été Frédéric Decker Météorologue du site meteo.org explique dans un interview au journal Atlantico que les blocages anticycloniques sont courants en été. Ils se produisent même parfois au printemps (comme en 2011 en Europe occidentale), ou en automne, (comme en 2015 également sur l’Europe). Ils n’ont rien d’inédit : entre décembre 1920 et mai 1922, soit pendant un an et demi, des récurrences anticycloniques s’étalaient sur quasiment tout l’hémisphère Nord, provoquant une sécheresse record en Russie, en Europe et en Amérique du Nord…l’été 1921 fut d’ailleurs « brûlant » selon la presse de l’époque… Nous sommes loin cette année de cette configuration. Nous sommes loin aussi des canicules de l’été 2010 en Russie ou de l’été 2003 en Europe. Depuis le pic de chaleur provoqué par l’événement El Niño, la planète refroidit L’année 2018 se classera sans doute au cinquième rang des années les plus chaudes depuis le début des mesures. Mais l’on voit clairement sur le graphique ci-dessous établi par l’agence américaine NOAA qu’après le pic de chaleur des années El Niño 2015 et 2016, la planète se refroidit (la courbe 2018 est en noir superposée à celle de 2010 e vert). Évaluée sur un période de 30 ans (1981-2010), l’anomalie de température est de 0,13°c par décennie. Selon les mesures satellitaires (système UAH), l’anomalie de températures de la basse troposphère (écart par rapport aux moyennes mensuelles de la période de 30 ans, 1981-2010), est de + 0,21°C en juin 2018 (légèrement supérieur à la valeur de mai de + 0,18 °C). La tendance linéaire des anomalies moyennes de température entre janvier 1979 et juin 2018 s’établit ainsi à + 0,13 ° C par décennie. Les incendies ne sont pas la signature du réchauffement climatique Ni en Suède La Suède, mais aussi la Finlande (et dans une moindre mesure la Norvège) font face à des feux de forêts particulièrement violents. « C’est ce qui attend l’Europe » a déclaré Jean Jouzel à Sciences et avenir, suggérant que ces incendies sont causés par le réchauffement climatique. Or lorsque l’on consulte les statistiques fournies par le système Effis (European Forest Fire Information System) on ne constate aucune tendance à l’augmentation du nombre ni de l’intensité des feux de forêt en Suède. Les trois graphiques ci-dessous extraits d’un rapport de la Commission Européenne montrent respectivement les surfaces brûlées, le nombre de feux, la surface moyenne brûlée par incendie entre 1990 et 2014. Le pic de 2014 correspond à l’incendie de Västmanland qui a brûlé 15000 hectares. Les statistiques de L’agence suédoise pour la forêt (Sweedish Forest Agency) permettent de remonter plus loin dans le passé : Les 2 diagrammes ci-dessous montrent l’évolution du nombre d’incendies et des surfaces brûlées entre 1944 et 2014 (avec une interruption entre 1980 et 1998 en raison d’un changement de méthode statistique) ne font apparaître aucune tendance significative. Suède : variation annuelle de la fréquence des feux de forêt et de la surface brûlée (1944-2014) Source : Université de Göteborg (Droughts and wildfires in Sweden) Et pas davantage en Grèce A propos des incendies survenus en Grèce, Jean Jouzel à déclaré à France Info le 24 juillet : « le nombre de décès liés aux catastrophes climatiques serait multiplié par 50. On pourrait passer jusqu’à 150 000 morts en Europe liés au réchauffement climatique et en particuliers aux canicules. On rentre dans un autre monde, c’est maintenant qu’il faut agir ». Les trois diagrammes ci-dessous extraits du rapport de la Commission Européenne montrent sur une période de 36 ans (1980-2016) une grande variabilité annuelle mais aucune tendance à l’augmentation du nombre ou de l’intensité des incendies en Grèce, en liaison avec un supposé réchauffement climatique. S’il faut agir comme le souhaite Jean Jouzel, c’est au gouvernement grec de le faire en améliorant la qualité de son système de prévention et de lutte contre les incendies pour le plus grand bien de sa population qui paye chaque année un lord tribut aux feux (plus de 80 victimes en juillet 2018).
fake
« J’ai tout de suite pensé qu’il avait raison » : ils ont voté René Dumont, candidat écolo en… 1974 René Dumont fut le premier candidat écologiste à la présidentielle en France. Il a récolté 1,32 % des voix, en 1974. À l’heure de la primaire écologiste pour la présidentielle de 2022, un homme et une femme, qui ont voté pour lui, racontent pourquoi ils avaient fait ce choix à une époque où on parlait très peu d’écologie. « Quand j’ai écouté et vu René Dumont avec sa pomme et son verre d’eau à la télévision, j’ai tout de suite pensé qu’il avait raison. On avait raison avant tout le monde en fait », lâche Christiane Durchon, 71 ans, sans forfanterie. Au premier tour de la présidentielle de 1974, elle a voté pour cet ingénieur agronome, premier candidat écologiste en France à cette élection. Aujourd’hui, ses discours ne dépareilleraient pas au second tour de la primaire écologiste du 25 au 28 septembre pour la présidentielle de 2022. Christiane Durchon, elle, a alors 24 ans. Elle vit avec son mari et ses deux enfants, près de Coutances, dans la Manche, le département où elle a grandi, et travaille dans l’administration fiscale. « Je n’étais pas politisée, raconte-t-elle, mais je venais d’un milieu rural et j’avais commencé à voir dégâts de la politique agricole sur l’environnement. Mes parents étaient de petits paysans. » « Je ne suis pas un candidat doux-rêveur » À l’époque, c’est la fin des Trente glorieuses, les Français s’emballent pour la R5, le film Les Valseuses secoue le cinéma, le pays conquiert l’autosuffisance alimentaire en augmentant les rendements agricoles, en « remembrant » les terres et en modernisant les fermes. La mort de Georges Pompidou entraîne l’organisation d’élections anticipées. René Dumont, 70 ans, se présente à la demande d’un certain nombre d’associations et de personnalités de l’écologie. Un terme encore peu connu du grand public. Cette candidature est justement l’occasion de diffuser ces idées. « Je ne suis pas un candidat doux-rêveur », assure René Dumont, pétri par 45 ans de travail, notamment dans le tiers-monde, comme on disait à l’époque. L’agronome détonne dans le paysage politique d’alors, tout comme ses mises en scène. « Nous allons bientôt manquer d’eau. C’est pourquoi je bois devant vous cette eau précieuse, puisqu’avant la fin du siècle, si nous continuons un tel débordement, elle manquera », déclare-t-il face caméra. « On nous accuse d’être des prophètes de malheur et d’annoncer l’apocalypse. Mais l’apocalypse, nous ne l’annonçons pas, elle est là parmi nous, dans les nuages de pollution qui nous domine, dans les eaux dégoûts que sont devenues nos rivières nos estuaires et nos littoraux marins… » Il promeut le vélo, ne veut pas coller ses affiches partout, alerte sur la dépendance au pétrole, le « pillage du tiers-monde », le gaspillage « inouï » des matières premières, l’augmentation des déchets… « Dans quel monde mes enfants allaient-ils vivre ? » « Il a marqué les esprits », rappelle Christiane Durchon, qui votait pour la première fois à une présidentielle. Pourquoi l’a-t-elle choisi, plutôt que Mitterrand, Giscard, Chaban-Delmas, Laguiller ou Le Pen, qui étaient aussi candidats ? « Je voyais les premiers dégâts à la campagne : les produits de traitement vendus à des agriculteurs qui ne les connaissaient pas », commence-t-elle. Elle se souvient que son père avait retrouvé plusieurs perdrix mortes au fond d’un champ, au lendemain... Il vous reste 70% de cet article à lire. 1re semaine offerte Annulable à tout moment
true
C'est l'un des effets positifs de la crise du coronavirus. Depuis le début du confinement, la qualité de l'air s'est nettement améliorée en France. "Sur les stations représentatives de l'exposition de la population à la pollution due au trafic, la différence avant/pendant le confinement est de 30 à 75% suivant les villes", estime ainsi ATMO France dans son dernier communiqué daté du 21 avril, même si la réduction en particules fines a été moins importante, du fait de la météo. Entre la réduction de la production d'électricité venant du charbon de 40% et la consommation de pétrole de près d'un tiers, ainsi que le trafic routier, à l'échelle de l'Europe, les concentrations de dioxyde d'azote (NO2) et des particules fines PM2,5 ont diminué respectivement de 37% et 10%, selon une étude du Centre de recherche sur l'énergie et l'air (CREA). 11 000 vies pourraient ainsi avoir été épargnées en Europe. Actuellement, selon les statistiques d'AirParif, qui surveille la pollution de l'air en Île-de-France, tous les points sont au vert. Une situation qui pourrait ne pas durer avec la fin du confinement et une reprise, même graduelle, de l'activité. Pour Pierre Pernot, ingénieur à Airparif, interrogé par L'Express, il est toutefois encore trop tôt pour prévoir. "On ne sait pas encore comment le déconfinement va concrètement se passer, il y a encore trop d'incertitudes". Et une autre inconnue paraît impossible à résoudre pour le moment : la météo. C'est un facteur déterminant sur la qualité de l'air, notamment en ce qui concerne les particules fines. "S'il pleut et qu'il y a du vent, les particules se dispersent, alors qu'avec un temps sec et calme, elles s'accumulent", explique l'ingénieur à AirParif. LIRE AUSSI >> Coronavirus : pourquoi l'exposition à la pollution de l'air est un facteur aggravant Toutefois, une reprise du trafic routier aura un impact inévitable sur la qualité de l'air par rapport aux données enregistrées pendant le confinement. "En fonction des étapes de la reprise d'activité et du choix de mobilité des Franciliens, l'air pourrait être plus ou moins pollué qu'avant le confinement", explique-t-il.
true
La Belgique va décider d’ici quelques semaines de sortir du nucléaire lui fournissant aujourd’hui la moitié de son électricité. À moyen terme il serait remplacé par des centrales à gaz nouvelle génération. Mais, selon ECOLO, à plus longue échéance la Belgique devrait opérer le virage vert rêvé de tous. Le gaz serait alors abandonné au profit d’un mix 100 % renouvelable (ENR). Cette stratégie relève-t-elle d’une véritable logique climatique ou constitue-t-elle pour le plat pays un suicide programmé ? La transition énergétique sera avant tout une transition électrique, la plupart des équipements thermiques étant à terme remplacés par des équipements électriques. Ce grand remplacement induira un accroissement significatif de la consommation électrique. En Belgique, elle devrait doubler d’ici 2050, passant de 90 TWh à 200 TWh. Le « Belgium Energy Outlook 2050 » publié en 2019 par la plateforme énergétique de la FABI avait considéré que la part d’ENR dans le mix énergétique ne pourrait excéder 50 % mais que dès 35 %, les intermittences pouvaient provoquer de graves instabilités dans le réseau. Techniquement faisable, un mix 35 % renouvelables et 65 % gaz serait-il pour autant économiquement viable ? L’UTOPIE D’UNE GÉNÉRATION ÉLECTRIQUE 100 % VERTE Considérant des facteurs de charge1 de 20 % pour l’éolien terrestre et de 50 % pour l’éolien marin, 35 % d’énergie renouvelable nécessiteront de mettre en œuvre à l’horizon 2050 40 GW d’éolien terrestre (soit 20 000 éoliennes équivalentes de 2 MW) ou 16 GW d’éolien marin (soit 2000 éoliennes équivalentes de 8 MW). Quand on compare à la situation 20192 (8,5 GW d’ENR ayant produit 13,9 TWh d’électricité avec un facteur de charge de 18%) la course vers 35 % de renouvelables en 2050 représente un réel défi industriel et sociétal. Ces chiffres démontrent par ailleurs sans ambiguïté l’utopie d’une génération électrique 100 % verte. Les besoins atteindraient alors 114 GW en éolien terrestre ou 45 GW en éolien marin. Le nombre d’équipements deviendrait délirant : il faudrait installer une éolienne terrestre tous les 700 mètres sur les 30 000 km2 du territoire belge ou une éolienne marine tous les 11 mètres sur les 65 km du littoral. Une génération électrique 100 % verte ne protégerait pas pour autant des intermittences, le Belge devant adapter sa consommation électrique aux aléas de la nature. Elle signifierait l’entrée inexorable dans une société de décroissance. UN ACCROISSEMENT DOULOUREUX DU PRIX DU MWH Sans nucléaire, les 65 % restants proviendraient du gaz et nécessiteraient la mise en œuvre de 18 GW de centrales TGV3. À l’horizon 2050, la Belgique importerait 220 TWh de gaz dont la combustion émettrait 45 millions de tonnes de CO2. Une stratégie n’allant pas vraiment dans le sens de l’histoire. Mais surtout, la facture serait très salée pour le citoyen belge. Depuis 2018, on assiste sur les marchés du gaz à une baisse de l’offre liée à la faiblesse des investissements mais surtout à une augmentation frénétique de la demande à la fois en Europe et dans le Sud-Est Asiatique. En conséquence, depuis début 2021 les cours du gaz ont flambé sur les marchés européens dépassant lors des dernières semaines le seuil fatidique des 100 euros/MWh. Si certains économistes considèrent cette hausse comme conjoncturelle, tous les indicateurs (réserves, production, demande) montrent que le prix moyen du gaz ne devrait pas baisser au cours des prochaines années. Parallèlement au gaz, les marchés du carbone se sont aussi envolés. Mécaniquement le MWh électrique gazier atteint aujourd’hui 180 euros. De tels cours conduiraient en 2050 à une facture stratosphérique annuelle de 23 milliards d’euros. De quoi grever à tout jamais la balance des paiements du plat pays. Il est intéressant de comparer ce prix à celui du MWh nucléaire « caréné »4 de l’ordre de 65 euros et à celui de l’EPR qui malgré l’explosion de ses coûts devrait converger à terme autour de 100 euros. En justifiant économiquement la sortie du nucléaire par le « mécanisme de rémunération de capacités » permettant à la Belgique de récupérer une partie de ses investissements gaziers, la ministre de l’Énergie fait preuve d’une méconnaissance coupable. Pour la génération gazière, le coût des installations ne représente qu’une partie infime du coût du MWh alors que le coût du combustible en couvre plus de 95 %. Pour le nucléaire ce sont au contraire les installations qui font le prix alors que le combustible (l’uranium) ne compte que pour quelques pourcents. Il n’y a donc aucune comparaison entre les risques inflationnistes liés à la volatilité des prix du gaz et ceux de l’uranium. Le choix unilatéral du gaz reviendrait indirectement à brader une indépendance énergétique chèrement acquise. Quant à l’argument « qu’une partie très limitée de notre gaz vient de Russie et que la Belgique possède grâce au port de Zeebrugge une capacité de regazéification de 17 millions de m³ par an » il n’est pas davantage recevable. Le prix du gaz naturel liquéfié tiré vers le haut par la demande chinoise est aujourd’hui supérieurs au prix du gaz russe. En sortant du nucléaire pour foncer tête baissée vers le gaz la Belgique court vers un suicide économique programmé mais aussi vers de graves troubles sociaux. Emmanuel Macron qui à mi-mandat avait été confronté au mouvement des Gilets jaunes en sait quelque chose. Sa volte-face récente à propos du nucléaire est évidemment étroitement liée à l’envolée récente des prix du gaz et de l’électricité. Elle atteste de sa conviction quant à la nature structurelle de l’accroissement des prix. La Belgique ne pourra certes mettre en œuvre 18 GW de nucléaire et devra reposer en partie sur génération gazière. En carénant ses réacteurs existants (12 euros/MWh de surcoût) et en lançant la construction de 4 EPR, la consommation d’électricité 2050 reposerait alors sur un mix « arc-en-ciel » 35 % ENR, 45 % nucléaire et 20 %gaz. Arc-en-ciel était le nom de la coalition qui en 2003 avait décidé de la sortie du nucléaire. Un juste retour de l’Histoire.
fake
L’analyse en laboratoire d’échantillons d’eau et de neige collectés pendant une expédition de Greenpeace en Antarctique a révélé la présence de microplastiques (1) et de produits chimiques persistants dans une majorité des prélèvements testés. Il existe relativement peu de données sur la présence de microplastiques dans les eaux de l’Antarctique et cette analyse fournit de nouvelles informations précieuses sur la présence et la nature de la contamination dans cette région. « On pourrait penser que l’Antarctique est un espace lointain et préservé, déclare Hélène Bourges, responsable de la campagne Océans pour Greenpeace France. Mais entre la pollution, les impacts des changements climatiques et la pêche industrielle au krill, l’empreinte de l’être humain est très visible. Ces résultats montrent que mêmes les zones les plus reculées en Antarctique sont contaminées avec des déchets de microplastiques et des produits chimiques persistants dangereux. » Les résultats de l’analyse Sur huit échantillons d’eau de mer de surface analysés, sept contenaient des microplastiques tels que des microfibres (au moins un élément de microplastique par litre testé). De plus, neuf autres échantillons ont été prélevés en utilisant un filet conçu spécialement pour les prélèvements de surface et des fragments de microplastiques ont été détectés dans deux d’entre eux. Sept des neuf échantillons de neige testés contenaient des concentrations détectables de produits chimiques persistants tels que des alkyls perfluorés ou polyfluorés. Ces produits chimiques sont utilisés largement dans le cadre de nombreux procédés industriels et dans des produits de consommation. Il a été démontré qu’ils sont responsables de troubles des fonctions reproductives et du développement chez les animaux sauvages. Les échantillons de neige collectés incluent de la neige fraîchement tombée, ce qui suggère que les produits chimiques dangereux ont été déposés depuis l’atmosphère. Lire le rapport de Greenpeace International en anglais « Du plastique a été trouvé aux quatre coins du globe, de l’Arctique à l’Antarctique et même jusque dans la fosse des Mariannes, l’endroit le plus profond de l’océan, poursuit Hélène Bourges. Nous devons agir à la source afin de réduire le flot de ces polluants qui se déversent dans nos océans. Et nous avons également besoin de vastes sanctuaires marins dans tous les océans, à commencer par l’océan Antarctique. Ce sanctuaire serait un refuge pour de nombreuses espèces telles que les manchots, les phoques et les baleines. » Une campagne pour créer la plus grande surface protégée de la planète Les échantillons ont été recueillis pendant une expédition de trois mois menée par Greenpeace en Antarctique entre janvier et mars 2018. L’organisation environnementale a conduit des recherches scientifiques notamment grâce aux plongées d’exploration du plancher océanique. Cette expédition s’inscrit dans le cadre d’une campagne mondiale de Greenpeace pour obtenir la création d’un sanctuaire marin en Antarctique d’une superficie de 1,8 million de km2, soit cinq fois la taille de l’Allemagne. Une pétition en faveur de ce sanctuaire a déjà récolté 1,7 million de signatures. Il s’agirait de de la plus grande surface protégée de la planète. Cette proposition est portée par l’Union européenne au sein de la Commission pour la conservation de la faune et la flore marines de l’Antarctique (CCAMLR). Elle sera examinée en octobre 2018 par ses États membres, dont la France. (1): Les microplastiques sont des fragments de plastiques d’un diamètre inférieur à 5 millimètres. Les microplastiques dits primaires, tels que les microbilles de plastiques par exemple, sont directement fabriqués par l’être humain. Les microplastiques dits secondaires proviennent d’objets en plastique plus grands (bouteilles, sacs…) qui se désagrègent au fil du temps. Les fibres de microplastiques peuvent quant à elles provenir d’habits et de pièces de tissu variées. Des photos et vidéos du prélèvement d’échantillons par Greenpeace en Antarctique sont disponibles en suivant ce lien.
true
Le 2 décembre 1959 à 21 h 13, il y a 60 ans jour pour jour, le barrage de Malpasset1, cédait sous l’effet de pluies diluviennes. Une vague de 45 m de haut déferlant à plus de 70 km/h déversa dans la plaine de l’Argens 50 millions de m3 d’eau. Vingt minutes plus tard, elle atteignit les quartiers ouest de Fréjus et balaya tout sur son passage avant de se jeter dans la mer. On dénombra 423 victimes et les dégâts matériels furent considérables : routes, voies ferrées, fermes et immeubles furent totalement détruits. Durant la seconde quinzaine de novembre 1959, 500 mm d’eau étaient tombés en dix jours dont 130 mm la seule journée du 2 décembre. La crue très violente qui s’ensuivit provoqua un accroissement très rapide du niveau de la retenue. Pour éviter d’endommager le pont en construction de l’Autoroute Esterel-Côte d’Azur situé 1 km en aval, la vidange du barrage fût décidée beaucoup trop tard et ne permit pas d’éviter ce désastre considéré comme la catastrophe la plus meurtrière de l’histoire française. De telles précipitations sont périodiques dans l’arc méditerranéen à cette époque de l’année. Leur violence est toujours à l’origine de crues importantes et de débordements de rivières. Les inondations meurtrières suites aux crues de l’Argens, de la Siagne et du Riou fin novembre et début décembre 2019 sont venues nous rappeler cette dure réalité. Doit-on pour autant corréler ces crues comme on le fait de plus en plus systématiquement avec le réchauffement climatique ? CLIMAT ET MÉTÉO : DEUX SCIENCES DISTINCTES Climat et météo sont deux sciences distinctes quant à leur temporalité et leur spatialité. La météorologie est la science des nuages, de la pluie et du vent. Elle se définit par quelques valeurs instantanées et locales de température, de précipitations, de pression ou d’ensoleillement. Un événement météorologique se produit sur le pas de votre porte, dans l’heure, la journée ou au plus la semaine. Le climat s’attache au contraire à décrire des événements météorologiques sur des périodes de plusieurs dizaines d’années mais aussi sur de vastes zones géographiques. Il prend en compte les conditions moyennes de l’atmosphère et dépend d’un grand nombre de paramètres comme les radiations solaires, la végétation, la composition de l’atmosphère ou encore l’évolution de la surface glaciaire. La catastrophe de Malpasset vient nous rappeler 60 ans après que des pluies diluviennes fin novembre sur l’arc méditerranéen sont un phénomène connu dont l’occurrence est répétitive. Même si le climat en accélère la fréquence, elles relèvent davantage de la météo et non du climat. DÉRÈGLEMENT CLIMATIQUE ET COMPENSATION FINANCIÈRE Pourtant, pour des raisons idéologiques, par opportunisme ou simplement par ignorance, l’opinion publique, les médias et le monde politique ont aujourd’hui une fâcheuse tendance à les confondre. Toute crue, inondation, cyclone ou sécheresse qui pour l’essentiel relève de la météo est de plus en plus souvent assimilée au dérèglement climatique. Ainsi en utilisant le slogan bien commode « ceux qui dérèglent, doivent payer », plusieurs communes françaises ayant subi de lourds dégâts suite à de fortes inondations ont décidé sous couvert de dérèglement climatique, d’attaquer en justice…un grand groupe pétrolier. Une méthode parfois bien commode qui pourrait permettre à des édiles de se défausser vis-à-vis de leurs administrés.
biased
Une tempête hivernale en cours de formation au large de la Floride pourrait s'intensifier extrêmement vite dans les jours à venir. Toute la côte Est du pays est en alerte. Une tempête hivernale d'une rare intensité est en cours de formation au large de la côte sud-est des États-Unis. Des médias américains, tels que Mashable et le Washington Post, évoquaient même mardi soir une possible « bombe cyclonique ». En météorologie, le terme de « bombe » qualifie la formation extrêmement rapide d'une dépression très intense. Il faut techniquement que la pression chute de plus de 24 millibars en moins de 24h pour que l'on puisse qualifier une tempête de «bombe». Or le National Weather Service américain (équivalent de Météo-France) prévoyait justement un « creusement » de la dépression de 44 millibars entre mercredi et jeudi matin (heure locale) au fur et à mesure qu'elle remonte vers le nord. La pression pourrait même chuter à 950 millibars jeudi soir, lorsque la tempête sera remontée au large des côtes de la Nouvelle-Angleterre, à l'extrême nord-est du pays. Ce type de basse pression est typique de ce que l'on rencontre au cœur d'un cyclone tropical de catégorie 3, mais ce serait quasiment du jamais vu pour une tempête hivernale dans cette région. D'où le terme de « bombe cyclonique ». Le moteur de cette tempête serait alimenté par la très grande différence de températures entre la grosse poche d'air polaire coincée au-dessus du Canada et des États-Unis et les eaux de surface particulièrement chaudes du courant océanique Gulf Stream dans l'Atlantique. Le terme de «bombe» ne qualifie que l'explosivité du phénomène et ne présage en rien des dégâts qui sont attendus. Tout dépendra de la trajectoire précise de la dépression. Mercredi matin, l'intégralité de la côte Est, de la Floride à la Nouvelle-Angleterre, était placée en alerte «tempête hivernale» ou «blizzard». Les régions les plus au sud pourraient être touchées par quelques chutes de neige éparses ou des pluies verglaçantes inhabituelles pour la région, quand le nord, Boston notamment, pourrait être balayé de vents violents pouvant atteindre 80 km/h conjugués à des chutes de neige intenses atteignant plusieurs dizaines de centimètres dans la journée de jeudi. En raison de coefficients de marée élevés, des inondations côtières «mineures à modérées» sont possibles en fonction de la hauteur des vagues, prévient aussi le Weather Prediction Center. Les prévisions pour la ville de New York oscillent encore entre chutes de neige importantes (entre 5 et 10 cm) et tempête de neige intense (quelques dizaines de centimètres) en fonction de l'évolution de la trajectoire de cette tempête. Une légère bifurcation vers l'ouest pourrait avoir d'importantes répercussions sur la météo de toute cette région très densément peuplée des États-Unis. Puis la dépression poursuivra sa route vers le Canada et Québec. Quel que soit le scénario, les prévisionnistes américains anticipent un brusque refroidissement consécutif au passage de la tempête. La vague de froid polaire qui est actuellement bloquée dans la baie Hudson au Canada devrait en effet s'engouffrer au sud pour frapper New York, Boston ou Washington D.C. ainsi que le MidWest. Des records de froid historiques pourraient être battus entre vendredi et dimanche.
true
Les heures passées devant des vidéos en streaming contribuent plus que ce que l'on pourrait s'imaginer au réchauffement climatique. C'est la conclusion d'un rapport du think tank français The Shift Project, relayé par Les Echos, qui appelle à la "sobriété numérique". Plateformes de vidéos à la demande, contenus pornographiques, réseaux sociaux... Les vidéos en streaming se retrouvent aujourd'hui un peu partout sur Internet. Dans son rapport "Climat : l'insoutenable usage de la vidéo en ligne", publié le 11 juillet dernier, The Shift Project affirme qu'elles représentent près de 1% des émissions de gaz à effet de serre à l'échelle mondiale. Comme le rappelle le journal économique, l'Agence de l'environnement et de la maîtrise de l'énergie (Ademe) alertait déjà l'année dernière sur un fait marquant, et largement sous-estimé : la pollution numérique risquait bientôt de dépasser celle causée par les voyages en avion. À titre d'exemple, l'organisation rappelle que l'envoi d'un mail avec une pièce jointe équivaut à la pollution provoquée par une ampoule allumée pendant 24 heures. Une heure de visionnage de vidéos sur smartphone, quant à elle, correspond à un réfrigérateur allumé pendant un an. "Le numérique émet aujourd'hui 4% des gaz à effet de serre du monde, et sa consommation énergétique s'accroît de 9% par an", décrypte The Shift Project. Le streaming vidéo représente, à lui seul, un cinquième de ces émissions, notamment à cause des vidéos à la demande (31%), des contenus pornographiques (27%), les vidéos de type Youtube (21%) et celles que l'on trouve sur les réseaux sociaux (18%). Le rapport épingle les designs addictifs, ces petites vidéos qui se déclenchent automatiquement à la lecture. Mais selon The Shift Project, la responsabilité est collective : le rapport recommande aux internautes de limiter leur consommation à une heure de vidéo par jour, et de regarder des contenus de basse définition. L'Ademe, de son côté, conseille de toujours préférer le téléchargement au streaming, qui consomme plus.
true
Avant, ils étaient contre nous, mais désormais, Hollywood est du côté des rieurs qui se moquent du réchauffement climatique. La science du climat a fait l’objet d’observations minutieuses depuis dix ans, avec pour résultat que nous savons maintenant pourquoi la planète s’est réchauffée pendant la deuxième moitié du XXème siècle, et pourquoi elle va plutôt se refroidir à partir de maintenant. Cependant, le mème du réchauffement climatique perdure, apparemment résistant et immunisé contre les faits. Politiquement, le réchauffement climatique a atteint son apogée au moment du COP15 à Copenhague en décembre 2009, lorsque les chefs d’États des pays représentant l’essentiel du PIB mondial étaient présents. Ils ne se donnent plus la peine d’y assister désormais, ce sont plutôt des seconds couteaux qui s’y collent. Mais l’élan du réchauffement climatique produit toujours des règlementations et des lois inutiles et destructrices. Le storytelling commercial sous forme de films a renforcé le mème du réchauffement climatique. Comme élément de scénario, il n’est pas en soi suffisamment effrayant, puisque ses effets se résumeraient à de la pluie plus chaude. En conséquence, pour le monde du cinéma, le réchauffement climatique est devenu, d’une façon ou d’une autre, la cause d’un refroidissement intense. Cela a donné le scenario du film Le jour d’après (The Day After Tomorrow), dans lequel le protagoniste se bat contre des loups dans un New York glaciaire. Un film qui vient de sortir, Kingsman, Services secrets, indique que le point de basculement culturel est atteint. Il est désormais sûr et commercialement rentable pour l’industrie du cinéma de se moquer de la croyance au réchauffement climatique. L’intrigue est l’histoire d’un méchant milliardaire du nom de Richard Valentine persuadé que les humains, responsables du réchauffement climatique, sont des virus qui tuent la planète. Pour faire cesser le phénomène, il entreprend de tuer une grande partie de l’humanité. Son plan diabolique, qui correspond sensiblement aux rêves du mouvement des Verts, est contrecarré par des personnes qui présentent bien et aux manières impeccables. Au lieu d’œuvrer contre la vérité et la beauté, Hollywood se place désormais dans le camp de la juste cause. Une nouvelle étape sera franchie quand, pour indiquer la crédulité, l’insanité ou l’instabilité mentale d’un personnage, on mentionnera qu’à un moment ou un autre il a cru au réchauffement climatique. Bien sûr, Hollywood n’a aucun scrupule moral, et se moquer du réchauffement climatique n’est que du bizness. Mais se moquer de quelque chose est le premier pas avant sa disparition, et nous devrions en être dûment reconnaissants. — Une tribune de Watts Up With That?, traduction Contrepoints.
fake
24 juillet 2009, une des premières actions de Bizi : les activistes montent sur le Rocher de la Vierge et installent un masque et un tuba à la Vierge et au petit Jésus. Des banderoles sortent, « A quand Biarritz sous les eaux ? ». Un tract distribué aux passants alerte sur les conséquences du changement climatique en cours et parle du sommet de Copenhague qui doit se tenir six mois plus tard. Le message est bien reçu et les réactions largement positives. Toutefois, à la fin de la courte vidéo réalisée sur cette action (voir le communiqué de Bizi à l’époque), on voit une touriste qui insulte les militant-e-s de Bizi : « Ah ben oui, c’est les autres là, en disant que Biarritz allait être sous la mer....Quelle bande de cons ! » Quatre ans et demi après, ce mercredi 8 janvier 2014, un éditorial - dont nous conseillons fortement la lecture - du quotidien Sud-Ouest au sujet des évènements dramatiques qui viennent de se dérouler à Biarritz s’intitule : « La mer monte et on regarde ailleurs ». Nous le citons : « Si la mer monte, c’est bien en raison de la fonte des glaces et du réchauffement climatique. (...) Nous sommes bien placés ici pour constater que les violentes tempêtes sont plus fréquentes. Surtout, celles-ci se conjuguant avec une élévation du niveau de la mer, leurs conséquences sont beaucoup plus dramatiques en cas de fortes marées. (...) C’est bien la conséquence d’un processus dramatique qui s’est déclenché et qui s’appelle le réchauffement climatique. » Qu’a fait le maire de Biarritz pendant ces quatre ans et demi pour lutter contre les causes du changement climatique ? Il a regardé ailleurs. Pire, il a combattu la mise en place de toute alternative au tout voiture, première source d’émissions de gaz à effet de serre sur l’agglomération ! Et maintenant, allons nous perdre quatre ans et demi de plus ? Il n’est pas encore trop tard pour réagir afin d’empêcher le basculement climatique en cours. La mobilisation massive de nos sociétés et de nos populations dans le but de réduire rapidement et radicalement nos émissions de gaz à effet de serre peut encore le permettre. Et notamment une prise de conscience et des politiques climat-énergie ambitieuses de la part de nos décideurs, par exemple ceux et celles qui seront élus aux prochaines municipales de mars 2014. Notre génération a une responsabilité immense sur les épaules, car la bataille climatique se joue ou se perd dans les dix ans à venir. Quelles villes, quelle société, quel monde laisserons nous aux enfants et aux adolescents d’aujourd’hui ? 📨 Ne passez plus à côté des infos de l'écologie
true
James E. Hansen est un climatologue américain, directeur de l’Institut Goddard pour les Études Spatiales de la NASA. Ce billet est la traduction par Willy pour le blog www.les-crises.fr de sa tribune parue dans le Washington Post le 4 août 2012. N’hésitez pas à la diffuser largement. Lorsque j’ai témoigné au Sénat pendant l’été chaud de 1988, j’ai prévenu du type de futur qu’apporterait le changement climatique pour nous et pour notre planète. J’ai dépeint une image sinistre des conséquences d’une augmentation continue des températures, poussée par l’usage des combustibles fossiles par l’homme. Mais j’ai une confession à vous livrer : j’étais trop optimiste. Mes projections sur l’augmentation des températures mondiales se sont avérées justes. Mais j’ai échoué à étudier en détail la rapidité avec laquelle cette augmentation moyenne pousserait à une augmentation des phénomènes météorologiques extrêmes. Dans une nouvelle analyse des dernières six décennies des températures mondiales, qui sera publiée lundi prochain, mes collègues et moi-même révélons une augmentation stupéfiante de la fréquence des étés extrêmement chauds, avec des ramifications troublantes pour non seulement notre futur mais également notre présent. Il ne s’agit pas d’un modèle climatique ou d’une prédiction, mais des observations réelles des phénomènes météorologiques et des températures qui ont eu lieu. Notre analyse montre qu’il n’est plus suffisant de dire que le réchauffement climatique augmentera la probabilité des événements météorologiques extrêmes et de répéter la mise en garde qu’aucun événement météorologique ne peut être directement lié au changement climatique. Au contraire, notre analyse montre que, pour la chaleur extrême du passé récent, il n’y a quasiment pas d’autre explication que le changement climatique. La fatale canicule européenne de 2003, la brûlante canicule russe de 2010 et les sècheresses catastrophiques au Texas et en Oklahoma de l’année dernière peuvent toutes êtres attribuées au changement climatique. Et une fois que les données seront recueillies dans quelques semaines, il est probable que la même chose sera vraie pour l’été extrêmement chaud dont souffrent actuellement les Etats-Unis. Ces événements météorologiques ne sont pas simplement un exemple de ce que le changement climatique pourrait apporter. Ils sont provoqués par le changement climatique. La probabilité que la variabilité naturelle ait provoqué ces événements extrêmes est minuscule, extrêmement faible. Parier sur cette probabilité serait comme démissionner de son boulot et jouer au loto chaque matin pour payer ses factures. Il y a vingt-quatre ans, j’ai inventé le concept de « dés climatiques » pour aider à distinguer entre la tendance à long-terme du changement climatique et la variabilité naturelle de la météo au fil des jours. Certains étés sont chauds, certain frais. Certains hivers brutaux, d’autres doux. C’est la variabilité naturelle. Mais avec le réchauffement climatique, la variabilité naturelle est elle aussi altérée. Dans un climat normal sans le réchauffement mondial, deux côtes du dé représentent du temps plus frais que la normale, deux côtes seraient du temps normal, et deux côtés serait du temps plus chaud que la normale. En lançant les dés à répétition, ou saison après saison, on obtient une variation équitable de la météo au cours du temps. Mais piper les dés avec un réchauffement climatique change les probabilités. On se retrouve qu’avec un côté plus frais que la normale, on côté moyen, et quatre côté plus chauds que la normale. Même avec le changement climatique, on observera de temps en temps des étés plus frais que la normale ou un hiver typiquement froid. Mais ne vous laissez pas tromper. Notre étude approuvée par comité de lecture [peer-reviewed], publiée par l’Académie nationale des sciences, montre clairement que si la température mondiale moyenne a augmenté progressivement à cause du réchauffement climatique (jusqu’à 1,5 degrés au cours du siècle passé), les extrêmes sont en fait en train de devenir beaucoup plus fréquents et plus intenses dans le monde entier. Lorsqu’on a représenté les changements de températures du monde avec une fonction gaussienne, nous avons observé que les extrêmes anormalement frais et, plus encore, les extrêmes anormalement chauds, sont en train d’être modifiés en devenant plus fréquents et plus sévères. Le changement est tellement dramatique qu’un côté du dé doit maintenant représenter le « climat extrême » pour représenter la plus grande fréquence des événements météorologiques extrêmement chauds. De tels événements étaient extrêmement rares. Des températures extrêmement chaudes recouvraient à peu près 0,1 % à 0,2 % du globe sur la période initiale de notre étude, de 1951 à 1980. Lors des dernières trois décennies, alors que les températures moyennes ont lentement augmenté, les extrêmes sont montées en flèche et maintenant recouvrent à peu près 10 % du globe. C’est le monde que nous avons changé, et maintenant nous devons y vivre – le monde qui a provoqué la canicule en Europe qui a tué plus de 50 000 personnes et la sècheresse de 2011 au Texas qui a provoqué plus de 5 milliards de dollars de dégâts. Nos données démontrent que de tels événements deviendront encore plus fréquents et plus sévères. Il est encore temps d’agir et d’éviter une détérioration du climat, mais nous perdons un temps précieux. Nous pouvons résoudre le défi du changement climatique avec l’augmentation progressive d’une taxe carbone sur les entreprises de combustible fossiles, redistribuée de façon identique à 100 % aux habitants. Ceci stimulerait les innovations et créerait une solide économie d’énergie propre avec des millions de nouveaux emplois. C’est une solution simple, honnête et efficace. Le futur, c’est maintenant. Et il fait chaud. Source : The Washington Post [P.S. : nous verrons dans le billet de demain à quel point il a raison…] Et pour les anglophones : James Hansen: Extreme Heat Events Connected to Climate Change : James Hansen: Why I must speak out about climate change : A Conversation with James Hansen : James Hansen on David Letterman :
true
La courte vidéo qui suit croise deux sujets dont nous vous reparlerons : les incendies en Australie, prochainement, et Aurélien Barrau, dans un avenir pas trop lointain. Aurélien Barrau est un astrophysicien français, qui s’est récemment fait connaître par son implication dans le militantisme réchauffiste, option apocalypse cochée et recochée. La case a été parfaitement noircie. Il s’est fait connaître d’une partie du grand public par la publication dans Le Monde d’une courte tribune signée par deux cents personnalités, quelques scientifiques, mais surtout des acteurs, réalisateurs, metteurs en scène, chanteurs, musiciens, écrivains, bref la fine fleur de la conscience environnementale de notre temps (voir le texte et les signataires à la fin de cet article). Aurélien a pu obtenir le consentement de tous ces gens importants grâce à son amie Juliette Binoche. Car Aurélien, comme souvent les astrophysiciens, a la tête dans les étoiles et est un ami des arts. Il s’exprime ici sur les incendies en Australie, qui donnent lieu ces dernières semaines à la plus formidable surenchère sur le front du réchauffement depuis que celui-ci a été ouvert. Le monde est en feu, il suffit d’allumer son téléviseur pour s’en rendre compte. Mais comme, devant l’impensable, il est parfois difficile d’admettre le pire, Aurélien est là pour nous aider à entendre raison. Que l’on soit d’accord avec lui ou pas, il faut reconnaître qu’Aurélien Barrau a une pensée claire et qu’il s’exprime bien, ce qui est agréable et nous change de Jean Jouzel, le « climatologue » GIECien des plateaux télé (en fait géochimiste spécialisé en glaciologie, mais le titre de climatologue confère une aura d’une intensité supérieure à notre époque). Le discours qui se veut rationnel est aidé par les images en arrière-plan, qui montrent un pauvre koala au milieu des flammes. Il existe deux mantras fondamentaux dans le discours sur l’apocalypse thermo-carbonée : Quand vous parlez d’un endroit que vous souhaitez placer sous les projecteurs, il est souvent bienvenu d’affirmer que le réchauffement y est pire que partout ailleurs. Beaucoup ont eu recours à ce procédé, en bien des points du globe. Il faut seulement prendre garde de ne pas le faire pour plusieurs en même temps, car les moins idiots de ceux qui vous écoutent pourraient comprendre que quelque chose cloche. Le second est bien connu dans sa version en anglais : worse than we thought. C’est souvent pire que ce nous pensions, que ce à quoi nous pouvions nous attendre. Aurélien Barrau a choisi cette option. Il nous explique que la situation que nous connaissons, celle à laquelle nous sommes arrivés, a été atteinte « beaucoup plus rapidement que ce qui avait été envisagé dans le pire des scénarios ». Le matraquage médiatique est tel qu’il est difficile de ne pas être d’accord si l’on a pas les moyens de s’informer plus sérieusement. La variable servant à mesurer l’évolution de la situation en matière de réchauffement étant bien sûr la température globale, confrontons, pour savoir ce qu’il en est, l’évolution de celle-ci et les projections des modèles, qui eux nous indiquent à quoi nous devrions nous attendre (s’ils disaient vrai !). Le graphique ci-dessous nous montre les résultats de 102 modèles, en traits fins colorés, avec leur moyenne en noir, et la réalité mesurée via les satellites. Les données RSS, provenant d’une entreprise privée, ont longtemps été utilisées par les climatosceptiques pour montrer l’absence de réchauffement entre 1998 et le milieu des années 2010. Puis, sans que l’on sache bien pourquoi, des corrections ont été apportées, relançant la courbe à la hausse légèrement, la faisant diverger de celle de l’université d’Alabama à Huntsville (UAH), la référence en matière de mesure de la température globale par satellite (qui, rappelons-le, présente l’intérêt de s’affranchir des îlots de chaleur urbains et autres changements d’usage des terres, qui modifient localement la bonne mesure de la température). L’année 2019, qui n’est pas reportée ici, remonte la courbe UAH à +0,44 °C par rapport à la moyenne 1981-2010. Le récent pic de température dû au phénomène ENSO (El Niño–Southern Oscillation) a connu un rebond pour la même raison. Cela n’empêche pas de constater la nette divergence sur si peu d’années. Le pire des scénarios (ici, le postulat, implicite et erroné, est qu’un réchauffement est une calamité) est d’un bon degré au-dessus de la réalité telle que nous la révèlent les données UAH. Mais pour Aurélien Barrau, le pire des scénarios est dépassé… L’histogramme ci-dessous présente les résultats précédents, sous une autre forme : le rythme du réchauffement calculé sur la période 1979-2018 (le début des mesures par satellite date de 1979), en degrés Celsius par décennie, d’après les modèles et la réalité. Si la tendance actuelle devait se poursuivre, ce qui est loin d’être le plus probable en réalité, les résultats UAH nous conduiraient à moins d’un degré de plus que la période actuelle d’ici 2100 (environ 0,8 °C), alors que le pire des scénarios modélisés ferait monter le thermomètre de 2,5 °C. Poutine a beau jeu d’applaudir, c’est un modèle russe qui présente le plus remarquable résultat. Alors comment Aurélien Barrau peut-il affirmer de telles énormités [1] ? Il fait confiance à ses collègues, ceux qui ont de l’audience, pas seulement sur les plateaux télé, mais aussi dans les revues qui comptent et qui sont bien verrouillées, qui affirment des consensus maladroitement traficotés, mais conformes à ce que l’on peut voir grâce au filtre des médias. Car ne doutons pas qu’il est sincère. Rien ne permet d’affirmer le contraire et tout porte à le croire. Sa sensibilité l’aide aussi à aller dans ce sens, car il est touché par le discours qui l’influence et qu’il fait sien et contribue à porter. Au final, Aurélien Barrau, qui est sans fards, ne cache rien et permet de comprendre le fin mot de l’histoire : « La seule chose qui me rende un peu heureux dans cette situation, c’est que nous avons le devoir de tout réinventer. C’est assez excitant. Nous sommes en demeure de reconstruire la grammaire même de notre réel. Voilà la première mesure : penser hors de l’ordre de l’ancien monde. » (source : diacritik.com) Aurélien est sincère, il souhaite un monde meilleur. La situation est telle qu’il faut tout reprendre à zéro, faire table rase du passé. Aurélien est révolutionnaire. De ces révolutionnaires sincères, qui finissent cocus, en servant des intérêts qui ne sont pas les siens. Et qu’il pense combattre.
fake
Dans la catégorie déni numéro 346, je souhaiterais le petit frère du chanteur s’il vous plaît : le sportif de haut niveau. Nous sommes des millions à admirer Federer, Messi et Ronaldo. Des millions à être en ébullition devant la ligue des champions, les Jeux Olympiques, les championnats du monde de notre sport favori… Et pourtant. J’ai une très mauvaise nouvelle : pour que Roger Federer puisse continuer à nous faire vibrer, il faudrait des dizaines de planètes pour supporter son empreinte carbone. Vous admirez la façon dont Lewis Hamilton attaque ses chicanes ? Bah Lewis, il va falloir qu’il rentre au stand. Tentons de mettre notre dissonance cognitive de côté et de prendre du recul, même sur celles et ceux qui nous font vibrer. Dans le monde d’après, le sport de haut-niveau doit-il disparaître ? Tu nous fais chier, avec ton environnement ! Et oui, ça commence à faire beaucoup. Moins de viande, moins d’avion, moins d’Amazon, et maintenant, moins de sport de haut niveau ? La fameuse société du divertissement si chère à Noam Chomsky, où l’on divertit pour dominer, va en prendre un coup. Nous sommes gavés de divertissement, et le sport de haut niveau en est un très bel exemple. Vous pouvez aisément poser votre derrière dans le canapé samedi à 13h, et finir dimanche soir à minuit. En tant que fan de foot, vous pouvez même pousser la logique à tous les soirs de la semaine (j’ai un bon ami dont le cousin à un neveu qui aime le foot, qui confirme). Laissons de côté, exceptionnellement, les problèmes sociétaux que soulèvent le sport de haut niveau. Savoir qu’un mec qui tape dans un ballon de foot soit milliardaire, vs un agriculteur qui peine à toucher le smic, est un vrai problème. Mais ce qui m’intéresse ici, c’est bien le bilan carbone de ces sports, et l’empreinte carbone de certains sportifs. Bien sûr, lorsque je parle de sportif de haut niveau, je parle d’une personne qui en vit. Je ne parle pas de Yannick qui s’est retrouvé une passion pour le footing pendant la COVID-19. Se poser les bonnes questions Une remise en question s’impose. Le sport de haut niveau, tel qu’il est actuellement, a-t-il encore sa place dans un monde en contraction énergétique ? Combien de temps va-t-on permettre à un Federer de prendre l’avion toutes les semaines pour jouer un tournoi dans un autre pays ? Combien de temps va-t-on encore accepter que des clubs de foot européens aillent faire leur promo une semaine en Asie, une semaine aux Etats-Unis, puis la semaine d’après au Qatar ? A nouveau, des choix vont devoir être réalisés. Ces choix seront politiques, et encore une fois, des arbitrages devront être faits… Avec tous les compromis et intérêts en jeu. Ainsi, dans un monde où nous respectons l’Accord de Paris et où tout le monde aura une empreinte carbone maximale de 2t de CO2/eq, nous devrons nous demander : – Quel sport garder ? – Que pourrons-nous faire évoluer afin que cela soit éco-compatible ? – Ce que nous arrêtons. Il n’y aura pas de choix faciles, surtout si cela entraîne des conséquences sociales terribles. C’est un point que nous avions déjà entrevu concernant le ski et son industrie, majoritairement touristique, qui fait vivre des régions entières. Personne ne peut nier les bienfaits du sport pour la santé. En revanche, la professionnalisation du sport est forcément une question qui devra être soulevée par nos politiques dans le fameux ‘monde d’après’. Aussi impressionnant que cela puisse être, je ne suis pas sûr que de pouvoir conduire une formule 1 dans les rues de Monaco soit indispensable. Les sportifs de haut niveau doivent-ils être une exception ? Toujours dans l’idée où nous devrons faire des choix et arbitrer au mieux dans un monde en rétraction énergétique, certaines catégories de personnes bénéficieront de passe droit. Je pense notamment aux médecins : si un vol en hélicoptère permet de sauver une vie (sauvetage, ou cœur à transplanter par exemple), je vois mal la société ne pas l’accepter, le condamner. En revanche, le sportif de haut niveau peut-il bénéficier d’avantages dont les autres citoyens ne pourraient jouir ? Je reprends à nouveau l’exemple de Federer : j’ai un plaisir immense à le voir jouer chaque fois qu’il est à Paris. Mais qu’en pense ma voisine, qui non seulement n’aime pas le tennis, mais n’en a rien à faire ? Bien sûr qu’elle trouve cela indécent et absolument anormal que Mr Federer fasse le tour de la planète pour faire ses tournois de tennis, alors que nous devons tous arrêter ou réduire l’avion. Plus de place sur Ryanair, désolé Au même titre que Nabilla, le fait d’être une personnalité apparaît comme un devoir d’exemplarité. Vous imaginez bien l’influence qu’a un Cristiano Ronaldo et ses 220 millions de fans sur Instagram ? Alors que son activité fait déjà de lui une horreur en termes d’émissions de GES, que penser des conséquences de son salaire, dépensé dans des voitures qui consomment 30 litres/100km ? Oui, il fait ce qu’il veut de son argent. Oui, “il ne va pas s’arrêter de vivre quand même” ! Mais ce qu’il n’a pas l’air de comprendre notre ami Ronaldo, c’est qu’en “vivant” à son rythme, il arrête la vie d’autres personnes, dans le présent et le futur. Le slow sport comme solution ? Pour répondre aux 3 questions sur le sport de haut niveau, il y a tout de même des pistes de réflexion qui ont déjà été entreprises depuis quelques années. Certains sportifs ont même tout simplement, à l’instar de Morgan Bourc’his ou Sarah Guyot, membre de l’équipe de France de Kayak, remis en question le fait de continuer leur carrière sportive. Selon l’Accord de Paris, c’est donc un peu plus de 10 planètes qu’il faudrait pour que Sarah Guyot puisse continuer sa carrière… Une analyse sport par sport sera bien évidemment indispensable afin de répondre à ces questions. J’imagine que le Beach-Volley aura beaucoup plus de chance de perdurer que la formule 1 par exemple… Même si dans la formule 1, il y a également de grands comiques concernant la neutralité carbone ! C’est ainsi que Philippe Bihouix évoque dans son livre l’âge des low-tech un début ‘d’ACV’ concernant certains sports. La boxe ou le tir à l’arc n’ont pas trop de soucis à se faire. En revanche, autant vous dire que les joueurs de golf vont peut-être devoir se mettre à la course à pied… Extrait du livre l’âge des Low-Tech de Philippe Bihouix Peut-être que dans les 10 ans à venir, les déplacements pour les sportifs de haut niveau seront limités et qu’ils devront vivre au même endroit pour pouvoir continuer leur activité. Les skieurs professionnels européens arrêteront de partir en Amérique latine lorsqu’il n’y a plus de neige en Europe. Les joueurs du PSG n’iront plus faire de match de gala en Asie pour promouvoir la marque. Il y aura tout simplement moins de compétitions. Moins de voyages, si voyage il y a. PS : cela mériterait très certainement un article à part, mais l’E-sport est bien évidemment concerné et subit les mêmes travers que d’autres sports : l’argent, la compétitivité, le toujours plus : pc plus puissant, connexion toujours plus rapide… Et les évènements mondiaux qui évidemment exigent des joueurs qu’ils traversent les océans pour aller jouer dans un stade… aux jeux vidéos. Parenthèse Qatar et coupe du monde de football 2022 Voilà un très bel exemple, qui dans le monde d’après, devrait être historique : le boycott du mondial de football 2022. Le spectacle offert par les Mondiaux d’athlétisme en septembre dernier à Doha, est celui d’un naufrage. D’abord les conditions climatiques. Les compétitions avaient été décalées pour éviter les brûlures de l’été. Mais, avec une chaleur étouffante et surtout de forts taux d’humidité (jusqu’à 60 % et 70 %), les épreuves se sont enchaînées au détriment de la santé des athlètes, y compris de nuit, quand le thermomètre ne redescend pas en deçà de 45 °C. Le jour de l’ouverture, le marathon féminin avait donné lieu à 28 abandons. Huit stades ont été construits dans des conditions socialement indignes en vue de la Coupe du monde de football organisée en 2022 dans ce pays du golfe Persique. Nul n’a semblé se soucier du sort des travailleurs dépourvus de toute protection sociale qui ont bâti ces infrastructures parfois au prix de leur vie. Le bilan humain est lourd : un mort par jour sur les chantiers. “Selon Amnesty International, des centaines de tâcherons attendent toujours d’être payés depuis des mois et sont parfois expulsés s’ils demandent à l’être.” Inutile de préciser que cet événement, dans sa forme actuelle et pour tout ce qu’il représente (enjeux financiers, politiques, marketing…), n’est absolument pas compatible avec un monde qui tend vers la sobriété. J’ai également un indice de confiance de -352/100 pour qu’un pays joue le rôle de Cassandre et boycotte ce mondial, ne serait-ce que pour des raisons environnementales (voire humaines…). Puisse l’histoire me prouver que je ne suis qu’un horrible petit être médisant et pessimiste. Le mot de la fin Dans sa forme actuelle, le sport de haut niveau est pour une immense majorité un non sens écologique. D’abord parce que la plupart du temps, ces athlètes doivent traverser le globe pour répondre à des spectateurs toujours plus exigeants et assoiffés de divertissement. Mais aussi parce que l’utilité sociétale du sport de haut niveau devra être remise en question dans un monde où la sobriété s’impose. Aussi amoureux que vous soyez de Leo Messi ou de Roger Federer, gardez bien en tête que le caissier ou l’infirmière qui est au SMIC, dont l’utilité du métier n’est pas à démontrer, peut légèrement s’agacer lorsqu’il voit Roger faire un aller-retour Paris-Doha pour un match de tennis exhibition. Est-ce que le sport doit redevenir ce qu’il est ? Un jeu, où le plaisir et la sociabilisation sont les premiers objectifs ? Devons-nous faire une croix sur Roger ? Une chose est sûre, c’est que les héros d’aujourd’hui seront peut-être les zéros de demain. Des millions de personnes ‘like’ la photo de Cristiano Ronaldo en slip dans sa nouvelle Bugatti. Mais les images peuvent s’effriter très vite, surtout au temps des réseaux sociaux. En début d’année, Roger Federer s’était déjà fait prendre à partie pour avoir comme sponsor Crédit Suisse, banque qui aime un peu trop le pétrole. Résultat : il avait fait un don pour aider contre les feux en Australie. Cela pourrait aller très, très vite pour ces sportifs de haut niveau, qui feraient bien, comme nous tous, de remettre leur activité en question. Si cet article vous a plu, pensez à soutenir Bon Pote sur Tipeee et sur les réseaux sociaux !
biased
En analysant des données récoltées depuis plus de trente ans à l’échelle de la France, des chercheurs du laboratoire Evolution et Diversité Biologique (CNRS / Université Paul Sabatier / ENFA) apportent de nouvelles informations sur la capacité des poissons d’eau douce à répondre aux changements climatiques récents. Leurs travaux mettent en évidence des déplacements importants des aires de distribution des espèces, mais d’une ampleur toutefois insuffisante pour faire face aux changements en cours. Ces résultats sont publiés dans la revue Ecography. En réponse aux changements climatiques récents, des déplacements vers les pôles ou de plus hautes altitudes sont observés chez de nombreux groupes taxonomiques et dans diverses régions du monde. A ce jour, une grande diversité de réponses ont été décrites, suggérant que toutes les espèces ne seraient pas en mesure d’ajuster leur aire de répartition pour suivre les modifications de leur environnent induites par les changements climatiques. Particulièrement sensibles aux variations environnementales et à l’intégrité écologique de leur habitat, les poissons d’eau douce pourraient être particulièrement affectés par les changements climatiques. Pourtant, peu de travaux avaient jusqu’alors cherché à savoir si les poissons d’eau douce répondaient aux changements climatiques survenus ces dernières décennies par une modification de leur aire de distribution et si ces réponses étaient cohérentes avec l’ampleur des changements observés. C’est à ces questions qu’a permis de répondre une étude basée sur les données de l’Onema (1), qui décrit depuis plus de trente ans les assemblages de poissons des rivières françaises. Les résultats de l’étude sont sans équivoque : les espèces de poissons d’eau douce remontent en altitude, mais à des vitesses largement inférieures à la magnitude des changements climatiques. Tandis que les isothermes montrent des remontées moyennes en altitude de 57 m par décade depuis les années 80, les 32 espèces de poissons étudiées ne sont remontées en moyenne que de 13.7 m par décade. Ainsi, cette étude démontre pour la première fois que les poissons des rivières françaises répondent aux modifications climatiques récentes. Par comparaison avec les données de la littérature, cette réponse est plus forte que chez la plupart des organismes terrestres. Cependant, les chercheurs soulignent que les déplacements observés sont en retard par rapport aux modifications climatiques décrites sur la période d’étude, suggérant que les espèces de poissons pourraient ne pas être capables de suivre leur niche climatique. Même si ce résultat n’est pas surprenant au regard d’espèces dont les déplacements sont fortement contraints par la structure des réseaux hydrographiques, le retard accumulé par les poissons d’eau douce pourrait avoir d’importantes répercussions sur leur capacité à faire face aux changements climatiques attendus dans le futur, même si certaines espèces répondent à ces changements de façon imprévisible. .................................................................
true
Capable de tirer 10 000 fois par seconde et de détecter des différences de niveau de quelques millimètres seulement, le laser embarqué sur le satellite ICESat-2 est le plus avancé jamais placé en orbite. Le satellite d'une demi-tonne doit être propulsé samedi par une fusée Delta II depuis la base Vandenberg de l'US Air Force en Californie. Il aura pour mission de révéler l'ampleur de la fonte des glaces sur une Terre qui se réchauffe. Cette mission est "extraordinairement importante pour la science", a relevé Richard Slonaker, responsable du programme ICESat-2 à la Nasa. Car depuis près de dix ans l'agence ne disposait plus d'un instrument en orbite pour mesurer l'épaisseur des superficies recouvertes de glace à travers la planète. Avec l'ICESat-2, les mesures seront "extrêmement précises", de l'épaisseur d'un crayon, a assuré un membre de l'équipe, Kelly Brunt. La mission précédente, ICESat, a été lancée en 2003 et s'est achevée en 2009. Grâce à elle, les scientifiques ont appris que la banquise s'affinait et que les surfaces recouvertes de glace disparaissaient des régions côtières du Groenland et de l'Antarctique. Depuis, des relevés ont été effectués grâce à un avion dans le cadre d'une mission baptisée Operation IceBridge qui a survolé l'Arctique et l'Antarctique. Des "mesures de hauteur et des données sur l'évolution de la glace" ont été récoltées, a expliqué la Nasa. Mais une mise à jour est nécessaire de toute urgence. La fonte des glaces pourrait menacer un quart de la population mondiale. A l'occasion de la Conférence mondiale sur le climat à Genève début septembre, le WWF a publié une étude sur les conséquences du réchauffement de l'Arctique. REUTERS/Denis Sarrazin/Center for Northern Studies L'utilisation croissante des sources d'énergie fossile par l'humanité entraîne une hausse constante des émissions de gaz à effet de serre, considérées comme les principaux responsables du changement climatique. La température mondiale moyenne augmente année après année. Et les quatre années les plus chaudes des temps modernes ont été enregistrées entre 2014 et 2017. LIRE AUSSI >> "Les glaciers andins probablement condamnés": en 40 ans, ils ont fondu de moitié Le tout nouveau ICESat-2 devrait aider les scientifiques à comprendre l'ampleur de la contribution de la fonte des glaces à la montée des océans, alors que le phémonème s'accentue avec la diminution de la couche de glace dans l'Arctique et au Groenland. Des centaines de millions d'habitants des régions côtières du monde entier sont menacés. "Nous allons être capables de regarder spécifiquement la façon dont la glace évolue sur une seule année", a relevé Tom Wagner, un chercheur du programme cryosphère (glace terrestre) de la Nasa. Combiner ces relevés précis avec ceux rassemblés au fil des ans devrait donner un coup de fouet à la compréhension du changement climatique et améliorer les prévisions sur la hausse du niveau des mers, a-t-il ajouté. L'ICESat-2 est équipé de deux lasers - dont l'un de rechange au cas où - beaucoup plus perfectionnés que le modèle à bord de la mission précédente. Malgré sa puissance, le rayon ne sera pas chaud au point de faire fondre la glace depuis le poste d'observation orbital déployé à quelque 500 kilomètres au-dessus de la Terre, a relevé la Nasa. Il tirera 10 000 fois par seconde, contre quarante fois pour son prédécesseur, ce qui fournira des données beaucoup plus détaillées. Des mesures seront prises tous les 70 centimètres sur la trajectoire du satellite. "La mission va récolter suffisamment de données pour quantifier les changements annuels d'épaisseur de la couche de glace au Groenland et dans l'Antarctique, même si ce n'est que de quatre millimètres à peine", a indiqué l'agence spatiale américaine. Outre l'épaisseur et la superficie de la couche de glace, le laser va aussi mesurer la pente sur laquelle elle est posée. "L'une des choses que nous essayons de faire est de décrypter les changements qui s'opèrent à l'intérieur de la glace, et cela va énormément améliorer notre compréhension en la matière, en particulier dans les régions où nous ne savons pas bien encore comment ils évoluent", a expliqué Tom Wagner, citant les grandes profondeurs de l'Antarctique comme l'une de ces zones mystérieuses. La mission est censée durer trois ans mais le satellite dispose d'assez de carburant pour perdurer pendant une décennie, si ses responsables décidaient de prolonger sa durée de vie.
true
C'était une étape importante du voyage en Inde du président de la République française. Emmanuel Macron s'est rendu, lundi, à Mirzapur, 50km à l'ouest de Varanasi, afin d'inaugurer avec le Premier ministre indien Narendra Modi une centrale d'énergie solaire. Le champ de panneaux photovoltaïques, d'une puissance totale de 100MW, a été construit par le groupe français Engie. La centrale représente un pas de plus dans la longue marche de l'Inde vers l'énergie solaire. Le troisième pays pollueur de la planète veut tourner le dos au charbon, sa première source d'électricité, et a lancé un plan politique ambitieux d'investissement et d'équipement. Jusqu'ici, les espoirs sont permis: les objectifs sont atteints avec quatre ans d'avance. Et d'ici 2022, l'Inde veut multiplier par cinq cette production verte. La photo est symbolique. Cette poignée de main entre le président Emmanuel Macron et le Premier ministre indien Narendra Modi a eu lieu lundi, devant une centrale de panneaux photovoltaïques de 100MW, construite à Mirzapur par le groupe français Engie. L'image illustre à la fois le pari indien sur l'énergie solaire et la volonté de la France d'accompagner son partenaire sur cette voie. REUTERS/Ludovic Marin/Pool Pour le président de la République française, cela résume "l'engagement que nous avons pris ensemble" lors d'un sommet fondateur de l'Alliance solaire internationale, dimanche à New Delhi. Les deux dirigeants ont coprésidé ce sommet -imaginé à la COP21 à Paris- qui vise à promouvoir l'énergie verte dans les pays émergents. AFP PHOTO / Ludovic MARIN La nouvelle centrale de Mirzapur contribue à l'explosion de l'énergie solaire dans le pays: en début d'année, l'Inde a franchi le seuil des 20GW produits, un objectif atteint... avec quatre ans d'avance sur le calendrier politique fixé en 2010. New Delhi veut dorénavant continuer sur sa lancée et quintupler cette capacité d'ici 2022. AFP PHOTO / Ludovic MARIN Le défi est de taille pour le gouvernement du nationaliste hindou. Avec 1,3 milliard d'habitants, l'Inde est le troisième pollueur de la planète avec 14,9% des émissions, derrière les États-Unis et la Chine. Surtout, il reste dépendant du charbon, particulièrement polluant, toujours sa première source d'énergie. REUTERS/Amit Dave Bénéficiant d'un excellent ensoleillement, le géant démographique d'Asie du Sud cherche à jongler entre ses besoins résidentiels et industriels gigantesques -poussés par la démographie- et sa lutte contre l'empreinte de l'homme sur la planète, perceptible dans la forte pollution atmosphérique qui frappe les grandes villes indiennes. REUTERS/Amit Dave L'Inde a diversifié ses moyens de génération d'énergie solaire. Si les centrales en fournissent l'essentiel, les productions individuelles progressent également: les toitures solaires représentent 8% de la capacité nationale. Les habitants, comme ici près de Santalpur, utilisent aussi des panneaux pour pallier les instabilités du réseau électrique du sous-continent indien. AFP PHOTO / SAM PANTHAKY Des trains sont également passés au vert en s'équipant de panneaux photovoltaïques. Ventilateurs, lumières et écrans d'informations dans leurs wagons n'utilisent ainsi plus de diesel. L'économie est chiffrée à 21 000 litres de ce carburant fossile par an, et autant d'émissions dans l'atmosphère en moins. AFP PHOTO / CHANDAN KHANNA Le boom du solaire est tel que ses tarifs sont passés en dessous de ceux de l'énergie thermique. Ce qui provoque un choc économique: le prix plancher du kilowattheure proposé dégringole dans les appels d'offres. Face aux usines indiennes, comme celle-ci à Baddi, ont débarqué les fabricants chinois. Une menace telle que le gouvernement étudie actuellement des règles d'anti-dumping. REUTERS/Ajay Verma Paradoxalement, certaines conséquences de cette expansion de l'énergie solaire sont aussi environnementales. La centrale de Kamuthi, l'une des plus grandes du monde (648MW), est accusée par ses voisins de pomper 200 000 litres d'eau dans les puits pour le nettoyage quotidien des panneaux, asséchant l'approvisionnement des riverains et paysans. Tout n'est pas rose dans l'énergie verte indienne. REUTERS/Amit Dave
true
par Judith Curry (21 novembre 2021) (Traduit par Camille Veyres) Le domaine des relations Soleil-climat…ces dernières années a été corrompu par des influences politique et financière malvenues, les sceptiques du changement climatique s’étant emparés des effets solaires putatifs pour justifier leur inaction face au réchauffement anthropique. Nous soutenons que le débat Soleil/climat est l’une de ces questions où les déclarations de “consensus” du GIEC ont été obtenues prématurément par l’élimination des opinions scientifiques dissidentes. L’impact des variations solaires sur le climat est incertain et fortement débattu. Pourtant, les rapports d’évaluation du GIEC ne permettent pas de voir qu’il y a un débat et une forte incertitude sur cette question. Le soleil a des cycles d’environ 11 ans (cycle de Schwabe) au cours desquels l’activité solaire augmente puis diminue. Au-dessus de l’atmosphère terrestre, le flux solaire total (total solar irradiation) TSI, mesuré en watts par mètre carré (W/m²) varie peu entre le maximum le minimum des 11 ans, de l’ordre de 0,1 % de la TSI, soit environ 1 W/m². Une augmentation de la TSI sur plusieurs décennies devrait provoquer un réchauffement de la planète (toutes choses égales par ailleurs), et une diminution sur plusieurs décennies de la TSI devrait provoquer un refroidissement de la planète. Des chercheurs ont émis l’hypothèse que des variations décennales, ou plus longues, de l’activité solaire pourraient être un facteur important du changement climatique. La manière exacte dont la TSI a évolué au fil du temps reste un problème difficile. Depuis 1978, nous disposons de mesures directes de la TSI faites sur des satellites, mais la recherche d’une tendance pluri-décennale nécessite des comparaisons d’observations provenant de satellites dont les périodes de bon fonctionnement se recoupent. Une forte incertitude existe dans les séries composites TSI sur la période de 1978 à 1992 ; en effet la mission du satellite solaire ACRIM2 a été retardée à cause de la catastrophe de la navette spatiale Challenger en 1986 et ACRIM2 a finalement été lancé à la fin de 1991 alors que ACRIM1 s’est arrêté en juillet 1989. Le trou entre juillet 1989 et fin 1991 empêche de comparer directement les deux séries de mesures de haute qualité la TSI par ACRIM1 et par ACRIM2. [https://www.mdpi.com/2072-4292/11/21/2569] Cette question complexe d’étalonnage l’une par rapport à l’autre des deux séries d’observations satellitaires a de grosses conséquences. Il y a un certain nombre d’autres séries de données liées à la TSI qui ne s’accordent pas sur l’augmentation ou la diminution de la TSI au cours de la période 1986-1996. En outre, la série des mesures satellitaires de la TSI sert à calibrer d’autres séries, des taches solaires et des isotopes cosmogéniques [Velasco Herrera et al. 2015] qui donneraient une estimation des variations solaires passées. Certaines de ces séries de valeurs passées de la TSI (depuis 1750) présentent une faible variabilité, ce qui implique un impact très faible des variations solaires sur la température moyenne à la surface du globe, tandis que des séries de données avec une forte variabilité de la TSI peuvent expliquer de 50% à 98 % des variations des températures depuis l’époque préindustrielle. Le rapport AR5 du GIEC a adopté les reconstructions solaires à faible variabilité, sans mentionner cette controverse. Il a conclu que la meilleure estimation du forçage radiatif dû aux changements de la TSI pour la période 1750-2011 était de 0,05 W/m², avec une « confiance moyenne ». À comparer au forçage dû aux 2,29 W/m² des gaz atmosphériques « à effet de serre » [NdT : hors vapeur d’eau !] sur la même période. Ainsi, le message du rapport GIEC AR5 est que le forçage du changement climatique par des changements de l’activité solaire est presque négligeable par rapport aux effets anthropiques. Le rapport d’évaluationAR6 du GIEC admet une plage bien plus grande de valeurs estimées des changements de la TSI au cours des derniers siècles : entre le minimum de Maunder (1645-1715) et la seconde moitié du 20e siècle la TSI a augmenté d’une valeur comprise entre 0,7 W/m² et 2,7 W/m², une fourchette qui inclut les séries de TSI faiblement variables et celles plus fortement variables. Néanmoins la série des forçages radiatifs recommandée pour les simulations informatiques CMIP6 utilisées dans le rapport AR6 est la moyenne de deux séries de faible variabilité (Matthes et al. 2017). Les incertitudes et le débat sur les variations solaires et leur impact sur le climat ont été le thème de ClimateDialogue qui est une expérience intéressante dans la blogosphère. ClimateDialogue est venu d’une demande du parlement néerlandais pour faciliter les discussions scientifiques entre des experts représentant l’ensemble des points de vue sur le climat. Le Dialogue on solar variations (2014) comprenait cinq scientifiques éminents tous avec de nombreuses publications sur ce sujet. L’un était en accord avec le rapport AR5 du GIEC, pensant que les variations solaires ne sont qu’un acteur mineur du climat de la Terre ; deux autres ont plaidé pour un rôle plus important, voire dominant, du Soleil, et les deux derniers ont souligné les incertitudes qui limitent notre compréhension actuelle de ces phénomènes. Plus récemment, un article de synthèse a été publié par Connolly et al. (2021) dans la revue Research in Astronomy and Astrophysics. Cet article est le travail de 23 co-auteurs aux opinions diverses, mais unis dans leur refus de l’approche « consensus » du GIEC. Cet article montre où sont les divergences et les points d’accord. Ces auteurs ont constaté que le débat Soleil/climat est un sujet où l’affirmation par le GIEC d’un consensus ne repose que sur la suppression prématurée des opinions scientifiques divergentes. Les projections climatiques pour le XXIe siècle ne peuvent ignorer un possible changement substantiel de l’activité solaire. Aux échelles de temps de plusieurs décennies, les reconstitutions de l’activité solaire à partir de marqueurs montrent des phases d’activité solaire exceptionnellement faible ou forte appelées Grand Minimum Solaire et Grand Maximum Solaire (Usoskin et al., 2014). Les grands maxima solaires correspondent à plusieurs cycles solaires successifs avec une activité supérieure à la moyenne sur des décennies ou des siècles. L’activité solaire a atteint des niveaux inhabituellement élevés dans la seconde moitié du XXe siècle, bien que les reconstructions ne s’accordent pas sur la question de savoir si ce maximum a culminé dans les années 1950 ou s’est poursuivi dans les années 1990. On estime qu’environ 20 grands maxima se sont produits au cours des 11 derniers millénaires (Usoskin et al. 2007), soit, en moyenne, un tous les 500 ans. Au cours des onze derniers millénaires, il y a eu onze grands minima solaires, séparés par des intervalles allant d’une centaine d’années à quelques milliers d’années. Le dernier grand minimum a été le minimum de Maunder, de 1645 à 1715. [lien] Il y a plusieurs raisons de s’attendre à une activité solaire plus faible au cours du XXIe siècle, par rapport au XXe siècle. Le cycle solaire 24 qui vient de s’achever a été le plus pauvre en taches solaires des cent dernières années et le troisième d’une tendance à la diminution du nombre de taches solaires. Les physiciens spécialistes du Soleil s’attendent à ce que le cycle 25 soit encore plus faible que le cycle 24. Et de plus un grand maximum a plus de chances d’être suivi d’un grand minimum que d’un autre grand maximum (Inceoglu et al., 2016). Les projections empiriques voient un nouveau minimum solaire commençant en 2002-2004 et se terminant en 2063-2075 (Velasco Herrera et al. 2015). II y aurait 8 % de chances que le Soleil tombe dans un grand minimum au cours des 40 prochaines années (Barnard et al. 2011). Mais le niveau et la durée d’une phase de faible activité solaire au cours du XXIe siècle sont largement incertaines. Si au milieu du XXIe siècle le soleil entrait dans un minimum proche du minimum de Maunder, quel refroidissement devrions-nous nous attendre ? Pour les modèles climatiques et pour d’autres modèles analytiques, le refroidissement serait faible, allant de 0,09°C à 0,3°C (Fuelner 2010). Ces modèles supposent que l’interaction entre le soleil et le climat se limite au seul forçage par la TSI. Cependant, on a de plus en plus de preuves que d’autres aspects de la variabilité solaire amplifient le forçage de la TSI ou sont indépendants de la TSI, ce que l’on appelle des effets solaires indirects comme des changements dans l’ultraviolet solaire, des pluies de particules de forte énergie, l’effet du champ électrique atmosphérique sur la couverture nuageuse, les changements de la couverture nuageuse produits par les rayons cosmiques galactiques modulés par le soleil, de grands changements du champ magnétique et de la force du vent solaire. Les effets solaires indirects relèvent de la catégorie des « inconnues connues ». Bien que ces effets indirects ne soient pas inclus dans les projections CMIP6 pour le XXIe siècle, nous pouvons faire certaines déductions sur la base de publications récentes. Elles suggèrent que les effets solaires indirects pourraient amplifier une anomalie de la TSI par un facteur compris entre 3 et 7. [Shaviv (2008), Scafetta (2013) Svensmark (2019)]. Avec cette amplification une diminution de la température de surface allant jusqu’à 1°C (ou même plus) pourrait se produire avec un minimum de type Maunder. Alors, a-t-on des scénarios plausibles pour les changements d’origine solaire de la température mondiale au cours du XXIe siècle ? Trois scénarios couvrent à peu près toute la gamme des scénarios plausibles : Scénario de référence CMIP6 : environ -0,1°C (Matthes et.al 2017) Scénario intermédiaire : -0,3°C, avec à une estimation forte du minimum de Maunder, mais sans effets d’amplification (Fuelner 2010), ou un minimum plus faible si on a des effets d’amplification. Scénario fort : -0,6°C avec un scénario de faible activité solaire (mais pas un minimum de Maunder) et une amplification par les effets solaires indirects ( Solheim ). Les observations des 20 ou 30 prochaines années devraient révéler beaucoup de choses sur le rôle du Soleil dans le climat. Réflexions de JC Le GIEC reconnaît une incertitude substantielle dans les changements de la TSI au cours des derniers siècles, déclarant que la TSI entre le minimum de Maunder (1645-1715) et la seconde moitié du 20e siècle a augmenté de 0,7 à 2,7 W/m2, une fourchette qui inclut des ensembles de données de TSI à faible et à forte variabilité. Cependant, l’ensemble de données de forçage recommandé pour les simulations du modèle climatique CMIP6 utilisé dans le RE6 fait la moyenne de deux ensembles de données à faible variabilité (Matthes et al. 2017). Les implications d’une si grande incertitude dans les STI sur la sensibilité du climat d’équilibre et l’attribution du réchauffement du XXe siècle sont ignorées par le GIEC. Si les ensembles de données de haute variabilité sont corrects, cela a des implications substantielles pour les estimations de la sensibilité climatique au CO2, et l’attribution du réchauffement du 20ème siècle. Cette question ne peut pas continuer à être balayée sous le tapis. D’autres auteurs ne l’ignorent pas. Voici trois publications récentes qui offrent matière à discussions : Scafetta : Testing the CMIP6 GCM simulations versus surface temperature records from 1980-1990 to 2010-2020 Connolly et al : How much has the sun influenced Northern Hemisphere temperature trends ? Girma Orssengo : Determination of the Sun-Climate Relationship Using Empirical Mathematical Models for Climate Data Sets. Mise à jour : Frank Stefani : Solar and anthropogenic influences on climate : regression analysis and tentative predictions
fake
C’est une belle brochette qui a été réunie lundi soir sur le plateau de l’émission C dans l’air consacrée aux « habits verts du président ». Une émission sobre et efficace à l’unisson de la COP21, parfaitement dans la ligne du parti. Un titre alternatif aurait pu être « Qui veut sauver la planète ? ». La production aurait aussi pu disposer des buzzers devant les invités, et désigner comme vainqueur celui qui aurait placé le plus souvent les mots « accord », « dév’dur’ », « avenir de l’humanité », « nos enfants et nos petits enfants ». Inutile de dire que tous les invités pensaient qu’il était urgent d’agir sur le climat. Dans le festival qu’a été cette émission, le jury exprime son admiration devant la tirade apocalyptique d’Yves Paccalet à partir de 22’40 (qui prophétise une « explosion de folie climatique » avec +10°C, voire plus par endroits), devant celle de Serge Lepeltier à 29’30 (très belle variation sur le rapport Stern), devant cette phrase-culte de Pierre Radanne (42’08) : « Le scénario catastrophe, c’est l’horreur », devant ce propos bien senti du même Radanne qui, juste après avoir courageusement affirmé que nos politiques vivaient encore au XXème siècle, s’est émerveillé de la bonne volonté des ministres avec lesquels il est en contact mensuel pour préparer la conférence Paris climat (à partir de 55′), et encore devant la réhabilitation de Malthus (carrément) par Yves Paccalet (à 1h01′). Accessit de groupe aussi aux quatre intervenants dans leur ensemble au moment d’une question sms qui demandait si la chaleur créée par le réchauffement climatique ne pouvait pas être utilisée comme source d’énergie. Pas un des quatre n’a su donner une réponse un tant soit peu cohérente du point de vue de la physique, ce qui permet de prendre toute la mesure de l’incompétence crasse de nos « élites » sur la question l’aptitude de nos bienveillants dirigeants à ne se focaliser que sur les questions sur lesquelles ils croient pouvoir pérorer qui en valent la peine. L’émission a abordé un point important de propagande climatique, « faites le climat, pas la guerre », qui a aussi fait l’objet de deux percées par ailleurs : celle de Jean-Michel Valantin, dans l’édition québécoise du Huffington Post, et celle de Samuel Paulet dans Focusur, qui disent clairement les choses : maintenant, si on se fait la guerre, c’est aussi à cause du changement climatique. En Syrie, par exemple. Si, si. Demandez à Serge Lepeltier, il vous l’explique dans C dans l’air (à 48’40). Sans susciter d’objection, bien entendu. Le vainqueur de la semaine 10 La galanterie l’emporte cette semaine, avec une splendide réalisation de Laurent Fabius. Conscient de l’importance qu’il y a à instrumentaliser relier tout événement un tant soit peu médiatisé au mot « climat », le ministre français des Affaires étrangères a choisi d’aller au plus simple avec la journée annuelle internationale de la femme, le 8 mars. Les questions d’éducation, de violence, de discrimination à l’embauche et autres accès aux soins gynécologiques étant à l’évidence un peu ringardes en ces temps de sauvetage de la planète, il était urgent de proclamer que la condition des femmes de par le monde était liée au changement climatique. La démonstration de notre ministre, publiée dans une tribune sur le site de RFI, contient notamment cet argument massue : On ignorait que le différentiel de pauvreté hommes/femmes tînt au climat. Heureusement, le signe magique % permet d’y croire. En effet, comme chacun devrait le savoir, un pourcentage est toujours pertinent. Surtout dans un discours où il s’agit de sauver le monde. — Sur le web Suivre le Climathon.
fake
Par Raphaële THÉVENIN – Consultante Sénior Clémence LACHARME – Consultante Sénior Roman LEDOUX – Manager ET SI UNE SOLUTION D'ÉPARGNE EXISTAIT POUR RÉDUIRE SON EMPREINTE CARBONE PERSONNELLE TOUT EN CONTRIBUANT À DÉCARBONER LE SECTEUR DU BÂTIMENT EN FRANCE ? Pour réduire son empreinte carbone et tendre vers la neutralité, un ménage peut agir sur trois volets. La priorité est d’abord de réduire les émissions qu’il induit par ses consommations, par exemple en réduisant la consommation de produits carbonés, en utilisant des transports moins carbonés, en isolant son logement etc. ce sont des actions sur lesquelles le ménage a un levier direct. En parallèle, il peut également contribuer à réduire en dehors de leur empreinte carbone (« émissions évitées » pour eux), par exemple en investissant dans des solutions collectives moins carbonées (ex. des projets d’énergies renouvelables), ou en investissant dans des projets qui réduisent physiquement les émissions (ex. rénovation de logements autres que le sien). Enfin, en plus des deux volets ci-dessus, un ménage peut contribuer à augmenter les puits de carbone pour séquestrer les émissions présentes et à venir, par exemple en investissant dans des arbres. L’étude ci-dessous porte sur le deuxième volet d’action d’un ménage vers la neutralité : Kyaneos possède une SCPI de rendement qui propose à un ménage de réduire les émissions « chez les autres » (autres = d’autres ménages et par conséquent les émissions du secteur du bâtiment en France) en investissant dans des logements collectifs en mauvais état, dans de petites zones urbaines (inférieures à 250 000 habitants) dans toute la France. L’objectif est double : les rénover afin de diminuer leurs émissions de gaz à effet de serre, en diminuant leur consommation énergétique (isolation) et l’empreinte carbone de leur système énergétique (grâce à la mise en place de pompes à chaleur), et par la même, augmenter le confort et diminuer les factures liées à l’énergie pour les occupants, souvent de revenus modestes. KYANEOS VS. AUTRES SOLUTIONS D'ÉPARGNE "VERTE" POUR LES MÉNAGES EN FRANCE Différentes solutions d’épargne, ayant un effet de réduction de l’empreinte carbone d’un secteur en France, existent pour les ménages. Dans le secteur du bâtiment, elles peuvent être d’investir en action dans des foncières engagées sur le climat qui exploitent et rénovent des bâtiments, ou sur des SCPI de rendement qui rénovent des bâtiments pour limiter leurs émissions de gaz à effet de serre (ex. Kyaneos). Dans le secteur de l’énergie, il est possible pour des ménages d’investir dans des projets d’installation d’infrastructure de production d’énergie vertes, qui visent à remplacer des énergies carbonées. 4 solutions d’épargne ont été comparées à Kyaneos : 2 solutions « bâtiment » (1 SCPI et 1 foncière) 2 solutions « énergie » (financements participatifs de projets) Les résultats de l’étude montre que Kyaneos parvient à la plus forte réduction des émissions à montant d’investissement équivalent : 0,5 kgCO2e réduit [1] par an pour 100€ investi, comparé à 0,07 kgCO2e/an pour 100€ investi pour l’autre SCPI, et 0,3 kgCO2e/an pour 100€ investi en action sur une des foncières les plus engagées du secteur vis-à-vis du climat. Par ailleurs, les projets d’infrastructures d’énergies renouvelables induisent 8 fois plus d’émissions qu’ils n’en réduisent, contre un facteur 1,4 [1] pour Kyaneos. Ceci s’explique par le fait que ces projets consistent en une création de nouvelles infrastructures qui n’existaient pas avant, comparé à Kyaneos pour laquelle les bâtiments qui induisent des émissions par leur consommation d’énergie existaient déjà avant investissement et travaux, et que les travaux réalisés induisent eux-mêmes peu d’émissions. Kyaneos ne vient donc ajouter que de faibles de nouvelles quantités de gaz à effets de serre dans l’atmosphère contrairement aux nouveaux projets d’installations d’énergie décarbonée. ÉMISSIONS ÉVITÉES EN INVESTISSANT SUR KYANEOS VS. BILAN CARBONE PERSONNEL En fonction de l’épargne qu’un ménage peut investir sur Kyaneos, il peut contribuer à une réduction des émissions du secteur du bâtiment par an, et donc s’« attribuer » des émissions évitées pour lui, à la hauteur de 4,5% de ses émissions personnelles annuelles, en moyenne, pour les ménages les plus aisés, soit 1 tCO2e par an (NB : un ménage émet en moyenne 11 tCO2e/an, 25 tCO2e/an pour le décile le plus aisé). Ces mêmes ménages doivent en parallèle réduire leurs émissions de 8 %/an tous les ans, afin d’atteindre un bilan carbone de 2 tCO2e en 2050. Une solution pour les ménages des classes moyennes de pouvoir investir sur Kyaneos afin de tendre eux aussi vers la neutralité carbone en contribuant à décarboner le secteur du bâtiment est de faire un emprunt (type « immobilier hors résidence principale », ou type « consommation »), et les banques doivent donc faciliter ces investissements. "En plaçant son argent sur la SCPI Kyaneos, un ménage réduit jusqu’à l’équivalent de 4,5% de ses émissions personnelles, l’année du placement." POUR UN MÉNAGE, INVESTIR CHEZ KYANEOS, C'EST DONNER DU SENS A SON ÉPARGNE, EN CONTRIBUANT À RÉDUIRE LES ÉMISSIONS DU SECTEUR DU BATIMENT Le secteur du bâtiment est le 2e secteur le plus émetteur en France, et représente 26% des émissions nationales si on considère les émissions liées uniquement aux consommations énergétiques, soit environ 115 MtC02e (données 2016). La décarbonation du secteur est donc nécessaire pour réduire les émissions de gaz à effet de serre de la France. Les émissions venant essentiellement des bâtiments déjà existants, la rénovation est une solution clé pour réduire les émissions du secteur. Malgré des objectifs ambitieux, ainsi que des subventions pour les particuliers qui existent depuis des années, l’investissement direct par les ménages reste insuffisant. Le premier suivi de la Stratégie Nationale Bas Carbone (2018) soulève ce point délicat : le rythme de rénovations lourdes des bâtiments existants suscite des "préoccupations". L’aide de l’investissement « indirect » est donc nécessaire pour atteindre les objectifs climatiques de la France ! De plus, des acteurs comme Kyaneos ont une capacité de structuration de solutions bas carbone « industrialisables » que les ménages ne pourront jamais avoir, ce qui fait un argument supplémentaire pour appeler au soutien de tels vecteurs d’investissements « indirects ». D’après Carbone 4, l’épargne des français susceptible d’être fléchée sur des fonds « verts » est de 1747 milliards d’euros, constituée de l’épargne actuelle investie en actions, obligations, fonds communs de placement et assurances vie (Source : Banque de France). Si ce montant était fléché vers un fonds tel que la SCPI que propose Kyaneos, il permettrait une réduction des émissions de gaz à effet de serre du secteur Bâtiment de 8,7 MtCO2e, soit 8% des émissions totales du secteur en France. "Si toute l’épargne des français [2] était fléchée sur des fonds comme ceux de Kyaneos, cela réduirait de 8% les émissions annuelles du secteur Bâtiment à l’échelle nationale." Télécharger Mise en garde : ce document ne prétend pas être exhaustif ni contenir toutes les informations souhaitées pour prendre certaines décisions d'investissement. Carbone 4 et ses dirigeants, employés et agents respectifs déclinent expressément toute responsabilité qui pourrait être fondée sur l'évaluation de Carbone 4 et toute erreur ou omission dans celle-ci. L'évaluation de Carbone 4 ne constitue pas une forme de recommandation de la part de Carbone 4 en ce qui concerne la vente ou l'achat de titres des actifs décrits dans le présent document. Ce document ne doit pas constituer la base exclusive des décisions d'investissement ou de toute autre décision ou action. Note: [1] Les valeurs indiquées ont été estimées à partir des calculs de réduction d’émission réalisés par Kyaneos suite aux travaux de rénovation effectués, dont la méthodologie et les résultats ont été audités par échantillonnage et validés par Carbone 4. [2] Épargne susceptible d’être fléchée sur des fonds « verts », constituée de l’épargne actuelle investie en actions, obligations, fonds communs de placement et assurances vie (Source : Banque de France).
true
Poursuite de la série, pour changer un peu de la crise économique : le désormais classique point météo mensuel… Bilan mensuel pour janvier 2013, que je commenterai peu, les images parlant d’elles-mêmes… En France Analyse Météo-France pour Janvier 2013 Source : Météo France « DLes températures ont été très fraîches du 13 au 26, après un début de mois doux. Puis, en toute fin de mois, elles ont dépassé à nouveau les normales de 4 à 6 °C sur la quasi totalité du pays. Moyennée sur la France, la température mensuelle est inférieure de 0.3 °C à la normale. » « Le vent a été discret en moyenne hormis des épisodes de mistral et de tramontane ainsi qu’un coup de vent remarquable dans le Nord-Ouest. » « L’ensoleillement a partout été très inférieur aux valeurs saisonnières avec un déficit de plus de 50 % sur le Nord-Est, excepté du Languedoc à la Provence et en Corse. Globalement sur la France, janvier 2013 est l’un des moins ensoleillés depuis 1950 avec janvier 2004 et janvier 1970. » MF : « • La pluviométrie a été supérieure à la normale dans le Sud-Ouest, sur le littoral provençal et en Corse, jusqu’à 1,5 à 2,5 fois en Aquitaine et Midi-Pyrénées. Sur le nord du pays, les précipitations, essentiellement sous forme de neige, ont été déficitaires. Ainsi, la pluviométrie, très contrastée géographiquement, est néanmoins proche de la normale sur la France. » En conséquence, on a au niveau des précipitations efficaces (= eau disponible pour l’écoulement et la recharge des nappes) : « • Comme pour le cumul des précipitations depuis le début de l’année hydrologique, le cumul de précipitations efficaces depuis le 1er septembre ne représente que 50 à 75% des normales de Midi-Pyrénées au Massif central jusqu’à l’ouest des Bouches-du-Rhône ainsi que sur le nord-est de la Corse. Il est conforme à la normale de la Lorraine à la Marne et au sud du département du Nord, ainsi que de l’Aquitaine au sud du Limousin. Par contre, il dépasse la normale de 25 à 50 % sur la façade est du pays, ainsi que sur un grand quart nord-ouest, voire de 50 à 100 % du Poitou à la Loire-Atlantique et à la Basse-Normandie, du littoral de la Seine-Maritime à la mer du Nord et localement en Ile-de-France. On relève des cumuls de 300 à 500 mm sur un petit quart nord-ouest, l’est du pays, le relief corse, l’ouest des Pyrénées, voire ponctuellement jusqu’à 750 mm sur les Pyrénées occidentales, le Finistère, le Cotentin, l’ouest du Pas-de-Calais, et du nord des Alpes au massif des Vosges. » « • Au 1er janvier 2013, hormis sur l’ouest de la Haute-Loire, le centre du Puy-de-Dôme et de Midi-Pyrénées, l’ouest des Bouches-du-Rhône et le littoral de l’Aude, les sols superficiels sont proches de la saturation. A l’échelle de la France, l’humidité des sols est conforme à la normale avec toutefois un déficit sur le nord-ouest de la Haute-Loire et un excédent de la Vienne à l’ouest du Loiret, et de l’ouest du Pas-de-Calais à la région de Douai (Nord). » « Situation du niveau des nappes Le niveau des nappes au 1er janvier 2013 est hétérogène d’une région à l’autre.Les trois-quarts des réservoirs (73%) affichent un niveau normal à supérieur à la normale. Les secteurs où la situation évolue de manière favorable sont multiples quant à leur répartition géographique sur le territoire. L’évolution de la situation par rapport aux mois précédents marque nettement une période annuelle de recharge des nappes. Avec des précipitations d’automne et de début d’hiver déjà fortement marquées, on se situe désormais sur des niveaux de nappes normaux, voire supérieurs à la normale, sur la plus grande partie du territoire. Tendance d’évolution du niveau des nappes En cette période de recharge hivernale 2012 / 2013, on note, sur l’ensemble du territoire, une tendance d’évolution des nappes à la hausse pour la grande majorité des nappes (78%). Une proportion faible des niveaux s’oriente vers la stabilité (14%) et seule une très faible partie est encore tournée à la baisse (7%). On se situe désormais au coeur de la période de recharge hivernale avec une grande majorité de points orientés à la hausse ou déjà stabilisés avant une prochaine reprise très probable de la hausse des niveaux si des précipitations notables demeurent. La période de recharge devrait encore se poursuivre en ce début d’année si les précipitations observées perdurent. » En Europe Températures moyennes du mois : Anomalies de température du mois = différences par rapport à la moyenne historique : Températures moyennes des 3 derniers mois : Anomalies de température des 3 derniers mois : Précipitations moyennes du mois : Anomalies de précipitations du mois : Précipitations moyennes des 3 derniers mois : Anomalies de précipitations des 3 derniers mois : Aux États-Unis Anomalies de température du mois : NB. : 2°F = 1,1 °C Les évènements marquants ont été les suivants : Au niveau géographique national : Et si on regarde sur les 12 derniers mois : Cette fois, le record historique est battu, les États-unis vivent l’année la plus chaude des 117 dernières, et donc de leur histoire… C’est donc aussi le cas de beaucoup d’États : À lire sur le bulletin américain de la NOAA Dans le Monde Tout d’abord, voici une synthèse des évènements du mois, par la NOAA (National Oceanic and Atmospheric Administration, agence gouvernementale américaine) : Elle est malheureusement en anglais, mais bon, chez Météo-France, on ne trouve presque aucune donnée pertinente accès libre, alors avant qu’ils s’occupent du Monde… A contrario, mention très spéciale à la NOAA et à son National Climatic Data Center, pour l’immense qualité des informations. Le bilan du mois est le suivant : À lire sur le bulletin global de la NOAA Anomalies de température du mois : Janvier 2013 a été le 9e mois de janvier le plus chaud sur la Planète (+ 0,85 °C par rapport à la moyenne) depuis 1880… Et le plus chaud sur les terres de l’hémisphère sud. On assiste ainsi à un bouleversement des températures sur la planète. Il a fait un peu moins chaud en France (out en étant largement supérieurs aux moyennes), mais beaucoup plus chaud aux États-Unis qui battent des records. Le réchauffement climatique doit s’analyser globalement, pas localement. En effet, il se peu que les modifications induisent refroidissent certaines zones. Par exemple, petit rappel géographique : la France est à la même latitude que le Canada, et Paris est bien plus au Nord que les grandes villes canadiennes : S’il fait bien plus chaud chez nous, c’est grâce au flux de chaleur apporté par le courant maritime du Gulf Stream ; s’il était perturbé, il pourrait ainsi y avoir des conséquences pénibles durant certaines saisons ici. Voici la situation de la banquise arctique par rapport aux années précédentes : Anomalies de précipitations du mois (en mm de précipitations) : Anomalies de précipitations du mois (en % par rapport à la moyenne): Météo Solaire Je rappelle que les billets de l’étude approfondie du Soleil et de ses cycles réalisée dans le cadre du dossier sur le Réchauffement Climatique sont disponibles ici : Voici la carte des prévisions du cycle solaire pour les mois à venir : Le pic du cycle 24 est actuellement estimé par la NASA à 72 taches solaires par jour, à l’automne 2013. (rappel : prévision 12/2011 : 96 taches/j en février 2013 ; prévision 02/2012 : 59 taches/j début 2013 ; 08/2012 : 60 taches/j au printemps 2013 ; 73 taches/j fin 2012) À suivre le mois prochain ! 🙂 P.S. : Les archives de ce point Météo sont ici : point météo mensuel
true
Climat. L’Allemagne condamnée par la justice à mieux faire La Cour constitutionnelle allemande a jugé que la politique climatique du gouvernement d’Angela Merkel «violait les droits des générations futures ». L’arrêt du jeudi 29 avril 2021 oblige les législateurs à revoir leur copie pour 2030. Cela tombe mal pour la droite allemande, en campagne pour remplacer la chancelière Angela Merkel en septembre 2021. La Cour constitutionnelle de Karlsruhe a jugé que la politique climatique du gouvernement violait le droit des générations futures. Dans un arrêt rendu jeudi 29 avril 2021, les juges obligent les législateurs à revoir leur objectif de réduction d’émissions de gaz à effet de serre pour la période allant de décembre 2022 à 2030. Les gardiens de la Loi allemande ont été sensibles aux plaintes de plusieurs organisations environnementales, dont Greenpeace et les jeunes de Fridays for Future. Cette jeunesse réclamait le droit de vivre sur une planète en bonne santé. Elle a été entendue. Une génération ne doit pas être autorisée à consommer une grande partie du budget de CO2, avec une charge de réduction relativement modérée, si cela laisse aux générations suivantes un fardeau plus radical. Leur vie serait exposée à une perte de liberté considérable, indique l’arrêt de la Cour de Karlsruhe. (Le mouvement Friday For Future a célébré le jugement de la Cour constitutionnelle du 29 avril) Précision : Berlin avait planifié une baisse de 55 % d’émissions par rapport à 1990, soit une ambition identique aux engagements de l’Union européenne. Pour l’atteindre, les écologistes emmenés par leur candidate Annalena Baerbock, estiment qu’il faut avancer à 2030 la sortie du charbon programmée en 2038, et se passer du gaz russe du projet Nord Stream 2. Les Verts caracolent en tête des intentions de vote aux législatives de septembre 2021 : 28 % contre 21 % pour les conservateurs de la CDU/CSU. Une première en Allemagne. Les sociaux-démocrates du SPD plafonnent à 14 %. Aussi, la ministre actuelle de l’Environnement, la sociale-démocrate Svenja Schulze, a réagi au jugement, en disant que tous ses efforts pour augmenter les objectifs intermédiaires avaient été stoppés par la CDU, avec qui son parti dirige le pays.
true
Les spécialistes du centre Scanex ont repéré un cercle dans la glace du lac russe Baïkal, au sud de la presqu'île de Sviatoï Nos, en analysant les photos fournies par les satellites de recherche scientifique américains Terra et Aqua. Le cercle a une forme asymétrique (6x7,8 km), à la différence des formations détectées sur le lac par le passé. La dernière découverte d'un cercle de glace géant sur le lac Baïkal, en Sibérie orientale, remonte à 2014. Les anneaux de glace n'apparaissent pas tous les ans. Découverts pour la première fois sur des images satellites à la fin des années 1990, les cercles du lac Baïkal sont ensuite réapparus en 2003, 2005, 2008 et 2009. Les chercheurs ont ensuite repéré trois cercles en 2011 et deux en 2013 et en 2014. Les scientifiques ont d'abord pensé que les cercles de glace se formaient suite à des émissions de méthane qui remonte à la surface sous l'effet d'une activité sismique ou de sources thermales. Mais les résultats de récentes études les poussent à croire que ce phénomène est provoqué par des tourbillons anticycloniques qui se forment sous la glace du lac Baïkal. Le Baïkal est le lac le plus profond du monde. Sa profondeur moyenne est de plus de 730 mètres, et sa plus grande profondeur mesurée est de 1.637 mètres. Sa superficie est de 31.500 km², ce qui correspond à la taille d'un pays comme la Belgique. Des experts ont calculé qui si toute l'eau du Baïkal (23.000 km³) était partagée entre les habitants de la Russie, chaque personne disposerait d'un convoi de 2.773 citernes de 60 tonnes d'eau. Le Baïkal a plus d'eau que les cinq Grands lacs de l'Amérique du Nord et même plus que la mer Baltique. L'âge du lac est estimé à 25-35 millions d'années, ce qui est unique pour un lac, car l'existence de la majorité de lacs, surtout d'origine glaciaire, est limitée à 10.000 voire 15.000 ans puisque par la suite, ils se remplissent de vase et se transforment en marais. L'eau du lac est limpide, permettant de voir des objets et des pierres se trouvant à une profondeur de 40 mètres.
fake
Météo. Une vague de chaleur « exceptionnellement dangereuse » attendue aux États-Unis et au Canada Le Nord-Ouest des États-Unis et le Sud-Ouest du Canada vont être confrontés à partir de ce week-end des 26 et 27 juin à une intense vague de chaleur. Des records historiques pourraient tomber. La température, qui pourrait atteindre 45 °C, ne devrait baisser qu’à partir du milieu de la semaine prochaine. « Une chaleur dangereuse et sans précédent ». Le service météorologique américain est on ne peut plus clair quant à l’importance de la vague de chaleur qui va progressivement toucher le Nord-Ouest des États-Unis et le Sud-Ouest du Canada à partir de ce week-end du 26-27 juin. Des records historiques de chaleur devraient être battus « À partir de samedi, plusieurs records de chaleur devraient tomber dans tout le Nord-Ouest (des États-Unis), avec des records mensuels et absolus menacés dimanche et lundi », poursuit le National Weather Center dans son bulletin du vendredi 25 juin. « Le record national de chaleur du Canada (45 °C) pourrait être menacé », confirme le site spécialisé Keraunos. Gaëtan Heymes, ingénieur prévisionniste à Météo France, précise même sur Twitter que les valeurs météorologiques qui président à l’apparition de cette vague de chaleur sont « dignes des déserts subtropicaux ». « Nuits tropicales en vue avec pas moins de 22 à 25 °C le 28 (juin) », poursuit le prévisionniste dans un autre tweet. Des températures nocturnes (très) élevées qui font dire aux autorités canadiennes que l’on « prévoit peu ou pas de répit » sur le front de la chaleur. « Une canicule exceptionnellement dangereuse » Cette chaleur intense n’est pas sans présenter des risques sanitaires, alertait sur son compte Twitter mercredi 23 juin Daniel Swain, un scientifique de l’université UCLA à Los Angeles : « Ce sera une canicule exceptionnellement dangereuse du point de vue de la santé publique, d’autant plus que c’est une partie du pays où les structures ne sont pas conçues pour évacuer la chaleur et où la climatisation est rare ». « Une telle chaleur peut être extrêmement dangereuse si les précautions appropriées ne sont pas prises », confirme le service météorologique américain. « Les habitants sont invités à rester hydratés, à éviter les périodes prolongées à l’extérieur et à séjourner dans des chambres climatisées. » Ces températures extrêmes devraient durer jusqu’en milieu de semaine prochaine.
true
La contestation n'a pas dissuadé l'exécutif. Le gouvernement a donné ce mardi son feu vert à l'exploitation de deux parcs éoliens en mer, l'un situé au large des îles d'Yeu et de Noirmoutier (Vendée) et l'autre au large du Tréport (Seine-Maritime), dans des arrêtés publiés au Journal officiel. Ces autorisations cessent de "produire effet" si les installations ne sont pas mises en service dans leur "intégralité" le 1er juillet 2024, ajoutent les deux arrêtés. Le projet de Noirmoutier, en développement depuis quatre ans et qui doit rassembler 62 éoliennes, se heurte à des opposants craignant pour la biodiversité. Lors d'une enquête publique entre avril et mai 2018, 76% des personnes qui se sont exprimées ont dit être opposées au projet. Le projet, développé notamment par Engie, devrait produire en moyenne 1 900 gigawattheures (GWh) d'électricité par an. Cela correspond à la consommation annuelle de 790 000 personnes, soit plus que le nombre d'habitants de la Vendée (674 000). Le projet de Dieppe Le Tréport doit lui aussi rassembler 62 éoliennes. Le parc, développé par Engie, produirait en moyenne 2 000 GWh par an, ce qui représente la consommation électrique annuelle d'approximativement 850 000 personnes, soit environ les deux tiers de la population de Seine-Maritime. Soutenu par le conseil régional de Normandie présidée par le centriste Hervé Morin, il suscite également de vives critiques de la part des pêcheurs locaux, soutenus par les municipalités PCF de Dieppe et du Tréport. Une enquête publique sur le projet a été ouverte mi-octobre et doit s'achever fin novembre.
true
Pour un investisseur ou un gestionnaire d’actifs, mesurer l'impact des activités financées sur le changement climatique est une étape nécessaire pour la construction de portefeuilles qui contribuent à la transition vers une économie bas-carbone. Carbon Impact Analytics est une méthodologie innovante qui permet de mesurer l’impact carbone d’un portefeuille d’investissements, c’est-à-dire : - De mesurer les émissions de gaz à effet de serre induites et évitées par les entreprises d’un portefeuille, sur l’ensemble de leur chaine de valeur (scope 1, 2 et 3). Carbon Impact Analytics mesure également les émissions induites et évitées par les produits et services vendus - D’évaluer la contribution d’un portefeuille à la transition énergétique et climatique Carbon Impact Analytics permet ainsi de mesurer les émissions de gaz à effet de serre associées aux actifs détenus et leur contribution à la réduction des émissions, obligation réglementaire introduite par l’article 173 de la loi de transition énergétique pour la croissance verte. C’est également un outil d’aide à la décision qui ouvre la possibilité de réorienter les investissements vers les entreprises qui contribuent à la transition énergétique et climatique, notamment grâce à la part « verte » de leur activité. La méthode fournit aux gestionnaires d'actifs une analyse détaillée de l'impact carbone des entreprises d’un portefeuille, et permet de consolider les résultats à l’échelle du portefeuille. Dans cette première version, la méthodologie couvre les actions et les obligations de sociétés cotées sur un périmètre mondial. L’analyse, réalisée entreprise par entreprise, a pour objectif de favoriser la mise en place d’un dialogue avec les entreprises dans le temps. Carbon Impact Analytics a été développé en collaboration avec Mirova, la filiale de Natixis dédiée à l’investissement responsable, et avec le soutien de la MAIF. Les principes méthodologiques de Carbon Impact Analytics Une analyse « bottom-up » L'analyse de l'impact carbone d'un portefeuille commence par une évaluation détaillée de chaque valeur, suivie d’une agrégation pondérée des résultats au niveau du portefeuille. L’analyse de Carbon Impact Analytics différencie ainsi les entreprises au sein d’un même secteur d'activité et valorise les efforts d’intégration des enjeux climatiques dans leur stratégie, afin de permettre la mise en place d’une stratégie de « Stock-Picking » selon des critères d’impact carbone. Une approche sectorielle avec une analyse détaillée pour les secteurs à « enjeu élevé » Les enjeux de la transition bas-carbone varient en fonction des secteurs économiques, tant en terme de leviers pour réduire les émissions que d’innovations. C’est pourquoi Carbon Impact Analytics propose une approche spécifique pour les secteurs présentant des enjeux élevés, avec une méthodologie adaptée à chaque secteur. L’évaluation quantitative des émissions (induites et évitées) est complétée par une note de tendance qualitative. Sur la base de ces éléments, une note globale est attribuée à chaque entreprise permettant d’évaluer sa contribution à la transition climatique. Une présentation détaillée des résultats de l’analyse Carbon Impact Analytics permettant d’alimenter à la fois le reporting et la stratégie d’investissement Les résultats de l'évaluation Carbon Impact Analytics sont fournis de manière consolidée au niveau du portefeuille, ainsi que pour chaque entreprise. Ces résultats comprennent plusieurs indicateurs quantitatifs et qualitatifs, ainsi que des représentations statistiques au niveau du portefeuille. TÉLÉCHARGER LE GUIDE MÉTHODOLOGIQUE CARBON IMPACT ANALYTICS Références : Euronext lance la nouvelle version de son indice Low Carbon 100 Europe® CNP Assurances utilise Carbon Impact Analytics pour mesurer l’empreinte carbone de son portefeuille d’investissements en actions et sa contribution en faveur de la transition énergétique Exemple de résultats : l’impact carbone des investissements en Actions de Mirova Documentation : "Carbon Compass – An Investor Guide on Carbon Footprinting" publié par Kepler Chevreux Règlementation : Décret de l’article173 concernant les nouvelles obligations qui ciblent les gestionnaires d’actifs et les investisseurs institutionnels
true
Greta Thunberg, pour ceux qui ne la connaissent pas encore, est cette jeune fille suédoise anxiogène de confession progressiste qui véhicule le virus de la peur climatique partout dans le monde. C’est une mondialiste formée par ses parents à l’activisme vert, fondant en elle toutes les tendances de l’idéologie du Bien : écologisme donc, féminisme, homosexualisme, antinazisme, antichristianisme... Bref, c’est une guerrière de la haine des hommes, des traditions, des nations, de la société pas assez mondialisée, des différences entre les sexes, du patriarcat bien sûr, et des hommes politiques qui sont méchants. Greta, qui souffre d’un petit syndrome Asperger – lire asperguère sinon ça fait asperger, le verbe qui veut dire envoyer un jet sur quelqu’un – fait le tour du monde pour tenter de rallier les jeunes à sa cause. En 2019, sa tournée mondialiste électorale a plutôt bien marché, aidée en cela par les magazines du monde entier, qui l’ont aussitôt starisée. Il y a même eu en France des manifestations de jeunes pour le climat – ou contre le climat, ils ne savaient pas très bien eux-mêmes –, une sorte de danse de la pluie ou du soleil selon la météo du jour, des manifs de jeunes, donc, qui ont dépassé certains samedis à Paris la manif des Gilets jaunes, qui eux luttent contre le refroidissement oligarchique plutôt que contre le réchauffement climatique. Il semble, après un an de gretification de l’actu, que la petite Suédoise, qui doit maintenant aller sur ses 17-18 ans, donc seins qui poussent, premiers émois amoureux, tout le merdier adolescent, ait quelque peu disparu des radars. La gretapsychose a été remplacée par la coronapsychose, du coup, tout le monde s’en branle du réchauffement. Depuis le lancement de la pandémie mondiale qui va presque éradiquer l’Homme de la planète (sauf les Israéliens puisqu’ils ont l’antidote, comme dans World War Z), si l’on en croit les prophètes les plus pessimistes du type Jacquadit Attali, Greta n’arrive plus à faire la moindre couv, et c’est grâce à un obscur publicitaire travaillant pour une société gazière (oups) et minière canadienne qu’elle revient en force dans l’actu. Le mème de la honte Il s’agit d’un autocollant qui ne la représente pas directement mais sous le nom de « Greta » on découvre une image pas très pieuse : un dos de jeune fille avec deux nattes tenues par deux mains. On pense qu’il peut s’agir des mains d’un spécialiste de la tresse, mais le problème est qu’il s’agit de mains d’homme, ces êtres méchants qui sont contre le réchauffement (climatique), car malgré son progressisme il n’est pas encore prouvé que Greta est lesbienne, mais cette image insoutenable est une façon de sexualiser une jeune fille qui pourrait aussi, attention aux raccourcis faciles, être la Greta de Ich liebe dich Greta, du chanteur sioniste alcoolique Renaud, donc ne tirons pas de conclusions hâtives sur la comète. Aussitôt, une habitante de la région de l’Alberta, Michele Narang, n’écoutant que son courage antisexiste, a réagi en parlant de « viol » : Public officials attack @GretaThunberg while denying oil patch camps are problematic for women & X Site Energy Corp. GM Doug Sparrow reportedly defends the sticker with "She's not a child. She's 17." #FireDougSparrow #cdnpoli #SexualAssault #SexualAbuse #SexualViolence #Canada pic.twitter.com/FXt5bz3LjI — Aengus Kane (@AengusKane) February 28, 2020 Pour comprendre ce message écrit en langue étrangère, nous avons dû reprendre un extrait d’article du journal gratos 20 Minutes : Comme elle, de nombreuses personnes qui ont relayé l’image sur le Web y ont vu la représentation d’une agression sexuelle sur une mineure, qui ne serait autre que la militante écologiste Greta Thunberg. « Je suis absolument dégoûtée que l’industrie de l’énergie puisse tolérer une telle représentation : celle d’une enfant violée. J’ai téléphoné au directeur général. Il est bel et bien conscient du message, mais il m’a répondu : “Ce n’est pas une enfant, elle a 17 ans”. » Selon Michelle Narang, cette image lui aurait été envoyée par un employé de la compagnie gazière et pétrolière X-Site Energy Services. L’autocollant aurait été conçu comme du matériel promotionnel, à coller sur les casques, a indiqué un employé de X-Site Energy Services contacté par le HuffPost canadien. Il n’aurait pas encore été officiellement distribué au sein de l’entreprise, mais l’image aurait circulé parmi les employés dès mercredi. En voulant dénoncer cette image, Michele l’a diffusée sur le Web, ce qui n’est pas très malin et rappelle le GriveauxGate lancé sans le faire exprès par l’ex-député LREM Son-Forget sur Twitter, qui a dit chez Morandini qu’il voulait « aider » le pauvre Benjamin, qui depuis n’ose plus sortir de chez lui. Nous avons fait nos propres recherches, car en journalisme il faut se méfier de tout, et d’abord des journalistes, encartés ou pas, et nous avons retrouvé une image qui est peut-être l’image zéro, comme le patient zéro du coronavirus, un Chinois qui aurait pris une chauve-souris ou un pangolin pour sa compagne, tout est possible au pays où l’on mange les chiens, vous savez. Il s’agit, comme vous le voyez, de la juxtaposition de trois images, dont deux de Grota Thonberg à n’en pas douter. Une photo semble s’être glissée au milieu par erreur : la première représente Greta au naturel, c’est-à-dire qui fait la gueule comme la plupart des ados, et la troisième la représente souriante, on pense à un montage car on ne l’a jamais vue sourire, sauf avec son rictus mauvais quand Trump est passé à côté d’elle et l’a ignorée, alors que c’était quand même la grande Greta Thunberg, merde. D’ailleurs BFM TV lui a consacré un gros sujet en janvier, c’est pour dire. En conclusion, notre enquête est toujours en cours, on ignore s’il s’agit vraiment de Greta sur la photo centrale, et si c’est elle, pourquoi a-t-elle diffusé ce qu’on appelle une sextape ? Une piste solide, si c’est avéré : pour revenir dans l’actu et sauver la planète. Ce sens du sacrifice l’honore mais le sexe, qui est un vecteur promotionnel puissant, ne doit pas être utilisé à mauvais escient. Par exemple chez nous, la nouvelle star Alexandra de Taddeo fait en ce moment la une mais cela pourrait ne pas durer, et surtout mal finir car qui vit par l’épée meurt par l’épée !
fake
Le bombardement est constant, il faut sauver la Terre de son climat ou l’inverse, personne n’en sait trop rien. En tous les cas, des chancelleries aux cours d’écoles, la causa climatica franchit des sommets que rarement une idéologie aura atteinte dans l’Histoire, tous totalitarismes ou religions confondus. Oui, c’est une proposition criminelle que de chercher à imposer par tous les moyens de la propagande que nos sociétés entrent dans une nouvelle ère, celle du rationnement et de la contrainte, alors que rien ne devrait l’exiger. En exagérant de manière systématique la sensibilité du climat aux émissions de gaz à effet de serre et en composant celle-ci dans des scénarios irréalistes mais bien catastrophistes, l’apocalypse est pour dans moins de douze ans. On nous a fichu la trouille, grave ! S’il faut bien qu’un jour l’humanité soit sevrée de carburants fossiles, rien ne dit qu’il soit nécessaire d’affamer le bébé afin qu’il perde immédiatement sa dépendance. Or, Green Deal ou autres oukases d’écoliers, c’est bien d’une rupture dont il est question à laquelle les sujets, vous et moi, doivent impérativement se soumettre. Plus de délai, la terreur doit régner, que s’aiguisent les longs couteaux et que se mettent en scène des procès de type moscovites. À défaut de solution à un problème mal posé voilà qu’il n’y a pas d’autre voie possible, même les gamins n’ayant pas encore de notions de physique nous le disent, il faut leur obéir tant qu’ils savent encore tout. À QUI PROFITE CE CRIME ? En tous cas pas aux amis de la nature car ceux-ci savent qu’elle n’a cure de nos actions, gloires ou turpitudes, et qu’elle ne se laisse pas dominer par des idéologies. Pas non plus aux pays en développement ou en émergence quoiqu’un recul du monde développé ne serait pas pour leur déplaire bien qu’ils risquent de se faire entraîner par ces élans suicidaires. C’est dans la nature humaine qu’il faut chercher, celle qui est à la conquête permanente du pouvoir. Or ce pouvoir est contesté, le mode même de son exercice est mis en question dans les sociétés ouvertes qui sont issues de la civilisation européenne, de plus en plus fragmentées, et polarisées, à nouveau tentées par des idéologies explicitement radicales. Certains remettent sur scène le nationalisme étriqué par l’illusion protectionniste. Cela peut durer un temps, mais pas tout le temps car, autre limite à la durabilité, les promesses démagogiques et populistes ne peuvent que s’étioler. D’autres ont des tentations de pure idéologie, marxistes ou d’ordre religieux. Les enseignements de l’Histoire les contredisent ? Peu importe, on l’efface et, si nécessaire, on la réécrit. BIENVENUE, L’APOCALYPSE ! La causa climatica apparaît alors comme le Graal de l’action politique qui permet de prendre ou de cimenter le pouvoir : N’oublions pas non plus que cela profite à un segment du marché de la recherche scientifique qui tire de la causa climatica une notoriété triomphante et des revenus plus que confortables. Ce n’est pas pour rien que certains –trop– d’entre eux se corrompent à dire le faux, à occulter le vrai ou à minimiser les incertitudes pour prêcher une cause qui est devenue ascientifique. N’oublions pas non plus que les médias s’en régalent en y jouant le rôle de maître à penser ou de compagnon de route, ou simplement en se laissant rouler comme des idiots utiles. Adieu le sens critique, il ne paye que lorsqu’il est conformiste. SANS OPPOSITION Comment donc un personnage ou un parti politique pourrait-il se mettre en faux avec une telle mouvance ? On les voit donc s’y aligner les uns après les autres, surtout en période pré-électorale. Qui aura le courage de dire que le roi est nu ? Que les politiques de mitigation climatiques sont inutiles, au mieux totalement inefficaces et au pire suicidaires ? Que l’urgence climatique est une hystérie de plus, proche de tous les fascismes ou dépassant même ? Réponse : personne sauf –comme moi– de vieux croûtons n’ayant rien à gagner ni à perdre face à cette neurasthénie qui menace pourtant aussi leur esprit raisonnable.
fake
On ne s’ennuie jamais avec le président Trump! Il n’a peut-être pas encore mis en œuvre tout ce qu’il avait promis à ses électeurs, mais il a réussi à faire que les nouvelles de là-bas deviennent bien plus croustillantes. Au bord de la procédure de destitution, rescapé du lynchage médiatique, pris en chasse par la meute des sénateurs voyous du parti républicain, le président US a brisé trois tabous institués par ses prédécesseurs ; il a mis fin à la grande peur du changement climatique, il a déchiré les traités commerciaux transpacifique et transatlantique, et il a miné l’Otan. Trois victoires qui vaudraient à n’importe quel président une place très spéciale dans les livres d’histoire. Avant sa victoire électorale imprévue, l’Occident fonçait droit vers le Meilleur des Mondes, dans le sillage des US, avec l’Europe occidentale en première ligne. Les traités commerciaux étaient censés en finir avec la démocratie et imposer la gouvernance par les plus grosses multinationales. Le programme transhumaniste avait été bricolé pour nous embarquer dans l’audacieux projet de reconfigurer complètement l’Homo sapiens. Notre vie devait incessamment se précipiter dans le pire : plus de dépenses, parce que se chauffer sans pétrole coûterait plus cher, des revenus en baisse, parce que plus d’immigration fait dégringoler les salaires, et toujours plus de précarité pour les travailleurs. Trump a renversé la vapeur, le train US vers l’enfer a été détourné. Le train européen reste sur son erre mais sans le moteur US. La France a célébré le mariage nécrophile d’un cadavre avec un homme de son sexe (les cadavres en auraient donc l’usage) en présence de l’ex-président François Hollande. Une telle mascarade païenne contre l’ordre humain naturel serait devenue normale dans le monde entier, mais Trump … est arrivé. Après Trump, cet acte tordu restera comme un raccourci de ce qui aurait pu advenir selon le Nouvel Ordre mondial. Et Trump a fait toutes ces choses magnifiques au lendemain de son pèlerinage aux sources de la foi. Il est allé à la rencontre des gardiens des deux mosquées. Il a marché jusqu’à la plus grande église de la chrétienté, celle du Saint Sépulcre. Il est allé jusqu’au Mur juif ; Il a eu une audience privée avec le pape. Après quoi, il est allé taquiner les chefs d’Etat européens, il est allé affronter leur hostilité. Le tout avant de rentrer dans sa capitale, pour se retrouver à nouveau encerclé par la meute. Indépendant, ne se laissant manipuler par personne, Donald Trump est le premier président américain en exercice à s’être rendu au Saint Sépulcre. Cette grande église, édifiée une première fois par la reine Hélène, mère de l’empereur Constantin au IV° siècle, puis reconstruite par la reine croisée Melisende au XII° siècle, abrite les sites de la Crucifixion, de la Mise au Tombeau et de la Résurrection du Christ. Les Croisades avaient été déclenchées pour ce site, et sa libération du joug des infidèles avait été le vœu le plus cher et le plus beau rêve des chevaliers étincelants dont les noms Godefroy de Bouillon, Tancrède, Richard Cœur de Lion, ne sont pas complètement tombés dans l’oubli. D’habitude, les hommes d’Etat US gardent leurs distances avec le Saint Sépulcre. Ils se précipitent au Mur Occidental juif, pour des séances de photos qui leur rapporteront de bons votes juifs ou des soutiens sonnants et trébuchants. Trump a commencé son pèlerinage en Terre sainte par l’Eglise, et il avait rencontré les patriarches latin et orthodoxe ; c’est seulement après cette démarche qu’il est redescendu jusqu’au Mur. Qui plus est, il a refusé que Netanyahou l’accompagne, comme il le lui avait demandé. « Le Mur n’a rien à voir avec l’Etat d’Israël, il fait partie de Jérusalem Est, de la Palestine », ont dit ses hommes aux officiers israéliens. Sa visite à Jérusalem Est et à Bethléem n’avait pas été soumise au ministère des Affaires étrangères israélien ni au gouvernement israélien. Il a par conséquent rendu définitivement visible le fait que pour lui l’Eglise est plus importante, et que malgré son attitude positive envers Tel Aviv, il n’est nullement un larbin aux ordres. Son audience avec le pape, à Rome, était empreinte de dignité et de sincérité. Le président et le pape ont eu un long entretien privé, et c’est seulement après qu’il s’est mis en route pour ses rencontres politiques avec les dirigeants de l’Otan. Pendant la campagne électorale, Trump avait déclaré l’Otan obsolète, et il avait parfaitement raison. L’Otan avait été créée à l’époque de la Guerre froide pour affronter la puissante URSS, la superpuissance aux 50 000 tanks et aux cinq millions de soldats. La frontière s’étirait vers l’Ouest, englobant Prague et Berlin. Maintenant la frontière a reculé vers l’Est, en deça de Kiev et Tallin, la Russie n’a plus qu’un millier de tanks environ, et son armée a la taille d’une armée européenne normale. L’Otan est donc superflue pour négocier quoique ce soit avec la Russie. Peut-être que si Trump avait les mains libres, il aurait fait avec l’Otan comme avec le Traité de Paris, en serait sorti tout simplement, mais c’était impossible, de fait. L’allégation d’un complot entre Trump et Poutine est la dernière ligne de défense de l’Otan, et la meilleure, de même que pour le Nouvel Ordre mondial. Tant qu’il est accusé de tractations illégales avec le Kremlin, Trump ne pouvait pas en finir avec l’Otan, faire des coupes drastiques dans son budget militaire et cultiver des relations amicales avec la Russie. Il a même été obligé de dire qu’il avait changé d’avis et qu’il était devenu un nouveau croyant en l’Otan. Mais ses projets n’ont pas changé. Au lieu de claquer la porte, il accuse ses partenaires de l’Otan de ne pas payer leur dû. Il leur cherchait querelle, jusqu’au moment où Mrs Merkel a éclaté, déclarant que l’Europe « se défendrait par ses propres moyens ». Résultat hautement désirable : l’Otan est bel et bien en voie de dissolution. Mais son coup de maître contre le gouvernement mondial occulte, il l’a porté à Washington, en rayant l’accord de Paris sur le climat. La doctrine du réchauffement planétaire (GW, pour Global Warming) avait été installée au pinacle même du script narratif unique et unifié qui a été imposé au genre humain par les Maîtres du Discours, juste à côté de l’autre dogme sacré, celui du très saint Holocauste. Dix ans plus tôt, la rédactrice éminente du Boston Globe Ellen Goodman avait déclaré que « les négateurs du réchauffement climatique faisaient désormais la paire avec les négateurs de l’Holocauste ». Depuis lors, les postures jumelles étaient souvent mises en parallèle pour exemplifier le contenu du Nouveau Commandement : « Tu ne négationneras point ». Maintenant, ça y est, d’un coup, Trump a brisé le tabou et nous a rendu la liberté [c’est nous qui soulignons, ndlr]. Nous n’avons plus à professer notre crainte de mers grimpantes, de glaces fondantes et de chaleurs grésillantes alors que nous subissons le printemps le plus frais de mémoire d’homme. Il neigeait, ce matin, le 2 juin, à Moscou, et en Suède, c’est seulement maintenant que les pommiers se sont mis à fleurir, alors que normalement c’est début mai, mais sans Trump, jamais nous n’aurions osé reconnaître à haute voix que la théorie du changement climatique par la faute des agissements humains ne tient pas debout. En fait, je n’ai jamais rencontré de savant climatologue qui croie à la théorie du GW, même si bien peu se risqueraient à le proclamer ouvertement, de peur de perdre leur boulot et de se trouver ostracisés. En privé, ils pouffaient tous de rire à l’idée que l’homme serait capable d’avoir une influence sur le climat. Des changements climatiques il y en a toujours eu, on est bien d’accord, mais la contribution humaine au processus est négligeable. Les scientifiques russes (ceux-là mêmes, peut-être, qui nous ont imposé Trump contre les Américains amoureux de la Clinton?) avaient fait une simulation fonctionnelle sur le climat, et en avaient conclu que le principal facteur de changement réside dans l’activité solaire. Le dioxyde de carbone est plutôt un dérivé du réchauffement, bien plus qu’une cause, et de toutes façons, c’est excellent pour la végétation. A la différence des évènements historiques, les effets physiques sont observables. Nous verrons bien, de nos yeux, qui a raison. Selon le schéma russe, nous sommes au début d’un âge de glace mineur. Les observations sur les champs de glace de l’Antarctique confirment que la glace est en formation, et non en recul. La banquise ne va pas se réchauffer, comme le disaient les scientifiques officiels ; il va faire beaucoup, beaucoup plus froid, au moins pendant les trente prochaines années. L’hiver arrive ! Les pères des accords de Kyoto et de Paris vont certainement se féliciter d’avoir gagné la bataille contre le réchauffement climatique quand nous allons grelotter. Mais notre influence sur le climat est minime, pour le meilleur et pour le pire, alors que de toute façon nous allons avoir besoin de pétrole et de charbon pour survivre. Pourquoi donc, alors, une théorie aussi fumeuse a-t-elle pris autant d’importance au point de forcer des nations formatées par le business à accepter des salaires en monnaie de singe ou le chômage massif ? Il ne s’agit plus de science. A travers l’accord de Paris, la banque mondiale prenait le contrôle complet de la mise en œuvre de l’accord. Les banquiers, les acteurs occultes du gouvernement mondial, pouvaient faire la loi par-dessus les industriels. Et simultanément, la Matrix du contrôle mental par les banquiers avait besoin de quelques accroches. Jadis, il y avait la croyance dans les prérogatives royales et la foi dans le Christ sauveur ; puis ce sont le profit et la famille qui sont devenus les points de repère, et depuis une date récente, nous avons les forces du marché, le réchauffement climatique, le clivage par le genre, la migration de masse (dite « antiracisme ») et la supériorité juive. Si vous émettez des doutes sur l’un des points sensibles, votre opposant réagira comme si vous l’aviez insulté et tentera de vous insulter en retour. Et vous aurez droit aux sanglots, aux cris de douleur et aux crises de larmes. Quand j’étais petit, l’amour de Staline constituait l’un de ces points névralgiques pour les Russes; quand Khroutchev l’avait fait sauter, les gens s’étaient mis à pleurer, mais, de fait, ils venaient de connaître leur libération. Et s’ils revenaient à une certaine admiration pour Staline, c’était en tant qu’hommes libres, libres de leurs choix. Peut-être que nous ou nos enfants finirons par valider la théorie climatique officielle mais ce sera par libre consentement, et non pas sous la houlette des banquiers. La décision historique de Trump vient de dégager ce qui a été notre système de références des vingt dernières années. J’ai remarqué que les scientifiques éminents qui ont démoli la conspiration du GW sont souvent d’origine russe, même s’ils travaillent en Occident. Tel le professeur Valentina Zharkova de l’université de Northumbria, ou le docteur A. Kosovichev, de l’université de Stanford. Le mot « négateur » ou « négationniste » ne fait pas peur aux Russes ; comme la Lorelei Lee, la blonde du film Les Hommes préfèrent les blondes, ils sont dépourvus d’inhibitions mentales. Leur système soviétique était rude, mais les gens restaient libres de penser ce qu’ils voulaient. « Les Russes étaient indifférents à ce que je pouvais penser, contrairement aux Américains, qui voulaient me faire penser comme eux », observait Carl Schmitt, le grand philosophe du droit allemand. Il avait passé du temps dans les zones occupées d’Allemagne après 1945, du côté russe comme américain, si bien qu’il était à même de comparer, et il trouvait que les esprits en Allemagne de l’Est sous occupation russe restaient libres. Les Russes, en Russie comme ailleurs, sont toujours plutôt indépendants d’esprit, parce qu’ils n’ont jamais subi de lavage de cerveau en bonne et due forme par les Maîtres du Discours. Les Russes n’ont jamais cru à la théorie de l’origine humaine du Grand Réchauffement ; la Russie n’a pas ratifié l’accord de Paris, et Vladimir Poutine n’a pas condamné Trump de s’en être retiré en dépit des pressions subies. Il était dans le doute, quant à la possibilité pour l’homme d’enrayer le changement climatique. C’est le point de vue personnel de Poutine : le climat planétaire change tout le temps, mais le facteur humain est négligeable. “En un sens nous ne percevons pas que la température soit en train de s’élever, mais nous devrions être reconnaissants au président Trump. Il a neigé aujourd’hui à Moscou ; [à St Pétersbourg] il fait froid et pluvieux, maintenant nous pouvons faire porter le chapeau à l’impérialisme américain, et à Trump à la fois » a commenté Poutine, rigolard. Trump a qualifié l’ensemble du schéma directeur de canular, « hoax ». Et effectivement on a eu droit à des révélations surprenantes, en 2009 on parlait de Climatogate, quand les courriels des spécialistes britanniques du climat ont fuité, et que ce qu’il en ressortait relevait bien d’un canular. Mais ces révélations n’ont guère eu d’impact : apparemment les forces qui sont derrière la conspiration voulaient absolument poursuivre leurs objectifs complotistes.[1] En 2003, le sénateur James Inhole posait sa célèbre question: « avec toute cette hystérie, cette peur, cette science vociférante, se pourrait-il que le réchauffement de la planète par l’action humaine soit le plus énorme canular jamais infligé au peuple américain ? Puis il déclara : « certaines parties du processus IPCC ressemblaient à un procès style soviétique, où les faits sont prédéterminés, et où la pureté idéologique passe avant la rigueur technique et scientifique. » Infohe insinuait que ceux qui soutenaient le Protocole de Kyoto aspiraient à la gouvernance mondiale. Et il a peut-être bien raison. Coïncidence symbolique, l’homme qui a dépensé une énergie et des sommes considérables pour imposer à l’humanité le dogme du réchauffement climatique vient juste de mourir, au mois de mars, à l’âge mûr de 102 ans. C’était le vieux David Rockefeller qui avait changé six fois de cœur, selon la croyance populaire. Il était très tenté par l’idée. Deux ans plus tôt, quand Rockefeller n’était qu’un énergique centenaire, John Spritzler de The New Democracy écrivait que Rockefeller voulait que nous croyions au réchauffage humain pour des raisons néfastes, plus précisément parce qu’il « avait besoin d’une nouvelle grande idée pour amener les masses à suivre la classe dirigeante les yeux fermés. Ce qu’ils veulent, c’est nous faire peur, avec des histoires de réchauffage, ou bien de terrorisme, ou autre chose, pour nous faire obtempérer ». Le train européen roule encore; les dirigeants européens s’obstinent à s’en tenir à l’accord de Paris. Cela coûtera encore plus d’argent à leurs populations, mais jusqu’à maintenant, ils étaient gracieusement protégés par la complaisance des contribuables américains. C’est pour cela que le rejet du Réchauffage Anthropique par Trump est étroitement lié à son rejet de l’Otan. Maintenant, les clowns européens se démènent tout seuls. Ils s’obstinent à consolider le programme du Nouvel Ordre mondial. Ils ont manufacturé un nouveau style de dirigeants : homoérotiques, jeunistes, sans enfants, de belle allure, et conspuant activement la Russie. L’hostilité à la Russie et à Trump, la loyauté totale envers leurs points de repère, tel est le script des banquiers pour l’Europe. Mais jusqu’où pourront-ils aller sans les US ? Première épreuve, les élections au Royaume Uni, où le merveilleux Jeremy Corbyn subit les mêmes assauts médiatiques que ceux auxquels Trump résiste aux US. Corbyn a une chance à saisir : voilà que les médias nous abreuvent de torrents de fausses nouvelles sur lui et contre lui. Mais, comme nous l’avons appris par le cas américain, cette ruse ne marche pas à tous les coups. Si Corbyn gagne, l’Europe du Nouvel Ordre mondial va rétrécir sérieusement et nous ramener au noyau même de l’Union européenne. Oui, mais à condition qu’ils n’arrivent pas à se débarrasser de Donald Trump. La photo de Kathy Griffin dans le rôle archétypique de Judith présentant Trump sous les traits d’Holopherne comme l’ennemi à égorger est une image capable de galvaniser un assassin potentiel. C’est extrêmement dangereux, gardons à l’esprit leurs assauts sans fin et la trahison des députés républicains et des sénateurs. Y survivra-t-il ? Cela dépend du peuple américain. Les changements produits par Trump ont l’envergure d’une révolution ; il pourra faire beaucoup de bonnes choses si on le laisse faire. Heureusement que les Américains ont gardé leurs armes. C’est sa meilleure protection, à notre Donald. Lénine dans son bref ouvrage, le plus important, L’Etat et la Révolution, appelle au réarmement des peuples à la façon des Américains. Elle est là, la véritable attitude de gauche. La pseudo gauche US appelle au désarmement, mais la vraie gauche est pour que le peuple en armes puisse décider de son avenir. Je suis étonné que les soutiens de Trump n’aient pas encore constitué leur milice, qu’on pourrait appeler la Garde-Trump, pour prévenir toute tentative de coup d’Etat. S’ils ne se décident pas à le faire, j’ai envie de dire qu’ils n’ont pas besoin d’armes du tout. Le parti républicain devrait être purgé de ses traîtres. Les gens qui ne soutiennent pas le président devraient être chassés du parti. Qu’ils soient indépendants, puisqu’ils ont été élus, à la rigueur, mais mettez-les à la porte à la première occasion. Donald s’en sort bien, mais il devrait penser plus à ceux qui l’ont fait élire. Il faut plus de populisme. Il faudrait qu’il donne à ses supporteurs quelque chose qu’ils ne voudraient pas avoir à perdre. Je ne parle pas des gens riches, mais de la classe ouvrière ordinaire, des Américains qui devraient recevoir un bonus, un dédommagement pour tellement d’années sans hausse de salaire. Qu’on leur rembourse leurs dettes, qu’on rembourse leurs prêts aux étudiants. C’est le bon moment pour construire une bonne base solide qui soutienne à fond le président. Ses objectifs militaires ne vont lui servir en rien, encore moins à l’Amérique. Après l’intervention innécessaire en Syrie et en Irak, où les bombardiers américains massacrent les civils par centaines, voilà que Trump s’enfonce dans le traquenard afghan, en envoyant des troupes eten fournissant des armes aux Taliban. L’Afghanistan est déjà un pays très malheureux et dévasté, après seize ans d’occupation US. Les gredins de la CIA ont fait des millions en y produisant et en vendant de la drogue. Dans la mesure où la CIA est hostile à Trump, cela n’a aucun sens d’injecter encore plus d’argent, d’armes et de soldats en Afghanistan. Mieux voudrait tirer un trait sur ce pays, ramener les soldats chez eux et laisser les Afghans régler leurs problèmes entre eux. Sa posture anti-iranienne est tout aussi inutile : l’Iran ne cherche pas la bagarre, mais ce n’est pas une cible molle. Les Saoudiens, avec tout l’armement du monde, ne seront jamais capables de battre l’Iran. Même chose pour la Corée du Nord. Appeler à l’attaque de la Corée n’apportera rien à Trump, si ce n’est des ennuis. Trump devrait se concentrer sur la question de sa survie, sur les remaniements dans son gouvernement, sur la mise en avant de ceux qui le soutiennent, et couler l’Etat profond. C’est une tâche bien suffisante, aucun besoin de se lancer dans des guerres pour rien. Israel Shamir | Juin 4, 2017 | The Unz Review. [1] Selon Wikipedia, « Le Climategate est décrit au moment des faits par certains média comme un des plus grands scandales scientifiques de notre temps2,5 et par d’autres comme un événement de peu d’importance6,7. Pour les premiers, les courriels et fichiers du Climategate suggèreraient que les scientifiques du climat les plus influents dans le monde de la climatologie et du GIEC8 auraient été coupables de graves dérives déontologiques9, agissant de concert10,11 pour afficher un consensus de façade, manipuler les données ou leur présentation et ainsi exagérer le réchauffement climatique ou son interprétation, faire de la rétention d’information12, interférer dans le processus d’évaluation par leurs pairs afin d’empêcher la publication d’articles divergents et détruire des courriels et des données brutes pour empêcher les audits indépendants. Les scientifiques directement mis en cause répondent que ces éléments, cités hors contexte, seraient en réalité bénins. De nombreux scientifiques13réaffirment leur soutien à la thèse du réchauffement climatique anthropique14,15. » https://fr.wikipedia.org/wiki/Incident_des_e-mails_du_Climatic_Research_Unit Source: http://plumenclume.org/blog/258-trump-en-pelerinage Lire aussi sur le climat: Le président Obama, quelques semaines avant de quitter son poste pour le laisser à son méprisé (par les démocrates, les écologistes et les libéraux) successeur Donald Trump, a fait un geste très médiatisé pour interdire le forage de nouvelles réserves de pétrole et de gaz dans les eaux territoriales américaines de l’océan Atlantique et de l’océan Arctique. Sa présidence s’est ainsi terminée sur une note grandiloquente comparable à la manière dont elle avait commencé, en faisant des promesses de désarmement nucléaire largement diffusées (mais qui, en pratique sont restées sans suite). Les partisans de gauche du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) critiquent généralement ce genre d’hypocrisie et, en fait, l’hypocrisie du «greenwash», mais combien d’entre eux sont-ils conscients de l’ampleur de l’hypocrisie? Que la menace soit le réchauffement climatique planétaire ou un nouvel âge glaciaire change-t-il quoique ce soit à la crédibilité de la politique climatique officielle ? Il y a quarante ans, c’était la nouvelle ère glaciaire et non le réchauffement planétaire qui était au centre des préoccupations officielles (et des médias). Le New York Times du 18 juillet 1970 titrait : « Les États-Unis et l’Union Soviétique mènent des enquêtes à grande échelle pour déterminer pourquoi le climat arctique devient plus glacial, pourquoi des parties de la glace arctique sont récemment devenues plus épaisses et si l’étendue de cette couverture de glace signifie le début d’une ère glaciaire ». À l’époque, toutes les grandes organisations climatiques approuvaient la théorie du refroidissement planétaire, y compris le Centre national de recherche atmosphérique, l’Unité de recherche sur le climat de l’Université d’East Anglia, L’Académie nationale des sciences, l’Administration nationale de l’aéronautique et de l’espace. La CIA a également émis des déclarations semblables. Selon un rapport de 1973, « Un groupe de scientifiques réunis sous les auspices de la National Science Foundation a de nouveau signalé que le monde pourrait approcher la fin de la période interglaciaire actuelle et que la banquise de l’Arctique a débuté ce qui pourrait bien être une autre avance implacable vers le nord de l’Amérique du Nord et l’Europe. Les 46 scientifiques qui se sont rassemblés à l’Université Brown, Providence, Rhode Island, pour un symposium sur « La fin du présent interglaciaire » ont convenu qu’existaient des preuves d’un refroidissement mondial menaçant des températures au cours des deux dernières décennies. » Un rapport de 1974 de l’océanographe et paléontologue Jamses D. Hays a révélé que : « Le soupçon que les hivers sont tout simplement plus froids n’est plus seulement un soupçon parmi les climatologues. Au cours des 30 dernières années, la neige permanente sur l’île de Baffin s’est développée. La banquise autour de l’Islande en hiver augmente et devient un danger sérieux pour la navigation. Les tatous qui aiment la chaleur, et qui avaient migré vers le nord du Midwest dans la première moitié de ce siècle, retournent maintenant vers le sud vers le Texas et l’Oklahoma. Les pertes de récoltes russes augmentent. » « The Canberra Times » de novembre 1974 a rapporté: « Une nouvelle ère glaciaire pourrait saisir le monde durant la vie des générations actuelles. (…) Un important documentaire télévisé de la BBC montre que les scientifiques internationaux ont changé d’avis quant à la capacité de la « machine météorologique » planétaire à changer de vitesse. « La menace d’une nouvelle ère glaciaire figure maintenant aux côtés d’une guerre nucléaire comme source probable de mortalité et de misère pour l’humanité », explique l’écrivain scientifique Nigel Calder. (…) « Les dernières études montrent que les âges glaciaires sont beaucoup plus fréquents que ne le pensaient les scientifiques – et le prochain semble être en retard. Selon une théorie, «Toronto, Leningrad et Glasgow pourraient disparaître sous de grosses couches de glace». Les principaux sceptiques du changement climatique interprètent les données rétrospectives de ce type comme une preuve de la fraude pérenne ou de la naïveté des «alarmistes du réchauffement climatique / changement climatique», mais une autre interprétation est possible et a été avancée par le chercheur Dylan Jones: « Une constellation de preuves pointe vers la réalité d’une campagne clandestine de modification climatique, depuis au moins les années 1970, dans des proportions sans précédent et d’une audace et d’une arrogance extrêmes. Son but primordial est de faire fondre la glace arctique, en ouvrant ses vastes ressources en pétrole, en gaz et en minéraux et en modifiant le climat planétaire le rendant plus favorable aux zones tempérées du nord et moins favorable aux régions équatoriales et semi-tropicales. La science officielle jusqu’en 1975 semblait également préoccupée par le fait que la Terre entrait dans une ère glaciaire à long terme. Cela a peut-être été une préoccupation réelle, mais peut-être aussi un prétexte pour perpétrer cette campagne . « En d’autres termes, l’idée que l’Arctique devenait plus froid (trop froid) aurait pu être présentée pour étayer l’idée qu’il fallait un programme de modification climatique pour le réchauffer. Mais il y avait d’autres façons de persuader les politiciens de la nécessité de la modification climatique, d’autres approches possibles et d’autres arguments, et ils étaient dûment enrôlés. Le Dr Edward Teller a invité le sous-comité de préparation du Sénat américain à «imaginer un monde … où les Soviétiques peuvent changer les précipitations sur la Russie … et influencer les précipitations dans notre pays d’une manière défavorable». Le docteur Henry G. Houghton du MIT, Massachusetts Institute of Technology, frissonna « de penser aux conséquences de la découverte antérieure russe d’une méthode opérationnelle de contrôle météorologique. … Si nous ne sommes pas en avance sur la Russie dans le domaine de la recherche en météorologie, les perspectives d’accords internationaux sur le contrôle des conditions météorologiques seront très mauvaises. Une modification défavorable de notre climat sous prétexte d’un effort pacifique pour améliorer le climat de la Russie pourrait sérieusement affaiblir notre économie et notre capacité à résister. » Un certain nombre de projets spécifiques ont été proposés pour atténuer le dur climat russe, avec les avantages qui en découlent pour l’agriculture, la navigation et l’exploitation des ressources. Il s’agit notamment de l’enlèvement de la banquise arctique, du barrage des détroits de Béring et du détournement des fleuves sibériens. Ces programmes pourraient manifestement affecter le climat d’autres parties du monde, y compris des États-Unis et de leurs alliés. Même les changements marginaux de la température et des précipitations pourraient fortement nuire à l’agriculture, aux transport maritime et même à l’ensemble de l’économie. Les opérations militaires seraient également touchées si les limites de la banquise, les saisons sans glace des bases navales, la fréquence des nuages obscurcissants, etc., étaient modifiées. Ainsi, les changements climatiques sont clairement des menaces potentiellement graves pour la sécurité nationale et ont des conséquences pour la planification militaire. La réalité de cette histoire c’est que les industriels, les scientifiques et d’autres ayant des intérêts dans ces projets ont cherché des moyens de réchauffer l’Arctique pendant plus de 100 ans, à partir de 1877, lorsque le géologue Harvard Nathaniel Shaler a proposé de détourner l’eau chaude de l’Atlantique dans le Océan Arctique. En 1962, le météorologue du MIT, Harry Wexler, a proposé 3 manières d’augmenter la température de la Terre de 1,7°C : 1) Faire exploser 10 bombes à hydrogène dans l’océan Arctique pour envoyer des cristaux de glace dans l’atmosphère polaire. 2) Détruire la couche d’ozone en utilisant des avions pour pulvériser du chlore ou du brome dans la stratosphère. 3) Lancer des particules de poussière autour de l’équateur pour diffuser la lumière solaire et réchauffer les régions polaires. Les idées de Wexler commencent à prendre de l’ampleur dans les années 1970, époque à laquelle personne d’«important» ne le traitera de fou. Mais après sa mort prématurée la même année, la question de comment réchauffer la planète subit un renversement. Il a maintenant été présenté comme absolument impératif que des moyens soient trouvés pour refroidir la planète et préserver l’atmosphère du réchauffement. Gardez à l’esprit que l’objectif déclaré de la COP 21 sur le changement climatique à Paris en 2015 était de limiter les hausses moyennes de la température mondiale à 2 °C. Ce qui serait compatible avec les propositions de Wexler de 1962 pour provoquer une élévation de température de 1,7°C. Traînées de condensation L’une des méthodes de modification climatique proposées était le déploiement de traînées de condensation d’avions. La juxtaposition d’extraits des deux documentaires suivants jette un éclairage sur la nature ambiguë, voire contradictoire, des déclarations officielles sur les effets des traînées de condensation des avions sur les températures mondiales et sur les projets pratiques extrapolés à partir de ces effets. De la Commission Européenne : Le trafic aérien a fortement augmenté ces dernières années et l’impact de l’aviation sur le changement climatique suscite de plus en plus d’inquiétudes. « Les émissions augmentent de 4 à 5% d’une année à l’autre, et c’est ce que nous voyons actuellement. Et si, année après année, vous avez 4 à 5% d’augmentation des émissions, cela signifie en quinze ans un doublement. » Pour la Commission Européenne, il est urgent d’agir, puisque l’aviation, contrairement aux autres moyens de transport, n’est pas taxée sur le carburant. Et elle est peu incitée à réduire ses émissions de CO2. «Nous ne pouvons pas continuer à réussir dans un secteur et neutraliser ce résultat positif par des développements dans d’autres secteurs, et l’aviation est l’un des exemples les plus frappants.» Le commissaire européen à l’environnement veut que l’aviation fasse un effort pour lutter contre le changement climatique. La Commission propose donc d’inclure le transport aérien dans le système d’échange des droits d’émission de CO2 que l’Union Européenne a mis au point pour atteindre les objectifs du protocole de Kyoto. « Pour faire face à ce problème de la manière la plus efficace, nous devons inclure les émissions de l’aviation dans notre système d’échange de droits d’émission très efficace.» La Commission européenne considère le système d’échange de droits d’émission comme le moyen le plus efficace pour contrôler les émissions de l’aviation, une taxe sur le carburant, par exemple.L’introduction du secteur de l’aviation dans le système européen d’échange de droits d’émission devrait permettre de réaliser d’importantes économies de CO2. Émissions des aéronefs. D’ici à 2020, ces économies pourraient atteindre 180 millions de tonnes par an, soit le double des émissions de gaz à effet de serre que l’Autriche émet chaque année. Avec cette mesure, l’Europe prend une autre mesure cruciale vers la prévention d’une autre catastrophe climatique mondiale. Et de la BBC : Au fur et à mesure que l’avion traverse la haute atmosphère, au-dessus de 26 000 pieds ( 8000 mètres), il laisse souvent des traînées blanches et brillantes derrière lui. Ces longues traînées blanches, appelées «contrails», ou traînées de condensation sont causées par l’eau et la suie des moteurs à réaction de l’avion. Comme l’eau chaude et lez gaz d’échappement sortent du moteur, ils frappent l’air à environ – 40°C. C’est une réaction explosive. Un cirrus naturel circule à environ 26.000 pieds et réfléchit quelques-uns des rayons du soleil dans l’espace, refroidissant la terre en dessous. Quand une traînée de condensation se disperse, elle se transforme en cirrus artificiel appelé « cirrus de condensation ». Plus réfléchissant que les cirrus naturels, il peut s’étendre sur une zone aussi large que 60 000 miles ( 100 000km) (sic!). A présent, de plus en plus de scientifiques estiment que ces cirrus artificiels affectent la température de la planète. Les attaques du 11 septembre 2001 à New York , leur ont donné l’occasion de vérifier cette théorie. Les avions des États-Unis sont restés au sol pendant trois jours entiers. Donc pas de nuages artificiels pendant trois jours. Une fois toutes les données analysées, on a constaté une augmentation de la température. Une très légère augmentation, mais une augmentation tout de même. Cela suggère que les traînées refroidissent la planète. En 1966, Gordon MacDonald – Président du nouveau Comité consultatif sur la météorologie et le changement climatique de l’ICAS (Institute for Climate and Atmospheric Science), a déclaré: «Le dioxyde de carbone placé dans l’atmosphère depuis le début de la révolution industrielle a produit une augmentation de la température moyenne de la basse atmosphère de quelques dixièmes de degré Fahrenheit. » Si les nuages artificiels résultant des émissions d’avions contribuent au réchauffement planétaire, comme le prétend la Commission Européenne, est-il possible que le réchauffement de l’atmosphère fasse partie d’un scénario global pour : 1/ la création ou l’exacerbation du «réchauffement planétaire» ? 2/ une «solution» au réchauffement climatique? Dane Wigington de «Geoengineering Watch» croit que la modification du climat par les émissions des aéronefs peut refroidir localement et en m^me temps réchauffer globalement. Le refroidissement local, en particulier dans l’Arctique, pourrait contribuer (au moins localement) à ce que les effets du réchauffement dû à la modification climatique dans l’Arctique ne dépassent pas la limite de 1,7 degré désignée par le GIEC comme niveau maximal tolérable de réchauffement planétaire. La confusion sur le réchauffement climatique est entretenue par l’encouragement à un conflit bipolaire sur le fait de savoir s’il est (a) une réalité et s’il est (b) anthropique. Encore une fois pour citer Dylan Jones: «Les partisans du réchauffement climatique anthropique et les sceptiques sont financés et contrôlés dans leurs échelons supérieurs par la même source. Les deux parties sont en perpétuel conflit et ignorent cette vérité gênante. Big Oil et la mafia climatique sont une seule et même chose. Quand ils se traitent mutuellement de menteurs, ils disent vrai. Le but est d’empêcher que le public prenne conscience du réchauffement mondial et de ses vraies causes, aussi longtemps que possible, transférant culpabilité et coût aux masses qui ne se méfient pas, tout en profitant des conséquences d’une fonte de l’Arctique et d’une crise économique mondiale. Comme la catastrophe et la taxation des émissions de carbone sont massives, il est important de reconnaître que, comme toujours, les coûts des impôts prélevés sur les sociétés sont répercutés aux pauvres. La richesse remonte vers le haut de la pyramide. » Les analystes économiques qui ne se sont pas engagés dans le débat sur le climat ont fait des remarques liminaires qui, compte tenu de la volonté correspondante, pourraient être élaborées en des critiques et des interventions globales et politiquement puissantes. Yanis Varoufakis, par exemple, a déclaré dans son article «Erratic Marxist»: «Le meilleur exemple de la crasse néolibérale est le débat sur la façon de faire face au changement climatique. Les néolibéraux se sont empressés de prétendre que, s’il y a quelque chose à faire, cela doit prendre la forme d’un quasi-marché des «maux» (par exemple un système d’échange de droits d’émission), puisque seuls les marchés sauraient estimer les « biens » et les « maux » convenablement. « Parmi les «six piliers» du programme de l’organisation de citoyens de Varoufakis, DiEM25, le point 5 «Investissement vert» propose: «La canalisation de financements à grande échelle pour l’énergie verte et les pratiques durables, garantissant la souveraineté technologique de l’Europe». Est-ce que l’opposition à la «crasse néolibérale» est une motivation suffisamment forte pour permettre au DiEM25 d’annuler la résistance (très réelle) de la mafia climatique (y compris la majorité des écologistes non normalement identifiés comme mafiosi) aux idées présentées dans le présent article? DiEM25 a-t-il au moins la possibilité de s’opposer sans équivoque à l’échange de droits d’émission? La conclusion de J. Marvin Herndon selon laquelle les cendres volantes de charbon provenant des centrales électriques au charbon serait l’ingrédient principal utilisé dans les programmes clandestins de modification climatique doit-elle être utilisée pour renforcer les positions des opposants aux combustibles fossiles ? Les démocrates, les écologistes et les libéraux sont très hostiles à la montée au pouvoir de Donald Trump, décrivant le futur président républicain, plausiblement, comme étant sous le contrôle de Big Oil et des lobbies du charbon, sans aucune préoccupation pour les dévastations de l’environnement commises par eux et qui s’accélèrent. Mais le fait demeure, que la première analyse publique non censurée, depuis l’élection de Trump, sur les faits abordés dans le présent article a été menée par une organisation du camp pro-Trump climato-sceptique. Je fais réfèrence au texte de Jim Lee intitulé «La géoingénierie, la modification du temps et l’utilisation de la nature comme arme», prononcé le 3 décembre 2016 lors de la 3ème conférence de Freedom Force International à Phoenix en Arizona. Jim Lee prétend avoir gagné « Lord » Christopher Monckton à ses propres positions. Mais Christopher Monckton dépeint le changement climatique anthropique comme une fabrication idéologique du GIEC? Peut-il maintenant adopter la position de Jim Lee selon laquelle le réchauffement climatique est un résultat réel et existant, partiellement ou totalement dû à la modification climatique? Je ne le crois pas. Pour donner le dernier mot à Dylan Jones: «La folie de l’homme semble certainement prendre la forme d’une confiance aveugle en ses dirigeants mondiaux peu dignes de confiance, corrompus et compromis par la structure de pouvoir des entreprises et son oligarchie bancaire mondiale, formant ensemble un syndicat unique et psychopathe. » La nature de cette folie réside-t-elle dans un profond mépris envers le crime contre la planète, provoqué par la combustion effrénée des combustibles fossiles, la pollution de l’atmosphère et l’approvisionnement en eau, la décimation des forêts et les innombrables autres péchés dont l’humanité elle-même est coupable? Ou bien est-ce dans l’ignorance d’une marche vers la consolidation finale d’un État planétaire policier et tyrannique, mené par la Mafia du climat? Là où une taxe mondiale sur le carbone, imposée à l’humanité pour son rôle supposé dans le réchauffement climatique anthropique (RCA), constituerait une pierre angulaire. Les adeptes de chaque camp, les partisans du RCA d’un côté et les sceptiques de l’autre, se dressent constamment les uns contre les autres. Celui qui détient le monopole de la vérité détient le monopole du mensonge. Finalement, ce qui a réussi, c’est le défi de confiance ultime, qui monte les deux camps, l’un contre l’autre dans le monde entier. Wayne Hall | 3 janvier 2017 | Globalresearch
fake
Le 14 septembre 2021, puis à nouveau le 3 octobre, des pluies diluviennes ont frappé le Gard. Dans l’article qu’elle a publié pour commenter l’événement de septembre, Météo France mentionne que ces épisodes exceptionnels semblent se répéter et que leur intensité moyenne s’est accrue dans la région, de 22 % entre 1960 et 2010. Cette évolution couvre des situations disparates. Sous un climat méditerranéen dont l’une des plus importantes caractéristiques est la très grande variabilité de la pluie, chaque point du territoire connaît des historiques de pluie extrême différents, dans lesquels il est difficile de distinguer une tendance générale. Mais nous allons montrer ici comment les pluviomètres cévenols ont permis de mettre en évidence une intensification de ces pluies diluviennes au fil des années. Pour ce faire, nous nous sommes mis dans la situation d’un climatologue qui aurait conduit cette analyse, d’année en année, depuis 1970. Gard : 112 personnes mises en sécurité en Cévennes après les crues et inondations, des routes coupées (France 3 Occitanie, 4 octobre 2021). Réseau de 75 pluviomètres Pluviomètre situé à Mirabel (Ardèche). Brice Boudevillain/IGE Le pluviomètre est un instrument rudimentaire, simple réservoir collectant la pluie pour en calculer l’intensité – c’est-à-dire la quantité tombée à intervalles réguliers. Pourtant, il est le seul capable, au regard de l’évolution climatique, de fournir des mesures directes de la pluie de qualité homogène et cela depuis longtemps. Pris individuellement, l’outil ne fournit qu’une vision ponctuelle de la pluie. En réseau, il rend compte des énormes variations de la pluie dans l’espace, multipliant les chances de capter des valeurs extrêmes. Il devient ainsi un observateur climatique très efficace, même si il donne une description des champs de pluie moins complète que le radar météorologique. Les 75 pluviomètres du réseau utilisé pour notre analyse sont installés et ont fonctionné depuis les années 1950 dans la partie méridionale du Massif central. Carte de la région cévenole et de son réseau de 75 pluviomètres Météo-France employés dans notre analyse (coordonnées Lambert II étendues). Auteurs Observer un changement de régime pluviométrique Les séries de mesures utilisées correspondent aux cumuls journaliers de pluie dont on ne retient qu’une valeur par an – la plus forte. C’est une manière d’échantillonner des valeurs rares, indépendantes les unes des autres, et d’éviter d’introduire un seuil arbitraire de sélection. La manière classique d’analyser statistiquement ces séries consiste à considérer que toutes ces valeurs maximales sont tirées aléatoirement d’une même urne. Mathématiquement, l’urne est représentée par une fonction de répartition des valeurs, qu’on appelle abusivement « loi statistique » – ce n’est en effet pas une loi au sens physique mais plutôt une hypothèse de travail. Sachant que le climat change, on est conduit à imaginer que la composition de l’urne dans laquelle est effectué le tirage aléatoire des valeurs maximales évolue au cours des années. La réponse semble simple : il suffit de faire varier les paramètres de la fonction de répartition avec le temps. On suppose, par exemple, pour ces paramètres que la valeur moyenne et la dispersion des valeurs maximales évoluent linéairement avec le temps. En pratique, ajuster un tel modèle aux données est délicat. Cette approche fait de chaque pluviomètre un instrument de mesure de l’évolution vers des pluies extrêmes plus ou moins sévères. Voyons comment, au fil des années, ces témoins climatiques se sont en quelque sorte progressivement accordés entre eux pour pointer une intensification des extrêmes. Recueillir l’avis d’un réseau de pluviomètres Dans un réseau de pluviomètres, chaque instrument va donc avoir sa propre vision du régime pluviométrique et de son évolution. Cette vision intègre des caractéristiques spécifiques du régime des pluies sur l’ensemble de la région et propres aux circonstances locales de chaque station, à leurs historiques. Chaque pluviomètre a, disons, « son avis » sur l’intensification des extrêmes en fonction de son expérience personnelle. Il est alors logique que la réponse apportée par un panel d’instruments ne soit pas unique. Figure chronologique montrant l’évolution du pourcentage d’intensification des pluies maximales annuelles entre 1960 et 2020. La courbe rouge représente la moyenne des points, c’est-à-dire l’intensification moyenne qu’on aurait estimée sur les Cévennes au fil des années en fonction des données disponibles. Chaque point du graphe représente l’intensification déduite de la série de mesures d’un pluviomètre allant de l’année 1958 à l’année indiquée en abscisse. Lorsque la densité des points est trop forte pour être lue, elle est remplacée par une boîte à moustache. La boîte recouvre environ 70 % des points qui diffèrent de la valeur moyenne en rouge d’un écart-type au plus. La zone en tirets recouvre 95 % des points soit deux écarts-types. Auteurs Tel un climatologue qui aurait synthétisé les réponses de cet ensemble de pluviomètres d’année en année, nous montrons dans la figure ci-contre les pourcentages d’intensification mis en avant par les 75 pluviomètres depuis 1970. Cette figure révèle que la dispersion des avis au fil du temps a considérablement évolué. Les séries de données se sont en effet allongées dans le temps, couvrant progressivement une période où le changement climatique s’exprimait de manière de plus en plus large. Une intensification d’abord invisible en Méditerranée Trois périodes ressortent dans le « consensus » de ces témoins climatiques. Jusqu’au milieu des années 1980, les pluviomètres donnaient des avis largement dispersés. Nombre d’entre eux annonçaient ainsi une baisse d’intensité entre 1960 et 2020 dans des proportions allant de 0 à 100 %. Les séries de données disponibles – une petite vingtaine d’années – étaient trop courtes pour faire des statistiques fiables et le changement n’était pas encore perceptible. C’est la situation embarrassante dans laquelle se trouvent les climatologues au moment où les premiers rapports d’évaluation du GIEC en 1990 et 1995 mentionnent déjà le rôle du réchauffement climatique sur la fréquence des extrêmes. À l’évidence, la tendance n’est alors pas visible en région méditerranéenne à cette époque. Depuis vingt ans, des pluviomètres unanimes Dans les années 1990, un basculement spectaculaire s’opère. La divergence des changements annoncés entre pluviomètres diminue de moitié du fait de l’allongement de la durée d’observation – baisse de moitié de l’amplitude de la zone représentée par les tirets (95 % des pluviomètres). Plus important encore, la grande majorité des pluviomètres se range vers un même avis d’intensification – les boîtes verticales (qui représentent 70 % des pluviomètres) passent dans le camp de l’intensification dans des proportions allant de 0 à 40 %. Depuis les années 2000, cette unanimité est stable. Les boîtes verticales sont toutes positives et tendent à se resserrer autour d’une augmentation moyenne d’environ 20 %. Au regard de nos analyses, l’intensification des pluies diluviennes exceptionnelles apparaît incontestable dans la région qui nous intéresse, et ce depuis une bonne dizaine d’années.
true
« Le bien commun : une intention éthique entre la loi du marché et l’individualisme » Jacques Beauchemin « Il m’a été donné d’animer une conférence à l’Ecole Polytechnique à Montréal à l’invitation de l’Association scientifique canadienne Lecodev .Le thème portait sur le nouvel ordre énergétique et le Développement Durable . L’auditoire composé pour une grande part d’universitaires bien intégrés qui, par leur présence et leur nombreuses questions lors du débat, ont montré qu’ils avaient plus que jamais l’Algérie au cœur pour peu que nous sachions quoi leur demander en rapport avec leurs compétences Dans cette contribution je vais dire quelques mots du Canada et du Québec. A la fois sur le plan énergétique mais aussi sur le plan humain ». Quelques données énergétiques sur le Canada . Le Canada est un immense pays quatre fois l’Algérie s’agissant du différentiel de température Il y a des températures de + 40C en Algérie et de -40C au Canada. Avec 669 TWh Le Canada produit plus d’électricité que l’Allemagne Il a un stratégie qui fait appel aux énergies renouvelables ( principalement hydrauliques avec un peu d’éolien) mais aussi nucléaire et fossiles (charbon, gaz naturel, sables bitumineux et pétrole) Par ailleurs, la province du Québec consomme 171 TWh/an pour 8,3 millions d’habitants contre 60 TWh pour 41 millions d’habitants pour l’Algérie soit un rapport de 1 à 15. Hydro-Québec, produit plus de 99 % de son électricité le modèle énergétique du Québec peut de mon point de vue être à 100 % renouvelable .Locomotion comprise avec le formidable boom de cette énergie Il est d’ailleurs prévu que la province du Québec mette en circulation 100.000 voitures électriques d’ci 2030 Mon impression sur le Québec Ce que j’ai retenu brièvement de ce pays ; c’est la joie de vivre, la simplicité des gens. Il est quand même extraordinaire de trouver des locuteurs occidentaux de la langue française qui ne se prennent pas pour le nombril du monde qui ne prennent pas les gens de haut et qui ne tentent de dicter la norme d’une doxa dont ils seraient les seuls détenteurs. Pour toutes ces raisons le Canada propose un art de vivre : Le Canadian Way of Life fait d’empathie de sérieux et de réserve. Cette terre d’accueil a mis en place un projet de société œcuménique et comme le dit le premier ministre Justin Trudeau, les différentes mosaïques qui composent le Canada sont la trame de l’identité spécifique canadienne. Naturellement le Canada a connu quelques soucis avec certains migrants qui de mon point de vue n’ont pas bien compris qu’en temps que citoyens il y a des droits et des devoirs. Le vivre ensemble à la canadienne c’est la proposition d’accommodements raisonnables, qui respectent les identités et les spiritualités dans la sphère privée. Il est pratiquement avéré qu’avec le temps les nouvelles générations (enfants des migrants) vont fondre dans un moule. Celui d’une identité plurielle. Il est à espérer que cette intégration ne soit pas à terme une désintégration de l’identité originelle bien comprise qui de mon point de vue est un plus pour la culture canadienne car si les Canadiens se souviennent à juste titre de leurs racines identitaires, les Canadiens récents devraient aussi s’approprier respectueusement ce mot d’ordre ; je me souviens et en faire un graal toujours recommencé qui s’enrichira de nouveaux apports qui feront du canada plus que jamais une terre de tolérance de liberté du respect de la dignité de chacun Le Canada peut être un pays de cocagne pour celles et ceux qui veulent s’intégrer en apportant leur valeur ajoutée sans rien renier leur spécificité Introduction à la conférence Comme préambule j’ai tenu à rappeler que l’Ecole Polytechnique d’Alger fondée en 1917 n’avait pas à l’indépendance d’enseignants elle fit appel aux experts de l’Unesco sommités mondiales détachées en Algérie jusqu’en 1980 ensuite l’apport d’une coopération algéro canadienne permit dans le cadre de relations entre l’Ecole Polytechnique d’Alger que j’ai initiée avec celle de Montréal la mise en place d’un plan de formations de formateurs et des experts canadiens aidèrent à ce plan de formation. Au passage j’avais rappelé qu’en 132 ans d’œuvre positive de la colonisation moins d’un millier de cadres furent formés Sans aller dans le détail j’ai tenu à rappeler quelques évidences : Tout d’abord j’ai tenu à raconter l’aventure humaine de l’énergie en commençant par l’invention du feu tournant majeur dans la civilisation humaine qui a permis l’homme de se civiliser passant du cru au cuit, de se chauffer et de se protéger des animaux sauvages . Graduellement l’homme s’intéressa d’abord à sa force musculaire ensuite la domestication des animaux comme le cheval, la mise en esclavage d’autres hommes lui a permis de disposer d’une main d’œuvre biologique. L’utilisation des moulins à eau lui a permis de fabriquer des moulins, les premiers ayant vue le jour en Irak sur les bords du Tigre et de l’Euphrate . La voile lui permettre de quitter sa terre pour des contrées de plus en plus éloignées L’exploitation du charbon a partir du XIIe siècle lui permit de disposer d’un combustible solide et le XVIIIe siècle vit le démarrage de la première Révolution industrielle. Le Charbon sera détrône vers 1910 par le pétrole et en 1920 le premier milliard de tonnes est atteint , les années 70 virent l’avènement du gaz naturel et parallèlement le nucléaire civil. Depuis le début 2000 c’est le démarrage du renouvelable et vers 2010 le démarrage des énergies non conventionnelles Le pétrole, n’est pas une énergie renouvelable ! Nous avons déjà consommé 1200 milliards de barils A l’échelle géologique si on considère que les 4500 milliards de barils ultimement récupérables se sont formés depuis le début du Cambrien (520 millions d’années), la production naturelle de pétrole (récupérable) est de l’ordre de 8 650 barils par an. La production journalière mondiale en 2016 est de l’ordre de 94 millions de barils par jour. La Nature produit donc par an ce que nous consommons en 8 secondes. On ne parle plus de peak oil pourtant les découvertes sont de plus en plus rares pour des grands gisements encore moins de super-géants comme Gawhar en Arabie Saoudite Fuite en avant ou réalité ? L’utopie du pétrole et de gaz de schiste tente de s’imposer. Cela peut durer mais les spécialistes disent que la bulle schisteuse ne durera pas au vue des catastrophes multiples qu’elle engendre en s’saccageant des Etats. Il faut retenir quelques données, Il faut 15000 m3 d’eau par puits et par fracturation dont la durée de vie ne dépasse pas quelques années. Plusieurs centaines de produis chimiques dont certains seraient tres dangereux et pourraient migrer vers la nappe albienne, des gaz rares radioactifs comme le radon, responsables de la mort des oiseaux , des tremblements de terre récurrents jusqu’à 4 sur l’échelle de Richter. On dit qu’en Arkansas il y aurait 1000 tremblements de terre par an depuis l’exploitation des gaz et pétroles de schiste contre 3 avant ! Assurément la technologie est loin d’être respectueuse de l’environnement et l’Algérie a tout intérêt à attendre pour voir Quelles sont les durées des réserves fossiles ? Au rythme de production et de consommation actuelles Pour le pétrole : environ 45 ans Pour le Gaz : environ 50 ans (200 ans avec le Non conventionnel ) Pour le charbon : environ 120 ans Dans le cas de l’uranium il existe 442 réacteurs pour la production électrique civile 31 pays : environ 100 ans (sur la base des réacteurs de 2e et de 3e génération. De ce fait en théorie d’ici 2070 le pétrole et le gaz ne seront plus structurants des bilans énergétiques mondiaux. Exception faite des réserves non conventionnelles. Le renouvelable sera de plus en plus important dans tous les domaines essentiels: (transport, résidentiel..) On pense aussi à la fusion comme solution. Il faut seulement espérer que d’ici là le climat ne s’emballe pas L’apartheid économique, et énergétique concernant les pays pauvres Selon Forbes En 2014 le patrimoine des 80 personnes les plus riches de la planète (1900 milliards de dollars) a dépassé celui des 3,5 milliards les plus pauvres (1850 milliards de dollars . Un plein de 4×4 en biocarburant diesel issu de la transformation de 225 kg de maïs peut nourrir un sahélien pendant un an ! 50 % d’aliments sains sont gaspillés chaque année dans l’UE, Dans le reste du monde 865 millions de personnes souffrent de la faim. Plus de 240 000 tonnes de nourriture finissent à la poubelle chaque jour en Europe. Le continent africain est victime aussi d’une « forme d’apartheid énergétique » Car on sait que le PIB est étroitement indexé sur la consommation d’énergie. Plus de 500 millions de personnes n’ont pas accès l’électricité en Afrique. Aujourd’hui, la consommation d’énergie du milliard de personnes vivant sur l’ensemble du continent africain équivaut à ce que la Belgique offre à ses 11 millions d’habitants » Selon un rapport de la Banque mondiale publié en 2013, 1,2 milliard d’individus vivent sans électricité dans le monde. Un tiers d’entre eux sont concentrés dans vingt pays asiatiques et africains. C’est cela l’humanité que nous impose le système mondial actuel Une guerre de tous contre tous et malheur aux vaincus de la vie ! Les conséquences des changements climatiques Le 2 aout 2017 la planète a dépassé le viatique que Dame Nature a mis à la disposition des humains pour une année. C’est ce qu’on appelle l’overshoot day ou encore le jour du dépassement. Depuis cette date nous vivons à crédit sur les cinq mois qui nous restent jusqu’au 31 décembre. Naturellement beaucoup de pays gaspillent et vivent comme s’ils avaient plusieurs planètes à leurs disposition pendant que des pays occidentaux vivent comme s’ils avaient un quart de planète. Naturellement tout ceci se paye par la combustion des énergies fossiles selon le scénario anthropique qui semble de plus en plus crédible à savoir que c’est l »homme dans uen très grande majorité qui serait responsable de ce chaos climatiques par la combustion des énergies fossiles l’envoi de CO2 dans l’atmosphère Les pays du Sud sont les plus vulnérables ce sont eux qui en premier absorbent les chocs climatiques provoquant des morts par milliers si ce n’est par dizaines de milliers par ans. En Europe les ordres de grandeur sont beaucoup plus faibles Dernièrement en Italie avec plus de 40 degrés au thermomètre, la vague de chaleur nommée « Lucifer » a également déclenché des incendies de forêt et endommagé des cultures. « Environ deux Européens sur trois pourraient être exposés tous les ans à de telles catastrophes d’ici à 2100, contre 5% durant la période 1981-2010. Comme lue dans la revue « The Lancet Planetary Health« . Cela signifie qu’ils pourraient en mourir, être blessés, malades, perdre leur habitation ou subir des effets indirects comme un stress après l’événement. Les vagues de chaleur seront le phénomène le plus meurtrier, provoquant 99% des décès liés aux événements extrêmes, Le nombre de morts qu’elles entraînent pourrait « augmenter de manière exponentielle », grimpant de 2700 à 151 500 par an (+5400%). L’augmentation du nombre de morts est due pour 90% au réchauffement climatique et 10% seulement à l’augmentation de la population, à l’urbanisation et aux migrations dans des zones exposées aux risques » L’aspect géopolitiques du monde du futur Le moins que l’on puisse dire est que le monde ne va pas vers l’apaisement. Chaque grand pays développe des stratégies de domination et tente de résister au monde unipolaire que l’empire américain et ses vassaux tentent de faire perdurer. Qu’il nous suffise de savoir que le marché des armes n’a jamais été aussi florissant : 1300 milliards de dollars alors que 50 milliards de dollars permettent de réduire la famine. Le budget du Pentagone est supérieur à celui de l’ensemble des Etats de la planète. L’amenuisement des sources d’énergie fossile mais aussi des matières premières minérales créera des tensions de plus en plus importantes. Il y a de plus en plus de murs : près de 40 000km) la circonférence de la Terre ! Il y actuellement une dizaine de conflits qui ne concernent que les pays ayant des ressources énergétiques ou minérales ( pays du moyen Orient et Afrique. Les pays émergents comme les BRICS tentent de résister en militant pour un monde multipolaire des accords se font des banques se créent . On parle même de nouvelle route de soie. On l’aura compris les pays du Sud ne sont pas concernés ou si peu par le développement. Ils seront des variables d’ajustement entre les stratégies des futurs séigneurs ( saigneurs) du monde… Plaidoyer pour un développement humain durable Dans toute cette anomie que j’ai décrite dans cette conférence j’ai plaidé pour un Développement Humain Durable Au cours des prochaines décennies, la croissance de la demande mondiale en énergie sera portée aux deux tiers de son niveau actuel par les pays hors OCDE. Nombre de pays feront évoluer significativement leurs mix énergétiques. La Chine qui a décidé d’investir à marche soutenue dans les énergies renouvelables investira pas moins de 344 milliards d’Euros dans les énergies renouvelables d’ici 2020. Malgré tout les efforts pour sortir des énergies carbonées notamment des pays comme la Chine, les Etats Unis et l’Allemagne, si rien n’est fait pour combattre encore plus les changements climatiques, le modèle à 2030 sera à au moins 70 % fossile. Des études ont montré que pour respecter la barre des 2 C il est nécessaire que 2/3 des réserves fossiles existantes ne soient pas extraites.. Que devons nous faire à l’échelle de la planète ? Faut il faire appel aux gourous de la géo-ingénierie cette technique qui consiste à renvoyer les rayons de soleil ? Pulvériser du soufre dans la stratosphère, modifier la chimie des océans, On estime à 5 millions de tonnes par an la quantité de soufre pour bloquer de 2 % le rayonnement solaire ! En fait la seule façon de diminuer l’ébriété énergétique c’est d’aller vers la sobriété énergétique synonyme de développement durable et dans ce cadre le secteur des transports peut faire sa mue graduellement pour aller vers la mobilité électrique qui mobilisera jusqu’à 30 % des carburants. Il est prévu en effet que vers 2035 le parc de voitures comprendra 500 millions de voitures électriques sur les 1,7 milliard prévu avec au moins 20 millions de barils jour de carburants soit 3 milliards de tonnes de CO2 qui n’iront pas stationner dans l’atmosphère. La mobilité électrique est l’une des principales solutions permettant de réduire les émissions de GES. La part de électricité dans la consommation finale d’énergie va croître de plus en plus dans le monde. Le recours au vecteur électrique est partout très développé et la part des énergies renouvelables dans le bilan électrique mondial dépassera 33%, un chiffre supérieur au poids du gaz naturel (25%). La part du nucléaire serait à 20%, le reste de l’électricité est produit avec du charbon. Aujourd’hui, par exemple, la Californie se positionne clairement dans sa lutte contre le changement climatique. Dans la ville de Los Angeles le conseil d’administration en charge des transports de l’agglomération a adopté jeudi 27 juillet 2017, un projet visant à convertir l’ensemble de ses bus au tout électrique d’ici 2030. Tesla commercialise la Tesla 3 a 35000 dollars avec une autonomie autour de 400km et promet d’arriver à faire descendre le cout de la batterie à 100$ le kWh d’ici 2020. Dans cet ordre la troisième révolution industrielle peut être un début de solution La troisième révolution industrielle est proposée par l’économiste américain Jeremy Rifkins Comment promouvoir une « Une croissance verte », qui peut être un levier de sortie de l’ébriété énergétique due aux fossiles , Comment « remettre du bien-être et de l’humain dans l’économie Le défi est triple : La crise énergétique, le changement climatique, le développement durable. Ces défis seront relevés par un changement de la mondialisation à la « continentalisation ». C’est-à-dire la fin d’une énergie divisée, pour une énergie distribuée. Les cinq piliers de la Troisième Révolution Industrielle sont : 1) – Passer aux énergies renouvelables. 2) – Transformer les bâtiments sur chaque continent en mini-centres énergétiques, créant de nombreux emplois. 3) – Permettre à chaque bâtiment de conserver cette énergie. 4) – Utiliser la technologie internet pour créer un réseau similaire d’énergie. Chaque bâtiment ayant de l’énergie en trop pouvant la vendre sur ce réseau. 5) – Créer des réseaux électriques continentaux dans lesquels les véhicules électriques puissent vendre leurs surplus d’énergie en se branchant à une prise, tout en étant garés. « Nous sommes, écrit l’agro-philosophe Pierre Rabhi, tous dépendants des lois de la vie. nous naissons et mourrons un jour. Nous avons « conscience », notamment de notre finitude. Le problème est que la société du « tout avoir au plus vite » décourage l’effort ». A l’échelle de la naissance supposée de la Terre, cinq milliards d’années, l’apparition de l’homme est tardive. Très tardive. Sa présence représente 2 à 3 minutes sur une horloge de 24 heures. La Terre a donc fonctionné sans l’homme. Quand je mange une pomme venant d’Afrique du Sud, je contribue à la pollution en payant le voyage de 12000km à la pomme pour qu’elle atterrisse dans mon assiette à Montréal Pourquoi ne pas être à l’écoute de la Nature ? Respecter le rythme des saisons !Manger local Penser global ! Développer le lien, en développant l’économie du partage , donner une seconde vie aux choses en développant l’économie circulaire L’humanité dans sa globalité et l’homme dans son individualité sont rongés par la vanité, celle de croire qu’ils peuvent tout dominer, y compris le destin, Dieu, ou la nature. Pour sauver l’humanité Il faut changer de paradigme « La « sobriété heureuse », (Al kana’a) est une réponse, puissante, au capitalisme. Cette sobriété explore la manière de générer davantage d’être en réduisant l’avoir. Cet avoir que l’on accumule sans fin et qui permet de tout acheter, sauf l’essentiel : le bonheur. En Afrique Des gens qui auraient toute raison de s’inquiéter parce que leur repas du lendemain n’est pas assuré, et qui au contraire sont dans la joie. Pourquoi ? Parce qu’ils saisissent chaque instant, et y introduisent de la convivialité, de la simplicité, de la fraternité, de la solidarité ». On ne peut envisager de changement « de société », sans changement « humain » et, sans changement « en chacun de nous ». La Terre ne nous appartient pas nous l’avons emprunté à nos petits enfants (Antoine de Saint Exupery) J’emprunte à Pierre Rabhi la légende du colibri : « Il est dans la forêt, en proie à un incendie. Il s’active, cherche des gouttes d’eau qu’il verse au-dessus des flammes. Un tatou, agacé par cette agitation dérisoire, lui dit : « Tu n’es pas fou ? Ce n’est pas avec des petites gouttes que tu vas éteindre l’incendie ». Et le colibri répond : « Je sais. Mais je fais ma part »» Puisse chacun de nous contribuer à faire sa part comme le colibri en préférant au partage du monde actuel un monde du Partage qui réhabilitera l’humain .Amen Que devrait faire l’Algérie pour se développer sans compromettre l’avenir des génératiions futures! Depuis vingt ans l’Algérie n’a pas joué la prudence en sortant de l’ébriété aux énergies. fossiles Ce n’est ni l’endroit ni le moment de faire le bilan. Tournons nous vers l’avenir La transition énergétique est plus que jamais à l’ordre du jour. Après les conséquences d’une chute vertigineuse des prix du pétrole, voilà que l’Algérie fait face à l’arrivée d’un puissant concurrent sur le marché du gaz en Europe, le schiste américain sérieux concurrent avec le gaz quatari le gaz russe. Elle tente de garder ses clients européens face au gaz russe et qatari, le gaz de schiste américain vient s’introduire comme un sérieux concurrent sur le vieux continent. L’annonce des sanctions américaines contre la Russie, concernant le gazoduc si elles venaient à être appliquées permettrait un sursis à l’Algérie même si l’on sait que le gaz américain n’a pas vocation à remplacer les 160 milliards de m3 de gaz russe pour le marché européen. Quand les contrats à long terme viendront à expiration en 2019 se posera un sérieux problème car les acheteurs voudront renégocier les contrats dans un contexte d’abondance artificielle de gaz naturel. La rente gazière ira en diminuant du fait de deux facteurs, il sera de moins en moins possible de maintenir le niveau actuel des exportations du fait que les découvertes couvrent de moins en moins la production, de plus la boulimie gazière débridée fera que nous arriverons rapidement aux 50 milliards de m3 et à ce rythme de consommation de seulement 6% par an, nous atteindront les 100 milliards de m3 de consommation. Le problème des exportations sera réglé puisque la quantité exportée sera de loin marginale. Le même raisonnement se pose pour le pétrole car il n’y a aucun signe avant coureur d’une réelle prise en charge d’une transition énergétique et écologique que nous appelons de nos vœux. Les cours du Brent ont enregistré un recul hier en s’affichant à 51,64 dollars ceci est dû à plusieurs facteurs. Le non-respect par certains pays de l’OPEP de l’accord de limitation de la production De plus La production libyenne non concernée par les quotas de 865 000 barils par jour durant tout le mois de juillet, soit 11% de plus que le niveau, initial fragilise l’accord . «Les hausses de la production de l’OPEP à 32,87 millions de barils/jour et du pétrole de schiste américain commencent à ressembler à une guerre des nerfs», indique l’analyste Lukman Otunuga. .En clair nous allons continuer à confier le destin du pays aux convulsions erratiques d’un baril de pétrol dont nous ne maitrisons ni les tenants ni les aboutissants Par ailleurs la canicule et les fortes chaleurs ont été à la base des incendies de forets. Le Directeur général des forêts, a révélé qu’il y eut 1 604 incendies depuis le 1er juin, ayant ravagé 14 310 hectares de surfaces forestières, maquis et broussailles. Dans le pays on ne parle plus de barrage vert, ni de reboisement. La lutte contre l’érosion, ce n’est pas de remplacer ce qui est perdu mais d’augmenter dans de très grandes proportions la plantation d’arbres à croissances rapides qui peuvent permettre des micro-climats où il sera possible de développer une agro-industrie. Nécessité d’une transition énergétique vers un bouquet à 50% renouvelable d’ici à 2030 est possible Cinquante-cinq ans après l’indépendance, n’est pas capable de vivre sans le pétrole et le gaz ? Pendant plus de dix ans on nous disait que le solaire n’était pas rentable. De plus le GPL était banni nous n’arrivons pas à le commercialiser et il n’intervient que pour 2% dans le bilan carburant par suite du manque de vision les voitures importées ne sont pas au GPL, on n’oblige pas à la double carburation et on fait croire à l’Algérien que le GPL ( sirghaz ) est dangereux le pétrole est brulé au lieu d’être réservé aux usages nobles comme la pétrochimie. La problématique globale est celle de passer d’un modèle de consommation où tout est gratuit et dont personne n’est responsable vers un modèle de consommation vertueux où chaque calorie est épargnée, grâce à des économies. Nous devons prendre le train du progrès. Nous avons une fenêtre de quelques années pour pouvoir mettre en œuvre une politique volontariste basée sur une sobriété énergétique. A l’instar des pays développés, il nous faut sans tarder mettre en place une stratégie audacieuse. Un mix énergétique à 50% renouvelable. Le modèle énergétique part du principe du développement humain durable qui est de laisser un viatique aux générations de 2030. Pour cela il faut freiner drastiquement la consommation d’énergie fossile par une rationalisation de l’énergie, mais aussi de l’eau, mettre en place les 3R (récupération, recyclage et réutilisation des déchets), le traitement des eaux usées, l’exploitation des forêts et surtout sortir des carburants thermiques. C’est une transition vers le développement humain durable qui repose sur une stratégie énergétique qui devra être flexible et constamment adaptable. Ce scénario 50% renouvelable à atteindre d’ici 2030 nous ferait économiser des milliards de m3 de gaz. Nous avons même prévu l’introduction graduelle à partir de 2018 de la voiture électrique qui pourrait être rechargée même chez soi, cela ferait à l’horizon 2030 un million de voitures électriques. Naturellement ces calculs sont donnés à titre indicatif, ils indiquent des tendances. A titre d’exemple une centrale de 1 000 MW solaire permettrait d’économiser 1,5 milliard de m3 de gaz naturel. Le même raisonnement devra être appliqué aux carburants qui devraient être revus à la hausse, sachant qu’une étude de la Banque mondiale nous apprend que 15% de l’essence consommée au Maroc ou en Tunisie provient d’Algérie. Cette hémorragie aux frontières jointe à un gaspillage sans précédent de l’énergie ( les véhicules importées consomment ne moyenne 20 % de carburant que ceux en Europe (120gde CO2/km contre 145gde CO2 pour les véhicules en Algérie) oblige l’Algérie à importer selon les années jusqu’à 3 milliards de dollars par an de carburants qui est revendu 5 fois moins cher au consommateur. Dans ce modèle une place importante est réservée aux économies d’énergie qui peuvent aller jusqu’à 20%.Les économies sont multiformes, cela va de l’eau économisée à l’électricité, aux carburants et plus largement aux aliments aux choses à qui il faudra donner une seconde vie par le partage, l’échange Il faut expliquer au citoyen que 80% des subventions sont aspirées par ceux qui ont les moyens de payer plus mais qui paient des sommes dérisoires. Même le FMI recommande de cibler les catégories à aider. La formidable révolution électrique dans les transports qui font que l’électricité sera de plus en plus utilisée ; le diesel qui est cancérigène sera abandonné. Volkswagen ne fabriquera plus de voitures diesel à partir de 2025. La France supprimera les carburants fossiles et totalement d’ici 2040. Les voitures vont coûter moins cher que les voitures à carburants fossiles. D’ici 2020. Les constructeurs comme Renault Nissan et d’autres sont en train de mettre en œuvre des voitures low cost électriques. Elles sont en train d’être construites en Chine avec un prix autour de 7 000 euros (1 million de DA) comme le prévoit Renault. Nous pouvons gagner une étape en nous inscrivant dans cette révolution électrique. Nous devons demander sans complexe à Renault de nous aider à mettre en place une voiture électrique low cost comme elle s’apprête à le faire en Inde. Nous devons demander à Volkswagen, non pas de nous aider à mettre en place une industrie des voitures thermiques qui seront rapidement obsolètes, mais une industrie des voitures électriques. De plus le plan solaire qui devrait démarrer fera que le Sahara sera une véritable pile électrique qui fournira de l’électricité pour le transport multimodal : voitures camions, rail. Cette électricité solaire peut même remplacer le gaz naturel dans le chauffage et la cuisson domestique. C’est autant de gaz naturel et de pétrole qui sera laissé en viatique aux générations futures. «On peut imaginer des villes nouvelles au Sahara avec la disponibilité de l’eau et de l’énergie permettant les activités agricoles et même une transsaharienne du rail et des camions électriques.» Il n’est pas interdit de penser à un nouveau schéma d’aménagement du territoire qui permettrait la création de villes nouvelles renouvelables avec la disponibilité de l’eau et de l’électricité qui permettront le développement de l’agriculture avec une politique de transport utilisant l’électricité dans les véhicules, les camions, le rail qui permettrait de désengorger le Nord . C’est cela qui fera que le Sahara pourra être une seconde Californie. Il nous faut de même aller vers une vérité graduelle des prix de l’énergie et de l’eau par une pédagogie de tous les jours de façon à inculquer les fondamentaux du Développement Durable notamment aux Jeunes à qui nous devons laisser un pays en ordre de marche C’est une formidable opportunité pour un développement endogène qui fait du compter sur soi le but ultime de cette formation. Ce sont des dizaines de milliers d’emplois qui seront générés par cette vision du développement durable Les start-up de jeunes ingénieurs et de techniciens dont il faudra réhabiliter les formations technologiques qui ont été supprimées prendront en charge la demande sociale. C’est cela une véritable Ansej de l’intelligence. Je suis convaincu que la transition énergétique est l’affaire de tous les départements ministériels, c’est à l’école que l’apprentissage de l’écocitoyenneté se fera, c’est la formation professionnelle et l’enseignement supérieur qui auront à former les milliers de techniciens et d’ingénieurs dont la formation qui a disparu devrait en toute logique être réhabilitée. La transition énergétique devrait aussi avoir le consensus du plus grand nombre, à travers un consensus politique national car au moment de l’application, ce sont des citoyens qui feront que cette stratégie réussira car il s’agit de ne pas hypothéquer l’avenir des générations futures. Professeur Chems Eddine Chitour Ecole Polytechnique Alger 1 Première partie conférence .https://www.youtube.com/watch?v=LWkKP1Uo5B0&t=122s 2.Deuxième partie : https://www.youtube.com/watch?v=UdAQPZlCfYM 3.Troisième partie https://youtu.be/mFQ3lAVguQ0 Article de référence : http://www.lequotidien-oran.com/index.php?news=5248310
biased
À première vue dramatique pour la biodiversité, la reprise de la chasse à la baleine au Japon devrait paradoxalement améliorer la situation des grands cétacés. La décision du pays, le 26 décembre dernier, de se retirer de la Commission baleinière internationale (CBI), pourrait apaiser les tensions sur le sujet. En effet, depuis plus de trente ans, le Japon continuait à chasser les baleines, sous le prétexte de la recherche scientifique, et se rendait pour cela en Antarctique ou dans l'hémisphère sud. À partir de juillet, les chasseurs resteront dans les eaux territoriales japonaises et dans la zone économique exclusive du pays, a assuré Tokyo. Le Japon devrait privilégier la chasse des petites baleines de Minke, qui font partie des rares cétacés à ne pas être considérés en danger d'extinction. Repérant une faille dans le moratoire mis en place en 1986 par la CBI sur la chasse à la baleine, le Japon, qui considère la chasse du grand cétacé comme un héritage culturel, ne l'a jamais tout à fait abandonnée. Bien que la viande de baleine soit très peu consommée dans le pays, le Japon y voit une question de principe pour la puissante industrie de la pêche et les villes portuaires comme Shimonoseki, d'où vient le Premier ministre conservateur Shinzo Abe. LIRE AUSSI >> Japon: ce que cache la chasse à la baleine Les expéditions nippones faisaient donc l'objet d'une indignation appuyée pour des pays comme l'Australie et de la Nouvelle-Zélande, l'Antarctique étant considéré comme un véritable sanctuaire pour les baleines. En 2014, le Japon a ainsi perdu devant la Cour internationale de justice un procès intenté par l'Australie, qui rejetait le caractère scientifique de ses expéditions. La Convention internationale sur le commerce d'espèces sauvages menacées d'extinction (Cites) lui a également adressé en octobre un avertissement pour ses cargaisons de rorquals boréals, attrapés en haute mer. En charge de la conservation du milieu marin au sein du Fonds international pour la protection des animaux (IFAW), Patrick Ramage voit dans l'annonce du Japon une "solution élégamment japonaise", en regard de son hypocrisie passée. "Cela offre une porte de sortie acceptable à la chasse à la baleine en haute mer", estime-t-il. "Il est difficile d'y voir autre chose qu'une bonne nouvelle pour les baleines et la Commission établie pour les suivre et les protéger". Le Japon n'ayant plus à présent qu'un statut d'observateur à la CBI, la Commission pourra selon lui "aller au-delà d'un débat disproportionné et déformé sur la chasse à la baleine", et mieux se concentrer sur d'autres menaces, comme le changement climatique, la pollution plastique des océans ou les collisions avec les bateaux. Un constat que partage en partie Peter Stoett, enseignant à l'Institut universitaire technologique de l'Ontario, et auteur d'un livre sur la CBI. Pour lui, le retrait du Japon marque inévitablement un coup dur pour l'organisation, mais pourrait lui permettre de réorienter ses priorités. "Aussi triste que cela puisse sembler, la principale menace posée aujourd'hui aux cétacés ne vient pas des harpons", souligne-t-il. "Leur extinction pourrait se produire, mais parce que les océans seront trop chauds pour maintenir l'écosystème dont ils ont besoin". L'ONG Sea Shepherd, habituée à traquer les baleiniers, a elle aussi crié victoire après l'annonce japonaise, "ravie de voir la chasse prendre fin dans le sanctuaire baleinier antarctique".
true
Il y a environ 70 espèces de salpes dans le monde. Ici, une espèce photographiée en eau profonde. Menaces sur les océans Les écosystèmes marins de haute mer sont (comme les forêts) une pompe biologique : ils captent le dioxyde de carbone en surface et le stockent dans les profondeurs. Sans ce service essentiel, notre atmosphère contiendrait 50% de CO2 en plus, et la hausse des températures rendrait la terre inhabitable. Sauf que les océans font face à des menaces de plus en plus nombreuses et de plus en plus prégnantes. L’accumulation des impacts liés aux activités humaines, comme la surpêche, la pollution au plastique, additionnée aux changements climatiques fragilisent les océans. La haute mer recèle des trésors qui aiguisent l’appétit de nombreuses industries. Etant par définition en dehors des eaux territoriales, elle ne fait l’objet d’aucune réglementation. C’est quasiment une zone de non-droit où prime la règle du premier arrivé premier servi. C’est un bien commun qui appartient à tout le monde, mais qui ne bénéficie qu’à un tout petit nombre. La pression exercée sur les océans par les activités humaines et aggravée par les dérèglements climatiques a entraîné le déclin de nombreux écosystèmes marins, mais il y a encore de l’espoir pour les océans. L’opportunité d’un traité mondial sur la haute mer Les représentant.e.s des gouvernements sont réunis aux Nations unies, à New York, pour discuter d’un traité mondial sur la haute mer, qui représente 61% de la surface des océans et près de la moitié de la surface du globe. Il était plus que temps de se soucier de son sort ! La biodiversité y est tout aussi riche (monts sous-marins, cheminées hydrothermales, espèces migratrices…) que celles des zones côtières, et il est impératif qu’elle fasse aussi l’objet d’une protection. Ces négociations sont donc cruciales pour réguler les activités en haute mer et protéger cette biodiversité. Sans ce traité, il sera tout simplement impossible de protéger 30% des océans, comme le préconisent les scientifiques. La France possède le deuxième domaine maritime mondial. Elle a un rôle majeur à jouer dans ce cénacle. C’est l’occasion pour elle de prendre un engagement concret, de faire preuve de courage politique pour faire de ce traité un texte qui sera assez ambitieux pour permettre la création d’un réseau de réserves marines sur au moins 30% des océans d’ici 2030. La communauté scientifique et l’Union pour la conservation de la nature (UICN) s’accordent à dire que c’est le minimum pour préserver tous les écosystèmes marins, notamment en augmentant leur résilience. Cette protection doit permettre d’exclure de ces zones protégées les activités industrielles. Notre étude montre qu’avec les données et les moyens actuellement à disposition il est possible de cartographier les zones océaniques à protéger, de créer un réseau de réserves marines interconnectées et représentatives de la biodiversité marine mondiale. C’est maintenant aux responsables politiques de nous doter d’un outil juridique assez ambitieux pour permettre la mise en place de ces réserves. D’ici quelques jours, nous vous révélerons notre projet pour mettre en lumière les menaces qui pèsent sur ces écosystèmes précieux et donner aux océans toute l’importance qu’ils méritent. En orange, vous pouvez voir les espaces maritimes à protéger, représentatifs de la biodiversité marine. Ils couvrent 30% des océans (en volume). Les pointillés délimitent les eaux territoriales. Au-delà, c’est la haute mer.
true
Certains observateurs parmi les plus affûtés l’ont déjà remarqué : quand quelque chose va mal, dans ce bas monde, c’est rapidement la faute au libéralisme. Pratique, le libéralisme s’attaque sous tous les angles, à toutes les saisons. Large, englobant une multitude de sujets et avec plusieurs m³ de coffre, il sera facile de le charger pour tout et n’importe quoi. Le libéralisme comme véhicule tout terrain de votre argumentaire politique vous emmènera très loin. Il est bien sûr évident que les fuites nucléaires et le réchauffement climatique sont directement imputables au libéralisme. Comme ce réchauffement climatique provoque des tsunamis (mais si, c’est comme ça), que ces tsunamis provoquent des fuites nucléaires, la boucle est bouclée. Le libéralisme est aussi responsable de la mort des bébés phoques, des pluies acides, du trou dans la couche d’ozone, mais (et c’est beaucoup plus fort), il est aussi responsable du communisme à Cuba et en Chine. C’est vraiment sans limite. Vous pensiez avoir tout lu ? On peut faire plus fort : le libéralisme est aussi responsable de l’obésité des gens ; jusque là, c’est logique : les méchantes corporations ont l’impudence de fournir de la nourriture en quantité lamentable à tous, et forcent les gens à se nourrir. Mais pire : comme il y a à présent plus de gens obèses que de gens mal nourris sur la planète, c’est aussi la faute au libéralisme. Notez que lorsqu’il n’y avait que des gens qui clabotaient maigres comme un clou, c’était la faute au libéralisme aussi. En attendant, comme l’explique l’article, les statistiques montrent qu’un milliard et demi de personnes souffrent d’obésité en 2010, contre 925 millions de malnutrition. Et le secrétaire général de la Croix-Rouge en conclut donc logiquement : C’est assez fabuleux, cet argument, quand on y réfléchit cinq minutes : la personne en surpoids ne l’est donc plus parce que son alimentation n’est pas adaptée à ses dépenses caloriques, mais bien parce qu’elle mange la nourriture d’autres, ailleurs dans le monde. Et si ça ressemble à un surcroît de culpabilisation pour les obèses, c’est normal : c’en est. Évidemment, la pire engeance sera l’obèse libéral qui est une raclure qu’on devra pourchasser jusqu’au fin fond des États-Unis (parce le libéral et l’obèse sont forcément là, que voulez-vous ; c’est Michael Moore qui le dit !)
fake
Par Roy Spencer L’étude AIRS Le sondeur infrarouge atmosphérique par infrarouge AIRS (Atmospheric Infra-Red Sounder) de la NASA dispose de milliers de canaux infrarouges qui ont permis de fournir une grande quantité de nouvelles informations de télédétection depuis le lancement du satellite Aqua au début de 2002. AIRS a même démontré comment l’augmentation du CO2 au cours des 15 dernières années a réduit le refroidissement par infrarouge dans l’espace aux longueurs d’onde influencées par l’émission et l’absorption de CO2, ce qui constitue à ma connaissance la première preuve par l’observation que l’augmentation du CO2 peut modifier, même de façon minime, le budget énergétique global. Le défi pour AIRS en tant qu’instrument de surveillance du réchauffement de la planète est qu’il est contraint par la nébulosité, problème qui s’aggrave à mesure que l’on se rapproche de la surface de la Terre. Il ne peut mesurer la température de la surface du sol que lorsqu’il n’y a pratiquement pas de nuages. La température de la surface du sol par temps nuageux est encore « restituée » par d’autres canaux plus haut dans l’atmosphère, et par des algorithmes de «compensation du nuage». Mais ces exercices numériques exotiques ne pourront jamais contourner le fait que la température de la surface du sol ne peut être observée avec les mesures infrarouges par satellite qu’en l’absence de nuages . Ensuite, il y a un problème supplémentaire, c’est qu’il faut comparer les températures de la surface du sol aux températures de l’air à 2 mètres, en particulier au dessus de la terre. Il y a de gros biais aux heure d’observation d’AIRS à 1h30 AM et PM. Mais j’ai tendance à penser que les tendances climatiques de la température de la surface du sol devraient être raisonnablement proches des tendances de la température de l’air, ce n’est donc pas un grave problème pour moi (bien que Roger Pielke, Sr. ne soit pas du même avis). Le nouvel article de Susskind et al. décrit sur une période de 15 années un ensemble de données des températures de la surface du sol de la planète provenant de l’instrumentation AIRS embarquée sur le satellite Aqua de la NASA. La revue ScienceDaily s’est empressé d’affirmer que l’étude « vérifiait les tendances du réchauffement de la planète », même si la période considérée (15 ans) est trop courte pour être significative des tendances du réchauffement de la planète, d’autant plus qu’un El Niño record a été enregistré à la fin de cette période. En outre, même nos données de température troposphérique (LT) UAH montrent pour cette période (janvier 2003 à décembre 2017) un réchauffement significatif, avec une tendance qui est de 0,01 °C supérieure aux données de température de surface HadCRUT4 considérées comme « le standard absolu » : Réchauffement par décennie en degré Celsius : AIRS: +0.24 GISTEMP: +0.22 ECMWF: +0.20 Cowtan & Way: +0.19 UAH LT: +0.18 HadCRUT4: +0.17 Je suis à peu près sûr que le papier de Susskind et al. était censé conforter le jeu de données GISTEMP de Gavin Schmidt, qui montre généralement un réchauffement plus important que le jeu de données HadCRUT4 que le GIEC a tendance à privilégier. Il reste à voir si le jeu de données de température de surface de la terre AIRS, avec son «biais du ciel clair », sera accepté comme le moyen de surveiller les tendances de la température mondiale à l’avenir. Quel jeu de données satellitaires devons-nous croire? A l’évidence, la période d’enregistrement de la base de données AIRS est trop courte pour avoir pu prendre en compte les ajustements apportés aux différentes bases de données de la température mondiale avant 2003 qui ont eu un impact significatif sur les tendances de la température calculées sur plus de 40 années de données. Ce que je veux spécifiquement aborder ici est un commentaire publié par le Dr Scott Denning sur Twitter, diabolisant notre ensemble de données satellitaires (UAH). Il répondait à quelqu’un qui s’opposait à la nouvelle étude, affirmant que nos données satellitaires UAH indiquaient un réchauffement minime. Alors que la personne qui a posté cette objection n’avait pas les bonnes données ( comme on l’a vu ci-dessus, la tendance de nos données s’accorde même avec celle de HadCRUT4 pour la période 2003-2017), Denning a pris sur lui de balayer nos données avec le Tweet ci-dessous : Tout d’abord, je ne sais pas du tout de quoi Scott parle quand il cite les tours d’observation et les aéronefs… il n’ya pas eu de comparaison complète de ces sources de données avec les données satellitaires mondiales, principalement parce la couverture géographique des tours et des avions est insuffisante. Deuxièmement, depuis plus de 25 ans et plus que John Christy et moi-même avons mis au point les méthodes que d’autres utilisent maintenant, nous n’avons commis qu’une «erreur» (constatée par RSS ) qui avait trait à un ajustement précoce de la dérive diurne que nous avons rapidement corrigée. La mise en évidence par RSS de l’effet de décroissance de l’orbite n’était pas plus une «erreur» de notre part, que ne l’était de leur part notre découverte d’un effet « température propre aux instruments ». Tous les jeux de données satellitaires incluent désormais des ajustements pour ces deux effets. Néanmoins, comme beaucoup d’entre vous le savent, notre ensemble de données UAH est maintenant considéré comme « aberrant » par rapport aux autres données satellitaires (qui incluent également les flux RSS, NOAA et U. of Washington), avec un moindre réchauffement moyen depuis 1979 (bien que nos données s’accordent mieux sous les tropiques, où le réchauffement a été faible). Parlons donc de la dernière affirmation de Scott Denning selon laquelle nos données ne s’accordent pas avec les données indépendantes. Les seules comparaisons directes avec les températures satellitaire de couche profonde proviennent de radiosondes et de données issues de ré analyses globales (qui incluent de façon cohérente toutes les observations météorologiques). Nous verrons que RSS, la NOAA et UW ont des erreurs résiduelles dans leurs jeux de données pour lesquelles ils refusent de faire des ajustements. De fin 1998 jusqu’en 2004, deux satellites étaient en service : NOAA-14 avec la dernière série d’instruments MSU, et NOAA-15 avec la nouvelle génération d’instruments AMSU. Au cours de la seconde moitié de cette période de chevauchement, un désaccord considérable s’est développé entre les deux satellites. Puisque l’ancienne instrumentation MSU était connue pour dépendre de la température propre de l’instrument ( biais résolu par l’AMSU), et que le satellite NOAA-14 sur lequel était embarqué l’instrumentation MSU avait dérivé beaucoup plus longtemps qu’aucun autre satellite précédemment, nous avons choisi d’interrompre le traitement des données NOAA-14 lorsque celle-ci on commencé à diverger substantiellement des données AMSU (l’ingénieur James Shiue de la NASA/Goddard a un jour qualifié la nouvelle AMSU comme la « Rolls » des sondes de température à micro longueur d’ondes ondes bien calibrées). Malgré des preuves de plus en plus évidentes selon lesquelles les données NOAA-14- MSU n’étaient plus utilisables, RSS, NOAA et UW ont continué à utiliser toutes les données du NOAA-14 pendant toute leur durée de vie et à les traiter de la même façon que si elles avaient été aussi précises que les données NOAA-15 AMSU. Étant donné que la NOAA-14 réchauffait plus que NOAA-15 de façon significative, il en est résulté une tendance au réchauffement plus marquée dans leurs jeux de données satellitaires, augmentant la température de toutes les mesures des satellites postérieures à l’an 2000. Mais plutôt que de simplement affirmer que la nouvelle AMSU est plus crédible que l’ancienne MSU, examinons quelques données. Puisque Scott Denning mentionne des données des ballons météo (radiosondes), examinons le comparatif que nous avons publié des 4 jeux de données satellitaires avec les données provenant des radiosondes et celles issues des ré analyses globales et voyons quel est celui qui s’accorde le mieux avec les données indépendantes : Comparaison des tendance entre 4 jeux de données satellitaires , les radiosondes (bleu) et les ré analyses (rouge) pour le canal troposphérique MSU2 / AMSU5 sous les tropiques pour la période 1979-2005 ( les tendances des ballons sont calculées à partir du sous-ensemble des points de contact où se trouvent les stations de radiosondage, tandis que les ré analyses donnent une couverture complète des tropiques. Pour des comparaisons directes voir ce document). Il est clair que ce sont les jeux de données satellitaires RSS, NOAA et UW qui paraissent aberrantes lorsqu’on les compare avec les radiosondes et les ré analyses ; elles montrent en effet un réchauffement excessif par rapport aux données indépendantes. Vous vous demandez peut-être pourquoi ces trois jeux de données satellitaires sont si bien accordés ? Principalement parce que UW et la NOAA ont largement suivi l’exemple de RSS… en utilisant les données de la NOAA-14 même lorsque leur étalonnage dérivait, et en ayant recours à des stratégies similaires pour les ajustements de la dérive diurne. Ainsi, NOAA et UW sont, en première approximation, des versions légèrement modifiées du jeu de données RSS. Peut-être Scott Denning était-il juste de mauvaise humeur ce jour là. Dans le passé, il avait su se montrer raisonnable, étant le seul scientifique du climat « alarmiste » ayant accepté de prendre la parole lors d’une conférence sur le climat organisée par Heartland. Peut-être a-t-il été contraint depuis à suivre la ligne alarmiste et n’a pas été autorisé à se départir de son obligation de réserve. En tout état de cause, je me suis senti obligé de défendre notre travail en réponse à ce que je considère (et j’en ai fourni des preuves ) comme une attaque injuste et inexacte dans les réseaux sociaux dirigée contre notre ensemble de données UAH.
fake
Ils n’ont pas de chance, les réchauffistes. Voilà plusieurs années que la glace continue de s’étendre dans l’océan Antarctique, au rebours de toutes les prédictions catastrophiques annonçant la fonte des glaces en raison du changement climatique. Les faits sont têtus, mais l’inventivité de l’homme est sans limites, surtout lorsqu’il y a une idée à « prouver ». On se bouscule donc aujourd’hui pour démontrer que l’emprise des glaces peut augmenter en même temps que le réchauffement. De même que la froidure de ces derniers mois en Europe n’en serait qu’une preuve de plus… La nouvelle étude, publiée par Nature Geosciences, confirme en tout cas que la glace océanique continue de progresser. C’est « malgré le réchauffement climatique » et cela s’explique par, tenez-vous bien, « une fluctuation naturelle du climat ». C’est l’Oscillation décennale du Pacifique (OCP) qui, en passant du positif ou négatif ou l’inverse, pourrait bien être à l’origine d’une réaction en chaîne ayant des conséquences sur le climat et produisant des effets sur la formation de la glace maritime dans la région antarctique. La vitesse de croissance de la glace en Antarctique multipliée par 5 en 5 ans L’OCP, précise l’article, a entamé son oscillation vers la phase négative en 1999 : depuis lors, la vitesse de la croissance de la glace maritime dans la région a été quasiment multipliée par cinq entre 2000 et 2014. Au cours de cette phase négative, on enregistre des températures maritimes de surface en moyenne plus froides dans le Pacifique oriental qu’au cours de la phase positive, ce qui est évidemment propice à la formation de la glace.
fake
Face aux canicules à répétition, la climatisation devient de plus en plus indispensable : elle améliore nos conditions de vie ainsi que la productivité économique. Mais le soulagement qu’elle offre instantanément est contrebalancé par des effets environnementaux néfastes. Quelles sont les tendances de consommation des climatiseurs dans le monde ? Quel est l’impact environnemental et quelles solutions adopter ? Pour répondre à ces questions, nous nous appuierons sur les données d’Enerdata et celles du rapport de l’Agence internationale de l’énergie publié en 2018 sur le sujet. Une activité économique en plein boom Moins d’un tiers des ménages possède un climatiseur dans le monde. Mais certaines régions sont davantage équipées que d’autres. Aux États-Unis ou au Japon, 90 % des foyers possèdent un tel équipement. Et la Chine compte désormais plus d’un tiers des climatiseurs du monde, avec un taux d’équipement des ménages de 60 %. Une part nettement supérieure aux 8 % observés pour les 2,8 milliards de ménages vivant dans les régions les plus chaudes. En Europe, 20 % des ménages en moyenne possèdent une climatisation, et seulement 5 % des Français. Le boom de la climatisation est mondial. Carine Sebi à partir des données de l’Agence internationale de l’energie et d’Odyssee, CC BY-NC-SA La tendance des ventes de climatiseurs atteste que ces écarts se réduisent. Celles-ci ont augmenté de 15 % entre 2017 et 2018, tout particulièrement dans les économies émergentes (Chine, Brésil, Inde, Indonésie et Mexique), qui enregistrent des épisodes de chaleur de plus en plus extrêmes. Le nombre de climatiseurs installés dans le monde a ainsi augmenté de 40 %, et presque doublé en Asie depuis 2010. Une croissance énergétique très rapide La climatisation représente une part de plus en plus importante de la consommation électrique du secteur du bâtiment – qui comprend les secteurs résidentiel et tertiaire. Au niveau mondial, elle est responsable de 12 % des émissions de CO2 émises dans ce secteur. En Arabie saoudite, elle compte pour 73 % de la consommation électrique du secteur, contre 23 % aux États-Unis ou en Inde. En Europe, la climatisation ne pèse que 2 %, mais on observe une tendance de croissance annuelle marquée depuis 2000 (3,5 % par an). Un taux qui reste modeste par rapport aux évolutions observées en Asie : 12 % par an depuis 2000 pour la Chine, 11 % pour l’Inde ou encore 9 % pour l’Indonésie. Le Japon fait figure d’exception avec une consommation stable depuis 2000 : le marché de la climatisation étant presque saturé (90 % de taux d’équipement), le volume de climatiseurs installés évolue peu ; et le remplacement des vieux équipements par des équipements plus efficaces améliore la performance énergétique du parc. Refroidir, une pratique très énergivore. Carine Sebi à partir des données d’Enerdata, CC BY-NC-SA Des systèmes électriques mis à rude épreuve Au moment le plus fort du dernier épisode caniculaire en France, en juin, RTE annonçait qu’un pic de consommation électrique « de période estivale » avait été atteint (59 436 MW) du fait de l’utilisation accrue des climatiseurs et des ventilateurs. RTE indiquait que chaque degré au-dessus des normales de saison correspondait à une consommation additionnelle électrique équivalente à celle de la ville de Bordeaux. En Chine, la climatisation représente lors de ses journées les plus chaudes jusqu’à la moitié de la demande de pointe d’électricité du pays. Désormais, le refroidissement de nos lieux de vie aggrave le réchauffement climatique. Tout d’abord, une part importante des climatiseurs vendus ou déjà installés dans le monde sont très énergivores. Ils consomment beaucoup d’électricité, majoritairement produite à l’aide de charbon, dont l’exploitation est très émettrice en CO2. Les plus gros utilisateurs de climatisation dans le monde font malheureusement partie de ceux dont le mix électrique s’avère le plus polluant, comme l’Arabie saoudite ou la Chine. Bien que les États-Unis aient un indice carbone de leur production d’électricité significativement plus faible que ces deux pays, ils sont les plus gros émetteurs de CO2 du fait du volume d’électricité généré pour satisfaire ce besoin. Les tendances montrent que ce phénomène s’amplifie. En Chine, les émissions de CO2 liées à l’usage de climatisation ont été multipliées par cinq entre 2000 et 2017. Émissions de CO₂ liées à la production d’électricité et à l’usage de la climatisation. Carine Sebi à partir des données d’Enerdata (graphique de gauche) et de l’Agence internationale de l’énergie (graphique de droite), CC BY-NC-SA Les climatiseurs utilisent d’autre part des fluides frigorigènes comme réfrigérant dont le potentiel de réchauffement climatique est élevé lorsqu’ils sont rejetés dans l’atmosphère. Certains composés sont jusqu’à plusieurs milliers de fois plus réchauffant que le CO2. Ces gaz ne doivent pas sortir des climatiseurs, mais il existe des risques de fuite au cours de la fabrication, de la maintenance, ou lors de pannes. Peut-on atténuer les effets pervers ? Il est cependant possible de freiner certains effets pervers. Il s’agit d’une part de décarboner l’énergie servant à alimenter les bâtiments – pour lesquels la climatisation représente une part grandissante de la consommation énergétique. Le développement global des énergies renouvelables devrait permettre une telle décarbonation. Il est également impératif que l’architecture s’adapte aux changements climatiques, pour le neuf (surtout en Asie) et pour l’existant (en Europe et Amérique du Nord). L’isolation et le choix des matériaux utilisés, mais aussi la possibilité de protéger les fenêtres contre le rayonnement solaire sont autant de solutions permettant de réduire fortement les besoins en climatisation. Il faut noter par ailleurs que l’efficacité énergétique des climatiseurs varie considérablement d’un pays à l’autre : les équipements vendus au Japon et dans l’Union européenne sont généralement 25 % plus efficaces que ceux vendus aux États-Unis et en Chine. Optimiser leur consommation pourrait réduire de moitié leur croissance en demande énergétique, grâce notamment à la mise en place de normes et d’étiquetages obligatoires portant sur le rendement énergétique. Le graphique de l’Agence internationale de l’énergie ci-dessus indique que l’amélioration de l’efficacité énergétique des climatiseurs a permis d’éviter une augmentation de la consommation énergétique de cet usage de 20 % depuis 2000 au niveau mondial. Agence internationale de l’énergie Enfin, il faut renforcer la réglementation portant sur les fluides frigorigènes, utilisés depuis une trentaine d’années. L’utilisation de la première génération de gaz (chlorofluorocarbure ou CFC) a été interdite en 1987 dans le cadre du protocole de Montréal, en raison de leur effet destructeur pour la couche d’ozone. La génération actuelle de réfrigérants (hydrofluorocarbure-HFC) a un impact très faible sur la couche d’ozone mais contribue en revanche fortement à l’effet de serre. L’inclusion des HFC dans le protocole de Montréal a été finalement actée en novembre 2018 dans le cadre de l’Accord de Kigali ; ce dernier vise une réduction de l’usage du HFC de 80 % d’ici 2038-2047. Au sein de l’Union européenne, cela se traduit par la mise en place la réglementation (F-Gaz) en 2006, intégralement remplacée en 2015. Cette dernière est censée accélérer la réduction des émissions de gaz à effet de serre en interdisant à terme les HFC toujours utilisés sur le marché du froid. Enfin, et comme toujours, l’adoption de comportement vertueux fait également partie de l’équation et doit permettre de réduire la consommation de la climatisation. L’Ademe conseille ainsi que la pièce soit à une température de 26 °C au plus bas et qu’il n’y ait pas plus de 5 à 7 °C de différence entre intérieur et extérieur. C’est aussi un moyen de faire baisser sa facture d’électricité, car une température ambiante trop basse de 1 °C (si la température ambiante est de 23 °C au lieu de 24 °C) fait augmenter de 12 à 18 % la consommation énergétique annuelle de l’installation de climatisation. 3,5 fois plus de climatiseurs d’ici 2050 L’Agence internationale de l’énergie estime que le nombre de climatiseurs dans le monde passerait de 1,6 milliard d’unités à 5,6 milliards d’ici 2050. On s’attend à ce que cette augmentation soit particulièrement sensible dans les économies émergentes comme en Inde où la climatisation pourrait représenter 45 % de la demande de pointe en électricité en 2050, contre 10 % aujourd’hui. D’importants investissements dans de nouvelles centrales électriques seront nécessaires pour répondre à cette demande de pointe pendant la nuit, période au cours de laquelle il est impossible de satisfaire la demande à partir du solaire photovoltaïque par exemple. Espérons également que les industriels de la climatisation trouveront une alternative aux fluides frigorigènes. Pour l’heure, la solution de remplacement envisagée serait le HFO (HydrFluorOoléfines) qui a un très faible potentiel d’effet de serre. Cependant, un des produits de dégradation des HFO présente un pouvoir herbicide et persiste très longtemps dans l’eau et les sols…
true
Les chèques énergie, qui concerneront cette année près de six millions de foyers, vont commencer à être envoyés cette semaine, a annoncé lundi le gouvernement.Ils seront envoyés automatiquement aux personnes éligibles sans démarche de leur part, sur la base de leur déclaration de revenus aux services fiscaux. "Les chèques énergie sont dès aujourd'hui envoyés automatiquement aux Français les plus modestes", a indiqué le ministère de la Transition écologique et solidaire dans un communiqué. Ils seront en effet postés à partir de lundi et jusqu'à la fin avril, selon les régions. Le chèque sert à payer les factures d'énergie, le plus souvent d'électricité et de gaz (mais aussi de fioul ou de bois), ou certaines dépenses liées à la rénovation énergétique du logement. Il bénéficiera cette année à 2,2 millions de foyers supplémentaires et concernera donc un total de 5,8 millions de ménages, en fonction de leurs revenus. Son élargissement avait été annoncé à la mi-novembre en réponse à la crise des gilets jaunes. De même, son montant a été augmenté de 50 euros pour arriver à une moyenne de 200 euros et un montant maximal de 277 euros. Le dispositif devrait coûter à l'État un peu plus de 850 millions d'euros cette année, après 425 millions engagés l'an dernier. En France, près de 7 millions de ménages sont considérés comme étant en situation de précarité énergétique, selon les données de l'Observatoire national de la précarité énergétique (ONPE).
true
Le dernier rapport spécial du GIEC sur les océans et la cryosphère (adopté le 24 septembre 2019) a révisé à la hausse les projections d’élévation du niveau marin pour la fin du siècle par rapport à celles du rapport AR5 de 2013 en raison de la ré-estimation de la contribution de la calotte Antarctique. Les nouvelles projections pour 2100 sont de +0,43 m (intervalle probable : 0,29 m-0,59 m) pour le scénario à faibles émissions (RCP 2.6) et de +0,84 m (intervalle probable : 0,61 m-1,10 m) pour le scénario le plus pessimiste (RCP8.5) [1]. L’agence européenne pour l’environnement a mis en ligne de son côté un jeu de cartes interactives simulant la façon dont l’Europe pourrait être affectée au cours du 21e siècle par les principaux risques climatiques tels que les sécheresses, les inondations, les incendies de forêt et l’élévation du niveau de la mer. Selon ces cartes, les côtes européennes connaîtraient une élévation moyenne du niveau de la mer compris entre 0,2 m et 0,4 m dans le scénario de faibles émissions (RPC 2.6), et entre 0,4 m et 1,0 m dans le cadre du scénario RPC 8.5. Le nord de la mer Baltique et la côte nord de l’Atlantique seraient épargnées en raison du rebond post-glaciaire. Que disent les marégraphes ? Thierry Piou, scientifique et sociétaire du club d’astronomie « Pêcheurs d’étoile » a effectué un travail plus pragmatique : il a réalisé un dossier dans lequel sont analysées les données fournies par les marégraphes des 12 principaux ports européens (Atlantique, Mer du Nord, Mer Baltique, Mer Méditerranée ). Bien qu’il soit admis que soixante ans d’enregistrement sont raisonnables pour estimer les variations eustatiques actuelles et filtrer les contributions cycliques et irrégulières du signal, le rapport de Thierry Piou n’a pris en compte que les séries marégraphiques dont la durée d’enregistrement est supérieure à 100 ans ( à l’exception de la série marégraphique de Saint-Nazaire dont les données ont été communiquées par Y. Ferret à l’auteur). En effet, pour évaluer une tendance fiable du niveau marin, il est nécessaire de travailler avec les séries marégraphiques les plus longues possibles et temporellement cohérentes, en dépit des changements de matériel ou du déplacement des repères de marées. La tableau ci-dessous rassemble les principaux résultats des douze séries marégraphiques : Les marégraphes ne montrent aucune accélération notable de l’élévation du niveau marin. Pour toutes les séries concernées, l’accélération est inférieure à 15 µ𝑚 ∗ 𝑎𝑛−2 ou encore 15 ∗ 10−6 𝑚 ∗ 𝑎𝑛−2 ce qui est très faible. Pour s’en rendre compte, il suffit de constater que la vitesse d’élévation du niveau de la mer à Brest s’est accrue de moins de 2 mm en 172 ans. On note d’autre part une accélération négative pour trois séries, dont Marseille. Conclusion de l’auteur du rapport : Alors que penser des récentes projections du Giec qui prévoit une élévation de 1,1 mètre du niveau des mers, en moyenne, d’ici 2100 ? L’étude que nous venons de faire montre que la probabilité d’atteindre un tel niveau est très faible. [1] Les quatre profils d’évolution des concentrations des gaz à effet de serre (RCP) retenus par les experts du GIEC pour le 5ème Rapport ont été traduits en termes de forçage radiatif, c’est-à-dire de modification du bilan radiatif de la planète (différence entre le rayonnement solaire reçu et le rayonnement infrarouge réémis par la planète).Ils sont identifiés par un nombre, exprimé en W/m² (puissance par unité de surface), qui indique la valeur du forçage considéré. Le scénario RCP 8.5 est donc celui d’un forçage de 8,5 W/m².
fake
Par Rémy Prud’homme, professeur des universités (émérite) Vous ne connaissez peut être pas le PNUE, le programme des Nations-Unies pour l’Environnement, qui vit heureux et caché à Nairobi, et qui vient de sortir un rapport. Sur le climat bien sûr. En première page, la photo d’un paysage lunaire dévasté par des dizaines d’éoliennes avec comme légende : « En Roumanie des éoliennes qui produisent de l’énergie durable (sic) ». Vous l’avez déjà lu cent fois, ce rapport: tout va mal, très mal, il ne nous reste plus que quelques jours pour empêcher la fin du monde, aux larmes citoyens ! qu’un CO2 impur abreuve nos sillons. C’est qu’il résiste, cet ennemi public n° 1. Bien loin de diminuer drastiquement, comme on nous l’a triomphalement promis, juré, à la COP de Paris en 2015, les rejets de CO2 continuent d’augmenter. Ils augmentent même plus vite qu’avant 2015. De près de 1200 millions de tonnes (presque quatre fois les rejets annuels de la France) entre 2015 et 2018. Le coup de maillet vert de M. Fabius leur a donné de l’élan. Quand on y regarde de plus près, on voit que cette augmentation est entièrement le fait des pays hors OCDE, c’est à dire principalement des pays pauvres, et notamment la Chine et l’Inde. Dans les pays de l’OCDE, les rejets de CO2 ont pratiquement stagné. Ils ont un peu diminué dans certains pays, comme les Etats-Unis de l’horrible Trump, ou le Royaume-Uni, ou l’Allemagne, et ils ont légèrement augmenté dans d’autres, dont la France, la Roumanie (chère aux propagandistes du PNUE), l’Espagne, ou la Turquie. L’explication est simple : les pays pauvres ne veulent pas réduire leurs rejets de CO2, et les pays riches ne le peuvent pas. Une image résume ce contraste : dans les trois ou quatre années à venir, la France va fermer ses quatre centrales à charbon; dans le même temps, la Chine va en ouvrir quatre cent; et cela fera 396 centrales à CO2 de plus. Les pays pauvres le disent très clairement : leur priorité c’est réduire la misère, pas les rejets de CO2. Tous les PNUE du monde ont beau leur expliquer qu’ils ont tort, que l’éolien n’est pas plus cher que le charbon, et qu’il faut réduire sa consommation, ils n’en croient rien, et ils ont bien raison. Nos écologistes, contre tout bon sens, nous ont longtemps présenté la Chine comme un « pays modèle », qui montrait la voie en matière de lutte contre le climat ; ce contre-sens a fait sourire les Chinois, mais ne les a pas ébranlés. Les pays développés, ou leurs dirigeants, préfèrent au contraire la réduction des rejets de CO2 à la réduction de la misère. Ils répètent en boucle que cela n’entraîne pas ceci. Mais ils se trompent. Les mesures anti- CO2 – de la taxe carbone aux renouvelables intermittents en passant par la chasse aux voitures – enrichissent les banquiers de la finance verte. Mais en augmentant le coût de la mobilité ou de l’électricité, elles frappent les plus pauvres d’entre nous. La révolte des gilets jaunes l’a bien montré hier, l’étranglement de l’industrie automobile le montrera demain. Lorsque les bobos prêchent le serrage de ceinture, il ne s’agit pas de leur ceinture, mais de celle des autres.
fake
Ce courant de pensée désigne une forme de déni radical de l’existence d’un problème – en l’occurrence le dérèglement climatique – en même temps que la mise en cause personnelle de ceux (scientifiques, ONG, politiques, membres de l’administration ou élus) qui invitent la société à agir pour prémunir l’humanité des manifestations les plus graves de ce dérèglement. L’attaque sur la scientificité des travaux sur le climat ne constitue pas ici la motivation, mais seulement l’instrument. Le point commun à toutes les démarches climatosceptiques consiste à vouloir bloquer l’action collective face au risque climatique, action que certains considèrent comme une menace pour leurs intérêts, leurs modes de vie ou leur conception des libertés. En France, il est d’abord apparu au début des années 1990 (voir l’ouvrage d’Yves Lenoir), dans la perspective du Sommet de la Terre à Rio de Janeiro (1992) et notamment de l’adoption de la Convention-cadre sur le changement climatique (CCNUCC). En 2000, ce sont les conclusions du 3e rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) qui essuient les critiques. Puis, à partir du moment où, en 2006, la négociation internationale s’est portée sur l’après 2012, terme des engagements pris dans le cadre du Protocole de Kyoto, la France s’est trouvée affectée par un nouvel épisode d’expression médiatique climatosceptique qui a enflé jusqu’à la Conférence de Copenhague (2009). Une récente vague s’est formée ces derniers mois à l’approche de la COP21. Jouer sur plusieurs tableaux Du point de vue des thèmes mobilisés, le noyau du climatoscepticisme consiste en une contestation radicale de l’existence d’une menace planétaire grave due au dérèglement climatique d’origine anthropique. Les climatosceptiques y voient une thèse ou une idéologie « réchauffiste » dangereuse et sans fondement. Selon les moments historiques et les intervenants, le point d’application du rejet varie : aux yeux de certains, le dérèglement climatique n’existe pas ; on observe seulement des variations naturelles analogues à celles que le climat a déjà montré dans le passé historique de l’humanité, comme durant l’optimum climatique médiéval (du Xe au XIXe siècle). Pour d’autres, le changement climatique existe bel et bien, mais n’est pas attribuable à l’homme, bien incapable d’avoir une telle influence sur des processus aussi puissants que ceux qui régissent le climat de la planète ; l’évolution de l’activité du soleil serait en cause. D’autres encore soulignent que le changement en question aura globalement des effets positifs, notamment sur l’agriculture et l’exploitation forestière, sur les transports maritimes (la route du Nord) ou sur le tourisme. Certains objectent que de vrais scientifiques s’interdiraient de dire quoi que ce soit sur l’état futur du climat dans plusieurs décennies, car l’approche par la modélisation est intrinsèquement défaillante à fournir des prévisions à cette échéance. D’autres enfin, sans aborder le fond des diagnostics scientifiques, se moquent d’une nouvelle forme de millénarisme ou croient repérer tous les ingrédients d’une idéologie totalitaire. À s’en tenir aux thèses avancées, on pourrait croire avoir affaire à une discussion scientifique légitime sur des points de controverse que la démarche scientifique devrait savoir dénouer. Le scepticisme des climatosceptiques ne serait qu’un doute scientifique de bon aloi. En fait, il se positionne à l’interface des sciences et des enjeux d’action collective, mais en subvertissant les relations usuelles entre ces deux pôles. Le climatoscepticisme lance des polémiques qui, non seulement ne se déroulent ni sur le seul terrain du développement scientifique ni exclusivement sur celui de l’agir collectif, mais agencent les arguments de façon à contourner les épreuves constitutives de chaque terrain : les énoncés ou diagnostics scientifiques ne sont pas soumis à un examen critique relevant de l’administration d’une preuve scientifique, mais sont récusés en prenant pour cibles les scientifiques, individuellement ou collectivement, comme dans le cas du GIEC accusé d’ourdir un complot mondial et d’agencer une manipulation opérée par une coalition de grands intérêts. Pareillement, la discussion sur l’agir collectif – que faire ? – est sabotée en mobilisant abusivement l’autorité de la science, allant d’une généralisation infondée de données partielles ou locales aux affirmations sans preuves et aux mensonges (voir le chapitre sur « Les controverses climatiques en France : la logique du trouble » dans l’ouvrage collectif Controverses climatiques, sciences et politique). Semer la confusion dans les esprits À quoi reconnaître empiriquement le discours climatosceptique ? Bien qu’ils nous parlent de science, les climatosceptiques ont en commun de ne pas participer aux recherches scientifiques concernant le climat : ils n’ont pas publié (ou presque) de travaux originaux ou critiques dans les revues scientifiques reconnues dans ce champ ; ils ne participent pas aux congrès et colloques qui réunissent les spécialistes du domaine. En revanche, ils écrivent des livres pour le grand public, tiennent des blogs où ils font feu de tout bois sans tri préalable, font des conférences devant des auditoires cultivés mais incompétents, vont de plateaux de télévision en émissions de radio, sans dédaigner les colonnes que leur offrent des journaux au nom de l’équilibre dans la représentation des « points de vue ». Le discours climatosceptique est en outre insensible à la dynamique de la discussion scientifique, autiste à la réfutation de ses énoncés et joue de la répétition des mêmes arguments victorieux, à ses yeux, des « dogmes réchauffistes ». Dans son expression médiatique, le climatoscepticisme mobilise différents moyens rhétoriques. Il vise d’abord à diffuser le doute, jeter le trouble. De ce point de vue, le caractère brouillon, polymorphe, tous azimuts d’une argumentation contradictoire n’est pas un défaut, car cela entretient la confusion et accrédite l’idée qu’on ne connaît quasiment rien au sujet. La seconde ficelle consiste à détourner les idéaux démocratiques de l’ordre politique pour les appliquer à la présentation publique des connaissances scientifiques. Les climatosceptiques demandent la mise en débat public des sciences du climat, un débat dans lequel, naturellement, une égalité de traitement doit être assurée à toutes les « hypothèses » en présence. Or dans les conditions d’un débat médiatique, il est impossible aux spécialistes de démonter, avec des moyens suffisants pour être immédiatement compréhensibles par le public, les assertions erronées professées par les climatosceptiques. Reste dès lors pour le public l’impression que les scientifiques ne sont pas d’accord entre eux, que tout cela est confus et ne justifie pas qu’on se précipite dans l’action. Cette conclusion est précisément celle que veulent obtenir les climatosceptiques. Troisième technique, la victimisation. Le « calvaire » des climatosceptiques doit être révélé au public : on leur refuse l’accès aux données, on n’admet pas leurs articles dans les revues scientifiques, présentées comme aux mains des « réchauffistes », on leur fait perdre leurs moyens budgétaires et leur emploi, on voudrait leur interdire de révéler que « le roi est nu »… Tout cela fonctionne médiatiquement, car les climatosceptiques offrent aux médias une actualité animée et qu’ils leur donnent le beau rôle : la dénonciation et la controverse font de l’audience et, de plus, placent les journalistes en arbitres des débats, position flatteuse et recherchée, confirmant symboliquement le statut de pouvoir suprême que le milieu politique a déjà concédé aux médias. Il existe enfin une demande sociale importante pour un message expliquant qu’il n’y a pas lieu de changer de modes de vie ni de projet de société pour affronter le XXIe siècle. Sous prétexte de rompre avec la pensée unique dominante, le climatoscepticisme flatte le conservatisme le plus borné.
true
Après le championnat d’hiver du climathon, qui a tenu toutes ses promesses avec la belle victoire, sur le fil, de Jean Jouzel sur François Hollande (cliquez ici pour revivre les meilleurs moments du climathon), place au championnat de printemps pour mettre en lumière les plus belles réalisations de propagande climatique francophone. Accessit mérité pour « Politiques », l’émission de LCP présentée par Serge Moati, qui a abordé samedi un thème original, la conférence Paris Climat 2015 (à partir de 20’00). Avec des invités aux positions extrêmement originales elles aussi. Paris Climat 2015, dernière chance pour la planète ? Non, « seulement » pour l’humanité explique doctement Pierre Radanne, qualifié par Serge Moati d’« expert plus que reconnu des questions énergétiques et climatiques ». Le même Serge Moati s’étonne et s’inquiète ensuite que seuls 13% des Français considèrent le climat comme un enjeu prioritaire, avant de s’emporter : « Il faudrait quand même essayer de faire quelque chose ! », tonne-t-il dans l’un de ces élans de neutralité auxquels le journalisme français nous a maintenant bien habitués. Réponse d’Anne-Sophie Novel (23’10) : Ne pas se laisser voler la vedette par des problèmes secondaires, tel est l’objectif. Nul doute en effet que ces arriérés de Français n’attendent des médias que des infos people. Le chômage, l’éducation, la santé ou la sécurité n’étant pas des sujets, force est de convenir que c’est la faute de Nabilla si tout le monde se désintéresse du climat. (Défense, en revanche, de s’en prendre aux stars de la chanson qui avaient participé à ce clip de fine propagande pour la conférence de Copenhague qui devait sauver le climat en 2009. Ces people-là ont, eux le droit de l’être : ils pensent dans le bon sens.) Autre accessit de cette semaine décerné au Haut Conseil de la Santé Publique, qui vient de produire un rapport, présenté à la presse cette semaine, affirmant qu’il est « impératif » de réduire les émissions de gaz carbonique. Enfin… c’est ce qu’en rapporte Le Point, qui en profite pour titrer « Danger : les effets du changement climatique déjà perceptibles », agrémentant son article fin et mesuré d’une photo de feu de forêt ainsi légendée : « La réduction de l’émission de gaz carbonique est devenue une priorité absolue ». Le jury regrette que le rapport en question n’ait été que présenté à la presse et ne soit pas, semble-t-il, en libre accès au public : en effet, la présentation qu’en fait Le Point suggère à l’évidence que, sur le plan de la qualité et de l’intérêt, ce énième très important rapport a une forte parenté avec celui sur le climat en France au XXIè siècle, dont les lecteurs savent déjà tout le bien qu’il faut penser… Le vainqueur de la semaine 13 C’est avec une joie non dissimulée que le jury décerne le titre de vainqueur de la semaine 13 à Sylvestre Huet, un journaliste bien connu pour ses propos toujours dans la ligne du parti. Cet excellent soldat du carbocentrisme, à la docilité jamais démentie, vient en effet de reproduire sur son blog hébergé par Libération une interview de lui-même. Cette belle illustration d’endogamie journalistique est pour lui l’occasion de se faire passer la brosse à reluire de répondre à des questions neutres et objectives sur son travail, tout en renvoyant lui aussi l’ascenseur en rendant hommage à ceux dont il sert si loyalement la cause. Avec fierté, il explique ainsi avoir définitivement rompu avec cette éthique archaïque qui imposait une raisonnable distance du journaliste avec ceux qu’il interroge. Cette éthique, qui présentait l’évident inconvénient de favoriser un regard critique, a donc laissé la place chez lui à une « relation de confiance avec les scientifiques spécialistes du climat », « assise sur une longue fréquentation ». Il lui en faut du courage, à Sylvestre Huet, pour lutter vaillamment contre ces hordes de rédacteurs en chef qui veulent l’empêcher de diffuser le bon message d’informer. Celui-ci « proche de Claude Allègre » (scandale !), celui-là qui veut le forcer à simplifier son article, cet autre qui voudrait donner la parole à Vincent Courtillot… « Pourquoi tant de haine ? » se demande finalement un Sylvestre Huet qui, comme il le démontre une fois encore dans cette interview, demeure pétri de tolérance pour les opinions qui ne sont pas les siennes. À cette question naturelle il répond ceci : À tous les compétiteurs qui se réjouissaient secrètement de sa relative discrétion lors du championnat d’hiver : prenez garde, le grand journaliste scientifique de Libération est bel et bien au rendez-vous du climathon. Il sera difficile de l’arrêter. — Sur le web
fake