Tous les articles par MD

EXTENSION DES GLACES DE MER POLAIRES.

Facebooktwitter

Évolution depuis le début des observations par satellites.

1/ Introduction.

Plusieurs organismes observent l’évolution des glaces de mer aux deux pôles. Ils produisent des bases de données et des graphiques dont l’origine est 1979 (début des observations par satellites) et qui sont régulièrement mis à jour, mensuellement ou quotidiennement. Tous les graphiques présentés ci-dessous sont des mises à jour à mi-décembre 2014. L’année 2014 est donc presque complètement connue.

Ces graphiques concernent exclusivement les « glaces de mer » (sea ice), c’est-à-dire les glaces qui flottent à la surface de la mer, par opposition aux glaces qui recouvrent les terres. Il est parfois difficile de distinguer ces deux types de formation aux lisières des continents, c’est pourquoi on trouve parfois des chiffres légèrement différents.

L’extension des glaces de mer fluctue bien entendu au cours de l’année, avec des maxima en fin d’hiver et des minima en fin d’été (respectivement le 15 mars et le 15 septembre dans l’hémisphère nord).
Mais il existe aussi des évolutions annuelles se superposant aux cycles saisonniers. Ces évolutions sont scrutées, surtout dans les zones polaires nord, à la fois pour des raisons de navigation (éventualité de passages maritimes nord pour relier les trois continents) et de ressources fossiles (supposées) convoitées par plusieurs
pays riverains.

Les notions utilisées sont les suivantes (on utilisera les termes anglais) :

-« sea ice extent », surface de mer couverte par un pourcentage minimum de glace ; usuellement on utilise les critères de 15% ou 30% de glace, selon les organismes.

-« sea ice area », surface de mer couverte par des glaces, chaque unité de surface étant corrigée du pourcentage de glace qui la recouvre. Sea ice area est donc par définition inférieure à sea ice extent.

-« sea ice anomaly », différence d’extension de sea ice area par rapport à la moyenne d’une période de référence, compte tenu bien entendu de la correction pour variations saisonnières.

L’unité utilisée est le million de kilomètres carrés (Mkm2)

Les périodes de référence choisies sont diverses : 1979-2000, 1981-2000, 1979-2008, ou encore décennies 1980, 1990, 2000, etc.

Certains graphiques comportent en grisé une plage d’incertitude des mesures, usuellement 2 écarts-types (« standard deviations ») en plus ou en moins.

Les noms des différents organismes et les références de leurs sites internet sont mentionnées en tête des graphiques.

2/ Les glaces arctiques.

2.1 Sea ice extent.

-National sea ice data center NSIDC, Université de Boulder, Colorado (USA).
http://nsidc.org/data/seaice_index/images/daily_images/N_stddev_timeseries.png
Le seuil retenu est de 15% de glace.

La période de référence est 1981-2000. La courbe de l’extension 2012 est représentée en tiretés pour mémoire, car elle a correspondu au minimum d’extension estivale (3,5 Mkm2) depuis l’origine des mesures satellitaires.

C5G1
-Arctic Sea-ice Monitor, par IARC-JAXA, Japon.
http://www.ijis.iarc.uaf.edu/en/home/seaice_extent.htm
Le seuil retenu est 15% de glace.
Le graphique comporte les moyennes des années 1980,1990 et 2000, ainsi que les courbes des années « record » d’extension estivale.

C5G2
-Ocean and Sea Ice, Satellite Application Facility (OSISAF), par Centre for ocean & ice (COI), DMI (Danemark).
http://ocean.dmi.dk/arctic/icecover.uk.php

Le seuil retenu est de 30% de glace.
Le graphique comporte les courbes des quatre années précédant 2014.

C5G3

-National ice center (NIC), organisme commun à la NASA-NOAA et à la marine US (Navy et garde-côtes).
http://www.natice.noaa.gov/ims/images/sea_ice_only.jpg
Le NIC utilise le système IMS (Ice Mapping System) qui diffère des observations satellitaires habituelles, et qui est spécialement dédié à la navigation.
Le graphique comporte les courbes des neuf dernières années, ainsi que les maxima et minima correspondants.
C5G4

Ces quatre graphiques, quoique différents dans leur présentation, sont assez concordants. Ils confirment que l’année 2014, avec un minimum de 5 Mkm2, a connu un net redressement par rapport aux années précédentes.

2.2 Sea ice area.

-Cryosphere Today du Polar Research Group de l’Université de l’Illinois (Urbana-Champaign)
http://arctic.atmos.uiuc.edu/cryosphere/IMAGES/current.area.jpg
Ce graphique est intéressant car il retrace à la fois les cycles saisonniers et la tendance générale.
Les graduations en abscisses correspondent aux débuts d’années.

C5G5
On voit distinctement les chutes de 2007 et 2012 et le redressement ultérieur. Le minimum de 2014 s’est établi à 4 Mkm2 (à comparer aux 5 Mkm2 de sea ice extent).

L’autre graphique (de la même source) retrace l’évolution sur deux ans.
http://arctic.atmos.uiuc.edu/cryosphere/IMAGES/current.365.jpg

C5G6

Il comporte aussi en partie basse l’anomalie par rapport à la période 1979-2008 (voir ci-après).

2.3 Sea ice anomaly.

-Cryosphere Today du Polar Research Group de l’Université de l’Illinois (Urbana-Champaign).
http://arctic.atmos.uiuc.edu/cryosphere/IMAGES/seaice.anomaly.arctic.png
La référence est la période 1979-2008.
On voit que les années 2006 à 2014 sont marquées par une certaine stabilisation des surfaces englacées, après la baisse continue qui avait commencé dès l’année 1995 et s’était accentuée à partir de l’année 2000.

C5G7

L’anomalie moyenne entre 2006 et 2014 est de -1 Mkm2 ; (la valeur en rouge est celle de la toute dernière mesure).

3/ Les glaces antarctiques.

Contrairement à la zone polaire nord, qui n’est constituée que d’une banquise, la zone polaire sud comporte un véritable continent glacé (inlandsis) de 13,6 Mkm2 (près de 2 fois la surface de l’Australie et 8 fois l’inlandsis du Groenland). Ce continent est entouré de glaces de mer dont la surface évolue au fil des saisons, et dont la surface maximum en hiver dépasse la surface du continent lui-même.

3.1 Sea ice extent.

-National sea ice data center NSIDC, Université de Boulder, Colorado (USA).
http://nsidc.org/data/seaice_index/images/daily_images/S_stddev_timeseries.png

C5G8

Contrairement à l’Arctique, l’extension de la glace de mer (au seuil de 15%) est supérieure en 2014 comme en 2013 à la moyenne des années 1981-2010.

3.2 Sea ice area.

-Cryosphere Today du Polar Research Group de l’Université de l’Illinois (Urbana-Champaign)
http://arctic.atmos.uiuc.edu/cryosphere/IMAGES/seaice.area.antarctic.png

C5G9

Le minimum et le maximum de 2014 dépassent les plus hauts niveaux historiques (satellitaires s’entend).
-Cryosphere Today du Polar Research Group de l’Université de l’Illinois (Urbana-Champaign).
http://arctic.atmos.uiuc.edu/cryosphere/IMAGES/current.365.south.jpg

C5GA

3.3 Sea ice anomaly.

-Cryosphere Today du Polar Research Group de l’Université de l’Illinois (Urbana-Champaign).
http://arctic.atmos.uiuc.edu/cryosphere/IMAGES/current.anom.south.jpg
La référence est la période 1979-2000.
L’anomalie a augmenté tendanciellement depuis l’année 2000 et se situe actuellement à environ +1 Mkm2.

C5GB

4. Conclusions.

Les extensions des glaces polaires nord et sud semblent évoluer en sens inverse l’une de l’autre.

C’est ce qu’illustre ce dernier graphique, également établi par Cryosphere Today.
http://arctic.atmos.uiuc.edu/cryosphere/IMAGES/global.daily.ice.area.withtrend.jpg

C5GC

L’anomalie « globale », si l’on peut s’exprimer ainsi, est restée en moyenne égale à zéro entre 1979 et 2005, elle a été inférieure à zéro entre 2005 et 2012, elle est revenue à zéro depuis 2013.
Il semble qu’aucune explication décisive n’a été donnée de cette sorte de « compensation » entre nord et sud, ni des causes de l’exception 2005-2012.

Parmi les conclusions que chacun peut tirer des différents graphiques présentés dans cette note, on peut retenir les suivantes :

-les graphiques présentés dans cette note concernent exclusivement les glaces de mer, mais non les glaciers terrestres des zones polaires ou circumpolaires (dont les inlandsis du Groenland et du continent antarctique).

-il ne semble pas exister de divergences notables entre les chiffres des organismes de recherche. Certes la plupart des données ont pour origine la NASA et ses filiales ou départements associés (NSIDC, NOAA, etc.), mais il pourrait exister des différences d’interprétation et de restitution ; ce n’est pas le cas.

-la période d’observation, 35 ans, est relativement brève pour des phénomènes soumis à des inerties considérables. Elle n’est toutefois pas négligeable : rappelons qu’une durée de trente ans est généralement considérée comme significative en matière de climat.

-sur cette période de 35 ans, les phénomènes décrits ne semblent pas avoir manifesté de véritables ruptures de tendances irréversibles, mais plutôt des évolutions temporaires suivies de corrections.

°°°°°°°°°°°°

En complément aux graphiques précédents, il faut signaler que depuis quelques mois, le site du NSIDC propose un graphique interactif sur lequel on faire apparaître les courbes saisonnières de fluctuations des glaces de mer pour n’importe quelle année et pour chacune des deux zones polaires.
http://nsidc.org/arcticseaicenews/charctic-interactive-sea-ice-graph/

FRANCE. COMMENTAIRES SUR LES PRÉCIPITATIONS.

Facebooktwitter

1/ Introduction.

Il est souvent affirmé que les phénomènes météorologiques manifestent depuis une période relativement récente des signes de « dérèglement », attribués notamment à des causes anthropiques. Ces causes sont supposées entraîner pour les années à venir des périodes particulièrement sèches ou particulièrement humides, selon les régions.

Il est donc intéressant d’examiner comment ont évolué les précipitations par le passé. On s’en tiendra ici au cas du territoire français métropolitain.

Par nature, les précipitations mesurées à un emplacement précis reflètent la situation météorologique d’une zone assez limitée, contrairement aux températures qui s’appliquent à une aire plus vaste. A l’avantage des mesures pluviométriques, on peut dire que la hauteur de pluie tombée en un point donnée est une donnée peu difficile à mesurer et dont l’appareillage peut être rustique 1, quoique l’enregistrement et la restitution aient connu des évolutions considérables au fil des années.

Les données utilisées sont extraites du site internet du KNMI néerlandais 2 qui, sous le titre de European climate assessement and data (ECA&D), publie des séries longues concernant notamment le régime des vents, l’évapotranspiration, la pluviométrie et les températures.
Pour la France, ECA&D tient à jour les séries de températures et de pluviométrie d’une cinquantaine de stations météorologiques. Toutes ces données sont librement et gratuitement accessibles, sous forme de séries prédéfinies ou de modules de sélection. Ces données couvrent un éventail spatial et temporel suffisant pour en tirer quelques conclusions ; il n’a donc pas été jugé utile de recourir à d’autres sources.

Pour chaque station, ECA&D fournit les précipitations mensuelles, exprimées en millimètres d’eau, sur des périodes d’observation plus ou moins longues. Certaines stations présentent des lacunes importantes qui les rendent inutilisables. On n’a retenu ici que les séries chronologiques à peu près complètes et les plus longues possibles.

Les graphiques ci-après ont été établis à partir des données brutes, sans corrections ni interpolations sauf exceptions. Afin de ne pas surcharger les graphiques, on ne représentera pas les séries mensuelles, mais les séries annuelles (années calendaires) et les séries par saisons météorologiques 3. On a rajouté sur certains graphiques les droites de tendance linéaire, calculées par le tableur Excel.

2/ Les séries chronologiques de précipitations.

2.1 Le cas particulier de Marseille.

On présentera d’abord la série de Marseille 4, qui a la particularité de commencer en 1749 ce qui en fait l’un des historiques les plus anciens. Voici le graphique des précipitations annuelles. La droite en tiretés est la droite de tendance linéaire sur la période.

cc4_graph1

On sera peut-être surpris de constater que la droite de tendance linéaire est rigoureusement horizontale. La pluviométrie annuelle moyenne sur la période a été de 570 mm avec une forte dispersion (de 250 à 1 100 mm).
Les variations interannuelles apparaissent comme totalement erratiques : si le phénomène est commandé par des cycles, ceux-ci sont inapparents sur cette durée d’observation. On ne s’appesantira pas sur cet exemple qui a surtout pour intérêt de retracer une période d’observation de plus de deux siècles et demi.

2.2 Les autres séries longues.

Outre Marseille, le site KNMI-ECA&D présente neuf autres stations dont les séries couvrent des durées supérieures à un siècle : il s’agit de Lille (1784, qui s’arrête en 2004), Strasbourg (1802), Toulouse (1809), Genève (1826), Dijon (1831), Nantes (1835), Bordeaux (1842), Perpignan (1850), enfin Paris-Montsouris (1886). Ces dix stations recouvrent correctement à la fois le territoire national et les différentes zones climatiques françaises, sauf les zones de montagnes.

Voici le graphique des précipitations sur la période où les dix stations sont renseignées, c’est à dire 1886-2014. On a représenté en traits fins les courbes de chacune des stations et en trait fort leur moyenne (sans pondération), ainsi que la droite de tendance de la moyenne en tiretés.

cc4_graph2

Sur le graphique suivant, on a représenté la moyenne seule pour plus de clarté.

cc4_graph3

La droite de tendance est pratiquement horizontale, avec une moyenne de 705 mm d’eau par an. Les précipitations annuelles ont varié entre 450 et 950 mm.
On voit apparaître quelques années exceptionnelles, citons :

  • l’année 1910, qui a connu la crue historique bien connue de la Seine en janvier, mais aussi d’autres crues importantes en juillet et en novembre, ainsi que des chutes de neige anormales au printemps dans le midi de la France.
  • l’année 1921, avec une sécheresse mémorable dans toute l’Europe du nord ayant notamment engendré des famines en URSS.
  • l’année 1930, avec des inondations catastrophiques dans plusieurs régions françaises.

 

2.3 La période récente.

Le graphique suivant représente l’évolution des précipitations pendant les trente dernières années 5.

cc4_graph4

La moyenne des précipitations s’est établie à 700 mm (un peu moins que pendant la longue période examinée précédemment), avec des variations annuelles de 550 à 830 mm.

Enfin, le dernier graphique retrace, pour cette même période récente, les précipitations par saisons météorologiques.

cc4_graph5

Les droites de tendances trimestrielles ne sont plus horizontales, mais présentent des pentes de l’ordre du millimètre par an en plus ou en moins 6.

3/ Conclusions.

On s’en tiendra là de cet examen sommaire des précipitations sur le territoire français métropolitain.

Plus que l’existence et l’amplitude des variations trimestrielles et annuelles, le fait le plus remarquable est la constance de la moyenne des précipitations observées sur des périodes suffisamment longues.

Contrairement aux températures, qui avaient augmenté depuis la fin du « petit âge glaciaire » au XIXème siècle et ceci en plusieurs phases bien identifiées, les précipitations annuelles n’ont manifesté aucune tendance prolongée à la hausse ni à la baisse depuis plus d’un siècle. Cette observation vaut également pour la période récente. Sauf preuve du contraire, il paraît hasardeux d’alléguer une évolution généralisée et récente du régime des précipitations pour expliquer tel ou tel phénomène météorologique isolé dépassant la normale.

ANNEXE. PRÉCIPITATIONS JOURNALIÈRES EN LANGUEDOC ET ROUSSILLON.

On sait que le Languedoc et le Roussillon sont des régions sujettes à des précipitations particulièrement contrastées, communément désignées par la dénomination (d’ailleurs géographiquement trop restreinte) de « pluies cévenoles ». Il a paru intéressant d’examiner si la période récente se distinguait par rapport à cette situation traditionnelle. On a eu recours à nouveau aux données du KNMI-ECA&D, cette fois au niveau des précipitations journalières, et pour les stations de Perpignan et de Nîmes dont les données sont à jour au 31 octobre 2014.
On a examiné trois périodes :

  • depuis l’origine des données disponibles, soit 1901-2014 pour Perpignan et 1920-2014 pour Nîmes
  • la dernière période de trente ans (durée considérée comme significative en climatologie), 1984-2014
  • la toute dernière période de dix ans, 2004-2014.

Les graphiques ci-dessous sont exprimés en cumuls de jours 7 et doivent être lus de la façon suivante (exemples) :

  • pendant 74% à 75% des jours de la période, les précipitations sont nulles
  • pendant 97% à 98% des jours de la période, les précipitations sont inférieures à 20 mm par jour
  • et ainsi de suite.

cc4_graph6

Les courbes de Perpignan et Nîmes présentent des allures très voisines. Pour ces deux stations, les courbes des trois périodes considérées sont presque confondues, ce qui signifie que la répartition temporelle des pluies n’a pratiquement pas varié depuis (au moins) un siècle.
Pour faire apparaître des différences éventuelles dans le domaine des plus fortes précipitations, on a opéré un grossissement des courbes en plaçant l’origine au seuil de 20 mm de précipitations journalières (97% à 98% des jours 8). Voici les deux graphiques.

cc4_graph7

Les courbes relatives à la période 2004-2014 deviennent évidemment plus irrégulières au-delà de 50 ou 60 mm d’eau, en raison du faible échantillon (environ 12 occurrences pendant la décennie), mais avec des écarts peu significatifs.

A chacune des deux stations, on a observé en moyenne :

  • environ 2,5 jours par an de pluies supérieures à 40 mm
  • environ 0,5 à 0,6 jours par an de pluies supérieures à 80 mm

A Perpignan, les très fortes pluies supérieures à 160 mm ont été observées 9 fois depuis 1901, 2 fois depuis 1984 (en novembre 1999 et novembre 2005) et 1 fois depuis 2004 (novembre 2005).

En conclusion, il ne semble pas que les pluies dites « cévenoles » aient gagné en intensité ni en irrégularité au cours de la période récente.

C’est ce que confirme Météo France sur un site du Ministère de l’écologie, pourtant spécialisé dans les annonces alarmistes en tous genres.

« On n’observe pas actuellement de tendance sur l’évolution d’occurrence de pluies diluviennes sur les régions méditerranéennes de la France ».

Graphique des pluies supérieures aux seuils de 190, 150 et 100 mm d’eau entre 1958 et 2013

cc4_graph8

1 Les organismes météorologiques font appel à de nombreux bénévoles pour les relevés.
2 Koninklijk Nederlands Meteorologisch Instituut ; http://eca.knmi.nl/
3 L’hiver se compose de : décembre année n-1, janvier et février année n (DJF) ; le printemps de mars avril et mai (MAM), et ainsi de suite (JJA et SON). Pour 2014, on connait donc déjà les trois premières saisons (pas l’automne).
4 Station cataloguée n°7650 de l’organisation météorologique mondiale (OMM ou WMO).
5 Une période de trente ans est généralement considérée comme significative en matière climatique.
6 Si on trace des graphiques analogues pour la période 1886-2014 (ces graphiques ne sont pas représentés ici), on constate que les pentes des droites de tendances saisonnières sont inférieures à +/-0,2 mm par an, c’est à dire pratiquement négligeables.
7 La représentation en cumuls est plus facile à lire et moins sensible au choix des bornes d’intervalles.
8 Ce qui représente 7 à 11 jours dans une année.

COMMENTAIRES SUR LA PRODUCTION ÉLECTRIQUE EN FRANCE.

Facebooktwitter

1. Introduction.

La question de la production électrique en France métropolitaine est actuellement sur le devant de la scène, à la faveur de la discussion d’une loi dite « de transition énergétique », censée bouleverser de fond en comble le « bouquet » (ou « mix ») énergétique du pays. Cette loi est encore en discussion, et on n’en parlera pas ici.

On s’en tiendra à la description des dix dernières années et plus particulièrement de l’année 2013.

On utilisera les sources principales suivantes, dont chacune dispose d’un site internet bien documenté :
-le Réseau de transport d’électricité (RTE) qui est chargé de la distribution du courant haute tension sur le territoire et de l’équilibre permanent et instantané entre offre et demande, y compris la gestion des échanges physiques avec les services homologues des pays frontaliers.
-la Commission de régulation de l’énergie (CRE), qui est chargée du bon fonctionnement des marchés de l’électricité (et du gaz).
-accessoirement le service « Observation et statistiques » du ministère de l’écologie et de l’énergie qui publie annuellement un bilan de l’énergie.

Ces organismes officiels de surveillance et d’observation sont par définition impartiaux et neutres, et on peut faire confiance aux données chiffrées qu’ils publient.
Les unités suivantes ont été adoptées en règle générale :
-la puissance est exprimée en mégawatts (MW, 106 watts) ou en gigawatts (GW, 109 watts), qu’il s’agisse de la puissance dite « installée » (ou nominale, ou encore « capacité ») ou de celle qui est effectivement appelée (ou sollicitée) pour produire du courant ;
-la production et la consommation sont exprimées en gigawatts-heure (GWh, 109 watts-heure) ou en terawatts-­heure (TWh, 1012 watts-heure) ;
-on n’a pas utilisé la tonne-équivalent-pétrole (tep) ;

2/ Le facteur de charge.

Rappelons que l’année comporte 8 760 heures. Par conséquent 1 MW de puissance installée ne peut produire annuellement que 8,760 GWh, maximum théorique qui n’est jamais atteint en pratique.

On désigne par « facteur de charge » 1 (ou « facteur de production » ou encore « taux de disponibilité ») le rapport, que l’on exprime généralement en pourcentage, entre la production effective et la production maximum théorique.

Le facteur de charge varie à tout moment, mais on utilise en général sa valeur moyenne sur une période déterminée : année, fraction d’année, mois ou autres. Pour calculer la production électrique sur une période donnée, il faut commencer par multiplier la puissance installée théorique par le facteur de charge pour obtenir une puissance installée effective ou utile. Par conséquent, le facteur de charge constitue une mesure de performance (et donc de rentabilité).

Le facteur de charge est très différent d’une source d’énergie à l’autre. Il peut être, soit inhérent au type de production et limité par ses performances intrinsèques, soit conditionné par les contraintes qui lui sont imposées pour des raisons techniques ou réglementaires. Définir une source d’énergie par sa seule puissance installée est donc insuffisant voire trompeur, et comparer les puissances installées entre sources d’électricité de natures différentes n’a aucun sens (pas plus que de les additionner).

3/ Capacité et production électrique en France depuis dix ans.

3.1 Évolution depuis dix ans.

Les tableaux ci-dessous récapitulent pour les années 2004 à 2013 et pour les différentes sources d’énergie électrique :
-les puissances installées moyennes de l’année en MW
-les productions annuelles en TWh
-les pourcentages dans la production électrique nationale -les facteurs de charge exprimés en pourcentages

E3G1

Notes :
-puissances installées moyennes : (puissance fin année n + puissance fin année n-1) divisé par 2.
-solaire : photovoltaïque.
-autres énergies renouvelables (EnR) : énergie thermique utilisant biomasse, déchets, biogaz etc.
-les totaux des puissances installées ne sont indiquées que pour mémoire.

Pour bien comprendre les tableaux, prenons un exemple.
En 2013, on avait en moyenne 7 828 MW d’éolien installé, qui auraient pu théoriquement produire :
7 828 GW x 8 760 h x 10-6 = 68,6 TWh,
Mais qui n’ont produit que 15,9 TWh, soit un facteur de charge de 15,9 / 68,6 = 23%.

L’évolution des productions annuelles par sources d’énergies a été représentée sur le graphique ci-après.
E3G2

3.2 Premières conclusions.

L’examen des tableaux et du graphique permet de tirer un certain nombre d’enseignements utiles pour le présent et l’avenir.

La production électrique, qui est déterminée essentiellement par la demande intérieure, c’est-à-dire la consommation des usagers (ménages, administrations et entreprises), est stable depuis dix ans 2. Cette stabilité peut s’expliquer par plusieurs causes, parmi lesquelles les économies d’énergie (isolations, appareils à basses consommations etc.), une croissance ralentie, un moindre recours à l’électricité pour le chauffage domestique, la stabilité des températures moyennes, etc. Leur analyse sortirait du cadre de cette note. Rien ne laisse à penser que ces causes puissent changer de façon significative dans l’avenir proche ou moyen. Il en résulte que l’hypothèse d’une consommation intérieure future inchangée par rapport aux dix dernières années peut constituer une base solide de prospective.

Les énergies dites renouvelables, qui ont surtout pris leur essor en début de période, ne représentent encore que moins de 5% de la production, dont moins de 4% pour les énergies intermittentes (éolien et solaire photovoltaïque).

3.3 Les facteurs de charge.

Certains facteurs de charge peuvent être considérés comme inhérents au mode de production :

-Les énergies intermittentes ont la priorité dans l’injection sur le réseau, elles ne sont donc pas bridées. Les facteurs de charge de l’éolien (environ 23%) et du solaire (environ 13%) peuvent donc être considérés comme des maxima en l’état actuel des techniques 3, d’autant plus que les parcs, encore relativement jeunes, n’ont pas encore subi l’effet du vieillissement, de l’usure ni des nécessités de remplacement des organes essentiels.
-L’hydraulique (30% à 35% selon les années). Les barrages ne servent pas seulement à produire de l’électricité, mais aussi à d’autres fins, par exemple les soutiens d’étiages. Il faut donc maintenir une réserve d’eau minimale malgré les variations des précipitations. En outre, certaines usines peuvent fonctionner « à l’envers » pendant la nuit, c’est-à-dire être réalimentés par des pompages, qui constituent une sorte de stockage indirect de l’électricité.
-Le nucléaire assure la production dite « de base ». Le fonctionnement des réacteurs est pratiquement permanent, en dehors des périodes de rechargement en combustible, d’entretien et de rénovation (le parc est en effet relativement ancien). Le facteur de charge est de l’ordre de 75%. Certains parcs nucléaires étrangers plus récents ont des facteurs de charge supérieurs (jusqu’à 80%).

D’autres facteurs de charge dépendent de circonstances extrinsèques :

-Les centrales thermiques classiques sont sollicitées pour compléter la production de base lors des pointes de consommation. Ces centrales présentent en effet une souplesse de fonctionnement (interruptions aisées et redémarrages rapides) qui leur permet de remédier aux excédents et aux insuffisances momentanées des productions de base liées aux variations de consommation. Leur fonctionnement n’est donc pas permanent, ce qui explique un facteur de charge très inférieur à la production nucléaire.
On constate que leur facteur de charge est passé de 30% à 20% en quelques années. Cette diminution sensible n’a pas pour cause une baisse des performances, mais résulte de la croissance des énergies intermittentes, qui ont la priorité pour l’accès au réseau et dont la production ne peut coïncider que par hasard avec les besoins 4. C’est la raison pour laquelle le développement des capacités d’énergies intermittentes a et aura pour conséquence inévitable un développement des capacités thermiques fossiles, car celles-ci peuvent être interrompues en cas de surproduction et redémarrer en urgence en cas de défaillance 5. Mais il en résulte tout naturellement des capacités inutilisées, donc un facteur de charge qui se dégrade, et une rentabilité qui peut conduire à la fermeture pure et simple, sauf à subventionner leur maintien6.

Globalement, on voit bien d’ailleurs que le facteur de charge moyen de l’ensemble de la production électrique ne cesse de se dégrader depuis cinq ans, ce qui signifie que notre parc de production devient peu à peu de moins en moins efficace et donc de plus en plus coûteux.

4/ Analyse de l’année 2013.

4.1 Détail de la production pour chaque demi-heure de l’année.

Le détail de la production électrique de 2013 au niveau de la demi-heure est fourni par RTE dans sa base annuelle « eCO2mix » 7, recensement de la production de chaque type d’énergie électrique pour chacune des 17 520 demi-heures de l’année.

Voici la reproduction de deux lignes courantes prises au hasard8 de cette base de données.
E3G3

Les chiffres sont exprimés en MW, puissance appelée pour chaque type de production pendant la demi-heure considérée.
La rubrique « consommation » représente la consommation intérieure française.
La rubrique « production » (qui est pratiquement égale à la « consommation ») est mal nommée : elle correspond en réalité à la production effective, diminuée du pompage et des exportations. Dans cet exemple, les productions effectives ont été respectivement de 52 624 et 57 462 MW, donc supérieures aux besoins intérieurs, et la France a exporté son électricité momentanément excédentaire.

4.2 Production et consommation annuelles.

Pour obtenir la production et la consommation de l’année en TWh, il suffit de faire le total des 17 520 lignes, de diviser par 2 puisqu’il s’agit de demi-heures, puis par 106 pour la conversion d’unités.

On retrouve ainsi approximativement les chiffres du tableau récapitulatif (approximativement car il y a quelques petites différences avec les bilans définitifs). Soit en TWh :

Production totale : 549 TWh
Consommation intérieure : 492 TWh
Pompages :   7 TWh
Exportations nettes : 49 TWh

Le graphique ci-dessous retrace l’évolution de la production sur l’ensemble de l’année.
E3G4
Ce graphique est plein d’enseignements. On voit que la production peut varier de 20 000 à 100 000 MW, avec évidemment des maxima en période hivernale. Le creux extrême correspond à la période du 15 août.

On voit aussi comment le thermique fossile fait face structurellement aux pics de consommation, supplée à l’absence d’éolien et s’efface devant lui. On comprend que ces sollicitations de plus en plus erratiques posent des problèmes techniques et financiers.

Enfin, le solaire est pratiquement inexistant, et ne fournit du courant en quantité significative qu’en période de basse consommation estivale.

4.3 Production des énergies intermittentes sur l’année.

On s’intéresse maintenant de plus près aux énergies intermittentes. Voici la chronique de l’année 2013, présentée de la même façon que précédemment mais avec des échelles différentes, et complétée (lignes en tiretés) par les capacités installées moyennes de l’année :
E3G5

La production maximum de l’année correspond à 70 % de la capacité nominale pour le solaire et 80% pour l’éolien (ce sont les maxima des facteurs de charge horaires), ceci pendant quelques jours par an seulement.

On peut aussi tracer les « monotones » de la production de ces deux sources d’énergie, en d’autres termes les courbes des productions horaires classées par ordre d’importance.
E3G6

On constate que les courbes décroissent très rapidement : ainsi, un examen sommaire montre que pendant 95% du temps soit 345 jours par an sur 365, la puissance disponible n’atteint pas la moitié de la puissance installée. Et bien entendu, le solaire ne produit rien pendant la moitié du temps. C’est ce qui explique leurs très faibles facteurs de charge.

En définitive, l’éolien, quoique les parcs soient répartis sur l’ensemble du territoire, apparaît comme totalement aléatoire et imprévisible, et donc rebelle à toute prévision et à toute programmation a priori.  Le solaire comporte une signature plus saisonnière donc un peu plus prévisible, mais il est également aléatoire et on peut même dire qu’il produit à contretemps.

4.4 Les pointes de consommation.

Si dans le courant de l’année, la production peut généralement faire face à la consommation, il existe des périodes critiques que sont les pointes ou pics de consommation. Comme on l’a vu, ces pointes adviennent lors de la période hivernale. Elles sont généralement observées en soirée. On considérera ici les 100 heures (200 demi-heures) les plus chargées de l’année 9.

Le graphique ci-dessous retrace le « monotone » de la consommation (demi-heures classées par ordre de consommation), ainsi que la contribution des différentes sources d’énergie pendant ces cent heures « critiques ».
E3G7
La contribution des différentes énergies pendant ces cent heures a été la suivante :

-nucléaire : 66%
-thermique fossile : 15,5%
-hydraulique : 15,5%
-Éolien : 1,8%
-Solaire : 0,4%

Les énergies intermittentes ont été pratiquement inexistantes.
Pendant la moitié des cent heures, nous avons dû importer de l’électricité. Pendant l’autre moitié, nous avons pu exporter nos excédents. En fin de compte, le bilan des MW achetés ou vendus a été équilibré.

Pourquoi s’intéresser aux 100 heures les plus chargées, qui ne représentent que peu de chose au regard des 8 760 heures de l’année et qui « consomment » une importante puissance de pointe ? La raison est simple : en 2013 (année qui n’est qu’un exemple) ces 100 heures se sont réparties sur 21 journées de janvier et février. Il serait inimaginable dans un pays développé comme le nôtre que l’on programme à l’avance un défaut d’alimentation électrique 21 jours de l’année, ne serait-ce qu’une heure dans la journée, et ceci au moment où les usagers en ont le plus besoin.

Dans la plupart des pays d’Europe, les gestionnaires de réseaux considèrent comme inacceptable des défaillances structurelles. Et même les défaillances accidentelles dues à des causes totalement imprévisibles doivent pouvoir être évitées si la réserve de puissance installée est suffisante.

5/ Les aspects financiers.

5.1 Les obligations d’achat.

Pour soutenir les énergies dites renouvelables et notamment intermittentes, qui ne sont structurellement pas rentables, l’État oblige EDF à acheter le courant électrique aux opérateurs – qui rappelons-le ont la priorité pour l’alimentation du réseau -en vertu de contrats conclus en règle générale pour des durées de quinze à vingt ans.

Les prix de rachat sont très supérieurs au prix moyen auquel se font les échanges d’électricité sur le marché européen, soit actuellement environ 45 €/MWh 10.
A titre d’ordres de grandeur et en valeur actuelle :
-solaire photovoltaïque : moyenne des contrats actuels, environ 480 €/MWh ; derniers appels d’offres, environ 200 €/MWh
-éolien terrestre : environ 90 €/MWh
-éolien offshore : selon les derniers contrats, environ 190 €/MWh

Les énergies intermittentes sont donc payées aux producteurs entre 2 et 10 fois le prix moyen du marché.

Ces obligations d’achat s’appliquent aussi à d’autres sources d’énergie non classiques, comme la cogénération au gaz (prix de rachat environ 140 €/MWh), les énergies utilisant la biomasse, le biogaz et l’incinération des déchets (prix de rachat 50 à 130 €/MWh) ainsi qu’à la « petite hydraulique » (prix de rachat moyen environ 70 €/MWh).

5.2 La contribution au service public de l’électricité.

En 2013, la France a produit l’électricité hors taxes la moins chère d’Europe 11, grâce à ses deux sources d’énergie principales qui sont à maturité et qui sont peu ou pas tributaires des cours mondiaux de matières premières d’importations : le nucléaire et l’hydraulique.

Mais depuis 2002, au tarif « normal » de l’électricité s’est ajoutée une taxe intitulée « contribution au service public de l’électricité » (CSPE), qui est destinée à compenser des dépenses mises à la charge d’EDF :

-les tarifs réduits sociaux dits « tarifs de première nécessité » (TPN) pour les personnes « en précarité énergétique » (c’est-à-dire qui ont des difficultés à payer leur électricité), soient plus de 1,6 millions de foyers en 2013, effectif en forte augmentation ;
-les charges d’approvisionnement des « zones non interconnectées » (ou ZNI : Corse, îles, DOM) 12 ;
-les subventions à la cogénération électricité-chaleur (en baisse du fait de l’expiration des contrats les plus anciens) et aux énergies issues de la combustion de biomasse ou de déchets ;
-et surtout depuis 2010 les subventions aux énergies intermittentes sous forme d’obligations d’achat par EDF, qui représentent actuellement 60% de la CSPE, en forte hausse.

La CSPE, d’abord modeste, puis régulièrement et fortement croissante, est retracée dans tableau ci-dessous (tarif pour un particulier dont la consommation est moyenne (sans chauffage électrique), exprimé en € / MWh, hors autres taxes et hors TVA).

E3G8

Le poste « CSPE » figure explicitement sur la facture bimestrielle EDF. Actuellement, la CSPE majore donc de 19% le prix de l’électricité (contre 6% jusqu’en 2010). Si le développement des énergies intermittentes se poursuit ce qui sera le cas, la CSPE devrait encore augmenter de façon importante, et avec elle le prix de l’électricité 13.

C’est le CRE qui calcule chaque année les besoins en CSPE et propose au gouvernement la majoration du tarif de l’électricité nécessaire pour compenser les charges. Mais le gouvernement, pour des raisons politiques, ne respecte pas les recommandations du CRE, et accumule donc une dette à l’égard d’EDF, dette qu’il faudra acquitter un jour, soit par une majoration encore plus forte du prix de l’électricité, soit par l’impôt. Le CRE évalue cette dette à 3,5 milliards d’euros fin 2012.
A titre indicatif, la majoration pour 2014 aurait dû être selon le CRE de 22,50 €/MWh au lieu de 16,5 €/MWh (ce qui aurait déterminé une majoration de 25% du tarif).

5.3 Montant total des charges de service public de l’électricité.

Le CRE, dans un rapport daté octobre 2014, a récapitulé les montants totaux que les charges de service public répercutées sur le CSPE ont représenté sur la totalité de la période 2002-2013. Ces chiffres sont les suivants.

-Obligations d’achats hors ZNI (milliards d’euros)
E3G9

La proportion élevée de la cogénération pour cette période (9,2 milliards sur 18,8) s’explique par le fait que les subventions à cette source d’énergie existent depuis plus de quinze ans, contrairement aux énergies intermittentes, qui sont plus récentes. Celles-ci vont naturellement prendre de plus en plus d’importance dans la CSPE au fil des années.
-Péréquation et obligations d’achats ZNI : 9,6 milliards d’euros
-Tarifs de première nécessité : 0,9 milliards d’euros

Soit un total de plus de 28 milliards d’euros sur les 12 années, mais avec une rapide montée en puissance : la CSPE a ainsi été de 5,1 milliards d’euros en 2013 et sera probablement de 5,7 milliards d’euros en 2014.

Pour la période 2014-2025, le CRE, moyennant un certain nombre d’hypothèses 14, prévoit une charge passant de 5,7 à plus de 10 milliards d’euros par an, soit une charge totale cumulée de l’ordre de 100 milliards d’euros sur la période, dont environ 60 milliards pour les énergies intermittentes.

1 « Load factor » en anglais.
2 La baisse momentanée de 2009 peut être expliquée par la crise financière de l’époque.
3 Rappelons qu’à l’heure actuelle les éoliennes sont exclusivement terrestres ; cette situation durera au moins jusqu’en 2020, date à laquelle les premières éoliennes offshore devraient entrer en service. Ces dernières sont généralement créditées d’un facteur de charge supérieur (30% ou plus ?), mais toujours dans l’hypothèse d’une priorité d’accès au réseau.
4 C’est même le contraire puisque le solaire cesse évidemment de produire lors des précoces soirées d’hiver, et l’éolien lors des épisodes d’anticyclones. Les mauvaises langues disent que la propriété des énergies intermittentes est de fournir du courant lorsque l’on n’en a pas besoin, et de faire défaut lors des pointes.
5 Les anglo-saxons utilisent le terme de « back-up » que l’on peut traduire par « réserve » ou « sauvegarde ».
6 C’est ce qui se passe en Allemagne autant que l’on sache.
7 RTE évalue aussi les émissions de CO2, ce qui n’est qu’un sous-produit de leur base de données.
8 Un jour de juillet 2013, respectivement une demi-heure de nuit et de jour, d’où les chiffres très disparates notamment pour la consommation intérieure, le solaire et le pompage.
9 Dans le domaine routier interurbain, les infrastructures sont dimensionnées traditionnellement pour la trentième heure de l’année, c’est-à-dire que l’on tolère trente heures de grave perturbation de circulation.
10 Il s’agit là d’un prix moyen ; en effet, les cours d’achat varient continuellement en fonction de l’offre et de la demande ; ils peuvent même devenir négatifs en cas de surproduction momentanée dans un des pays interconnectés.
11 Exception faite de la Bulgarie et de la Roumanie.
12 Le coût de production dans les ZNI est environ 5 fois plus cher qu’en métropole, alors que le prix payé par les usagers est le même en vertu de la continuité territoriale ou  de la péréquation.
13 Ceci d’autant plus que le nombre de bénéficiaires des tarifs électriques « sociaux » ne cesse d’augmenter, notamment en raison de la hausse des prix. Le CRE estime que le nombre de foyers bénéficiaires pourrait atteindre 4 millions.
14 Qui sont pourtant en-deçà des préconisations de la future loi de transition énergétique, autant qu’on sache.

FRANCE. COMMENTAIRES SUR LE NIVEAU DE LA MER.

Facebooktwitter

1/ Introduction.

Parmi les sujets liés aux questions climatiques, l’élévation du niveau de la mer observée sur le littoral de certaines régions du monde est l’un de ceux qui nourrissent l’inquiétude voire les fantasmes.

Pour des raisons liées à l’histoire de l’économie, des transports et du tourisme, une partie importante et croissante de la population mondiale réside, soit sur les côtes maritimes proprement dites, soit en bordure des estuaires, des deltas et des cours inférieurs des fleuves qui en constituent autant de prolongements. La proportion de population concernée a donné lieu à des estimations très variables selon les auteurs et les critères retenus (éloignement des côtes, altitudes, vulnérabilité, etc.), mais certaines évaluations font état d’un quart et jusqu’à la moitié de la population mondiale.

De très grandes métropoles du monde sont des ports maritimes qui ne cessent de prendre de l’extension. Ces métropoles ont des besoins croissants de nouvelles superficies, de constructions et d’alimentation en eau. Il en résulte une occupation progressive, des surcharges de sols et des puisements dans les nappes phréatiques, ce qui provoque des tassements littoraux. Il en va de même dans certaines îles océaniques prisées par le tourisme exotique. Enfin il n’est pas nécessaire de rappeler dans certains pays les surfaces gagnées sur la mer et garanties par des protections entièrement artificielles.

On comprend donc que le sujet soit particulièrement sensible. Comme il est facile de simuler les effets d’une variation du niveau marin, il ne manque pas de photomontages et de films évocateurs montrant à quoi pourrait ressembler telle grande ville au cas où…, afin de frapper les imaginations.

Précisons que les présents commentaires n’ont aucun caractère scientifique ; ils se bornent à des constatations fondées sur les mesures marégraphiques, sans tentatives d’explication de phénomènes qui sont très complexes comme tout ce qui concerne les sciences de la terre.

2/ Observation du niveau de la mer.

Depuis quelques années, les observations se sont perfectionnées par l’utilisation de satellites, qui sont censés fournir des données « absolues » c’est-à-dire indépendantes des repères terrestres. On n’en parlera pas ici.

Jusqu’à une période récente, les seuls instruments d’observation de l’évolution du niveau marin dans la période historique étaient les marégraphes, présents dans la plupart des ports de quelque importance. On ne développera pas ici le principe de cet appareil. Son inconvénient bien connu est que le niveau de l’eau est repéré par rapport à une référence terrestre. Celle-ci n’est pas nécessairement immuable, en raison des tassements ou soulèvements de natures géologique ou géotechnique qui peuvent l’affecter. Il reste que ce procédé permet de disposer de séries de mesures sur de longues périodes, qui fournissent déjà des informations sur les ordres de grandeur et les tendances.

On trouve de telles séries de mesures sur le site du Permanent Service for Mean Sea Level (PSMSL) 1 fondé en 1933 et basé à Liverpool au Royaume-Uni. Le PSMSL recense environ 2 000 stations marégraphiques réparties dans le monde entier. Les données sont directement et gratuitement accessibles.

Dans la présente note, il ne sera question que des données marégraphiques, et exclusivement celles du PSMSL. Pour chaque station, on dispose de séries annuelles et de séries mensuelles. Elles comportent malheureusement des lacunes parfois importantes. On n’a pas cherché à compléter ces lacunes en recourant à d’autres sources, ce qui aurait pris beaucoup de temps. On va voir qu’il est déjà possible de tirer de ces séries des enseignements au moins sommaires. Les dernières mises à jour du PSMSL comportent les données de l’année 2013.

Les références d’altitudes données par la PSMSL sont les « Revised Local Reference » ou RLR dont le principe est ancien, conventionnel, et généralisé au monde entier. Le zéro a été choisi à 7 mètres (7000 mm) au-dessous du niveau moyen, de façon à être certain qu’aucune mesure ne soit négative ; les valeurs RLR ne sont donc que relatives et n’ont aucune signification topographique locale.

3/ Le cas de la France.

La France métropolitaine est un cas intéressant car elle bénéficie d’une double, ou même d’une triple exposition ; Manche, Atlantique (ces deux expositions communiquant d’ailleurs largement) et Méditerranée. La population des zones littorales est parfois estimée à 10% de la population.

Le PSMSL recense 28 stations françaises (9 en Manche, 14 en Atlantique, 5 en Méditerranée). Les séries marégraphiques sont toutes à jour pour 2013. Cependant on en a éliminé quelques-unes, soit pour leurs origines trop récentes, soit à cause de lacunes importantes. En contrepartie on a eu recours à des stations de pays voisins pour corroborer et compléter les séries françaises.

Les séries les plus longues sont les suivantes :
-Brest : 1807-2013 (avec quelques lacunes)
-Newlyn (pointe extrême de la Cornouaille et sensiblement à la longitude de Brest) : 1916-2013
-Marseille : 1885-2013 (avec quelques lacunes)
-Genova (Gênes) : 1884-1996 (avec une lacune entre 1910 et 1930) et 2001-2013 (deux séries séparées)
On trouve ensuite des stations dont les séries commencent vers 1940 : Dunkerque, Le Havre, La Rochelle (cette dernière avec des lacunes considérables) ; à partir de 1960, l’échantillon de stations commence à s’étoffer, ce qui donne déjà plus d’un demi-siècle d’observations basées sur une vingtaine de stations marégraphiques.

Le principe adopté ci-après a consisté à retracer d’abord les quatre séries les plus longues, et à examiner ensuite si les autres séries présentent des tendances analogues.

4/ Manche et Atlantique.

Le graphique ci-dessous retrace les données annuelles RLR des stations de Brest et Newlyn.

cc3_graph1

Sur la période de recouvrement des deux stations, les deux courbes sont le plus souvent presque confondues ou parallèles.

A première vue, il semble que le niveau soit resté étale à environ 6925 mm entre 1807 et 1910, et qu’il ait augmenté depuis cette date, passant de 6925 à 7125 mm, avec cependant des interruptions de croissance pendant certaines périodes (1915-1925 et 1960-1975). On remarque aussi quelques « pics » très prononcés. Sur longue période, l’augmentation du niveau de la mer s’établit ainsi à 200 mm sur 105 ans, soit environ 1,9 mm/an. Les écarts d’une année à l’autre peuvent être relativement importants (50 à 100 mm) au regard de la tendance générale.

Afin de corroborer les deux séries principales, on a fait figurer les données de cinq stations supplémentaires des côtes de la Manche sur le même graphique, avec une origine en 1916 (début des données de Newlyn). Malgré les nombreuses lacunes, on voit que les courbes s’inscrivent dans un fuseau de même tendance que les deux stations principales (les échelles d’ordonnées ont été étendues pour mieux faire apparaître les fuseaux de courbes).

cc3_graph2

Le même exercice a été fait pour les côtes de l’océan atlantique, en ajoutant neuf stations supplémentaires, de Concarneau à la côte basque espagnole.

cc3_graph3

On retrouve des tendances analogues aux précédentes, ce qui montre que sur l’ensemble des côtes françaises ouvertes sur l’Atlantique, de Dunkerque à Saint-Jean-de-Luz, le régime d’augmentation du niveau de la mer est homogène. La relative concordance des tendances observées, malgré la diversité géologique des zones littorales, suggère que la fixité des repères terrestres ne pose pas de problème notable.

 5/ Méditerranée.

Le graphique ci-dessous retrace les données annuelles RLR des stations de Marseille et Gênes.

cc3_graph4

L’allure des courbes est différente de celles de l’Atlantique. On voit que le niveau a augmenté d’environ 150 mm entre le début du XXème siècle et vers 1960, époque à laquelle cette tendance s’interrompt brusquement. On constate ensuite une légère baisse de 1960 à 1980, puis une reprise de l’augmentation depuis lors, avec un « pic » remarquable en 2010. Sur longue période, de 1885 à 2013, le niveau de la mer a augmenté d’environ 150 mm, mais cette augmentation était déjà acquise dès 1960 (ce qui correspondait à 2 mm/an).

Malheureusement, ces trois séries présentent des lacunes importantes, précisément pour ces trente dernières années. Pour les compléter, on a eu recours à huit marégraphes situés : en France (Nice et Ajaccio), en Espagne (Barcelone et l’Estartit sur la Costa brava), à Monaco, et en Italie (Imperia et Carloporte dans le golfe de Gênes et Porto Torres en Sardaigne).

Le graphique ci-dessous retrace les séries de ces onze stations pour la période récente 1980-2013.

cc3_graph5

A toutes les stations, on retrouve le « pic » de 2010 qui est ainsi confirmé 2. En moyenne entre 1980 et 2013 le niveau de la mer a augmenté d’environ 75 mm, soit 2 à 2,5 mm/an. Toutefois, comme pour tout paramètre qui peut varier de façon significative d’une année à l’autre, cette valeur est sensible au choix de la date origine des séries.

6/ Conclusions.

Insistons sur le fait que ces commentaires ne comportent aucune interprétation scientifique des phénomènes décrits. On sait que le niveau des océans et des mers, que ce soit dans l’absolu ou par rapport aux repères terrestres, varie sous l’influence de paramètres variés : température de l’eau qui provoque l’effet dit « stérique » 3, fonte ou re-glaciation des glaciers de chaînes de montagnes et des continents circumpolaires, régime des vents, courants marins, activité des dorsales sous-marines, et enfin mouvements terrestres dus au rebond glaciaire, aux affaissements naturels ou anthropiques, à l’activité sismique, etc.

Le présent examen a été limité aux littoraux de la France métropolitaine et de certains littoraux voisins, ce qui donne déjà une première idée des ordres de grandeur et des tendances sur plus de 3 000 km de côtes relativement urbanisées et fréquentées 4.

On a vu que depuis au moins un siècle et demi la tendance est à une élévation du niveau de la mer, malgré des fluctuations parfois notables. Les différents marégraphes dont les données sont publiques et accessibles concordent sur ce point. Sur longues périodes, cette tendance est de l’ordre de 2 mm/an, plus ou moins 0,5 mm/an.

Il en est résulté une élévation du niveau des mers entourant notre pays, dont l’ordre de grandeur est d’environ 20 ou 25 cm en un siècle, soit la longueur d’une main. Pour le moment, les conséquences en sont peu perceptibles, car cet ordre de grandeur de long terme est faible au regard des fluctuations annuelles ou périodiques ou encore des marées.

La question actuellement posée est de savoir si cette élévation va se poursuivre, et à quel rythme. Si le rythme restait le même, ce qui serait l’hypothèse « naïve » comme disent les statisticiens, la mer gagnerait encore une vingtaine de centimètres d’élévation d’ici la fin du XXIème siècle, ce qui paraît tout à fait gérable. Au-delà de cette échéance, on se projette dans le grand avenir que personne au monde n’est capable d’envisager et encore moins de maîtriser.

Certains augures ne nous en annoncent pas moins à cette échéance des élévations réputées « catastrophiques », à grands renforts de discours emphatiques et d’illustrations suggestives 5. Pour que l’on puisse ajouter foi à ces pronostics, il faudrait déjà que soient fournis deux types d’informations essentielles :

-les paramètres qui sont intervenus dans l’évolution du niveau de la mer depuis le XIXème siècle, y compris les anomalies, les pauses ou les régressions ; l’influence de chacun de ces différents paramètres ;

-les raisons pour lesquelles ces paramètres évolueraient dans le proche et moyen avenir au point d’entraîner une rupture de la tendance séculaire de montée des eaux.

1 Voir http://www.psmsl.org/data/obtaining/reference.php pour les précautions d’emplois et les références.
2 En consultant les séries mensuelles, on voit que ce pic a notamment pour cause des niveaux très élevés pour les mois d’octobre (qui est en général la pointe de l’année) mais aussi novembre et décembre.
3 Cette température est elle-même influencée notamment par celle de l’atmosphère.
4 Comme on l’a indiqué, il est couramment admis que 10% de la population française habite les zones littorales ; mais le nombre de personnes concernées augmente très sensiblement en période estivale.
5 On se rappelle le petit « réfugié climatique », avec les pieds dans l’eau aux approches de Paris, dont se sont malheureusement rendus coupables des services français pourtant officiels et écoutés.

FRANCE. COMMENTAIRES SUR LES SÉRIES DE TEMPÉRATURES.

Facebooktwitter

1/ Introduction.

Lorsqu’on parle du « réchauffement climatique » devenu progressivement et insidieusement « changement climatique » 1 2 il s’agit le plus souvent de phénomènes globaux s’appliquant, soit à la terre entière, soit à de vastes ensembles : hémisphères, terres, océans, pôles, tropiques etc. Plusieurs organismes tiennent ainsi à jour des séries de températures, basées depuis 1979 sur des mesures satellitaire (recoupées grâce à des mesures par ballons sondes ou autres). Certains de ces organismes ont raccordé les séries modernes à des séries thermométriques terrestres antérieures à 1979.

On dispose ainsi de chroniques de températures « globales » depuis le milieu du XIXème siècle environ. A défaut de valeurs absolues indiscutables, ces chroniques donnent au moins une idée des fluctuations tendancielles de températures depuis plus d’un siècle et demi.

Le discours dominant fait référence à un « changement climatique » global, dont on dénonce les effets actuels, ou dont on redoute les effets futurs. Mais la traduction locale à l’échelle plus concrète d’un pays ou d’une région déterminés, voire à son propre cas personnel 3 est moins assurée.

Cependant, la presse et l’opinion publique ont maintenant tendance à incriminer le changement climatique au sujet de tout phénomène météorologique qui s’écarte de la normale 4 . On peut trouver au moins deux raisons psycho-sociologiques à cette attitude : en matière de météorologie, l’amnésie est la règle générale 5 ; et la référence « au » changement climatique est une explication bien commode aussi bien pour les responsables que pour les victimes 6.

2/ Les températures en France. Source des données utilisées.

On a rassemblé ici quelques éléments factuels concernant les températures et leurs évolutions sur le territoire français métropolitain. Ces données proviennent de l’un des sites de la NASA américaine, le GISS (Goddard institute for space studies) 7.
Le GISS publie des séries mensuelles de températures observées grâce à des centaines de stations météorologiques réparties dans le monde entier et dont les résultats lui sont transmis en temps réel par les instituts nationaux. L’accès en est libre et gratuit.

Pour la France, le GISS recense une vingtaine de stations, dont deux présentent des séries presque continues de 1880 à 2014 (Nantes et Genève), et huit autres de 1949 (ou 1951) à 2014. Les séries des autres stations sont incomplètes ou plus récentes. On examinera ci-après le cas des dix stations dont les séries sont exploitables.

3/ Les séries longues de Nantes et Genève

Ces deux stations sont très éloignées l’une de l’autre (600 km), très différentes par l’altitude (respectivement 0 m et 400 m) et le climat (respectivement atlantique et continental). Voici les deux séries représentées sur le même graphique 8. Pour mieux comparer leurs évolutions, on a aussi fait figurer en pointillés la série Genève augmentée de 1,7°C, valeur approximative de la différence moyenne de températures entre ces deux stations.cc2_graph1

(l’année 2014 a été extrapolée à partir des neuf premiers mois)

Malgré l’éloignement et la différence des températures moyennes entre les deux stations, on ne peut manquer d’observer une certaine similitude d’allures entre ces deux courbes. Beaucoup de pics ou de creux notables de températures coïncident, par exemple ceux des années 1891, 1893, 1899, 1921, 1941, 1956, 1963 et 2003.
A vue d’œil, les températures semblent avoir augmenté lentement entre la fin du XIXème siècle et 1945-1950 environ, diminué entre 1945-1950 et 1980-1985, puis augmenté à nouveau assez rapidement jusque vers 1990 environ. Depuis lors, la tendance semble être à une certaine stabilité.

Ces tendances générales sont altérées par des écarts de températures qui peuvent, d’une année à l’autre, dépasser 1°C voire 1,5°C, ce qui rend difficile la lecture et l’interprétation des graphiques. Cette remarque est d’ailleurs générale comme on le verra.

Par-delà toutes ces fluctuations, on constate que la température de ces deux stations aura augmenté d’environ 0,5 à 1°C entre 1880 et aujourd’hui 9 , ceci grossièrement en deux phases 10.

4/ L’ensemble de dix stations.

On prendra comme origine l’année 1951 à partir de laquelle toutes les stations sont renseignées (sauf Brest pour les cinq premières années). Ces stations sont implantées sur des aéroports, ce qui les soustrait en principe à l’influence de l’urbanisation 11. Elles couvrent à peu près l’ensemble du territoire national, sauf le nord de la France (voir plus loin le cas de Lille) et toutes les zones climatiques régionales 12.

On a rassemblé sur un graphique unique les séries de ces dix stations. La courbe en rouge représente la moyenne arithmétique des températures annuelles des dix stations (sans pondération).

cc2_graph2

Comme on l’a déjà observé, les pics et les creux de températures coïncident (voir par exemple les années des rudes hivers de 1956 et 1963 et les canicules de 1982, 1990 et surtout 2003). Il en résulte que la courbe moyenne est aussi irrégulière que ses composantes; comme on peut le vérifier plus clairement ci-dessous.

cc2_graph3

5/ La détermination des tendances.

Cette question est délicate. Le logiciel Excel permet de tracer des courbes de tendances, avec différentes possibilités : linéaire, polynomiales de degré 2 à 6, etc. Ce qui pose trois types de problèmes : d’abord le choix de l’année origine 13. ; ensuite le choix du genre de courbe ; enfin le degré des courbes polynomiales (l’allure de la courbe n’est pas la même selon le degré, et peut conduire à des conclusions différentes).
La courbe linéaire est le plus souvent utilisée en première approximation ; elle présente l’avantage de la simplicité, et celui d’être unique en son genre contrairement aux polynomiales.
Ce sont ces « courbes » de tendance, en fait des droites, que l’on utilisera ici ; elles sont figurées en tiretés sur les graphiques ci-après.

6/ Détermination d’une période de « stabilité » des températures.

Pour nourrir le débat sur un réchauffement récent éventuel et sur ses effets supposés, il est intéressant, en prenant pour base la dernière année connue et en remontant dans le temps, de rechercher quelle est l’année la plus ancienne à partir de laquelle la droite de tendance des températures est horizontale, c’est-à-dire depuis quelle date la température moyenne oscille autour d’une valeur stable 14.

Pour la moyenne des dix stations considérées précédemment, la réponse est donnée par le graphique ci-dessous : la droite de tendance est horizontale entre 1989 et aujourd’hui, soit depuis 25 ans.

On remarque que les écarts de températures annuelles autour de la valeur centrale (12,3°C) peuvent aller de –0,7°C à + 0,9 °C selon les années, avec une distribution qui semble totalement aléatoire.
cc2_graph4

Il se trouve que cette période est aussi celle durant laquelle les préoccupations concernant un réchauffement global ont pris naissance et se sont développées (ceci en grande partie sous l’influence du GISS).

7/ Tendances par stations.

Au-delà de la moyenne, on peut alors examiner station par station comment les températures ont évolué.
Le graphique ci-dessous en fournit le détail. On a cette fois incorporé une onzième station, celle de Lille dont la série GISS ne commence qu’en 1991 ; la couverture du territoire est ainsi complète.

cc2_graph5

On voit que durant cette période, la « stabilité » de la température annuelle moyenne a résulté d’augmentations et de diminutions qui se sont compensées.
Au passage, notons que la différence de températures moyennes entre Marseille et Lille (ou Strasbourg) est de l’ordre de 5°C, ce qui constitue une amplitude notable.

En complément, on a recherché pour chacune des stations les dates à partir desquelles les températures ont commencé à osciller autour d’une valeur stable : en résumé on trouve 1985 pour Nantes, 1992 pour Strasbourg et Toulouse, et des dates intermédiaires pour les huit autres stations. Ce qui fait au minimum vingt-deux ans de « stabilité » pour toutes les stations sans exception.

8/ Tendances par saisons.

Toujours pour la même période, on a examiné comment les températures moyennes, pour l’ensemble des dix stations, ont évolué lors de chacune des quatre saisons météorologiques 15.

Mis à part quelques chevauchements entre les deux courbes des demi-saisons, printemps et automne, les températures de ces quatre périodes saisonnières sont bien caractérisées. Entre l’été et l’hiver, il y a une différence de 15°C.

En 25 ans, la température de l’été est restée stable ; celle du printemps a très légèrement augmenté, enfin l’automne a gagné 0,8°C et l’hiver a perdu 0,8°C 16 (quoique l’hiver 2013-2014 ait été particulièrement clément).

cc2_graph6

Les dispersions autour des moyennes saisonnières peuvent être encore plus prononcées que celles autour des moyennes annuelles qui dans une certaine mesure amortissent les écarts saisonniers.

On peut évidemment continuer à raffiner les observations en distinguant les évolutions mois par mois, et station par station.

9/ Les maxima et minima journaliers.

Jusqu’à présent, on s’est intéressé aux moyennes (annuelles, saisonnières, mensuelles) des températures journalières moyennes. On peut aussi considérer les moyennes des températures journalières minimales et maximales.

On peut trouver ce genre de données sur le site d’un autre organisme international, géré par le KNMI néerlandais : European climate assessement and data, ECA&D. Cet organisme publie des séries longues concernant notamment le régime des vents, l’évapotranspiration, la pluviométrie et les températures.

Pour la France, ECA&D tient à jour les séries d’environ 45 stations (une trentaine d’autres ont été arrêtées en 2000). Parmi les stations actives, on a sélectionné les 4 qui sont communes avec celles du GISS étudiées précédemment, plus 8 autres, de façon à obtenir une représentation à peu près complète du territoire 17.

On a représenté ci-dessous les courbes obtenues depuis l’année 1956, date à laquelle les douze séries sont à peu près complètes (l’année 2014 n’est pas encore enregistrée).

cc2_graph7

Et pour la période 1989-2013 déjà envisagée :

cc2_graph8

Les écarts autour des moyennes journalières sont systématiquement de plus ou moins 4°C ;ces écarts n’évoluent pas au fil des années, et ne présentent aucune dérive visible.

Il s’ensuit que les courbes obtenues présentent une sorte de parallélisme, donc que les températures minimales et maximales journalières obéissent à des tendances tout à fait analogues à celles des températures moyennes journalières.

10/ Conclusions.

Dans la présente note, on a choisi de s’intéresser à un certain nombre de stations météorologiques disséminées sur le territoire français métropolitain et pour lesquelles on disposait grâce au GISS et à ECA&D de données continues de températures sur longues et moyennes périodes. Ces stations sont représentatives des différentes zones climatiques du territoire français. On a pu en tirer quelques enseignements 18.

On a pu notamment établir que, depuis environ vingt-cinq ans, les températures manifestaient une certaine stabilité tendancielle, quoiqu’autour des droites de tendances moyennes, les écarts d’une année à l’autre soient notables et aléatoires.

On a pu caractériser nettement les courbes de températures moyennes :

  • selon les stations météorologiques : différences de 5°C entre le sud et le nord et l’est de la France,
  • selon les saisons : différence de 15°C entre l’été et l’hiver pour la moyenne des stations,
  • selon les minima et maxima journaliers, qui s’écartent de plus ou moins 4°C des moyennes journalières.

Ces quelques observations surtout graphiques peuvent sembler primaires voire naïves, et faire sourire les spécialistes. Mais les auteurs de très nombreux articles et études spécialisées ne font autre chose que de scruter et de triturer les courbes de températures les plus diverses pour tenter de trouver des corrélations et des tendances. Dans ces études, les hommes de science n’hésitent pas à recourir aux rustiques tendances linéaires.

En outre, les imperfections des appareils de mesure, le fait qu’ils puissent être modifiés ou même déplacés au fil des années, la sensibilité au choix des dates initiales et finales des séries observées, etc. constituent autant d’incertitudes et d’approximations. De ce fait, les subtilités statistiques et analytiques semblent assez disproportionnées par rapport au sujet, alors que de simples traitements graphiques, directement compréhensibles par tous, permettent déjà des enseignements intéressants.

En fin de compte et sauf preuve du contraire, il n’a été constaté au moins durant les vingt-cinq dernières années aucun changement notable, manifeste et indiscutable dans l’évolution des températures nationales et régionales.

Au moins sur le territoire français métropolitain, l’attribution de tel ou tel phénomène météorologique à un « réchauffement climatique » généralisé et récent relève de l’ignorance, de l’illusion ou éventuellement de la mauvaise foi.

Ce genre d’attribution hâtive et indue ne favorise pas la recherche des véritables causes des phénomènes (avec toutes les conséquences qu’ils entraînent) et nuit par conséquent au progrès des connaissances.

1 Les Anglo-saxons parlent de « global warming » ou plutôt maintenant de « climate change ».
2 Il semble en effet que la température moyenne du globe, après avoir augmenté par paliers successifs depuis la fin du « petit âge glaciaire » (vers 1850) se soit tendanciellement stabilisée depuis quinze ou vingt ans.
3 Il serait intéressant lors d’une enquête sur le sujet de poser la question : « avez-vous, vous-même, dans votre vie quotidienne, ressenti ou observé le changement climatique ? » ; « en quelles occasions ? » ; « il y a combien de temps ? » et « qu’avez-vous ressenti ou observé au juste ? (avec QCM) », etc.
4 Aux siècles passés, les Chamoniards se mettaient en prière pour solliciter de la puissance divine l’interruption de l’avancée menaçante du glacier des Bossons ; nous ne sommes peut-être pas totalement sortis de ce comportement « magique ».
5 Rappelons-nous Gustave Flaubert : « Eté : toujours exceptionnel, voir : Hiver » (Dictionnaire des idées reçues, vers 1870). Cette amnésie s’applique aux évènements, mais aussi aux prévisions des climatologues et météorologues, heureusement pour eux.
6 Les médias ne manquent pas de harceler les météorologistes à ce sujet à chaque évènement notable : les plus honnêtes répondent
qu’on ne peut établir aucune corrélation ; mais, de guerre lasse ou de propos délibéré, leur défense est souvent molle…
7 http://data.giss.nasa.gov/gistemp/station_data/ .Sauf erreur, on ne trouve rien de la sorte sur le site de MétéoFrance.
8 Les stations météorologiques ont été définitivement installées sur les deux aéroports dans les années 1920.
9 C’est à peu près l’augmentation de température « globale » telle qu’elle résulte des courbes du Hadley Center, quoique les fluctuations ne présentent pas les mêmes allures.
10 Le « plongement » des années 1890 correspond à plusieurs hivers particulièrement rigoureux que les peintres impressionnistes ont immortalisés.
11 Phénomène connu sous le nom d’ « ilot de chaleur urbain » en anglais « urban heat island ».
12 En particulier les huit zones définies par la réglementation thermique RT 2012.
13 Les climatologues s’accusent mutuellement de « cherry picking », c’est-à-dire de choisir des dates qui arrangent leurs thèses.
14 C’est le genre de raisonnement qui a conduit à remarquer que la température mondiale « globale » est restée stable depuis 18 ou 19 ans, ce dont tout le monde semble maintenant convenir, même si les interprétations diffèrent.
15 Les saisons sont définies ainsi : mars-avril-mai le printemps, juin-juillet-août l’été, septembre-octobre-novembre l’automne ; l’hiver se compose conventionnellement du mois de décembre de l’année n-1, janvier et février de l’année n. L’hiver 2014 est donc déjà connu.
16 Ce qui devrait rassurer – globalement – les gestionnaires des stations de sports d’hiver…
17 A savoir : Genève, Toulouse, Strasbourg, Limoges, plus Saint Quentin, Rouen, Châteauroux, Orléans, Rennes, Nîmes, La Rochelle, Mont de Marsan.
18 Il existe certainement ailleurs d’autres séries de températures qui pourraient conforter ou contredire partiellement ces enseignements à des niveaux plus locaux. Mais la répartition spatiale et la durée temporelle des séries étudiées sont suffisantes pour constituer un échantillon significatif à l’échelle du territoire.

CONSIDÉRATIONS SUR LES ÉNERGIES INTERMITTENTES.

Facebooktwitter

1. Introduction.

Les données utilisées sont pour l’essentiel issues des deux documents statistiques qui comportent des séries internationales longues complètes et mises à jour :

-la publication statistique annuelle de British Petroleum (BP) : Statistical Review of world energy, édition 2014, qui comporte des séries longues mondiales pour toutes les sources d’énergies, jusqu’en 2013 inclus ;

-le « pocketbook » 2014 publié par la direction de l’énergie de la commission européenne, qui comporte des séries pour l’Union européenne dans son ensemble et pour chaque Etat de l’UE, jusqu’en 2012 inclus ; ces séries proviennent d’Eurostat, d’où la mention « source Eurostat » sur les graphiques.

En outre on a consulté pour la France les documents publiés par le comité de régulation de l’énergie (CRE).

Le terme d’« énergies intermittentes », désigne génériquement deux des sources de production d’électricité dites « renouvelables » : l’énergie éolienne et l’énergie solaire. Ce terme est notamment utilisé par la Commission européenne et Eurostat pour les distinguer des autres énergies, qu’elles soient renouvelables (biomasse, déchets etc.) ou non renouvelables. On pourrait tout aussi bien les qualifier d « aléatoires » si ce terme n’avait pas une charge péjorative.

2. La production électrique et la place des énergies intermittentes.

2.1. La production électrique totale.

On trouvera ci-après un ensemble de graphiques représentant l’évolution de la production électrique selon les différentes sources d’énergies, et ceci respectivement pour :

  • les cinq principaux Etats de l’UE (plus le Danemark pour des raisons qui seront expliquées)
  • l’Union européenne,
  • les pays de l’OCDE 1,
  • les pays n’appartenant pas à l’OCDE
  • le monde entier.

A la lecture de ces graphiques, on voit que l’Union européenne a pratiquement stabilisé sa production électrique depuis une dizaine d’années, avec même une légère décroissance dans certains États. Il en va à peu près de même dans l’ensemble des pays de l’OCDE.

Par contre, dans les États moins développés qui n’appartiennent pas à l’OCDE, la production électrique continue à augmenter car les populations de nombreux pays dits « en développement » n’ont encore que partiellement accès à l’électricité.

E2G1P1

E2G1P2

Selon la Banque mondiale, le pourcentage de population qui n’a pas accès à l’électricité va de 40% à 85% en Afrique subsaharienne, de 25% à 40% en Asie du sud-est (hors la Chine qui est pratiquement à jour) et 10% à 20% dans certains pays d’Amérique centrale. On estime à 1,2 milliards de personnes la population non encore raccordée, dont 600 millions en Afrique.

De plus, les habitants qui sont « raccordés » à l’électricité ne disposent pas tous, et de loin, d’une puissance installée ni d’une régularité de livraison capable de satisfaire leurs aspirations, car l’électricité peut y être plus ou moins insuffisante, irrégulière ou dégradée.

A titre de comparaison, on peut par exemple prendre comme critère la production électrique rapportée à la population ; les chiffres suivants sont relatifs à l’année 2013.

  • Les États de l’OCDE dans leur ensemble ont produit 11 000 TWh pour 1 260 millions d’habitants, soit 8,7 TWh/Mhab 2.
  • Les États non-OCDE ont produit 12 000 TWh pour 6 000 millions d’habitants, soit 2,0 TWh/Mhab ; pour aboutir aux standards « occidentaux », il faudrait qu’ils produisent 52 000 TWh, ce qui au rythme actuel de croissance prendrait plus d’un demi-siècle.

On voit l’étendue des besoins restant à satisfaire, et qui explique la forte croissance de la production dans les pays en développement.

2.2. Les énergies intermittentes.

Les graphiques précédents montrent que l’éolien et le solaire n’ont commencé à se développer notablement qu’assez récemment : l’éolien depuis une dizaine d’années, le solaire depuis cinq ou six ans.

Le tableau ci-après fournit un aperçu des pourcentages de production d’électricité intermittente en 2013 dans un certain nombre de pays et de groupes de pays ; ce tableau est classé par ordre décroissant de production intermittente (on a aussi indiqué pour mémoire les pourcentages d’énergie fossile, hydro-électrique et nucléaire). Dans tous les autres pays du monde, le pourcentage de production intermittente est inférieur à 1%

Pourcentages de production d’électricité intermittente en 2013.E2G2

La part des énergies intermittentes est de 10% dans l’Union européenne et 5% dans l’OCDE. Par contre, leur part dans les autres pays du monde reste encore modeste, inférieure à 2%.

L’essor est donc apparu surtout dans les pays développés, c’est-à-dire les pays dont les besoins en électricité étaient déjà amplement satisfaits, qui disposaient de sources d’énergies permanentes et fiables, et qui pouvaient donc se permettre de procéder à une diversification vers des énergies réputées renouvelables et plus aléatoires.

Cette politique de diversification a été stimulée par le souci de réduire les émissions de CO2 (pour des raisons qui ne seront pas discutées ici) et donc de restreindre le recours aux énergies fossiles, et aussi par une certaine méfiance des opinions publiques à l’égard de l’énergie nucléaire. Sans oublier la puissance de certains lobbies et le conformisme des pouvoirs politiques.

Le Danemark occupe le tout premier rang au monde avec près du tiers d’énergie éolienne, ce qui résulte d’un choix politique 3. Sa production électrique annuelle varie très irrégulièrement d’une année à l’autre ce qui illustre assez bien son caractère intermittent ; le Danemark atténue ces irrégularités par une énergie fossile encore conséquente (plus de 50%) 4 et des échanges fréquents avec notamment ses voisins scandinaves qui disposent de sources permanentes, à savoir hydraulique et nucléaire pour la Suède, hydraulique pour la Norvège.

Les États du sud de l’Europe ont tiré parti de leur ensoleillement et/ou d’un régime de vents favorable, les États du nord ont tiré parti du vent régnant sur les côtes de la mer du nord.

Le cas de l’Allemagne est particulier, car ce pays n’est particulièrement favorisé ni par le vent ni par le soleil : il résulte d’une volonté politique forte dont les résultats restent d’ailleurs discutables à plusieurs égards.

Enfin la France, qui dispose de près de 90% d’énergies non émettrices de CO2,et qui n’avait donc pas les mêmes raisons de s’engager dans cette politique, ne s’est décidée que plus tardivement à suivre le mouvement.

Autre fait à signaler, le Japon vient de basculer 250 TWh (soit 25% de sa production) du nucléaire vers les énergies fossiles pour les raisons que l’on sait.

2.3 Conséquences des énergies intermittentes sur le recours aux énergies fossiles.

L’objectif principal de réduction des émissions de CO2 n’a pas été atteint puisque le recours aux énergies fossiles n’a fait qu’augmenter dans l’intervalle. En effet, seule l’Union européenne a réussi à inverser la tendance, mais son poids dans l’ensemble du monde est très modeste : environ un dixième de l’électricité fossile, ce poids étant en diminution constante et pour cause.

Le graphique ci-après illustre bien ce phénomène. On y a distingué trois ensembles : l’Union européenne, l’OCDE moins l’UE, enfin les pays non-OCDE.

E2G3

En dix ans, l’UE a réduit sa production d’électricité fossile annuelle de 300 TWh, mais les autres pays de l’OCDE l’ont augmentée de 500 TWh, et les pays non-OCDE de 4 200 TWh. Soit au total 4 400 TWh fossiles de plus en 2013 qu’en 2003.

3. Disponibilité des énergies intermittentes.

3.1 Le facteur de capacité.

Pour mesurer la disponibilité d’une source d’énergie, on a recours au concept de « facteur de charge » ou « facteur de capacité » 5.
Si on divise la production électrique annuelle observée exprimée en watt-heure (Wh) par la puissance installée exprimée en watts (W) on obtient un nombre d’heures annuel de production, soit N heures par an.
Le facteur de capacité est défini comme étant le rapport « N heures / 8 760 heures (année entière) », exprimé en général sous forme de pourcentage.

A titre de référence, le facteur de capacité de l’énergie nucléaire est de l’ordre de 80% à 90% selon les États (de l’ordre de 80% en France). Un parc nucléaire ne fonctionne pas toute l’année à pleine puissance, puisqu’il subit nécessairement des interruptions pour maintenance et entretien, incidents éventuels, travaux d’amélioration et de mise à jour des centrales anciennes, rechargement et déchargement de combustible, etc.

Les deux graphiques ci-après représentent l’évolution des facteurs de capacité de l’éolien et du solaire dans un certain nombre de pays caractéristiques, ainsi que ceux de l’ensemble de l’Union européenne et du monde entier.

E2G4

Compte tenu de l’évolution rapide, d’une année à l’autre, des capacités installées dans certains pays, on a préféré comparer la production de l’année n à la capacité moyenne de l’année, soit (Cn + Cn-1)/2. Notons que les bases de données du solaire sont parfois contradictoires et douteuses ; elles comportent de nombreuses anomalies et des valeurs aberrantes. C’est pourquoi le nombre de pays sélectionnés est réduit. On peut toutefois penser que les valeurs globales (UE et monde) sont assez fiables vu le nombre de pays concernés.

Sans détailler ces résultats, on peut retenir comme valeurs moyennes actuelles :

-Pour l’éolien, un facteur de capacité compris entre 18% et 30%, avec une valeur moyenne de 24% (21% en France en 2013). La valeur élevée du Royaume-Uni s’explique par l’importance de l’éolien offshore (plus du tiers du total de la puissance installée) dont le facteur de capacité semble être de l’ordre de 35% 6. Il est d’ailleurs assez normal que l’éolien offshore, qui coûte environ deux fois plus cher que l’éolien terrestre, ait des performances supérieures.

-Pour le solaire photovoltaïque, un facteur de capacité compris entre 10% et 20%, avec une valeur moyenne de 12% (11% en France en 2013). On ne s’étonnera pas des valeurs élevées observées en Espagne, pays ensoleillé. Par ailleurs, il n’est pas surprenant que le solaire soit deux fois moins disponible que l’éolien, puisque par définition il n’est susceptible de produire que la moitié du temps.

Si l’on en juge par l’allure des courbes, il semble que ces valeurs se soient légèrement améliorées en dix ans, ce qui s’explique par les progrès technologiques réalisés dans l’intervalle, alors même que les installations, généralement récentes, n’ont pas encore subi les effets de l’usure et du vieillissement.

3.2 Conséquences de la disponibilité des énergies intermittentes.

Quoiqu’il en soit des valeurs précises des facteurs de capacité, on peut retenir deux conclusions importantes :

-à puissance installée égale, l’éolien produit environ trois à quatre fois moins d’électricité qu’une centrale nucléaire et le solaire environ six à huit fois moins ;

-on ne peut compter sur l’éolien et le solaire pour satisfaire à tout instant les besoins en électricité. A certains égards, on peut même dire que ces types de production fonctionnent souvent à contre-emploi (pas de solaire la nuit où on a précisément besoin d’éclairage, pas de vent lors des épisodes anticycloniques de grands froids ou de fortes chaleurs, etc.).

Le caractère intermittent de ces deux types d’énergie leur est inhérent et il est inévitable, car leur électricité n’est pas produite en fonction de la demande mais en fonction de l’alternance jour-nuit, du climat local et de la météorologie.
Ce caractère intermittent a deux conséquences :

-pour éviter que cette électricité soit produite en pure perte, il faut donc l’introduire de force dans le réseau de distribution, en lui donnant si nécessaire la priorité sur les autres sources.

-de façon symétrique, lorsque les énergies intermittentes s’interrompent, il faut mobiliser presque instantanément d’autres sources d’énergie pour répondre à la demande.

En effet, on sait que l’électricité ne peut être stockée de façon massive avec les technologies existantes. Il est possible que ce problème trouve sa solution dans le grand avenir mais cette solution nécessitera des installations spécifiques coûteuses et dont les coûts d’investissement et d’exploitation devront être ajoutés aux coûts de production pour respecter la réalité économique.

Par ailleurs, dans le cas d’excédents et de déficits, les échanges d’électricité entre pays producteurs ne peuvent se faire qu’à des distances relativement modestes, c’est-à-dire entre États immédiatement voisins, notamment pour des raisons de pertes en ligne 7. Le système ne dispose donc pas de la souplesse que permettraient des échanges à longues distances. Là encore, il est possible que ce problème trouve sa solution dans l’avenir, mais moyennant encore des coûts supplémentaires.

Le développement de ces sources d’énergie rend donc indispensable la présence d’énergies de substitution capables de suppléer sans délai aux carences des intermittentes. Seules les centrales thermiques classiques au charbon, au fioul ou au gaz sont susceptibles d’un démarrage rapide pour répondre à cette obligation. Le problème est que, comme la priorité est données aux intermittentes, les centrales thermiques classiques deviennent elles aussi intermittentes malgré elles, ce qui diminue leur rentabilité et peut conduire à leur fermeture. On arrive alors au paradoxe consistant à rémunérer des centrales thermiques simplement pour qu’elles restent en place en stand-by, voire à subventionner des remises en route de centrales ayant fermé.

Non seulement ce dispositif entraîne des coûts supplémentaires, mais il contribue à augmenter les émissions de CO2 ce qui est semble-t-il le contraire du but principal recherché 8.

4. Coût de production des énergies intermittentes.

On s’en tiendra au cas de la France, pour laquelle on dispose de données récentes et indiscutables grâce au comité de régulation de l’énergie (CRE) 9 qui tient une comptabilité précise des éléments techniques et financiers concernant la production électrique.

Le gouvernement lance périodiquement des appels d’offres en vue de la fourniture d’électricité éolienne et solaire. Selon l’importance des lots, les candidats peuvent aller depuis de petites sociétés locales, jusqu’à des consortiums d’énergéticiens européens (c’est le cas plus particulièrement pour l’éolien offshore). Le CRE est sollicité pour donner un avis sur la dévolution de ces appels d’offres. On ne détaillera pas ici le contenu des contrats qui sont ensuite passés avec les fournisseurs. En substance, ces contrats comportent une durée (en général 15 à 20 ans à compter de la mise en service) et un prix d’achat garanti pendant toute cette durée, avec quelques modalités complémentaires.

Comme il s’agit d’appels d’offres ouverts à la concurrence, on peut penser que les prix d’achat proposés par les adjudicataires reflètent correctement les coûts de production estimés.
A titre indicatif, et au vu des derniers appels d’offres, les tarifs de rachat sont d’environ :

  • -85 €/MWh pour l’éolien terrestre (environ 2 fois le tarif de référence)
  • -180 €/MWh pour l’éolien offshore (environ 4 fois le tarif de référence)
  • -150 €/MWh pour le photovoltaïque (environ 3 fois le tarif de référence).

On désigne par tarif de référence (en simplifiant) le tarif auquel l’électricité s’échange au niveau européen en moyenne sur l’année, soit actuellement environ 45 €/MWh.

Les distributeurs, au premier rang desquels EDF, ont ensuite l’obligation d’acheter l’électricité à ces fournisseurs, aux prix fixés par leurs contrats.

EDF refacture ce supplément à ses clients, dans le cadre d’une « contribution au service public de l’électricité » (CSPE) qui figure sur la facture mensuelle ou bimestrielle 10.

En 2014, les obligations d’achat d’électricités dites « renouvelables » auront représenté une majoration de l’ordre de 10% de la facture des usagers particuliers. Cette majoration, déjà reconnue comme insuffisante pour compenser les obligations d’achats, ne cesse d’augmenter d’année en année.

On n’entrera pas dans les détails concernant ces mécanismes. D’une façon plus générale, les aspects financiers du recours accru aux énergies intermittentes mériteraient d’amples développements. En raison des déséquilibres physiques qu’elles engendrent (brusques excédents à des moments inopportuns et vice-versa) elles sont susceptibles de désorganiser la répartition du courant sur le réseau interconnecté et par corollaire le marché des prix « spot » de l’électricité 11.

5. Conclusions.

Autant que l’on sache, les deux principales raisons alléguées par l’UE en faveur de sa politique énergétique sont, d’une part la réduction du recours aux énergies fossiles et des émissions de CO2, d’autre part la réduction de la dépendance énergétique. On y ajoute parfois le désir de servir d’exemple au monde entier.

On a vu ce qu’il en était du recours aux énergies fossiles. Ce problème serait de toute façon mondial et l’UE ne pèse dans ce domaine que de façon de plus en plus marginale, ce qui montre que le reste du monde est loin de partager notre enthousiasme.

L’Union européenne a cru devoir s’engager résolument et à grand frais dans les énergies intermittentes : pour une population égale à 7% de la population mondiale, l’UE compte actuellement 35% de la puissance installée en éolien et 55% en photovoltaïque. Les conséquences économiques de ce choix commencent à se faire sentir, notamment en Allemagne et au Royaume-Uni, où des voix s’élèvent pour réclamer un ralentissement (voire un moratoire) des investissements en matière éolienne et photovoltaïque. Les récriminations portent notamment sur l’augmentation du prix de l’électricité qui nuit à la compétitivité ainsi que sur les risques de coupures de courant en hiver.

De toute évidence, le monde ne pourra pas se sortir du sous-développement énergétique et électrique à l’aide de l’éolien et du solaire 12, mais en utilisant les ressources fossiles. Celles-ci sont quasi-inépuisables à vue humaine, largement réparties au travers du globe (comme on commence à le découvrir), leur extraction et leur transformation font appel à des techniques éprouvées, et elles peuvent être transportées aisément à de grandes distances.

Les énergies intermittentes n’ont pu et ne pourront dans l’avenir se développer que moyennant des subventions massives (plus de 3 milliards d’euros pour l’année 2014 en France, qui n’est pourtant pas en pointe dans ce domaine). Elles représentent pour les utilisateurs d’électricité – particuliers et entreprises, c’est-à-dire en fin de compte tous les citoyens – un coût supplémentaire qui ne peut aller qu’en s’aggravant.

L’intermittence qui leur est inhérente ne pourrait être corrigée ou compensée que par des dispositions de caractère futuriste – et de toute façon coûteuses – de stockage, de distribution et de transport d’énergie électrique.

Enfin, et c’est une question qui n’a pas été abordée ici, ces sources d’énergies ne sont pas sans comporter quelques inconvénients qui n’ont pas encore tous été dévoilés 13.

Toutes ces considérations ne constituent pas un motif suffisant pour condamner les énergies intermittentes, ne serait-ce que parce que les technologies qu’elles contribuent à développer peuvent engendrer des applications imprévues et bénéfiques.

Mais il serait raisonnable de ne pas céder aux engouements, et de leur réserver dans les politiques énergétiques la part qu’elles méritent qui ne saurait être que limitée.

1 Organisation de développement et de coopération économique, regroupant actuellement les 34 États les plus développés (dont 21 Etats de l’Union européenne), représentant 18% de la population mondiale (1,26 milliards d’habitants sur 7,3 milliards) et 63% du PIB mondial (47 milliards de dollars sur 75 milliards).
2 Pour les États de l’Union européenne : entre 5 et 10 TWh/Mhab (sauf quelques exceptions). Pour la Chine, réputée entièrement raccordée (?) : 3,9 TWh/Mhab. Pour l’Inde, seulement 0,9 TWh/Mhab, etc.
3 Il existe au Danemark 4 700 éoliennes (dont 500 offshore) répartis dans 1 150 « parcs ». Si elles étaient réparties sur l’ensemble
du territoire, on aboutirait à un quadrillage d’une éolienne tous les 3 km.
4 Le Danemark prétend éliminer l’électricité fossile en 2035 : l’expérience sera intéressante à suivre ; toutefois, l’organisation
énergétique du Danemark est très spécifique et elle paraît impossible à transposer dans de grands pays.
5 C’est le terme de « facteur de capacité » ou « capacity factor » qui est utilisé par Eurostat. On le retiendra ici.
6 Lors des deux derniers appels d’offres lancés en France, les facteurs de capacité escomptés par les adjudicataires étaient en 2012 de 35% (6,8 TWh / an pour 1 928 MW installés) et en 2014 de 40% (3,9 TWh / an pour 992 MW installés) ; cette dernière valeur paraît très optimiste, surtout tout au long des 20 ans de production prévus, ce qui pourrait ouvrir la porte à des contentieux.
7 La France (qui est exportatrice nette d’électricité sur l’année) importe et exporte exclusivement avec ses sept voisins immédiats.
8 C’est ce qui est en train de se passer en Allemagne. Mais ce sujet mériterait un développement spécial.
9 Site http://www.cre.fr/
10 La CSPE ne comporte pas uniquement la compensation des obligations d’achats des intermittentes, mais aussi celles d’autres
énergies renouvelables (biomasse) et de cogénération, ainsi que diverses contributions, sociales et autres.
11 De sorte qu’il peut arriver que les prix d’achat de l’électricité deviennent négatifs en cas de surproduction momentanée.
12 Ni en détruisant des forêts au motif que le bois combustible serait « renouvelable ».
13 Parmi les opposants aux éoliennes, on commence à trouver des associations écologistes.

COMMENTAIRES SUR L’ÉNERGIE SOLAIRE A CONCENTRATION.

Facebooktwitter

1. Introduction.

Il existe trois modes industriels principaux d’utilisation de l’énergie du soleil :

-le solaire thermique, utilisé directement pour le chauffage et l’eau chaude ;

-le solaire photovoltaïque, qui transforme directement l’énergie solaire en électricité ;

-le solaire dit « thermodynamique » ou « à concentration », qui comme son nom l’indique consiste à concentrer le rayonnement du soleil vers une zone focale (ponctuelle ou linéaire) où l’on a disposé un réservoir de liquide. Par ce moyen, le liquide dit « caloporteur » est chauffé à très haute température et constitue en quelque sorte une source d’énergie thermodynamique secondaire. Celle-ci est alors utilisée pour produire de l’électricité, selon des procédés analogues à ceux des centrales thermodynamiques classiques (avec lesquelles le solaire à concentration peut d’ailleurs être couplé).

C’est cette troisième technique qui sera traitée ici.

Les indications et les chiffres qui suivent sont issus de deux sources principales : EurObserv’ER (baromètre solaire, mai 2014) et CSP World (Concentrated solar power), ainsi qu’Eurostat et diverses sources industrielles 1 .

On mentionnera les termes anglo-saxons à la suite des termes français.

2. Technologies actuelles.

On distingue en général quatre types de centrales solaires à concentration (définitions sommaires) :

-centrales à collecteurs cylindro-paraboliques (parabolic trough, trough signifie auge) ; un miroir parabolique de forme allongée renvoie le rayonnement vers un tube parallèle au miroir ;

-centrales à tour (central receiver, power tower) : des miroirs renvoient le rayonnement vers un point focal situé en haut d’une tour ;

-centrales à réflecteurs à miroirs de Fresnel linéaires (CLFR) : les miroirs sont en général du type cylindro­paraboliques, mais avec des courbures plus faibles ; leur orientation peut éventuellement varier ;

-centrales à capteurs paraboliques (dish Stirling, du nom de l’inventeur d’un moteur) : un miroir parabolique renvoie le rayonnement vers un moteur à combustion externe ;

Le couplage avec d’autres procédés thermodynamiques (centrales hybrides) est connu sous la dénomination ISCC (Integrated solar combined cycle).

Les liquides caloporteurs peuvent être des huiles ou des sels fondus.

On ne détaillera pas les aspects techniques de ces différents procédés, qui sont d’ailleurs en évolution.

3. Avantages et limitations.

L’avantage principal de cette technique est l’interposition d’un circuit de chaleur entre le rayonnement solaire et la production d’électricité. De ce fait, la chaleur peut être emmagasinée et on atténue ainsi le caractère intermittent du solaire, en prolongeant l’efficacité de quelques heures après le coucher du soleil (les nombres d’heures annoncés par les sites spécialisés sont à prendre avec circonspection).

Cela étant, les promoteurs de la technique reconnaissent eux-mêmes que ces procédés ne sont viables que dans les régions du monde les plus ensoleillées, recevant au moins 1 900 kWh par m2 et par an, c’est-à-dire les zones teintées en jaune de la carte ci-dessous, qui se situent exclusivement au sud du 40ème parallèle.
E4G1

On reconnaîtra sans peine les principaux déserts de la planète, ce qui n’est pas un hasard.

Compte tenu des surfaces importantes que nécessitent ces installations pour obtenir des puissances installées significatives, les sites possibles se limitent précisément aux zones désertiques ou semi-désertiques, ou en tous cas peu peuplées. En outre, ces zones doivent si possible éviter la présence proche de massifs montagneux qui porteraient ombre en début et en fin de journée.
En Union européenne, les seules zones répondant à ces critères se trouvent dans le sud de l’Espagne et les îles de la Méditerranée.

4. Implantations et puissances installées, actuelles et futures.

Actuellement, on compte dans le monde 118 centrales en service, totalisant 3 820 MW installés, dont :
-82 centrales commerciales (3 780 MW installés, soit en moyenne 46 MW/centrale 2)
-12 centrales de démonstration (quelques MW/centrale)
-24 centrales de recherche et développement (quelques MW/centrale)

-Centrales commerciales en service : le tableau ci-dessous en donne le détail à fin 2013 (source CSP).
E4G2

Sur les 72 centrales cylindro-paraboliques, 6 sont couplées (système ISCC) avec des centrales thermodynamiques utilisant des combustibles divers (180 MW au total).
Les puissances installées se trouvent pour 62% en Espagne (dont les 51 centrales ont été mises en service pour l’essentiel entre 2009 et 2013) et 31% aux Etats-Unis. Le reste est partagé entre une douzaine de pays qui ne disposent en général que d’une seule centrale (mais 2 aux Emirats Arabes Unis et 2 en Inde).

Centrales commerciales en construction : le tableau ci-dessous en donne le détail en 2014 (source CSP). Les dates de mises en service ne sont pas précisées.
E4G3

Les centrales cylindro-paraboliques sont nettement prépondérantes, qu’il s’agisse des centrales en service ou en construction.

Centrales commerciales à l’étude : CSP fait état de projets réputés « en développement » :19 projets pour une puissance totale de 4 800 MW installés. Parmi ceux-ci, 2 centrales de 500 MW aux USA et 2 000 MW pour le projet tunisien « TuNur », et aucun en Espagne. Il s’agit majoritairement de centrales à tour. Ces projets semblent être à moyen ou long terme, si toutefois ils voient le jour.

Centrales commerciales abandonnées : 7 projets de centrales (1 000 MW) ont été abandonnés.

Perspectives plus lointaines : annoncées par des organismes officiels, nationaux, européens ou internationaux, ou encore par des industriels, elles devraient inspirer la plus grande méfiance 3. On a vu que l’Espagne, pays pionnier, n’a plus aucun projet en construction ni à l’étude, la raison principale étant la remise en cause des subventions qui avaient permis l’édification de son parc solaire.

En supposant que tous les projets « en développement » voient le jour dans les dix ans, ce qui est très optimiste, et qu’aucune centrale existante ne ferme d’ici là, on aboutirait en 2025 à environ 130 centrales pour une puissance installée de 10 500 MW, soit (avec un facteur de charge de 27%, voir ci-après) une production annuelle de 25 TWh pour le monde entier. A titre de comparaison, cette production équivaut à 4,5% de la production totale d’électricité en France (550 TWh).

5. Facteur de charge.

On rappelle que le facteur de charge est défini comme le rapport (généralement exprimé en pourcentages) entre la production réelle sur l’année et la production théorique calculée à partir de la puissance installée supposée produire pendant les 8 760 heures de l’année.

On prendra le cas de l’Espagne qui dispose du premier parc du monde, et qui a déjà quelques années d’expérience -sachant toutefois que ses installations sont relativement récentes et n’ont pas encore affronté l’épreuve du temps, de l’usure et des dégradations.

Le tableau ci-après permet de comparer les performances du solaire thermodynamique à celles du solaire photovoltaïque. La puissance installée annuelle de l’année n est calculée en faisant la moyenne des puissances installées en fin d’années n-1 et n, elle est donc approximative, de même que les facteurs de charge.

E4G4

Par conséquent, à climat égal le facteur de charge du thermodynamique est supérieur à celui du photovoltaïque, ce qui est normal, mais ceci dans des proportions relativement modestes.

Certaines données américaines font état de facteurs de charge supérieurs (plus de 30%) ; toutefois, l’exemple de l’Espagne est significatif de la situation géographique et climatique du sud de l’Europe et par conséquent du potentiel éventuel de cette technique de production dans l’Union européenne.

Il faut enfin rappeler que la production solaire espagnole représente, par rapport à sa production brute d’électricité, respectivement 2,8% pour le photovoltaïque et 1,5% pour le solaire thermodynamique.

6. Coûts et subventions.

Les données suivantes sont empruntées à EurObserv’ER qui cite lui-même Irena (International Renewable Energy Agency) quant aux coûts de production en 2012.
Le facteur de charge est supposé compris entre 27% (régions les plus ensoleillées) et 20% (les moins ensoleillées).

-cylindro-parabolique : 290 à 380 €/MWh ;
-cylindro-parabolique avec système de stockage : 170 à 370 €/MWh.

-centrales à tour avec système de stockage ; 200 à 290 €/MWh

Pour les pays européens, ce sont les hauts de fourchettes de coûts qu’il faut retenir (les bas de fourchettes correspondent à des pays hors OCDE en général très ensoleillés).

Ces ordres de grandeur suffisent pour se faire une idée de ce qu’est ou serait actuellement le coût de production en Europe du solaire thermodynamique, soit entre 290 et 380 €/MWh.
En France le dernier appel d’offres lancé par le CRE a abouti à un tarif d’achat garanti de 349 €/MWh, ce qui confirme les chiffres précédents.

Par rapport au prix moyen de l’électricité sur le marché européen (environ 50 €/MWh), le solaire thermodynamique serait donc actuellement 7 fois plus cher.

7. Conclusions.

Pour avoir une idée de l’avenir de ce type de production électrique, il est bon de rappeler un certain nombre de faits.

-Il s’agit d’une énergie intermittente. Les dispositifs qu’on lui adjoindrait pour remédier à ce grave inconvénient ne peuvent que renchérir le coût de l’investissement et donc de la production, sans annuler son caractère intermittent.

-Cette énergie est très coûteuse, même dans des endroits privilégiés par le climat. Elle ne peut se développer qu’au prix de subventions considérables.

-A regarder la carte mondiale des ensoleillements, on peut penser au premier abord que l’espace ne manque pas pour implanter ces centrales, qui exigent des surfaces importantes. Toutefois, et ceci n’est pas un hasard, les régions privilégiées par les forts ensoleillements sont le plus souvent des régions arides, inhospitalières, inhabitées ou presque, et par conséquent éloignées des gros centres de consommation électrique. Or l’électricité ne peut être transportée sur de longues distances sans importantes pertes de charge.

-Il est séduisant pour les pays qui manquent de place ou de soleil d’imaginer sur le papier des installations énormes dans les déserts des pays du sud. L’application sur le terrain serait tout autre chose : ces régions sont souvent caractérisées par des frontières incertaines et disputées, des conflits ethniques et des incursions violentes qui ne vont pas s’interrompre comme par enchantement. Ces violences (dont on a vu quelques exemples récents) seraient évidemment exacerbées du fait des intérêts économiques et financiers liés à des installations industrielles de cette importance. La menace sera donc permanente aussi bien au stade de la construction qu’à celui de l’exploitation.

-La mise sur pied de telles opérations ne peut se faire par la contrainte. Elle nécessitera immanquablement des négociations pluripartites, avec des États ou des groupes organisés dont on connaît la propension aux surenchères et aux discussions interminables, et qui attendent au tournant les nations réputées riches. La longueur des procédures ne constitue pas un obstacle rédhibitoire, mais il serait imprudent de s’engager financièrement et techniquement sans garanties suffisantes et surtout en tablant sur des délais irréalistes.

La solution la plus raisonnable serait de laisser les choses en l’état, c’est-à-dire de terminer les constructions entreprises, éventuellement de donner suite à quelques projets modestes de centrales commerciales et à des installations de démonstration et de recherche et développement pour faire évoluer la technologie, et d’observer comment tout cet ensemble fonctionnera et vieillira.

En tout état de cause, on a vu que même dans une perspective moins raisonnable, la production solaire thermodynamique à concentration – et donc son coût global pour la collectivité – n’occuperait qu’une part extrêmement modeste dans la production électrique.

Mais on sait que la raison n’est pas toujours ce qui caractérise la politique énergétique.

E4G5 E4G6

1 L’inconvénient de la documentation existante sur ce sujet, d’où qu’elle vienne, est qu’elle sacrifie souvent l’exposition des faits à la propagande, loi du genre dans de nombreux domaines ; il suffit de le garder à l’esprit et de s’en tenir aux faits et aux chiffres, qui peuvent être aisément vérifiés.
2 Rappelons qu’une grosse centrale thermodynamique classique déploie 800 MW et un réacteur nucléaire entre 900 et 1 400 MW.
3 Rappelons la faillite de Solar Millenium (Allemagne) et l’abandon de la filière par Siemens. En outre, s’agissant de l’Union européenne, selon EurObserv’ER, « la feuille de route solaire thermodynamique des Plans d’action nationaux énergies renouvelables (…). Du fait du contexte économique et politique actuel (elle) semble aujourd’hui hors de portée ». Le graphique présenté dans le « baromètre » montre en effet une quasi-stagnation des puissances installées entre 2013 et 2015.

BREVES CONSIDERATIONS SUR LE PETROLE.

Facebooktwitter

1. Introduction.

La question des ressources pétrolières, de leur évolution et des perspectives de leur épuisement donne lieu depuis des décennies à une quantité innombrable de publications de toutes sortes. Périodiquement, à telle ou telle occasion fournie par l’actualité économique, politique ou géostratégique, ou encore du fait de l’intérêt porté à ces questions par des organismes administratifs, industriels ou universitaires, se pose notamment la question de savoir à quel horizon les ressources pétrolières planétaires seront épuisées, ce qui en effet adviendra bien un jour.
La présente note a pour objet de fournir quelques éléments d’appréciation sur ce sujet en récapitulant des données historiques aisément accessibles.
Les données utilisées sont pour l’essentiel issues de la publication statistique annuelle de British Petroleum (BP) : Statistical Review of world energy, édition 2014, qui comporte des séries longues pour toutes les sources d’énergies, jusqu’en 2013 inclus.

2. La notion de « pic pétrolier ».

2.1 Généralités.

Cette notion est surtout connue par son expression anglo-saxonne « peak-oil ».

On considère les différentes phases d’exploitation d’un gisement 1 de pétrole. Le rythme d’exploitation est au début lent et progressif, pour différentes raisons : phase d’apprentissage de l’exploitation, organisation de la commercialisation, etc. Il y a ensuite une phase de croissance plus rapide, avec éventuellement de nouvelles découvertes, suivie d’un quasi-palier puis d’une décroissance (souvent appelée « déplétion ») du fait de l’épuisement progressif du gisement et des difficultés d’extraction en fin de vie.
C’est la période quasi stationnaire qui détermine le « pic pétrolier », défini comme le moment où la production passe par un maximum et commence à décroître. Le graphique de la quantité produite (par exemple le tonnage annuel) en fonction du temps prend la forme d’une courbe « en cloche » plus ou moins régulière.

On notera que cette notion de « pic » peut être appliquée à n’importe quelle autre substance dont la quantité est limitée.

2.2 Cas de la Norvège et du Royaume-Uni.

On prendra comme exemples les gisements des eaux territoriales en mer du Nord, respectivement celles de la Norvège et celles du Royaume-Uni. On sait que les découvertes de ces gisements « off-shore » et le début de leur exploitation remontent au début des années 1960.

Voici les graphiques de production pour ces deux ensembles, qui comportent chacun plusieurs champs pétrolifères qu’on ne détaillera pas ici.

MD_CE1G1

Malgré des irrégularités, les courbes présentent bien la configuration décrite précédemment. Le pic pétrolier a eu lieu au tournant de l’année 2000 pour les deux pays et la déplétion paraît inexorable. Les courbes sont très grossièrement symétriques, malgré des différences d’allures entre la montée en puissance et la déplétion des gisements.

Une autre représentation graphique possible consiste à tracer les productions cumulées, ce qui a pour intérêt notamment de limer les irrégularités de production dues à des accidents de conjoncture ou autres causes occasionnelles et non structurelles.

Voici le graphique des productions cumulées.

MD_CE1G2

Ces courbes sont extrêmement intéressantes. Ce sont des « courbes en S » ou « courbes logistiques » 2 (celle de la Norvège est particulièrement caractéristique), avec un point d’inflexion où la pente est maximum et qui correspond à l’époque du pic pétrolier. On voit que ces courbes tendront à la longue vers des maxima qui représentent la capacité des gisements de mer du Nord et seront atteints lors de leur épuisement.

2.3 Production et réserves. Cas de la Norvège.

Il est maintenant intéressant de rapprocher les productions réalisées et les réserves estimées, c’est-à-dire ce qui à chaque instant reste à exploiter dans chacun des gisements compte tenu des extractions antérieures. Les estimations de réserves ont évolué dans le temps, au fur et à mesure des améliorations technologiques, des nouvelles découvertes et de la mise en exploitation de nouveaux puits.

On considèrera le cas de la Norvège. Voici le graphique des estimations de réserves année après année depuis 1980.

MD_CE1G3

Ainsi en 1980, alors qu’avaient déjà été extraites un peu plus de 100 millions de tonnes (Mt) de pétrole, on estimait les réserves à 400 Mt, ce qui signifie que le gisement de l’époque (site Ekofisk pour l’essentiel) était crédité d’une capacité d’environ 500 Mt.
Par la suite, la découverte puis la mise en exploitation de sept autres sites ont conduit à réévaluer régulièrement les réserves. A l’époque du pic pétrolier, on estimait les réserves à environ 1 400 Mt alors que 2 000 Mt avaient déjà été extraites. En 2014, environ 3 500 Mt ont déjà été extraites et on estime à 1 000 Mt ce qui reste (une nouvelle découverte a été faite en 2012), soit si ce dernier chiffre est confirmé une capacité totale de 4 500 Mt dont l’horizon d’épuisement n’est évidemment pas connu (on cite parfois la date de 2040).
La capacité estimée des gisements norvégiens de la mer du nord a donc été multipliée par 10 en trente ans 3.

3. Production et consommation mondiales de pétrole.

3.1 Évolution de la production et de la consommation.

On sait que les ressources pétrolières sont très inégalement réparties dans le monde, ce qui tient à l’histoire géologique des continents. L’équilibre entre la production et la consommation ne peut donc être assuré que globalement et moyennant un ensemble d’exportations et d’importations massives par voie maritime ou terrestre.

Le graphique suivant représente l’évolution de la production et de la consommation mondiales depuis un demi-siècle. La série ne commence qu’en 1965, origine des séries des statistiques BP.

MD_CE1G4

On peut constater visuellement que les deux courbes sont très proches l’une de l’autre, voire souvent confondues.

Il y a donc eu une adéquation satisfaisante entre offre et demande mondiale, les faibles écarts annuels étant peu significatifs (stocks de fin d’années, etc.) : on ne note sur longue période ni surproduction notable ni pénurie notable, en dépit de troubles fréquents au Moyen-Orient 4. Autrement dit, la demande globale des consommateurs a déterminé l’offre des producteurs, laquelle s’est adaptée sans difficultés apparentes.

La production annuelle, fortement croissante jusqu’en 1973, s’est ensuite notablement ralentie. Puis les deux périodes troublées de 1973-1974 et de 1979-1982 marquées par les deux « chocs pétroliers » ont profondément perturbé le rythme de production ; ces évènements sont bien visibles sur la courbe ; on se rappelle que ces périodes ont connu des augmentations de prix très importantes ; on ne reviendra pas sur les évènements qui ont déterminé ces deux épisodes appartenant maintenant au passé éloigné.

Depuis 1983 environ, la production annuelle a crû de façon pratiquement linéaire, d’où l’allure rectiligne de la courbe malgré quelques irrégularités.

On ne décèle pas (disons « pas encore ») d’allure « en cloche ». A s’en tenir à l’aspect visuel, il semble donc que l’on soit encore loin du maximum de production caractéristique d’un « pic pétrolier ».

3.2 Production mondiale cumulée.

Comme pour les deux États analysés précédemment, il est possible de tracer la courbe de la production mondiale cumulée. C’est l’objet du graphique suivant.

La série BP ne commence qu’en 1965 ; à cette époque, la production cumulée était d’environ 25 milliards de tonnes (Gt), on a donc translaté la courbe de 25 Gt vers le haut pour obtenir la production cumulée depuis l’origine.

MD_CE1G5

La courbe de production annuelle n’accusait pas de forme « en cloche », il n’est donc pas surprenant que la courbe de production cumulée ne manifeste pas d’allure « en S ». Le pic pétrolier ne parait pas être actuellement en vue.

4. Évolution des réserves estimées.

On a vu sur l’exemple des gisements de la mer du Nord que les réserves avaient été réévaluées en permanence, au fur et à mesure de la meilleure connaissance des gisements exploités et de la découverte de gisements supplémentaires.

La notion de réserves « prouvées » généralement utilisée correspond aux réserves détectées et exploitables selon des technologies existantes ou en cours de mise au point. Contrairement aux productions et aux consommations, qui sont des données observées, les réserves résultent d’estimations déclarées par les compagnies pétrolières ou les États.

Il peut certes exister des surestimations et de sous-estimations dues à des erreurs d’appréciation ou à des arrière-pensées stratégiques. Toutefois, il est permis de considérer que ces approximations se compensent plus ou moins et que les ordres de grandeur globaux sont à peu près fiables.

Le graphique suivant représente l’historique des réserves « prouvées » selon la série statistique de BP, qui ne commence qu’en 1980. Comme la série longue est exprimée en barils, on l’a convertie en tonnes en utilisant le ratio BP de 2013 (soit 7,1 barils par tonne).

MD_CE1G6

En 1980, la production cumulée était de 65 Gt et les réserves étaient estimées à 100 Gt, soit 65 + 100 = 165 Gt de capacité totale.
En 2013, la production cumulée a atteint 185 Gt et les réserves sont estimées à 240 Gt, soit 185 + 240 = 425 Gt de capacité totale 5.

La capacité totale estimée est donc passée en trente ans de 165 à 425 Gt, soit une multiplication par 2,5.

Une autre manière de présenter l’évolution des réserves estimées est d’utiliser le ratio : « rapport entre réserves estimées en fin d’année et production de la même année », soit R/P, ce qui donne la durée qui resterait à courir jusqu’à épuisement des réserves dans le cas – tout théorique évidemment – où la production se stabiliserait au niveau actuel.

Ce ratio était :
En 1980, de 100 / 3 = 33 ans.
En 2013, de 240 / 4,1 = 58 ans 6.

Par conséquent, l’horizon d’épuisement des ressources pétrolières n’a cessé de s’éloigner au fil des années malgré la croissance de la production annuelle, sous l’effet des progrès technologiques et des nouvelles découvertes. Or d’une part les progrès technologiques n’ont aucune raison de s’interrompre et d’autre part de nouvelles découvertes sont d’ores et déjà prévisibles (les régions arctiques notamment sont âprement convoitées, mais pas seulement). Enfin les gisements non conventionnels (dont les schistes) peuvent révéler des ressources nouvelles.

Il est donc assez vraisemblable que les réserves continueront à être régulièrement réévaluées, et peut-être de façon notable, quoique les pronostics chiffrés en la matière restent hasardeux.

5. Évolution de la consommation de pétrole.

5.1 Le rapport Meadows.

Il est intéressant d’évoquer ici une étude qui a fait grand bruit vers 1970 : il s’agit du rapport « Meadows » du nom des deux auteurs (Massachusetts Institut of Technology, MIT), publié sous le titre « The Limits to Growth » (les limites de la croissance). Ce rapport a malheureusement été dévoyé par le tristement célèbre « club de Rome » spécialisé dans les prévisions aussi catastrophistes qu’erronées, sous le titre français « Halte à la croissance ? » (le point d’interrogation étant toutefois de rigueur), qui politisait et dramatisait ce travail pourtant méthodique et méritoire compte tenu des connaissances et des moyens de calculs de l’époque. Dans ce rapport (tableau 4A) les auteurs estimaient au minimum les réserves de pétrole à 455 milliards de barils, soit environ 65 Gt (s’ajoutant à environ 35 Gt déjà extraites). Mais ils émettaient l’hypothèse complémentaire (note n°4 du tableau 4A) qualifiée d’ « optimisée » que les réserves puissent être 5 fois plus importantes, ce qui donnait donc une capacité totale d’environ 5 x 65 + 35 = 360 Gt. On notera que ce chiffre n’est pas très éloigné des estimations actuelles (425 Gt comme on a vu).

Toutefois, dans cette hypothèse « optimisée », les auteurs concluaient à un épuisement des ressources mondiales au bout de 50 ans, c’est-à-dire en 2020, ce qui cette fois s’est révélé totalement erroné.

En fait, l’erreur d’appréciation des consorts Meadows était d’avoir basé leurs calculs prévisionnels sur la poursuite d’une croissance exponentielle de la consommation, donc de la production. C’est en effet ce qui avait été observé depuis la fin de la seconde guerre mondiale (les « trente glorieuses ») 7 mais il n’était guère plausible que ce type de croissance se prolonge très longtemps, compte tenu du caractère exceptionnel de cette période de remise en marche de l’économie mondiale.

On vient de voir en effet que la croissance s’était bien assagie depuis lors.

5.2 Tendances actuelles.

La tendance générale dont on vient de parler dissimule de fortes disparités entre les grandes régions du monde, comme l’indique le graphique suivant.

MD_CE1G7

On a fait débuter ce graphique en 1980 pour éliminer la période peu significative des deux chocs pétroliers.

On voit que les pays les plus développés : Amérique du nord, Europe, Japon, Australie, Corée du sud, ont stabilisé puis diminué leurs consommations sous l’effet des politiques d’économies d’énergie puis de la crise financière de 2008. La Russie et les pays voisins quant à eux ont stabilisé leurs consommations depuis l’effondrement de l’URSS.
La consommation totale de ces pays développés et assimilés représente actuellement environ la moitié de la consommation mondiale.

En revanche, la consommation du reste du monde est en croissance régulière, surtout en Asie.

Du fait de ces évolutions contraires, la croissance annuelle de la consommation mondiale de pétrole est sensiblement linéaire et actuellement inférieure à 1,2% (en la calculant sur une dizaine d’années). Elle a notamment été de 1,1% entre 2012 et 2013.

5.3 Un peu de prospective.

Il est peu vraisemblable que l’on assiste à une « explosion » de la demande de pétrole dans les pays en développement ni à un renversement des politiques d’économies d’énergie dans les pays développés. C’est pourquoi une prolongation de la tendance actuelle (observée depuis trente ans rappelons-le) pendant encore quelques décennies n’est pas une hypothèse déraisonnable. Simplement à titre d’exercice, supposons donc que la consommation, qui était de 4,1 Gt en 2013, continue à croître linéairement à partir de cette date au rythme de 1,2% par an sans s’infléchir. Pour parvenir à épuiser les réserves estimées actuelles (soient 240 Gt) le calcul montre qu’il faudrait environ 45 ans 8 ce qui conduit à l’horizon 2060 environ. Cette première estimation est déjà intéressante en soi.

Mais les choses pourraient évoluer de façon différente. En effet, comme dans de nombreux autres domaines de la consommation et du mode de vie, il est probable que l’ensemble du monde se rapprochera peu à peu des standards occidentaux. A moyen ou long terme la consommation des pays en développement, et donc la consommation mondiale, devrait donc progressivement tendre vers une stabilisation puis une décroissance.

Par ailleurs, les réserves estimées ont toutes chances d’augmenter encore dans les prochaines décennies pour les raisons indiquées précédemment. Enfin, il est illusoire de penser que pour des raisons idéologiques ou autres le monde puisse laisser en place la moindre réserve accessible de cette matière première à haute valeur énergétique et pratiquement irremplaçable dans de nombreux domaines.

En partant de ces prémisses, il n’est pas déraisonnable de considérer que le monde disposera encore de ressources pétrolières au moins jusqu’à la fin du XXIème siècle, le « pic » s’étant produit entre temps.

Bien entendu, il n’est pas interdit de préparer l’ « après-pétrole », mais méthodiquement et calmement, et sans permettre aux émotions, aux préjugés, aux idéologies et aux mensonges institutionnels de prendre le pas sur les considérations scientifiques. Il n’est pas certain que le monde ait cette sagesse, et c’est là la principale incertitude.

1 Par « gisement », on peut entendre un champ précis, ou un ensemble de champs situés dans un secteur donné, ou encore les ressources totales d’un Etat, voire une région du monde ou même le monde entier comme on va le voir.
2 Ce type de courbe présente un caractère universel ; on la rencontre dans un très grand nombre de phénomènes : psychologie, biologie, sociologie, physique, etc. Mathématiquement, la courbe en S est la dérivée de la courbe en cloche.
3 Notons que la Norvège, qui possède des eaux territoriales en océan Arctique, envisage désormais l’exploitation de ces ressources pour assurer le relais de celles de la mer du Nord.
4 Les fluctuations parfois importantes des cours du pétrole brut au cours de la période semblent répondre à de tout autres causes que la simple loi de l’offre et de la demande, causes que l’on n’analysera pas ici.
5 BP tient un compte à part de deux gisements particuliers : les sables bitumineux du Canada et le gisement Orinoco du Venezuela, pour des raisons qui ne seront pas exposées ici. Ces deux réserves cumulées représenteraient environ 60 Gt supplémentaires. Le présent graphique ne les prend pas en compte.
6 BP donne en 2013 un R/P plus faible (53,3 ans), pour des raisons non élucidées. Si on tenait compte des réserves supplémentaires du Canada et du Venezuela, le R/P serait de 70 ans.
7 Cette erreur était courante à l’époque. Elle avait déjà été celle du révérend Thomas Malthus, un siècle et demi plus tôt. Il serait hasardeux de considérer qu’elle a été totalement éradiquée de la pensée scientifique…
8 Et 54 ans si l’on prend en compte les 60 Gt de réserves supplémentaires du Canada et du Venezuela, ce qui conduit à l’horizon 2070 environ.

BRÈVES CONSIDÉRATIONS SUR LA SCIENCE DU CLIMAT

Facebooktwitter

1/ Les sciences en général.

L’histoire nous apprend que les sciences sont en perpétuelle évolution. On ne peut ouvrir une revue scientifique sans trouver une formule telle que : « contrairement à ce qu’on pensait jusqu’à présent, une nouvelle découverte vient de démontrer que… ». Et ceci jusqu’à ce qu’une nouvelle découverte « démontre » le contraire.
Aucune science ne détient sa vérité définitive, sinon comment expliquer l’extraordinaire développement de la recherche scientifique mondiale (actuellement près de 8 millions de chercheurs selon l’UNESCO). Toutes les sciences sont sujettes à des controverses voire à des bouleversements et la vérité d’aujourd’hui n’est pas celle de demain.
Il y a certes des faits ou des théories sur lesquels un accord peut s’établir momentanément parmi la majorité des scientifiques, mais il est prudent et raisonnable de laisser les questions ouvertes.
Les qualités maîtresses d’un scientifique devraient donc être la modestie et le scepticisme1, ainsi que la franchise d’admettre les incertitudes qui affectent toute théorie et même toute observation.
Bien entendu, les hommes étant ce qu’ils sont, chacun défend son point de vue du moment avec ardeur et il s’ensuit des polémiques parfois animées, inévitables et au fond salutaires. Mais il existe une dérive particulièrement dangereuse : l’établissement d’un dogme officiel, appuyé sur des institutions qui n’admettent aucune remise en cause et prononcent l’anathème à l’égard des contestataires du dogme. On aboutit ainsi à une science « officielle », caractéristique notamment des régimes totalitaires, et qui n’est plus de la science.
Rappelons que la véritable démarche scientifique consiste, non à vérifier l’exactitude d’une thèse, mais au contraire à rechercher les faits qui pourraient la contredire 2.

2/ La climatologie.

La climatologie quant à elle est une science récente : jusqu’au milieu du XXème siècle, elle était considérée comme une branche de la géographie physique et se distinguait mal de la météorologie. La qualification de « climatologue » n’est apparue qu’en 1950. En outre, ce n’est que depuis la fin des années 1970 qu’elle dispose de moyens d’investigation entièrement nouveaux et révolutionnaires, avec en premier lieu les satellites d’observation, sans parler des moyens de calculs. Il en résulte un hiatus inévitable entre les archives météorologiques et climatiques traditionnelles et les observations des quatre dernières décennies, et leur raccordement est délicat.
De plus, ces nouveaux moyens ont paradoxalement contribué à mettre en évidence l’extrême complexité des phénomènes climatiques. Comme toutes les autres mais encore moins que les autres, la science du climat ne peut être considérée comme établie ; les connaissances évoluent sans cesse et les controverses abondent. Cette discipline scientifique récente devrait se faire une obligation particulière d’admettre les nombreuses incertitudes qui y règnent et y règneront encore longtemps.
Les instances internationales (ONU et Organisation météorologique mondiale OMM) ont jugé utile de se doter en 1988 d’un organisme intergouvernemental, le GIEC (groupe intergouvernemental sur l’évolution du climat)3 chargé de faire périodiquement la synthèse des publications scientifiques. Cette institution présente certes des avantages mais elle présente deux inconvénients majeurs : d’une part la mission qui lui est explicitement confiée est de mettre en évidence les effets des activités humaines sur le climat, effets qui par définition ne peuvent être que néfastes ; d’autre part elle incarne une sorte de science officielle. Ces défauts n’étaient pas inévitables et auraient pu être corrigés, mais une telle correction devient de plus en plus difficile. En effet les rapports du GIEC, très copieux (plus de mille pages), sont précédés par un résumé à l’intention des gouvernements, dans lequel sont omis volontairement les incertitudes, les controverses et les problèmes non résolus. En outre chaque nouveau résumé évite de trop remettre en cause le précédent ce qui ferait mauvais effet.
Les gouvernements qui évidemment ne lisent et ne comprennent que le résumé, sont trop heureux de disposer d’un document qui leur offre une sorte de garantie et leur évite des hésitations et des cas de conscience. Ils considèrent donc les rapports du GIEC comme un dogme intangible.
S’ajoutent à cela les influences de certaines écoles de pensée, de certains intérêts industriels et financiers, et bien entendu des médias.
Cette circonstance est aggravée par le fait que nombre de scientifiques eux-mêmes, oubliant leurs principes fondamentaux, succombent à la tentation du « consensus » (si commode et si confortable), du dogmatisme, voire de l’intolérance. Ceux de leurs collègues qui dérogent à la vérité officielle sont alors taxés d’incompétence, de mauvaise foi voire pire encore, et se voient parfois injuriés, menacés, entravés dans leur carrière ou tout simplement interdits. Les choses sont en train de changer notablement grâce à internet, mais il en reste une ambiance délétère, qui conduit à des outrances de langage et de comportements et qui de toute façon n’est pas propice aux progrès des connaissances.

3/ Les idées dominantes actuelles et les controverses climatiques.

Il faut insister encore sur les innombrables incertitudes qui entourent la science climatique, et sur l’intensité des débats et des productions scientifiques contradictoires. Ces controverses qui se déroulent essentiellement en langue anglaise sont ignorées du grand public et même des gouvernants, mais n’en sont pas moins intenses.
En réalité, le « consensus » souvent allégué comme argument d’autorité n’existe pas, et c’est mieux ainsi car le consensus risque de conduire à l’immobilisme et à la stérilité.
Toutes les affirmations concernant le climat sont donc à considérer avec une certaine circonspection. Il peut certes être utile de disposer à chaque instant d’un corps de doctrine pour agir – si l’on juge nécessaire d’agir : l’attitude scientifique consiste alors à considérer ce corps de doctrine comme provisoire, valable jusqu’à nouvel ordre, et à ne pas dissimuler son aspect provisoire aux personnes qui décident, c’est à dire aux pouvoirs politiques. Affirmer une certitude en ce domaine incertain est un déni de science et peut conduire à des décisions inadaptées.
L’article de foi fondamental de la science officielle est que l’homme altère le climat en émettant des gaz dits « à effet de serre », en premier lieu du dioxyde de carbone CO2. Ce gaz ne représente dans l’atmosphère qu’environ 400 parties par million, soit 0,04% mais il est à la base de la Vie.
Les mesures directes et continues de concentration du CO2 dans l’atmosphère remontent à 1958 et l’observatoire le plus connu se trouve à Mauna Loa sur une montagne de 4 000 m d’altitude de l’une des îles d’Hawaï. L’augmentation régulière des concentrations ainsi mesurées depuis 54 ans semble digne de foi : de 316 ppm en 1959 la concentration est passée à 396 ppm en 2013, avec une augmentation annuelle qui est actuellement d’environ 2 ppm par an (et semble tendre vers une croissance linéaire, mais sous toutes réserves).
Les concentrations de CO2 antérieures à 1958 ne sont connues qu’imparfaitement et donnent lieu à des estimations divergentes : le chiffre de 280 ppm avant l’ « ère industrielle » (disons vers 1850) est souvent cité comme probable.
Par ailleurs, il est indéniable que les activités humaines émettent du CO2 surtout en brûlant des combustibles fossiles (charbon, pétrole et gaz naturel) pour chauffer, produire de l’électricité et transporter ; une partie de ce surcroît de CO2 se retrouve dans l’atmosphère, expliquant ainsi l’augmentation des concentrations.

graph_0

Le diagramme ci-dessus montre que les émissions anthropiques n’ont commencé à croître de façon significative qu’au lendemain de la seconde guerre mondiale. Toutefois la comparaison entre les émissions calculées et les concentrations mesurées semble montrer que seule environ la moitié du volume de CO2 émis se retrouve dans l’atmosphère, le reste étant probablement absorbé par les océans et les végétaux terrestres.
Par ailleurs, l’indicateur considéré comme fondamental par la science officielle est la température globale de la basse atmosphère, sur laquelle la concentration en CO2 est censée influer. Or les mesures de températures « globales » de l’atmosphère sont récentes : ce n’est qu’à partir de 1979 qu’on dispose de séries homogènes de températures grâce aux satellites d’observation : cinq organismes officiels principaux en analysent les données, complétées le cas échéant par des mesures par ballons-sondes et stations au sol. Ils publient des séries mensuelles (pour le globe entier, pour chaque hémisphère, pour les terres et les océans, ou encore selon des tranches de latitudes). Certains de ces organismes (notamment Hadley Center au Royaume-Uni) ont raccordé ces mesures à des séries antérieures à l’ère satellitaire. Les séries du Hadley Center ne semblent pas actuellement être contestées et on peut les prendre comme référence.
Pour conclure :
1/ si le CO2 a pu influer de façon significative sur la température globale ce n’est qu’à partir des années 1950.
2/ ce n’est que depuis 35 ans (1979) que l’on dispose de jeux de mesures continues et homogènes permettant de mettre en regard la concentration de CO2 et la température de la basse atmosphère. Cette durée est relativement courte si l’on considère les cycles des variations climatiques de long terme, mais elle n’est tout de même pas négligeable.

4/ Les concentrations en CO2 et les températures globales.

A titre de première illustration, voici les diagrammes des concentrations en CO2 et des températures globales entre 1979 et 2013 (période satellitaire). Concernant les températures relatives, l’indicateur est le « hadcrut4 » du Hadley Center, organisme participant activement à la science officielle (mais les quatre autres organismes principaux fournissent des graphiques d’allures très voisines).

graph_1

Les échelles ont été choisies de façon à faire coïncider les origines des deux courbes. De 1979 à 1998, la courbe des températures est à peu près « parallèle » (aux fluctuations annuelles près) à celle des concentrations.
Depuis 1998, elle s’en écarte progressivement car les concentrations continuent à augmenter alors que les températures sont pratiquement stagnantes depuis plus de 15 ans ; ce phénomène connu sous le nom de « pause » ou de « hiatus » laisse perplexe les climatologues officiels, qui après l’avoir nié ont déjà imaginé une dizaine d’explications plus ou moins ingénieuses.
On peut aussi remonter plus loin dans le temps, en utilisant la série hadcrut4 entre 1850 et 1979, et en reculant vers le passé la courbe des concentrations, à partir d’une valeur plausible de 280 ppm en 1850 et en essayant de donner à la courbe rétropolée une allure compatible avec la courbe mesurée de 1959 à 2013.

graph_2

On voit que la divergence constatée depuis 1998 n’est pas sans précédents, et que la température globale estimée par Hadley Center, au-delà des inévitables fluctuations annuelles, a connu par le passé plusieurs changements de tendances notables. C’est notamment le cas entre 1910 et 1945, période d’augmentation des températures dont l’allure rappelle celle de 1975-1998. Cette augmentation ne semble pas avoir encore trouvé d’explication. Pas plus d’ailleurs que la baisse observée entre 1945 et 1975 ; on peut rappeler que la science officielle, à cette époque, évoquait un retour à un âge glaciaire, évidemment considéré comme redoutable.
Cette période est d’ailleurs paradoxale puisqu’elle correspond précisément au moment où les émissions anthropiques ont commencé à croître fortement.
C’est dire que l’existence d’une relation de cause à effet entre la concentration en CO2 et la température globale n’est pas manifeste. Alors que la concentration en CO2 augmente assez régulièrement, les températures évoluent de façon relativement erratique, ce qui suggère que de nombreux autres facteurs sont à l’œuvre. Il est courant d’entendre citer notamment l’activité solaire, le rôle des océans (oscillations atlantiques et pacifiques), le volcanisme, les aérosols industriels, etc. mais aucune corrélation probante n’a encore été
démontrée.
La science officielle continue cependant à affirmer que le CO2 est le facteur très prépondérant et à baser ses modèles prédictifs sur cette hypothèse. De nombreux modèles sont ainsi élaborés par une quantité d’universités et de centres de recherche.
Un chercheur de l’université d’Alabama à Huntsville, (UAH est l’un des cinq organismes produisant des séries mensuelles de températures basées sur les données satellitaires), a compilé 90 de ces « modèles » officiels et les a comparés aux mesures effectives de températures, en prenant comme origine l’année 1983.
La courbe en noir représente la moyenne des modèles ; les courbes en vert et bleu les mesures effectives, respectivement selon hadcrut4 et UAH.
On peut évidemment critiquer ce graphique sur tel ou tel détail, mais, sans même lui attacher une importance excessive, on peut faire deux observations :
1/ le chevelu des modèles présente une dispersion considérable qui s’accroît au fil des années.

graph_3

2/ les modèles, qui jusqu’en 1998 reproduisent à peu près l’allure des températures mesurées, quoique déjà avec une dispersion notable, surestiment de plus en plus les températures au fil des années : en 2013, pratiquement toutes les prévisions des modèles sont en dehors de la plage des mesures.
Il n’est pas possible de préjuger de la suite des évènements, mais on peut au moins se montrer méfiant quant à la capacité de ces modèles à prédire de façon fiable les températures globales à des horizons éloignés comme 2050 ou 2100.
Or c’est ce que n’hésite pas à faire le GIEC, non sans accompagner ces pronostics de hausses de températures par toutes sortes de perspectives inquiétantes dans les domaines physiques, biologiques et sociologiques.

5/ Les évolutions climatiques du passé récent et de l’avenir.

Les historiens du climat nous apprennent que la terre a connu des alternances de périodes « froides » et de périodes « chaudes ». Au cours du dernier millénaire, on a identifié notamment une période chaude qualifiée d’ « optimum climatique médiéval » de 800 à 1200 environ, puis un « petit âge glaciaire » qui aurait débuté vers 1300 et aurait pris fin un peu avant 1900. Ces périodes sont surtout documentées pour l’hémisphère nord pour des raisons évidentes puisque les phénomènes observés sont essentiellement terrestres : végétation, récoltes, famines, avancées et retraits des glaciers, gel des cours d’eau et des ports, etc.
On a aussi observé que les périodes froides, dont le petit âge glaciaire, avaient coïncidé avec des périodes de faible activité solaire (« minima » de Wolf, de Spörer, de Maunder, de Dalton »), ce qui fait penser que le soleil a une influence majeure sur le climat terrestre ; toutefois, la preuve scientifique rigoureuse n’en a pas été apportée.
On peut faire au moins deux observations :
1/ les périodes plus chaudes sont considérées implicitement ou explicitement comme bénéfiques ;
2/ le petit âge glaciaire étant supposé avoir pris fin dans la seconde moitié du XIXème siècle, il n’est pas surprenant d’avoir observé depuis lors une hausse des températures, que l’on devrait donc considérer comme bienvenue. Cette hausse, selon les courbes hadcrut4 du Hadley Center, aurait été d’environ 0,8°C entre 1850 et 1998.
D’un côté personne ne semble regretter l’époque où la Seine, la Tamise ou l’Hudson étaient souvent prises de glaces en hiver, et où le glacier des Bossons menaçait Chamonix, etc. Pour preuve les propos alarmistes qui avaient cours dans les années 1960-1970.

Mais à l’inverse, on nous explique que toute augmentation supplémentaire des températures aurait nécessairement des effets néfastes voire catastrophiques 4.
Ce qui en clair signifie que nous bénéficions actuellement d’une sorte d’ « optimum climatique » ou d’ « âge d’or ». Mais, loin de nous rendre heureux, cette circonstance redouble au contraire notre angoisse puisque cet optimum ne pourra évidemment être qu’éphémère comme nous l’enseigne l’histoire du climat.
Curieux état d’esprit.

Voici encore quelques remarques.
Le langage officiel a évolué récemment : on parle de moins en moins de « réchauffement climatique » (puisque celui-ci semble s’être interrompu momentanément, ce qui commence à se savoir), mais plutôt de « changement climatique » voire de « dérèglement climatique », termes suffisamment vagues pour ne permettre aucune vérification.
Le GIEC, dans son cinquième rapport (en cours de parution) considère comme improbable qu’une évolution des températures puisse avoir une influence sur les évènements météorologiques dits extrêmes (sécheresses, inondations, tempêtes, cyclones, etc.), ce que confirment d’ailleurs les statistiques disponibles.
L’extension des glaces polaires mesurées par satellites depuis 1979 a diminué au pôle nord mais augmenté au pôle sud, là encore pour des raisons mal comprises. La population des ours polaires, autant qu’on sache, ne manifeste pas de diminution significative.
Une étude récente (Journal of Geophysical Research, 4 mars 2014) a « démontré » que les glaciers du Tibet intérieur gagnent du volume depuis dix ans, alors que d’autres glaciers voisins en perdent, les gains et les pertes semblant s’équilibrer.
Les îles Maldives, dont on nous annonce la submersion prochaine du fait de l’élévation du niveau des mers, ne paraissent pas menacées outre mesure si l’on en juge par les données du marégraphe GAN II (source PSMSL) : depuis au moins vingt ans, ce niveau fluctue autour d’une valeur moyenne, sans aucune tendance à la hausse.

graph_4

On pourrait ainsi multiplier les exemples de données mesurées qui ne montrent aucune tendance à une « aggravation » préoccupante qui nécessiterait des dispositions urgentes et drastiques comme on tente de nous les imposer.
La seule justification de ces dispositions drastiques repose sur des « modèles » très incertains qui ne risquent rien à « prédire » des phénomènes pour la fin du vingt et unième siècle puisque à cette échéance, leurs auteurs seront tous morts.
Il serait plus efficace de programmer dans le calme des moyens de faire face aux phénomènes météorologiques dangereux mais ancestraux, périodiques et inévitables, CO2 ou non.

On peut être surpris de l’alarmisme qui règne depuis maintenant quelques décennies et qui semble être soigneusement entretenu. Les explications paraissent tenir beaucoup plus de la politique et de la sociopsychologie que de la science.
N’oublions pas que la mission explicite du GIEC est, en caricaturant, de trouver coûte que coûte des « raisons » de sonner en permanence le tocsin.

La science climatique aura du mal à s’extraire de cet engrenage qui lui rapporte des crédits sans précédent, des voyages nombreux, luxueux et gratuits, des soutiens idéologiques, la considération publique et bien d’autres avantages. Si décidément la réalité ne confirme pas les pronostics, le retour de bâton risque d’être douloureux, y compris pour la science en général.

6/ Conclusion provisoire.

Il n’est nul besoin d’entretenir une frayeur universelle alimentée par des prévisions climatiques hasardeuses et invérifiables pour convaincre les opinions publiques et leurs gouvernements que l’on peut faire mieux en matière d’énergie et de bien-être.
La focalisation sur des risques de long terme éventuellement imaginaires aboutit à un gaspillage considérable de moyens financiers et de talents, alors que des problèmes actuels et bien réels sont à résoudre notamment chez les populations déshéritées de la planète. Il est inutile d’énumérer ces problèmes, que tout le monde connaît.
Personne ne doute qu’il soit utile de réaliser des économies d’énergie, d’exploiter intelligemment les ressources fossiles forcément limitées quoiqu’encore considérables, de rechercher des sources d’énergie originales, d’améliorer le bien-être de l’humanité et de se protéger contre les inévitables caprices de la planète.
Le génie humain, qui est, lui, illimité, a de tous temps trouvé les moyens de résoudre les difficultés et de franchir les obstacles qui se sont présentés. Il a su anticiper raisonnablement ces difficultés et ces obstacles. Il en fera de même dans l’avenir.

On sait que la peur est mauvaise conseillère. Les marchands de peur ne sont jamais de bons conseillers.

1 Au sens noble du terme : le « sceptique » des philosophes grecs est celui qui examine, qui considère avec attention. En d’autres termes celui qui exerce son esprit critique.
2 Exemple classique : si l’on veut vérifier la thèse « tous les cygnes sont blancs », la méthode ne consiste pas à chercher tous les exemples de cygnes blancs, mais au contraire à rechercher minutieusement si par hasard il n’existe pas quelque part un cygne noir ; si c’est le cas (et c’est le cas), la thèse est fausse, et il faut l’abandonner.
3 En anglais IPCC (intergovernemental panel on climate change).
4 On nous a annoncé que les gouvernements ont décidé (sic) d’un commun accord de limiter la hausse de la température à 2°C, par rapport à une référence d’ailleurs mal définie (début de la période industrielle ? températures actuelles ?). Le ridicule de cette proposition ne semble avoir choqué personne.