Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

17
Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ? OLIVIER BARRE (1) , YANN PANKOW 2) (1) Lycée G.EIFFEL , France, (2) LABORELEC, Belgique Email : [email protected] . 1. Introduction En 1887, Edison avait promis que l’énergie électrique serait tellement bon marché que seuls les « riches » pourraient continuer à s’éclairer à la bougie. Cette promesse d’un autre âge nous rappelle les débuts de l’utilisation de l’énergie électrique où elle était considérée comme la seule source d’énergie d’avenir. Cela ne masque cependant pas le fait que sans source d’énergie primaire, les centrales électriques sont dans l’incapacité de délivrer cette précieuse marchandise et sans ligne de transport, celle-ci ne peut pas arriver au point d’utilisation. Les premières lignes électriques transportaient du courant continu et il fallait installer une centrale tous les deux miles pour compenser les pertes. Il n’y avait, bien sûr, pas de chutes d’eau exploitables tous les deux miles. Le conflit, qui opposa Edison à Westinghouse, vit la victoire du courant alternatif. La première centrale hydroélectrique du monde, la « Niagara Falls Power Company » se mit au courant alternatif et en 1896 la distribution de l’énergie électrique en courant alternatif se généralise. Pourtant, pour certaines applications, comme le transport sur les longues distances, les pertes en courant continu sont plus faibles. 2. Production à la demande. La principale caractéristique de ce vecteur d’énergie est sa difficulté à être stocké. Les condensateurs arrivent à des densités d’énergie proches de 20 Wh/kg et les cellules de polymère de lithium peuvent atteindre 150 Wh/kg. Le résultat est, que globalement, il est difficile d’atteindre les 12 000 Wh/kg du pétrole. En poursuivant la comparaison, nos ordures ménagères avec 2 500 Wh/kg semblent plus prometteuses. Dans une structure où le stockage est difficile, il faut produire la quantité demandée par les utilisateurs et prévoir, bien à l’avance, les possibilités d’adaptation [1]. L’énergie électrique se stocke mal, se transporte avec des pertes non négligeables mais heureusement elle est facile à produire avec un bon rendement (Fig. 1). De plus, la mutualisation des sources est un des éléments qui palie aux difficultés de stockage ou à la défaillance d’une source. Il est enseigné, dans toutes les filières associées au génie électrique, que la fréquence de la tension délivrée par le réseau est de 50 Hz. Cette constatation se double généralement d’une conclusion sur l’invariabilité de Résumé : Les premiers pas de l’industrie de production, de transport et de distribution de l’énergie électrique commencèrent en 1882 quand les dynamos de la « Edison Electric Light Compagny » produisirent le courant nécessaire aux 1 200 lampes et lampadaires installés dans les quartiers New-Yorkais de Wall Street et Manhattan. Même si l’avenir montra que le courant alternatif était le plus intéressant, il n’en est pas moins vrai que cette première expérience provoqua, en très peu de temps, la création de l’ensemble des équipements que l’on connait aujourd’hui. Qui n’a pas une fois dans sa vie changé un fusible ou réenclenché un disjoncteur ? Techniquement, la concentration des unités de production est avantageuse pour accroitre les rendements des équipements. Les densités énergétiques des sources primaires non renouvelables facilitent cet objectif. Les sources vertes, dites renouvelables, n’ont pas cette caractéristique. De plus, leur disponibilité est loin d’être parfaite et rend difficile la gestion de la production par rapport à la demande. Les anciennes règles bien établies évoluent. Il faut, par exemple, prendre en compte des phénomènes aussi simples que les aléas météorologiques. Ceux-ci sont non seulement des éléments perturbateurs pour la consommation, le vent nous conduit à chauffer nos habitations, mais sont aussi des sources pour la production. La production, utilisant les énergies vertes, n’est donc pas une production idéale et elle tend à réduire les perturbations qu’elle peut occasionner. Finalement, ces nouveaux générateurs vont-ils être acceptés comme source d’énergie à part entière ?

description

la production d'énergie électrique utilise des sources primaires non renouvelable. les sources renouvelables n'ont pas les mêmes propriétés et un travail conséquent d'adaptation à grande échelle doit être réalisé.

Transcript of Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

Page 1: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

OLIVIER BARRE(1), YANN PANKOW2) (1)Lycée G.EIFFEL , France, (2) LABORELEC, Belgique Email : [email protected].

1. Introduction

En 1887, Edison avait promis que l’énergie

électrique serait tellement bon marché que seuls les

« riches » pourraient continuer à s’éclairer à la bougie.

Cette promesse d’un autre âge nous rappelle les débuts

de l’utilisation de l’énergie électrique où elle était

considérée comme la seule source d’énergie d’avenir.

Cela ne masque cependant pas le fait que sans source

d’énergie primaire, les centrales électriques sont dans

l’incapacité de délivrer cette précieuse marchandise et

sans ligne de transport, celle-ci ne peut pas arriver au

point d’utilisation. Les premières lignes électriques

transportaient du courant continu et il fallait installer

une centrale tous les deux miles pour compenser les

pertes. Il n’y avait, bien sûr, pas de chutes d’eau

exploitables tous les deux miles. Le conflit, qui opposa

Edison à Westinghouse, vit la victoire du courant

alternatif. La première centrale hydroélectrique du

monde, la « Niagara Falls Power Company » se mit

au courant alternatif et en 1896 la distribution de

l’énergie électrique en courant alternatif se généralise.

Pourtant, pour certaines applications, comme le

transport sur les longues distances, les pertes en

courant continu sont plus faibles.

2. Production à la demande.

La principale caractéristique de ce vecteur

d’énergie est sa difficulté à être stocké. Les

condensateurs arrivent à des densités d’énergie proches

de 20 Wh/kg et les cellules de polymère de lithium

peuvent atteindre 150 Wh/kg. Le résultat est, que

globalement, il est difficile d’atteindre les 12 000

Wh/kg du pétrole. En poursuivant la comparaison, nos

ordures ménagères avec 2 500 Wh/kg semblent plus

prometteuses. Dans une structure où le stockage est

difficile, il faut produire la quantité demandée par les

utilisateurs et prévoir, bien à l’avance, les possibilités

d’adaptation [1]. L’énergie électrique se stocke mal, se

transporte avec des pertes non négligeables mais

heureusement elle est facile à produire avec un bon

rendement (Fig. 1). De plus, la mutualisation des

sources est un des éléments qui palie aux difficultés de

stockage ou à la défaillance d’une source.

Il est enseigné, dans toutes les filières associées au

génie électrique, que la fréquence de la tension délivrée

par le réseau est de 50 Hz. Cette constatation se double

généralement d’une conclusion sur l’invariabilité de

Résumé : Les premiers pas de l’industrie de production, de transport et de distribution de l’énergie électrique

commencèrent en 1882 quand les dynamos de la « Edison Electric Light Compagny » produisirent le courant

nécessaire aux 1 200 lampes et lampadaires installés dans les quartiers New-Yorkais de Wall Street et

Manhattan. Même si l’avenir montra que le courant alternatif était le plus intéressant, il n’en est pas moins vrai

que cette première expérience provoqua, en très peu de temps, la création de l’ensemble des équipements que

l’on connait aujourd’hui. Qui n’a pas une fois dans sa vie changé un fusible ou réenclenché un disjoncteur ?

Techniquement, la concentration des unités de production est avantageuse pour accroitre les rendements des

équipements. Les densités énergétiques des sources primaires non renouvelables facilitent cet objectif. Les

sources vertes, dites renouvelables, n’ont pas cette caractéristique. De plus, leur disponibilité est loin d’être

parfaite et rend difficile la gestion de la production par rapport à la demande. Les anciennes règles bien établies

évoluent. Il faut, par exemple, prendre en compte des phénomènes aussi simples que les aléas météorologiques.

Ceux-ci sont non seulement des éléments perturbateurs pour la consommation, le vent nous conduit à chauffer

nos habitations, mais sont aussi des sources pour la production. La production, utilisant les énergies vertes, n’est

donc pas une production idéale et elle tend à réduire les perturbations qu’elle peut occasionner. Finalement, ces

nouveaux générateurs vont-ils être acceptés comme source d’énergie à part entière ?

Page 2: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

cette fréquence. Il est exact que, pour qu’un générateur

puisse être raccordé au réseau électrique, il doit, avant

toute chose, se synchroniser sur la fréquence du réseau

ainsi que sur sa phase et ses niveaux. Tout couplage au

réseau avec des paramètres différents engendrera de

sévères pointes de courant. En réalité, la fréquence du

réseau varie, car c’est le premier moyen qui permet

d’adapter la production à la demande [2]. Une variation

naturelle de la fréquence, c'est-à-dire de la vitesse de

rotation des générateurs, apparaît dès que la puissance

mécanique envoyée aux générateurs n’est plus

équilibrée par la puissance électrique absorbée par les

utilisateurs. Pour éviter des variations brutales de

puissance consommée ou de puissance produite, les

réseaux de transport sont au moins de taille nationale.

Si une région perd accidentellement une unité de

production, la défaillance est moins préjudiciable si les

autres unités de production nationale peuvent la

compenser. Cette sûreté de fonctionnement a toutefois

un coût : elle ne peut être assurée que si le réseau

national de transport peut acheminer ce manque de

puissance vers la région concernée. Par sécurité, il ne

faut donc pas utiliser les lignes au maximum de leurs

possibilités en fonctionnement normal. Cela impose

des définitions de besoins d’infrastructure à très long

terme [3] [4] [5].

L’histoire montre que les plus grandes catastrophes

sont les conséquences d’incidents insignifiants mais

dont la réunion provoque un effet dévastateur. Lors du

naufrage du Titanic, les vigies n’avaient pas de

jumelles car elles étaient introuvables depuis le départ.

De plus, la mer était trop calme et aucune écume

blanche révélatrice ne pouvait entourer l’iceberg qu’il

allait bientôt percuter.

Le 28 septembre 2003, le réseau électrique italien

s’est écroulé vers 3h30 du matin [6]. Le 4 novembre

2006 le réseau Nord Européen suit la même logique

[7]. Pour la panne d’origine italienne, le premier

élément est la part très importante d’énergie électrique

importée pour assurer le fonctionnement du pays à cet

instant. L’ensemble des liaisons avec les états

limitrophes permettait d’importer jusqu'à 6 000 MW.

Les puissances les plus importantes transitaient par la

France et par la Suisse. Cette nuit là, deuxième

élément, l’importation était déjà au dessus de cette

valeur (6 400 MW environ). Le gestionnaire du réseau

italien avait toutefois en réserve 3 500 MW. L’une des

liaisons avec la France subit un incident technique et la

puissance fut répartie temporairement sur les autres

ouvrages déjà bien chargés. Hélas, côté italien, le

gestionnaire ne fut pas en mesure de rétablir une

situation stable dans les délais impartis. Par mesure de

sécurité, les ouvrages acceptent une surcharge pendant

un temps limité et se mettent automatiquement hors

tension. Finalement, l’un des ouvrages de liaison a

déclenché à 3h25 entraînant avec lui les autres

ouvrages permettant l’exportation d’énergie électrique

vers l’Italie. En quelques minutes, la déconnexion de

l’Italie se fit et les 6 400 MW produits en Europe ne

sont plus utilisés. L’ensemble des générateurs monte en

vitesse face à un surplus général d’énergie mécanique.

Une augmentation de 0,2 Hz de la fréquence de base

est ainsi enregistrée. En Italie, les conséquences furent

plus désastreuses… Ne pouvant compenser la perte de

puissance engendrée par la déconnexion avec les autres

pays Européens, le réseau italien complet s’est mis en

sécurité. Il est maintenant clair que la fréquence est un

indicateur de la bonne adéquation de la puissance

produite et de la puissance consommée.

L’Europe a connu en 2006 une panne similaire.

C'est-à-dire, l’effondrement du réseau suite à la perte

d’un ouvrage. Cet évènement a pris naissance dans le

nord de l’Allemagne, lors de la sortie d’un navire de

croisière du chantier Meyer. Une ligne à haute tension,

sous laquelle ce navire allait passer, devait par mesure

de sécurité être mise hors service. L’opération, prévue

bien à l’avance et ayant fait l’objet de simulation, fut

avancée de quelques heures. Toutefois, il semble que

celle-ci se soit déroulée encore bien plus tôt. L’énergie

transitant sur cette ligne fut reportée sur les ouvrages

voisins qui subirent une surcharge immédiate. Le

temps de réaction des sécurités ne permit pas aux

opérateurs de rétablir une situation stable et cet incident

a conduit au déclenchement en cascade des lignes à

Figure-1 : Avec une production centralisée, de meilleurs rendements

peuvent être obtenus au niveau des équipements de production. Il faut

assurer le transport et la distribution de l’énergie au mieux de la

consommation pour ne pas perdre les effets positifs de la concentration

de la production.

Page 3: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

haute tension européennes. Finalement le réseau

Européen s’est scindé en trois zones (Nord, Nord-est et

Sud-est), comme l’équilibre énergétique n’était pas

réalisé dans chaque zone, les fréquences respectives de

ces réseaux ont évolué. En particulier, la fréquence

dans la zone Nord-est est montée jusqu’à 51 Hz (50 Hz

nominale).

Ces quelques exemples ont fait naître l’idée selon

laquelle l’interconnexion des réseaux est un principe

périmé et générateur de blackout de très grande

ampleur [8]. Il ne faut cependant pas oublier que

l’interconnexion est un processus qui date de l’origine

des réseaux électriques (début du XXème siècle) [8].

La standardisation au niveau de la fréquence a permis

d’associer les différents réseaux indépendants et de

générer des économies d’échelles. Il était ainsi plus

facile de valoriser des ressources énergétiques,

géographiquement éloignées des centres de

consommation. L’interconnexion permet d’apporter

l’énergie dont on ne dispose pas ou plus sur place.

Avec les énergies renouvelables, cette remarque

prendra de plus en plus d’importance. Que fera-t-on les

jours sans vent à proximité des éoliennes [9]… Dans

une situation où les sources d’énergies renouvelables

sont avant tout des sources diluées, il n’est pas

envisageable de se passer de l’interconnexion des

réseaux. Les éoliennes, les panneaux solaires, les

hydroliennes, les barrages… ne sont pas

obligatoirement à proximité des villes ou des centres

industriels. Ils sont avant tout placés là où il y a du

vent, un bon ensoleillement, des courants marins

puissants, une vallée encaissée aisément transformable

en lac artificiel… Quand cette interconnexion est

abordée au niveau Européen, la problématique du

transport devient plus évidente. Un pays qui ne

bénéficie pas d’un ensoleillement favorable ira

naturellement chercher son électricité d’origine

photovoltaïque dans un pays mieux exposé. La figure

N°2 illustre le cheminement d’un transfert de 100MW

de la Suisse vers l’Allemagne. Seul 40% de ces

100MW peuvent directement transiter entre ces deux

pays [10]. Heureusement, ces transferts sont

actuellement fictifs : l’énergie en provenance de Suisse

peut être consommée par les régions françaises

adjacentes et l’énergie envoyée à l’Allemagne peut être

produite par des centrales françaises plus proches.

3. Les limites de la prévision.

Dans la recherche de l’adéquation entre la

production et la consommation, il n’est pas suffisant de

se limiter à l’examen de la fréquence de la tension du

réseau. Tous les opérateurs savent, qu’il faut

impérativement prévoir la consommation, pour mettre

en action les bons moyens de production et ceci de

manière économiquement rentable.

Pour mettre en évidence la nécessité d’avoir une

prévision fiable, il suffit de reprendre un chiffre donné

par une étude anglaise [11]. Une prédiction, dont la

précision diminue de 1% engendre un surcoût de

plusieurs millions de £. A contrario, une bonne

prédiction permet de ne pas exagérer les réserves.

Réaliser des prévisions de productions ne peut se faire

qu’en ayant une bonne image des flux d’énergies

électriques nationaux. Savoir que la demande va

baisser ou augmenter, permet de programmer le

fonctionnement des centrales. Il faut aussi, pour chaque

région, avoir une bonne image des flux d’énergies

internes. Par exemple, une région peut voir sa

consommation baisser et une autre, augmenter. Même

si ces deux évènements s’équilibrent, ce n’est pas pour

autant que les centrales ne doivent pas modifier leur

production. Si la région qui voit sa consommation

augmenter est le sud et celle qui voit sa consommation

baisser est le nord, il serait assez peu judicieux de

fournir le manque d’énergie par l’intermédiaire d’une

centrale située à plus de 800 kms.

Pour mieux mettre en évidence les aspects

bénéfiques de la prévision, un exemple issu d’une

étude américaine va servir de support [11]. En 1999,

une étude fut réalisée sur l’un des réseaux électriques

de Chicago, Illinois. Ce réseau, de conception

classique, desservait des quartiers d’habitation ; les

puissances mises en jeux atteignaient 1 300 kW. La

source d’énergie était une centrale au charbon dont la

commande principale était le flux de charbon vers la

Figure-2 : Répartition du transport d’une puissance de 100 MW entre la

suisse et l’Allemagne. 40 % peuvent transiter directement entre ces deux

pays et 27% doivent faire un détour dans plus de 2 pays successifs.

(Source : Cours de J.L. Julien – Univ. Liège)

Page 4: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

chaudière. En se limitant à cette zone restreinte

d’investigation et en limitant la variable d’action à ce

seul flux, il était possible d’évaluer l’impact des

méthodes de prédiction sur la stabilité du réseau.

L’adaptation aux évolutions de la consommation a

conduit les concepteurs à utiliser les réseaux de

neurones. Le réseau de neurones repose sur

l’utilisation de neurones élémentaires associés entre

eux pour arriver à produire une décision. Le

fonctionnement d’un neurone élémentaire n’est pas figé

car les paramètres associés, comme les coefficients

synaptiques, peuvent être modifiés à tout moment.

Tout comme les neurones réels, il faut une phase

d’apprentissage. Face à des situations ponctuelles,

définies comme situation d’apprentissage, Le réseau

s’adapte de manière à se conformer aux décisions déjà

prises. Le réseau peut ainsi se modifier au fur et à

mesure sans pour autant perdre ses règles antérieures.

Les prédictions issues des réseaux de neurones ne sont

jamais conformes aux consommations réelles mais

restent meilleures que celles issues des méthodes

conventionnelles. Il apparait finalement, qu’au moyen

de cette étude, la prédiction est suffisante pour que le

système de production ne soit pas sollicité à l’excès. Le

différentiel de puissance existant entre la prédiction et

la demande réelle est suffisamment faible pour être

totalement pris en charge par la centrale. C'est-à-dire,

que la centrale ne sera pas dans une situation où elle est

en limite de fonctionnement, la commande de la

chaudière n’atteindra jamais 100%. Elle pourra

toujours fournir à temps l’énergie électrique demandée,

sans pour autant se servir de l’énergie mécanique

stockée dans ses éléments tournants. Ainsi, la stabilité

de fréquence sera parfaite. Il est apparu dans cette

étude un élément intéressant : c’est l’influence de la

météo. Les baisses de température vont bien sûr

augmenter la consommation d’énergie électrique, mais

ce phénomène se rencontre aussi avec les fortes

chaleurs. L’utilisation massive des climatiseurs

provoque un appel de puissance électrique, d’autant

plus difficile à prévoir qu’il est lié au niveau

d’équipement des foyers. L’intérêt du réseau de

neurones est d’autoriser une adaptation automatique à

l’introduction de nouveaux types de récepteurs.

Cet exemple montre bien que la prévision de la

demande est indispensable à la bonne stabilité du

réseau de production et de distribution. En restant à un

niveau local, l’aspect transport sur de longues distances

n’est pas pris en compte et le choix d’une zone

résidentiel n’est pas représentatif de l’ensemble d’un

territoire. L’ « Electric Power Researche Institute » a

publié un état de l’art en 2001 sur les travaux réalisés et

les perspectives d’avenir [11]. Plusieurs méthodes,

permettant d’accroitre la précision de la prédiction et

diminuer les coûts de fonctionnement, furent étudiées.

Les réseaux de neurones, de part leurs capacités

d’adaptation à des systèmes complexes, sont

incontournables. Ils sont maintenant couplés à la

logique floue pour intégrer des paramètres plus

subjectifs. Le résultat est que, finalement, les

prédictions sont à moins de 5% d’erreur. Les

évènements inhabituels restent toutefois des obstacles

pour les méthodes de prévisions. Les incidents sur les

lignes sont très difficilement pris en compte. Ils sont

trop rares et trop hétéroclites, pour qu’un système

neuronal puisse construire une commande adaptée.

Comment déduire une tendance de la consommation

lors de l’effondrement d’une ligne à haute tension ?

Les Etats-Unis, en mettant en œuvre la

dérégulation, ont introduit une nouvelle contrainte sur

la gestion du réseau électrique. L’aspect économique a

toujours été présent, mais pas à un niveau tel qu’il l’est

aujourd’hui. « The Intelligent Power Grid », le réseau

de distribution intelligent, c’est en ces termes, qu’IBM

présentait en 2006 sa vision du réseau de l’avenir [12].

La gestion d’un tel réseau se ferait au moyen d’une

utilisation massive des réseaux de communication

comme le réseau INTERNET. La ramification du

réseau électrique, qui doit aller jusqu'à l’utilisateur

final, n’est pas associée à une telle ramification du

système de surveillance. Une zone d’ombre existe donc

à partir des sous-stations. Même si les technologies

actuelles permettraient d’avoir des informations fiables

et sécurisées sur les éléments de niveau inférieur à la

sous-station, ce n’est pas pour autant que ces

informations seront exploitables ; c’est l’équivalent

d’un bruit de fond. De plus, il faut traiter des quantités

volumineuses d’informations pour en extraire les

différentes consignes à envoyer aux producteurs. Ceux-

ci sont des industriels privés, appliquant la loi du

marché. Les fluctuations du coût de l’énergie en

l’espace de quelques heures deviennent telles, que toute

décision devient problématique (Fig. 3). De plus, les

Figure-3 : Variation du prix de l’énergie sur une semaine.

Page 5: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

réserves, que pouvait accepter un système étatique, ne

sont plus aussi importantes ; cela occasionne des

instabilités au niveau du réseau. Le gestionnaire du

réseau reste toutefois un organisme relevant de l’état

qui a de plus en plus de contraintes à intégrer. D’un

côté, les clients demandent une grande qualité de

courant et mettent en œuvre des charges générant des

harmoniques. De l’autre, les producteurs d’énergie, mis

régulièrement en concurrence, n’ont pas toujours un

comportement solidaire [13] [14] [15].

4. Les énergies renouvelables dans l’arène.

Les grandes centrales électriques fonctionnent avec

une source primaire d’énergie qu’elles maîtrisent

parfaitement. Les centrales au fuel ou au charbon ont

un stock-tampon d’énergie primaire qui leur permet de

ne pas faillir en cas de rupture temporaire

d’approvisionnement. Les centrales nucléaires sont

bien mieux protégées contre ce type d’aléas. Une telle

situation ne se rencontre pas avec les énergies

renouvelables. Pour avoir de la puissance, il faut de

grandes surfaces et pour l’éolien, les zones venteuses

ne sont pas extensibles [16]. Même si certains pays

nordiques ont une puissance installée par habitant

importante, il ne faut pas oublier qu’il n’y a pas de vent

tous les jours ! En décembre 2001, l’Allemagne, avec

le plus grand parc éolien du monde, a mis le réseau

européen en difficulté car les anticyclones persistants

interdisaient la production d’électricité par ses

éoliennes.

Le soleil fournit de l’énergie. D’après des analyses

quantitatives, celle-ci est amplement suffisante pour les

besoins de la planète. Pour exploiter cette source

d’énergie, plusieurs voies doivent être envisagées. La

conversion de la lumière en énergie électrique est

réalisée au moyen de cellules photovoltaïques. Il est

toujours possible de reprendre les anciennes

technologies et de les adapter au soleil ; c’est le cas des

centrales à four solaire. Elles ne font que puiser la

chaleur dont elles ont besoin dans un four recevant le

rayonnement solaire concentré.

a) Les cellules photovoltaïques.

Les cellules solaires existent depuis 1950, leur

développement n’a vraiment été lancé qu’au moment

de la conquête spatiale initiée par J.F. Kennedy. Elles

sont capables de transformer le rayonnement solaire en

énergie électrique avec un rendement, de l’ordre de

15% pour les cellules utilisant le silicium [17]. Malgré

les progrès, elles restent encore dispendieuses et seuls

des programmes de subventions nationales peuvent

accélérer leur introduction. Il faut attendre 3 à 15 ans

(selon subventions) pour que la cellule soit rentabilisée.

Les cellules utilisaient initialement du silicium. Ce

composé, indispensable à l’industrie électronique, ne

peut être considéré comme une ressource exclusive. La

génération d’énergie est certes un objectif important

mais inutile, si la fabrication des composants

électroniques est remise en cause. Il semblerait

finalement, que ce moyen de produire de l’énergie

électrique, présente des inconvénients majeurs. La

production d’électricité, en utilisant un autre matériau

de base, est donc un sujet d’avenir. Comme le faisait

remarquer le professeur Wolfgang Witthuhn de

l’institut de Jena, en plus de son utilisation massive par

d’autres industries, le silicium n’est pas le composé le

plus adapté à la réalisation de cellules photovoltaïques

[18]. Un autre matériau semble bien plus prometteur :

le Cuivre-Indium-Sulfure (CIS). Le coût, associé à des

cellules l’utilisant, est encore trop élevé pour espérer

les distribuer massivement ; de plus des augmentations

de rendements sont à attendre. Ainsi on comprend

mieux l’intérêt que portent les laboratoires de

recherches japonais aux composés nouveaux, capables

de produire de l’énergie électrique à partir de la

lumière, sans mettre en œuvre le silicium cristallin.

Depuis 1974, le Japon a l’ambition de mettre le prix du

kWh photovoltaïque au prix du kWh en provenance

des centrales thermiques [19]. Ce qui n’est pas le cas

actuellement, le photovoltaïque reste 4 à 5 fois plus

cher. Le photovoltaïque envisagé par les japonais est au

niveau local : la production d’énergie au niveau

domestique ou au niveau des équipements mobiles.

Tout en travaillant aussi sur le CIS, les japonais

expérimentent les cellules photovoltaïques organiques

ainsi que d’autres composés. Il est à remarquer la

grande diversité des méthodes employées par les

japonais pour arriver à produire de l’énergie électrique.

Ces travaux restent toutefois une activité en amont et

ne provoqueront pas immédiatement une révolution

technique. L’efficacité de ces dispositifs doit être

accrue et ils restent instables dans le temps. Par

exemple, les cellules organiques se dégradent et la

densité de courant chute de 6% après 100h

d’illumination, tout en ayant un rendement initial de

l’ordre de 7%.

Les avancés techniques liées aux capteurs

photovoltaïques sont importantes. Leur utilisation, dans

la conquête spatiale, les a rendus populaires et il est

logique que les USA aient une certaine avance dans ce

domaine. Les Sandia National Laboratories, sous la

direction du DOE (Department Of Energy – U.S.A.), a

conduit des études sur l’énergie solaire [20]. En

Page 6: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

particulier, plusieurs technologies furent associées pour

exploiter au mieux l’énergie solaire. Un résultat très

intéressant fut obtenu dans les années 80. En associant

les cellules à un concentrateur optique (Fig. 4), il en

résulte une meilleure production d’énergie électrique,

le rendement augmente (Tab-1). De plus, moins de

matière noble est requise. La première centrale

européenne utilisant des cellules à concentrateur a été

activée en 2008. Cette centrale de 100 kW est installée

en Espagne à Puertollano. Lles cellules travaillent aussi

à plus haute température, 100°c et elles doivent être

refroidies. L’énergie thermique produite est évacuée à

l’extérieure et elle est disponible pour des applications

de chauffage. Les américains ont bien sûr exploré cette

possibilité, ils ont donc finalement fait une certaine

forme de cogénération avant l’heure.

Il n’en reste pas moins vrai que l’élément le plus

important est la cellule élémentaire ; aucun facteur

d’échelle ne pourra en augmenter le rendement. Ce qui

n’est pas le cas pour les alternateurs. En conséquence,

le laboratoire américain a aussi étudié le moyen

d’associer le simple particulier à la production

d’électricité solaire. Pour avoir de l’énergie, il faut de

la surface, et pas obligatoirement de la surface au sol…

Le premier bâtiment équipé de panneaux solaires en

toiture avec concentrateurs optiques est l’hôpital

Wilcox d’Hawaii (1981). En 1985, des projets de

résidences équipées de panneaux solaires en toiture

étaient déjà en diffusion. Les futures centrales solaires

de plusieurs mégawatts n’étaient programmées qu’au

début des années 90. Il apparait finalement que ces

prévisions étaient encore optimistes, les premières

centrales photovoltaïques mises en service datent des

années 2007 et 2008.

Si on recouvrait de panneaux solaires la totalité des

toitures, on arriverait à fournir assez d’énergie pour

satisfaire les besoins de la planète, pendant le jour

et avec un bon ensoleillement. La solution individuelle

a déjà été testée, le japon a commencé à produire des

maisons individuelles équipées de panneaux

photovoltaïques dès 1994 [21]. Ces cellules sont tout à

fait utilisables pour des particuliers car leur

fonctionnement ne demande pas d’entretien difficile.

L’augmentation du rendement (Tab 1 et Tab 2), la

baisse des coûts et la facilité d’intégration sont donc

des objectifs majeurs. Mais le résultat sera toujours un

courant continu qui, depuis les débuts des réseaux

électriques, n’est pas la solution la plus judicieuse pour

la distribution de l’énergie. Il est toujours possible de

transformer le courant continu en courant alternatif au

moyen d’un onduleur. Cet équipement indispensable ne

peut qu’augmenter le coût de l’installation et en réduire

la fiabilité. De plus, les puissances mises en jeux sont

encore faibles et il faut se demander si l’injection de

cette production décentralisée, difficilement gérée par

l’organisme de régulation, sur le réseau ne risque pas

de le déstabiliser. Au japon, où l’installation de

panneaux solaires sur les habitations neuves est

effective depuis 1994, le résultat est que

Rendement des générateurs PV avec concentrateur solaire

Source : Sandia National Laboratory (1981)

Technologie Rendement maxi

Rendement obtenu

Si 26% 18,5 GaAl-As 26% 23% Multi-spectral GaAlAs-Si 35% 31% Cellules multiples GaAsSb / GaAlAsSb 40% Thermal+PV 40% 26%

Tab 1 : Résultats des recherches sur le PV aux USA (1980).

Figure-4 : Principe de la cellule photovoltaïque à concentrateur. Un

système optique, qui n’est pas obligatoirement une lentille, fait

converger le rayonnement solaire vers une unique cellule. Une

multiplication par deux du rayonnement solaire provoque plus que le

double de production d’énergie électrique.

Rendement des générateurs PV

Source : Ambassade de France en Allemagne (2008)

Technologie Rendement visé

Rendement obtenu

Poly-Si (Couche mince) 15% 6%

Si amorphe / Si cristallin 24% 18%

Alliage CIS 35% 20%(Test)

CulnSe2 10%

Cellule Tandem (Multi spectral) 50%

Organique 15% 4% à 5%

Cellules à concentrateur

Module FLATCON 28,50%

Tab 2 : Résultats des recherches sur le PV en Allemagne (2008).

Page 7: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

ces sources de faibles puissances totalisent aujourd’hui

une puissance totale de 622,8 MW. Même si

l’expérience japonaise est réussie, elle ne doit pas

masquer la démarche globale entreprise. En effet, les

efforts des japonais se font dans plusieurs directions,

l’isolation en est une ; une diminution de 67% des

fuites d’air par rapport à des maisons plus anciennes a

aussi été obtenue. A quoi bon produire de l’énergie si

celle-ci ne reste pas dans la maison ?

b) La conversion lumière chaleur.

La concentration de la lumière fournit assez de

chaleur pour enflammer un simple morceau de papier.

Cette expérience réalisable par toute personne ne doit

pas pour autant introduire l’idée que la solution se

trouve sous ses yeux et que les problèmes énergétiques

sont ainsi résolus. Curieusement, cette forme de

génération de chaleur, qui permet de reprendre en

grande partie la technologie des centrales électriques à

flammes ne s’est pas imposée (Fig. 7).

Les premières réalisations en France sont : le four

solaire d’Odeillo, mis en service en 1970 et d’une

puissance thermique de 1Mw et le four solaire Themis

(Fig. 5), inauguré en 1983 et d’une puissance

thermique de 2,5 MW. Il est à noter qu’aucun des deux

n’est une centrale en activité. Ils restent des sites

pilotes pour des expériences scientifiques. Les

américains avaient lancé dans les années 1980, un vaste

programme de développement de centrales électriques

utilisant des fours solaires. Un rapport du laboratoire

national SANDIA fait état de ces centrales solaires

dont la puissance est de l’ordre de 100MW.

Disséminées dans le sud du pays, elles devaient être

opérationnelles dès 1985 [46]. Il est clair que sur les 14

sites prévus, aucune construction n’a vu le jour. Seul

persiste de cette époque, le four solaire expérimental

CRTF, du laboratoire SANDIA [22], qui a une

puissance de 5 MW (Fig.6) ainsi que la centrale de 10

MW, Solar one, dans le désert de Mojave (Fig. 8).

Les centrales solaires de ce type, aussi appelées

Centrales Solaires Thermodynamiques, seront toutefois

en construction avec quelques années de retard… La

réalisation la plus marquante est celle de Séville en

Espagne, PS-10, Centrale solaire thermodynamique

Figure-8 : Four solaire Solar Two (1995), construit à partir du premier

site solaire Solar One (1970).

Figure-6 : Four solaire CRTF du laboratoire national SANDIA à

Albuquerque. (10 MW)

Figure-7 : Principe de fonctionnement d’une centrale solaire

thermodynamique conçue dans les années 1980 et ayant une

puissance thermique de 115 MW. Implantation prévue : Saguaro

Station (Arizona)

Figure-5 : Four solaire Themis, conçu à l’origine pour être la première

centrale électrique solaire en France.

Page 8: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

de 11 MW. Une centrale plus puissance, de 20 MW

(PS-20) est en cours de réalisation. Les projets

américains, sans doute initiés par la baisse de la

production pétrolière américaine des années 80 [23],

furent oubliés dès que l’énergie est redevenue à un coût

acceptable. Les premières réalisations sont certes

arrivées trop tôt, mais elles ont figées les bases des

futures réalisations. On retrouve systématiquement les

mêmes architectures : un four solaire qui fonctionne à

haute température (pouvant atteindre 1000°) est

alimenté en rayonnement au moyen d’un champ de

miroir. Il chauffe un fluide caloporteur, en général un

sel fondu (nitrate de sodium ou de potassium). Ce

fluide, comme pour les centrales classiques, sert à

produire de la vapeur qui entraine des turbines. Même

si la technique semble simple, ces centrales souffrent

des mêmes défauts que les cellules photovoltaïques,

que faire quand le soleil disparait ? Déjà, dans les

années 1970, le laboratoire SANDIA avait abordé le

problème et proposait dans certaines de ces futures

centrales des accumulateurs de chaleur. Le sel fondu

était stocké et pouvait être utilisé durant la nuit. L’idée

était bien sûr séduisante et elle est toujours d’actualité.

En 2007, une équipe du centre de recherche aérospatial

allemand (DLR) est parvenue à mettre en service un

accumulateur de chaleur couplé à une centrale

thermoélectrique solaire. On est encore loin des 100

MW des années 80, mais les 100 KWh ainsi stockés

peuvent être utilisables pendant 10 h.

Face à ces technologies qui imposent des grandes

structures, les concentrateurs optiques ont encore un

avenir. En effet, la puissance de ces centrales est

limitée. Impossible d’augmenter exagérément la

température de l’échangeur. Un accroissement de

puissance passe par une multiplication des tours

solaires. C’est ce qui va se passer sur le site où la

centrale PS-20 est en construction. A terme, les 300

MW prévus en 2013 le seront au moyen de plusieurs

tours. En 1980, les américains avaient construits des

échangeurs linéaires placés au centre d’un

concentrateur solaire. La température du fluide

caloporteur restait modérée et surtout l’accroissement

de puissance thermique s’obtenait par une mise en

parallèle des échangeurs (Fig 9). Le laboratoire

SANDIA a expérimenté des échangeurs de ce type qui

fournissaient de la vapeur à 174°c (350°c au

maximum). Les expérimentations débouchèrent

finalement sur une réalisation concrète. Dans le désert

de Mojave, ou le taux d’ensoleillement est le meilleur

possible, les américains construisent le SEG : centrale

solaire de 354 MW utilisant les échangeurs linéaires

abordés précédemment [24]. .

c) L’éolien.

Pris très souvent comme exemple, les moulins à

vent ont, par le passé, assurés la production d’énergie

mécanique pour le bien de la communauté. Les aspects

mécaniques de ce type de matériel, les architectures

possibles ainsi que les solutions à retenir sont connues

depuis plus de 30 ans [25]. Un article de synthèse paru

dans la revue « Pour La science » en 1986 l’illustre

bien [26]. Les rotors doivent comporter un faible

nombre de pales et tourner à grande vitesse de manière

à diminuer la puissance perdue dans les tourbillons

créés dans le sillage. Toutes les configurations ont ainsi

été testées ; de l’éolienne à une seule pale (éolienne de

Bremerhaven) à la turbine verticale (Darrieus).

L’absence de vent, phénomène aléatoire et inévitable,

pouvait causer autrefois des problèmes

d’approvisionnement en farine si aucun autre moulin

ne pouvait assurer la relève. Le même phénomène se

retrouve aujourd’hui vis à vis des éoliennes, le

redémarrage des centrales conventionnelles ou

l’importation d’énergie électrique est rendu obligatoire

lors de la présence d’anticyclone persistant sur les

zones où elles sont implantées. Durant de telles

périodes il est à prévoir des augmentations rapides des

prix de l’énergie.

L’éolien est le système de production alternatif qui

a le plus pris de l’importance ces dernières années. On

approche aujourd’hui les 100 Gw mondiaux. Pour le

Danemark, pays ou la part d’éolien est la plus forte,

cette source ne produit néanmoins que 19% de

l’énergie électrique consommée (Chiffre 2007).

Figure-9 : Echangeurs linéaires capables de chauffer un fluide jusqu’à

des températures de 350°c. L’accroissement de puiss ance s’obtient en

mettant en parallèle les différentes structures.

Page 9: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

L’Allemagne, avec ces 23,3 GW installés, n’arrive qu’à

6% de sa consommation nationale. La puissance

installée n’a finalement que peu de valeur car une

éolienne n’arrive qu’à produire globalement qu’1 jour

sur 4. Ce chiffre donne un rendement de 25% et il faut

garder à l’esprit qu’il est calculé par rapport aux

implantations actuelles, choisies pour leur bonne

couverture venteuse. Les zones restantes sont moins

rentables. La couverture venteuse y sera plus faible, et

la production erratique qui risque d’en découler, peut

déstabiliser le réseau. Les parcs éoliens, soumis à trop

d’aléas météorologiques, vont se comporter comme des

sources d’énergie peu fiables qui peuvent disparaitre du

réseau à tout moment. Le résultat risque fort d’être

similaire aux incidents cités dans le premier chapitre

qui ont conduit à des black-out. Les parcs existants ne

sont pas pour autant exemptés de défaut. Par exemple,

dans les anciens parcs, les éoliennes sont de puissances

similaires. Il n’y a pas une éolienne maîtresse ni

d’éoliennes esclaves, leur faible puissance ne leur

permet que de se synchroniser sur le réseau considéré

comme référent. Comment, dans une telle

configuration, peut-on être sûr que leur comportement

sera acceptable en toute situation. Une étude

américaine répond négativement. Dans le cas où une

défaillance se produit sur le réseau (court-circuit par

exemple) des générateurs éoliens peuvent accélérer et

des oscillations électromécaniques peuvent apparaitre

entre les différents générateurs de la zone. Si un tel

phénomène n’est pas amorti, des dommages peuvent en

résulter au niveau de ces générateurs éoliens.

Les centrales conventionnelles peuvent compenser

les jours sans vent. Mais il ne faut pas que ces mêmes

centrales démarrent intempestivement, suite à des

déventements passagers ; le coût de suppléance annule

tous les effets bénéfiques de cette solution alternative.

Ainsi, le stockage de l’énergie pour palier aux

fluctuations rapides reste un problème pour ce type de

production.

Bien que le manque de vent soit généralement

présenté comme un aspect négatif pour l’utilisation des

éoliennes, les études menées ne permettent pas

d’arriver systématiquement à cette conclusion [27]. En

effet, il faut analyser les aléas liés au vent, sous un

aspect temporel. Les japonais ont montré que les parcs

éoliens sont sujets à des fluctuations de puissance mais

celles-ci sont loin d’être aussi préjudiciables que l’on

pourrait le penser. Les variations à court termes, moins

de 10 minutes, sont rapidement étouffées si la zone de

production est grande et le nombre d’éoliennes

important (Fig. 10 et 11). Par contre, pour des périodes

plus grandes, 100 minutes, l’effet climatique va

finalement reprendre un rôle prépondérant et il devient

nécessaire de palier aux futurs manques de puissance.

Comme cet effet est à échéance plus importante et de

plus, prévisible car il est lié à la météo, il peut être

anticipé et son traitement ne demande plus l’utilisation

de centrales de secours à démarrage rapide.

Il faut, dans un premier temps, trouver des moyens

pour supprimer les fluctuations de production à

échéance brève. Le nombre de turbines va certes

minimiser l’effet d’un déventement local, mais il ne

faut pas oublier que les zones encore libres ne pourront

plus être aussi favorables aux grands champs

d’éoliennes. Les champs de plusieurs milliers

d’éoliennes, comme celui de Altamont Pass Wind

Farm (576 MW, 4900 Générateurs) au USA, coexistent

avec des sites plus petits comme celui de Windpark

Egmond aan Zee dans la mer du nord (actuellement

Figure-11 : L’augmentation du nombre de générateurs permet de

diminuer les fluctuations de puissance. Pour avoir moins de 1% de

variation, par rapport à la puissance installée, il faut plus de 50

éoliennes.

Figure-10 : « Ferme d’éoliennes » en Espagne, En multipliant le nombre

d’éoliennes, les fluctuations de production diminuent et le système devient

moins contraignant pour la mise en place d’une production de secours.

Page 10: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

Figure-12 : Le potentiel terrestre des éoliennes arrive à terme. La

bande côtière reste à exploiter.

Figure-13 : Vue d’artiste d’une ferme d’hydroliennes sous-marines.

108 MW et 36 générateurs). Ce sont justement les

champs marins qui sont les plus porteurs d’avenir (Fig.

12) [28]. L’équipement unitaire, l’éolienne ou le

groupe d’éoliennes, devra comporter tous les systèmes

lui permettant de gérer au mieux les différents aléas

météorologiques à courts termes. C'est-à-dire, intégrer

un système de stockage permettant de générer de

l’énergie active et réactive. En fonctionnement normal,

l’énergie réactive est nécessaire. Elle est utilisée pour

compenser l’énergie réactive absorbée par les lignes de

transport et ainsi stabiliser le niveau de tension [14]. En

cas de défaillance ou d’incident, c’est surtout la réserve

d’énergie active qui sera sollicitée. Elle servira à

gommer les pertes passagères de puissance. Le recourt

à l’électronique de puissance est indispensable [27] ;

cette même électronique qui utilise le silicium cristallin

qui donne les bons rendements des cellules PV. Elle

introduira des limitations dans les niveaux de tension et

les courants qui pourront être générés (Tab. 3). Le

résultat est que les structures actuelles qui autorisent

des niveaux de puissance et de tension élevées sont

encore rares. Par exemple, pour une ligne de transport

HVDC de 3 GW, il faut près de 40 000 transistors

IGCT [29].

d) L’énergie des mers.

Les vastes zones marines peuvent être vues comme

sources d’énergie primaire. D’une part les courants de

marées peuvent faire tourner des générateurs et ainsi

fournir de l’énergie ; et d’autre part, cette imposante

masse d’eau à température faiblement variable peut

être considérée, thermodynamiquement, comme une

source chaude. Dans le cas où les courants sont utilisés

comme source primaire d’énergie, le système employé

est une hydrolienne [30]. Celle-ci est de conception

similaire à celle retenue pour l’éolienne. Une hélice de

grand diamètre transforme l’énergie cinétique du fluide

en mouvement, en énergie mécanique. De plus,

certaines caractéristiques de cette source primaire sont

intéressantes. Il y a deux marées par jour et les aléas

météorologiques n’y ont que peu d’influence. Par

contre, dès que l’étal apparaît, aucune production

d’énergie ne peut être assurée. Le milieu marin est

certes plus agressif que le milieu atmosphérique, mais

il est moins variable. Le différentiel de température est

bien moins important et les effets des tempêtes sont

atténués, même à faibles profondeurs. La première

hydrolienne opérationnelle a délivré ces premiers watts

en juin 2006, dans la baie de Fundy au royaume uni. La

Norvège a suivi, en installant une hydrolienne de 20m

de diamètre (300 kW) par 45 m de fond. Actuellement,

ces prototypes ne sont pas encore raccordés au réseau

(Fig. 13).

Cette exploitation nouvelle des courants marins ne

doit pas masquer les anciens travaux de Georges

Claude [31] [32]. Cet ingénieur français a repris les

idées d’Arsène d’Arsonval. Le fond de la mer est à une

température de 4°c, l’eau de surface est plus chaude, de

l’ordre de 18°c à 20°c pour nos côtes. Si cet écart de

température résultant peut être considéré comme faible,

il ne faut pas oublier qu’il n’y a pour ainsi dire pas de

caractéristiques des composants d'électronique de puissance

( Sources : Riso National Laboratory : 1998)

Type: courant admissible (A) Tension supportée (V)

GTO 4 000 6 000

IGCT 2 000 4 500

BJT 800 1 200

MOSFET 28 1 000

IGBT 2000 3 300

Tab 3 : Performance des Composants de puissance disponibles

(1998).

Page 11: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

Figure-15 : Maquette d’une unité ETM côtière de 10 MW, produisant

de l’électricité ainsi que de l’eau douce. Le cycle thermodynamique

retenu permet aussi de dessaler l’eau de mer. (Projet présenté par

l’ANL – Argonne National Laboratory - USA).

limitation des volumes d’eau mis en jeux. La quantité

requise pour faire fonctionner une telle centrale

thermodynamique n’est qu’une goutte d’eau dans la

mer… Ainsi, l’eau de surface est utilisée comme

source chaude et celle en provenance des grandes

profondeurs tient lieu de source froide. Les difficultés

techniques que rencontra G. Claude en 1929 firent que

seule sa troisième expérience lui permit de produire

une puissance de 22 kW. L’Energie Thermique des

Mer, désignée ETM en France et OTEC pour les pays

anglophones, n’est pourtant pas à négliger. Même si

l’histoire a conservé les expériences de cet ingénieur

français, ce sont les japonais et les américains qui ont

le plus abouti dans la réalisation de centrales

expérimentales. En particulier, à Hawaï, le Natural

Energy Laboratory et des investisseurs privés montent

en 1979 une centrale OTEC. Celle-ci est en circuit

fermé et utilise l’ammoniac comme fluide interne

(Cycle thermodynamique de Rankin) [33] [34]. En

1980, un démonstrateur ETM japonais de 100 kW est

installé sur l'île de Nauru. D’autres expériences sont

conduites et il faut noter que, même si les équipements

testés se sont comportés de manière satisfaisante, les

centrales sont démantelées à la fin des essais. La

France a participé pendant un temps aux essais de ce

type de centrale mais s’est arrêtée avant les

expérimentations. La centrale de 3 MW d’Abidjan

(Côte d’ivoire) ne fut jamais terminée. Le Japon, l’Inde

et les USA continuent aujourd’hui à étudier ces

dispositifs. L’Inde, en coopération avec le Japon, met

en service en 2001 une barge ETM de 1 MW (Fig. 14).

Des installations terrestres existent au Japon. Les

instances locales en ont financé une dizaine.

Les centrales ETM ne peuvent être construites que

dans des zones géographiques précises. Pour des

installations côtières, il faut pomper l’eau située

à plus de 1000 m sous la surface ; le plateau continental

doit donc être de faible étendue. Pour obtenir un bon

différentiel de température, les zones équatoriales sont

préférables. Finalement, en 1997, une étude américaine

arrive à la conclusion que les côtes Européennes ne

sont pas favorables. Nos côtes sont ainsi écartées de la

liste des zones possibles, au profit des USA, de l’Inde

et de l’Afrique [35]. Dans cette étude, l’aspect

économique n’était pas oublié. La rentabilité du

procédé ne devenait intéressante que si le prix du baril

de pétrole dépassait 25$... Enfin, il ne faut pas perdre

de vue, comme le soulignaient les deux organisateurs

du Groupe de travail sur les centrales ETM en 2007,

que cette énergie est disponible 24 heures par jour et

365 jours par an [36].

5. La fin des grandes unités de production ?

Les énergies renouvelables sont dans l’incapacité

de rivaliser avec les plus puissants turboalternateurs

associés aux centrales nucléaires. La production à la

demande sera de plus en plus difficile à assurer si ces

nouvelles sources ne sont pas fiables. En France, la

consommation d’énergie électrique augmente

régulièrement. En 2008, elle a augmenté de 1,2%. La

baisse du secteur industriel est compensée par

l’augmentation du secteur domestique. Il est donc clair

que la tendance à la baisse, pour l’énergie électrique,

n’est pas encore amorcée.

Les recherches réalisées ont montré que la solution,

qui consistait à assurer la production d’énergie

électrique au moyen des énergies renouvelables, ne

devait pas se focaliser sur ce seul et unique vecteur

d’énergie. Par exemple (Fig 15), les ambitieux projets

ETM (OTEC) montrèrent vite leurs limites car ils ne

concernent que des zones géographiquement limitées et

Figure-14 : Vue d’artiste d’une unité flottante de production ETM. La

colonne centrale permet de pomper l’eau froide des profondeurs.

Page 12: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

Figure-16 : La ferme d’éolienne n’est plus un regroupement de générateurs indépendants, mais devient un système complexe qui, malgré les efforts, reste lié

aux aléas météorologiques. (Source : General Electric Energy)

trop éloignées des centres de consommation. Ce qui

explique que, seuls les pays convenablement situés,

poursuivent ces expérimentations, la production

d’énergie électrique n’est plus obligatoirement la

priorité ; le dessalement de l’eau de mer, la production

d’hydrogène… font maintenant partie intégrante des

productions possibles associées à l’ETM [37].

Finalement, il faut voir cette filière comme étant

similaire à la filière géothermique. Même si la

référence au volume de l’eau des mers peut plaider en

faveur de ce procédé, l’énergie disponible par m3 d’eau

de mer est faible.

L’éolien met en avant les principaux défauts des

énergies renouvelables. Sans vent, point de production,

et même en présence de vent ; inutile d’espérer adapter

la production à la demande… L’introduction de ces

sources sur le réseau de distribution ne peut se faire

sans adaptation. Les efforts entrepris pour rendre plus

stable la production n’ont réussi, jusqu’à présent, qu’à

diminuer les fluctuations à très courts termes. Les

premiers générateurs installés dans les années 70 ne

possèdent pas ces derniers perfectionnements et cela

peut expliquer le renouvellement annoncé du parc

continental (Fig. 12). De plus, un parc éolien doit se

comporter le plus possible comme une centrale

conventionnelle : ne pas introduire de perturbation sur

le réseau durant sa production. Cet objectif

s’accompagne d’une augmentation de la complexité du

système et finalement d’une augmentation des coûts

d’installation (Fig. 16). L’éolien perd en compétitivité

face à d’autres sources [38].

Le photovoltaïque (PV) est particulier dans le sens

où il est incapable de générer des économies

d’échelles. Le panneau solaire est au même prix de

production, qu’il soit installé chez un particulier ou

dans une centrale PV en Espagne. Par contre, il n’en va

pas de même pour le raccordement au réseau. Les

futures grandes centrales PV vont comporter des

onduleurs leur donnant l’accès au réseau européen.

Ceux-ci seront de très forte puissance ; il faut se poser

la question des perturbations qui vont apparaitre sur le

réseau, en particulier au niveau des harmoniques qu’ils

génèreront.

Le raccordement au réseau n’est donc pas une

opération aisée. Comme la majorité des équipements

de production furent pendant longtemps des

alternateurs délivrant une forme d’onde sinusoïdale, les

équipements associés ont été conçus par rapport à cette

forme d’onde. La relative simplicité, pour obtenir des

tensions élevées au moyen des transformateurs, fait que

l’épine dorsale du système de distribution est

constituée de lignes à haute tension de 400 kV pour le

réseau européen. Il est clair que ces niveaux sont hors

de portée des composants usuels d’électronique de

puissance. Finalement, l’infrastructure existante

conduit à privilégier, pour la production de masse, des

techniques éprouvées. L’alternateur et le turbo-

alternateur restent des équipements incontournables.

L’utilisation du courant alternatif, de fréquence 50 Hz

(ou 60 Hz), ne peut pas être remise en cause dans

l’immédiat.

Page 13: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

Des solutions intéressantes sont proposées pour des

gammes de puissances faibles à moyennes. Elles

étaient déjà présentées durant les années 80 par les

USA. Un concentrateur optique fournit la chaleur

nécessaire au fonctionnement d’un moteur thermique

basé sur le cycle de Rankine ; en ajoutant un générateur

électrique, il peut produire de l’énergie électrique. Ces

équipements sont toujours d’actualité et ont évolué en

s’orientant vers le cycle de Sterling (Fig. 17) [39]. Des

solutions, permettant de produire un courant alternatif à

une fréquence égale à celle du réseau, pour des vitesses

d’entrainement variables existent. Les brevets en cours

montrent bien les efforts d’adaptation de la

technologie. Les projets de centrales de plusieurs

centaines de MW, basés sur ce concept, verront sans

doute le jour…

Les sources d’énergie renouvelable qui ne peuvent

produire rapidement de l’énergie électrique ne sont pas

à négliger. L’énergie électrique se stocke difficilement.

La nature montre régulièrement que le procédé de

stockage chimique est le plus intéressant. La

photosynthèse en est un exemple marquant. Depuis les

années 90, les travaux sur les fours solaires se sont

étendus à d’autres productions que la production

d’énergie électrique. L’institut Weizmann (Israël) a

utilisé dans les années 90 sa tour solaire pour

expérimenter ce procédé [40]. En chauffant du méthane

et du dioxyde de carbone, on produit de l’hydrogène et

du monoxyde de carbone. Ces deux derniers composés

peuvent se reformer sous la forme des deux composés

initiaux en dégageant de la chaleur. L’avantage d’un tel

procédé est de fonctionner en circuit fermé. Il ne

consomme et ne rejette rien. Toutefois, il serait assez

difficile de considérer un tel procédé comme l’avenir

de la production de combustible pour les véhicules.

Quel utilisateur aujourd’hui recueille les produits de la

combustion du gas-oil ou de l’essence dans un

réservoir hermétique pour le retourner à la station

service ? Ce problème de récupération des produits de

combustion se pose d’ailleurs pour le charbon,

première réserve d’énergie fossile. Les Etats Unis ont

testé des centrales au charbon « propres », désignées

« Clean Coal Power Plants ». Il reste difficile de

garantir un fonctionnement exempté de pollution et

d’un coût modéré (Tab. 4).

Si l’objectif est de diminuer les émissions de CO2

ou d’autres produits de combustion [41], il est toujours

possible de diminuer les pertes. Cela revient, avec une

telle approche, à favoriser la production locale. Les

technologies ne sont pas remises en cause et on peut

garder les procédés existants. Si le rendement est moins

favorable, les pertes associées aux transports de

l’énergie disparaissent et globalement la pollution est

moindre. La majorité des procédés abordés montrent

que les techniques basées sur les énergies

renouvelables sont loin d’être capables de se substituer

aux centrales électriques actuelles. Dans tous les cas,

les ingénieurs ou scientifiques, qui ont travaillé sur ces

nouveaux procédés, ont finalement mis en avant les

performances sous une forme plus globale. Passer de la

cellule unitaire à une cellule associée à un

concentrateur optique a conduit celle-ci à fonctionner à

haute température. Pour contrer les effets néfastes de

cette température sur la cellule, celle-ci doit être

refroidie. En devenant une source de chaleur, cet

ensemble peut produire une énergie thermique

utilisable pour le chauffage d’un bâtiment ou d’une

habitation. Les fours solaires sont capables de rivaliser

avec les centrales au charbon de puissance moyenne

(100 MW). Ils sont hélas situés dans des zones où

résident peu de consommateurs ou d’industries. Il est

possible de les convertir en systèmes de production de

vecteurs d’énergie chimique. Comme cela avait été

abordé en introduction, car le stockage de l’énergie

sous forme électrique n’est pas performant.

Source Côut du Kwh ( en $)

éolien 0.03 à 0.06

Solaire à concentration 0.11

Photovoltaïque 0.14 à 0.25

IGCC (+ capture du CO2) 0.09 à 0.11 (+ 0.05)

Tab 4 : Coût du kWh en fonction de la technologie employée. ( Clean

Coal Power Plant = IGCC) Source : EnergyJustice.net

Figure-17 : Un moteur Stirling est associé à un réflecteur solaire. Dans

cette configuration, l’énergie mécanique ainsi produite peut être utilisée

pour entrainer un générateur électrique. L’équipement ainsi présenté est

capable d’envoyer une puissance de 25 kW électrique sur le réseau.

(Source : Sandia National Laboratories – 2005).

Page 14: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

C’est aussi dans ce sens que l’ETM est maintenant

abordée. Faudra-t-il considérer les pays équatoriaux

comme de futurs fournisseurs d’énergie et ainsi

remplacer les anciens pétroliers par des transports de

gaz de synthèse ; ils pourront être brulés dans les

moteurs peu polluants qui équiperont nos futurs

véhicules ?

Finalement, en revenant sur cette dernière image,

les ports de départs de ces navires n’auront plus les

mêmes noms mais les destinations resteront les mêmes.

Il faudra repenser la relation qui existe entre

l’énergie et l’économie dans les pays occidentaux [42].

Il est maintenant évident que, les centrales basées sur

les énergies renouvelables n’atteindront, jamais les

puissances des tranches nucléaires des centrales en

acticités. Par exemple une seule tranche de la centrale

de Gravelines (NORD) fait 910 MWe et il y a quatre

tranches. Toutefois, l’énergie renouvelable, du fait de

sa dilution, est disponible en tout point de la planète.

Les expéditions polaires rechargent toujours leurs

batteries au moyen de panneaux solaires ; il est tout à

fait possible de survivre en milieux hostiles, avec du

vent et de la lumière (Fig. 18). Donc en tout point de la

planète, il est possible d’avoir une source d’énergie

renouvelable. Jusqu'à présent, comme pour les puits de

pétrole, les sources les plus exploitées sont celles qui

offrent le meilleur rendement. La centrale

photovoltaïque de Serpa, au Portugal, qui est dans une

des zones les plus ensoleillées de l’Europe ne fait que

11 MW. La centrale thermo-solaire PS-10, près de

Séville en Espagne, ne fait, elle aussi que 11 MW [43].

Pour mieux comprendre ce point de vue, il suffit d’aller

sur le site de la commission européenne,

http://re.jrc.ec.europa.eu , et de calculer en ligne les

capacités associées au lieu où vous résidez (Fig 19). La

coexistence entre des petites unités et les grandes

centrales nationales, fait qu’actuellement, la production

à l’aide d’énergie renouvelable est plutôt vue comme

une charge négative par les gestionnaires de réseau. Il

faudra sans doute repenser les modes de décisions. Il

ne faut pas en déduire que, le déséquilibre entre la

consommation et la production est accepté, car c’est

impossible, mais il faut revoir la forme dite « Fit and

Forget », c'est-à-dire qu’il ne sera plus possible de

considérer que, le raccordement d’un générateur

utilisant l’énergie renouvelable, est la seule opération à

réaliser. Il faudra tenir compte de ses fluctuations de

production durant son fonctionnement et surtout

accepter que les unités de production utilisant les

énergies renouvelables ne peuvent pas satisfaire

l’impératif : Production = Consommation [44]. Le

stockage ou des moyens de réduire la consommation,

sans pour autant arriver au délestage de zones, devront

être envisagés. Par exemple, l’éclairage public rentre

pour une grande part dans la consommation

d’électricité ; il est possible de réduire le nombre de

luminaires en service, sans pour autant plonger la ville

dans le noir complet. De nouveaux moyens de contrôle

vont devoir être développés ; ils feront appel à

l’électronique de puissance et à l’informatique, mais

leur objectif sera avant tout, de maîtriser les flux

locaux d’énergie électrique.

L’accumulation sera un enjeu majeur pour toutes

les formes d’énergie renouvelable et cette accumulation

n’est pas limitée au stockage hydraulique [45]. Dans le

cas de l’énergie électrique, aucune solution n’arrive

aux densités rencontrées dans les hydrocarbures. Le

Figure-18 : Station polaire « Princesse Elisabeth » en Antarctique : La

Fondation Polaire Internationale, Laborelec et Schneider Electric ont doté ce

centre scientifique de près de 300 m² de panneaux solaires et de 9 éoliennes

de 9 KW. L’énergie produite est stockée à l’intérieur de la station et ce sont

des batteries conventionnelles qui sont utilisées. Source : Wikipedia : Station

« Princesse-Elisabeth ». [47] [48]

Figure-19 : Un panneau solaire de 1 KWp installé dans le nord, peut fournir de

l’énergie électrique, mais cette production est non contrôlable et bien sûr ne

suit pas les besoins en énergie de l’utilisateur. En particulier, les besoins plus

importants en hiver ne seront pas couverts.

Page 15: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

stockage, sous forme de réaction chimique réversible,

est utilisé depuis bien des années par la nature sans

pour autant être mis systématiquement en œuvre dans

les réalisations humaines. Les équipements mobiles,

comme les véhicules de type « transport en commun »,

peuvent rouler aujourd’hui avec des combustibles

gazeux issus de la biomasse. La remise en service des

anciens sites comme Themis et Odeillo ainsi que leur

changement d’activité, montre que la production

d’énergie électrique n’est plus le seul objectif. Par

exemple, le site d’Odeillo participe actuellement aux

activités de synthèse de l’hydrogène au moyen du

rayonnement solaire.

6. Conclusion

Comme le soulignait un ingénieur de la NASA

durant les pires instants du déroulement de la 13ème

mission Apollo, sans énergie, rien n’est possible… Les

Etats-Unis ont, depuis les années 80, expérimenté les

différentes techniques présentées dans cet article.

L’énergie sera indispensable à la création et au

développement des systèmes de production alternatifs.

L’énergie d’origine nucléaire, mise en avant depuis

plusieurs années, ne sera qu’un palliatif qui, dans le

meilleur des cas, laissera un peu de temps aux

ingénieurs et aux scientifiques pour mettre en place des

solutions globales. Il faut garder à l’esprit que sur les

450 réacteurs en activités en 2003, la totalité d’entre

eux sont des réacteurs à neutrons thermiques qui

n’utilisent que 1% de l’énergie potentiellement

disponible. Les 50 à 100 années annoncées de réserve

pour cette source d’énergie n’en font pas une source

d’énergie inépuisable. Les Etats unis, qui ont connu les

premiers la baisse de la production pétrolière, furent les

premiers à explorer d’autres moyens pour assurer la

production d’énergie. L’existence de ressources

pétrolières extérieures aux USA, a conduit ceux-ci à

réduire les investissements. La plupart des travaux des

années 80 furent mis en sommeil par manque de

compétitivité face aux sources non renouvelables. Cette

fois, le problème ne peut plus se traiter de la même

façon, il faut palier à la décroissance des énergies

fossiles car il est inutile d’espérer s’approvisionner sur

d’autres planètes.

7. Bibliographie

[1] Kirby J. B., “Frequency Regulation Basics and

Trends”, 2004, US Department Of Energy / Oak Ridge

National Laboratory.

[2] Kirby B.J., Dyer J., Martinez C., Shoureshi R. A.,

Guttromson R. et Dagle J., “Frequency Control

Concerns in the North American electric power

system”, 2002 , US Department Of Energy / Oak

Ridge National Laboratory.

[3] Dale S.J., Stovall J.P. et Klein K.W., “Maintaining

Electric power system performance: preparing for the

year 2020”, 1991, US Department Of Energy / Oak

Ridge National Laboratory / Martin Marietta Energy.

[4] Stoffel J. B., Pentecost E. D., Roman R. D. et Traczyk

P. A., “Electric Power High-Voltage Transmission

Lines: Design Options, Cost and Electric and Magnetic

Field levels”, 1994, US Department Of Energy /

Argonne National Laboratory.

[5] Wald M. L., “US wind power strangled by antiquated

power grid”, 2008, International Herald Tribune.

[6] La panne du réseau électrique italien le 28 septembre

2003.

http://www.industrie.gouv.fr/energie/electric/panne-

italie2003.htm

[7] Merlin A. « La panne électrique du 4 novembre 2006 :

un plaidoyer pour une véritable politique européenne de

l’énergie ». 2006, Fondation Robert Schuman,

http://www.robert-schuman.eu.

[8] Réseau Electrique 2008 - Wikipedia.

[9] Agence Reuters, “Loss of wind causes Texas grid

emergency”, 2008.

[10] Julien J. L., « Transport et distribution de l’énergie

électrique », 2006, Cours donné à l’institut de

l’Electricité Montefiore – Université de Liège.

[11] Amin M. et Adapa R., “Intelligent Management of the

power grid: An Anticipatory, Multi Agent, High

Performance Computing Approach”, 2001, Electric

Power Research Institute / US Department Of Energy.

[12] Taft J.,”The intelligent Power Grid”, 2006, IBM

Application Innovation Services.

[13] Lerner E, “What’s wrong with the electric grid?”, 2003,

American Institute of Physics / The industrial physicist.

[14] “Analogie du tandem pour la compréhension des

systèmes électriques”, Stefan Fassbinder –

Kupferinstitut. http://fr.leonardo-energy.org.

[15] Erwann M.K., « Risque à grande échelle dans les

systèmes en réseau : quelques interrogations »; 2000,

publication CIRANO.

[16] Power Grid and Electricity Delivery. 2005 – New York

State – Energy Research and development Authority.

Page 16: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

[17] “Photovoltaic Systems Technology”, 1980, Sandia

National Laboratories.

[18] Ambassade de France en Allemagne, Dossier

d’information du service pour la science et la

technologie de l’ambassade de France en Allemagne-

Octobre 2008 - Les technologies solaires de production

d’électricité.

[19] Destruel P., Numzi J.M. et Valade L., « Le

photovoltaïque Organique au Japon », 2007,

Ambassade de France au japon – Service pour la

science et la Technologie.

[20] “The solar Thermal Report”, 1982, Jet Propulsion

Laboratory.

[21] Noguchi N., « Habitations Solaires Photovoltaïques –

Stratégie Japonaise de commercialisation axée sur

l’efficience », 2005, Conférence ISES – Solar World

Congress.

[22] Solar Energy at Sandia National Laboratories 1981 –

US Departement of Energy / Sandia National

Laboratory.

[23] Roturier J. et Mills E. “Les économies d’énergie”,

1991, “La recherché”.

[24] « ACCIONA - Nevada Solar One video», 2008

http://fr.youtube.com

[25] Hansen L.H., Helle L., Blaabjerg F., Ritchie E., Munk-

Nielsen S., Binder H., Sorensen P. et Bak-Jense B.,

“Conceptual survey of generator and power electronics

for wind turbines”, December 2001 – Riso National

Laboratory, Roskilde, Denmark.

[26] Moretti P. et Divone L., « Les éoliennes modernes »,

Revue « Pour La Science », N° 106, Aout 1986, pp 38-

46.

[27] McGowin C. et Steeley W., “Wind Power Integration:

Smoothing Short-Term Power Fluctuations”, 2005,

Final Report of Electric Power Research Institute.

[28] “Planning of the grid integration of wind energy in

Germany onshore and offshore up to the year 2020”,

2005, Consortium DEWI / E.ON / EWI / RWE / VE

transmission.

[29] http://www.abb.com/hvdc, Technologie en courant

continu et haute tension pour le transport de l’énergie

électrique.

[30] Vidéos « Hydroliennes »

http://www.marineturbines.com/21/technology/32/seag

en_video/

[31] Gautier M., « L’énergie thermique des mers, une

énergie renouvelable oubliée mais pleine d’avenir »,

2006, « La revue Maritime ».

[32] Penney T. et Bharathan D., « L’énergie thermique des

océans », Pour La Science, N°113, Mars 1987, pp 66-

74.

[33] « Ocean Energy Launch (Part-1) et (Part-2)», 1980

http://fr.youtube.com

[34] « Ocean Thermal Energy Conversion System», 2007

http://fr.youtube.com

[35] « Ocean thermal energy », rapport de synthèse de

l’université Johns Hopkins, department de physique

appliqué, décembre 1981.

[36] Panchal C.B. and Kumm B., « WorkShop on ocean

thermal energy conversion (OTEC) planships », 11

september 2007, Washington DC.

[37] Panchal C.B. and Bell J.K.; “Simultaneous production

of desalinated water and power using a hybrid-cycle

OTEC plant”, Journal of solar energy engineering

ISSN 0199-6231, 1987, vol. 109, no2, pp. 156-160.

[38] General Electric Energy, 1.5 to 3,6 MW wind turbine,

http://www.gepower.com.

[39] « Sterling Dish 500MW solar power plant», 2007

http://fr.youtube.com

[40] http://www.weizmann.ac.il/

[41] Socolow R., « Peut-on enterrer le réchauffement

climatique ? », Pour La Science, N°335, Septembre

2005, pp 76-81.

[42] Brown L.R., « Repenser notre avenir économique »,

Mai 2006, N°255, L’Observateur de l’OCDE.

[43] « PS 10 Solar thermal power station», 2008

http://fr.youtube.com

[44] Fall N., Giles L., Marchionini B. et Skolnik E.G.,

“Remote Area Power Supply RAPS Load and resource

profiles”, 2007, A study for the Sandia National

Laboratories / US Department Of Energy, Energy

Storage Program.

[45] Eyer J., Lannucci J. et Butler P., “Estimating Electricity

Storage Power Rating and discharge duration for utility

Page 17: Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?

transmission and distribution deferral”, 2005, A study

for the Departement Of Energy - Energy Storage

Program.

[46] “Solar Thermal Repowering”, 1980, US Department of

Energy / Sandia National Laboratories.

[47] http://www.antarcticstation.org.

[48] http://www.schneider-

electric.fr/documents/sustainable-development-and-

foundation/fr/dp_20081016_polarstation_fr.pdf