2. Thèse_Doctorat_YJJ_Duplan.pdf

251
REMERCIEMENTS Mes remerciements à M. Lachaud et à M. Harribey qui n'ont jamais cessé de m'épauler et dont les directives et les disponibilités ont été cruciales pour l'élaboration et l'achèvement de cette étude. A Hélène qui m'a accompagné et encouragé tout au long de la rédaction de la thèse. Et à tous ceux qui, à leur façon, m'ont permis de réaliser ce projet.

Transcript of 2. Thèse_Doctorat_YJJ_Duplan.pdf

Page 1: 2. Thèse_Doctorat_YJJ_Duplan.pdf

REMERCIEMENTS

Mes remerciements à M. Lachaud et à M. Harribey qui n'ont jamais cessé de m'épauler et dont

les directives et les disponibilités ont été cruciales pour l'élaboration et l'achèvement de cette

étude. A Hélène qui m'a accompagné et encouragé tout au long de la rédaction de la thèse. Et

à tous ceux qui, à leur façon, m'ont permis de réaliser ce projet.

Page 2: 2. Thèse_Doctorat_YJJ_Duplan.pdf

A MON PÈRE

Page 3: 2. Thèse_Doctorat_YJJ_Duplan.pdf

C'est qu'ordinairement un philosophe n'est pas économiste,

pas plus qu'un économiste n'est philosophe. Bien mieux,

l'économiste en général n'aime pas la philosophie ; plus grave

encore, il s'en méfie. Je suis de ceux qui pensent que les

problèmes économiques s'éclairent quand on leur donne un

soubassement philosophique. [...] Les économistes n'ont rien

gagné jusqu'alors, sous prétexte d'autonomie, à ne pas se

rattacher aux enseignements de la philosophie des sciences.

Henri Guitton [« Préface » in Georgescu-Roegen, 1990]

Quand il se présente à la culture scientifique, l'esprit n'est

jamais jeune. Il est même très vieux, car il a l'âge de ses

préjugés. Accéder à la science, c'est spirituellement rajeunir,

c'est accepter une mutation brusque qui doit contredire un

passé.

Gaston Bachelard [1991]

Le monde persistait immortel, ce que nous ne pouvions

appréhender qu'en rêve. Ce rêve, c'était le rêve laplacien, et

nous pouvions avoir un avant-goût de l'immortalité par la

connaissance de cette autre immortalité, de cette loi naturelle.

Mais nous sommes les fils de Sisyphe et nous nous révoltons

inévitablement contre tous les dieux que nous créons.

Philippe Mirowski [2001]

Page 4: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Table des matières

INTRODUCTION................................................................................1

I. Du développement à la soutenabilité..........................................................2

1.Le développement sur la sellette...................................................................32.Le choix de la soutenabilité............................................................................5

II. Le projet de la soutenabilité......................................................................8

1.L'alternative paradigmatique..........................................................................82.Le désenclavement de la pensée économique..........................................10

PREMIÈRE PARTIE

L'économie de la soutenabilité : des critiquesépistémologiques à une ébauche socio-économiquede la soutenabilité complexe.....................................13

CHAPITRE IL'économie dans le carcan du paradigme cosmique......17

1. Le simplisme réducteur et le réductionnismesimplificateur : l'analytisme....................................18

1.1. Les principes constitutifs de l'analytisme..........................................18A. La logique aristotélicienne.....................................................................18

a. L'analyse propositionnelle.................................................................19b. L'axiomatique identitaire....................................................................20

B. La méthodologie et la gnoséologie cartésiennes..................................21a. Les préceptes de La méthode...........................................................21b. La disjonction du sujet de l'objet de la connaissance : le primat du

quantifiable........................................................................................221.2. Critique de l'analytisme........................................................................24

A. Les limites de l'analytisme.....................................................................24

4

Page 5: 2. Thèse_Doctorat_YJJ_Duplan.pdf

a. L'incapacité d'appréhender les relations...........................................24b. L'impossibilité de concevoir le complexe...........................................25

B. La conformité de la « logique floue » à l'analytisme..............................28a. Des notions de base de la logique floue...........................................28b. La clarté de la logique floue...............................................................31

2. L'introuvable mesure des valeurs............................322.1. Qu'est-ce que mesurer ?......................................................................322.2. L'épineux problème d'étalon................................................................34

A. La valeur définie du côté de la demande...............................................34a. Smith (1723-1790).............................................................................34b. Malthus (1766-1834)..........................................................................35c. Jevons (1835-1882)...........................................................................36d. Walras (1834-1910)...........................................................................37

B. La valeur définie du côté de l'offre.........................................................38a. Ricardo (1772-1823)..........................................................................38b. Sraffa (1898-1983).............................................................................39c. Marx (1818-1883)..............................................................................41

3. La mécano­économie ou l'économie mécaniste.......423.1. Les principes fondamentaux de la mécano-économie.....................42

A. Les principes de conservation et de moindre action.............................42a. Le principe de conservation (de l'énergie)........................................43b. Le principe de moindre action ..........................................................44

B. Les principes de causalité et de déduction............................................45a. L'ordre causal....................................................................................46b. L'ordre déductif..................................................................................48

3.2. L'économie de l'ordre...........................................................................50A. Les explications ordinales......................................................................50

a. La rationalité des préférences individuelles......................................50b. Le principe de la demande effective..................................................51c. Les causalités économétriques.........................................................53

B. Le credo causaliste et déterministe.......................................................56

CHAPITRE IIVers la soutenabilité socio-économique : critique del'économie de la soutenabilité............................................60

1. L'économie de l'environnement..............................611.1. La comptabilisation monétaire de l'environnement..........................61

A. La valeur économique totale..................................................................61B. Les méthodes d'évaluation....................................................................63

a. Les méthodes d'évaluation directe....................................................63b. Les méthodes d'évaluation indirecte.................................................64

C. Les identités et agrégats comptables ...................................................651.2. L'environnement ajusté au fonctionnement du marché...................67

A. L'internalisation des externalités............................................................67B. L'intégration des ressources naturelles.................................................70

5

Page 6: 2. Thèse_Doctorat_YJJ_Duplan.pdf

a. La classification et la rareté des ressources naturelles.....................70b. L'internalisation hotellinienne............................................................71

2. Les conceptions alternatives de la soutenabilité dansles modèles de croissance.......................................74

2.1. La soutenabilité prométhéenne...........................................................75A. Le modèle de Solow..............................................................................75

a. Les équations de base du modèle de Solow.....................................75b. Le niveau de consommation optimal soutenable..............................76

B. Les condition de faisabilité de la soutenabilité......................................77a. Les propositions de Stiglitz................................................................77b. La règle de Hartwick..........................................................................79

2.2. La soutenabilité préservative...............................................................80A. Le modèle de Barbier-Makandya...........................................................81

a. La soutenabilité contrainte.................................................................81b. Stabilité et soutenabilité de la croissance.........................................83

B. Le modèle de Perrings...........................................................................85a. Les hypothèses du modèle................................................................85b. Soutenabilité, stabilité et résilience...................................................85

3. La soutenabilité socio­économique via la critique del'économie de la soutenabilité.................................87

3.1. Une économie fantasmagorique..........................................................87A. L'autisme économique ou l'économisme...............................................88B. La foi dans la croissance illimitée et le salut technologique..................90

3.2. Éléments de construction de la soutenabilité socio-économique...93A. La théorie rawlsienne de la justice : une récupération illégitime...........93B. L'insuffisance de la théorie rawlsienne et l'approche de Sen................97C. Une répartition équitable du revenu dans l'entreprise.........................100

DEUXIÈME PARTIE

La soutenabilité épistémique et écologique...........106

CHAPITRE IIILe paradigme chaosmique : l'émergence de lasoutenabilité épistémique.................................................109

1. L'éthique épistémique de la soutenabilité.............1101.1. La suprobjectivité et les incertitudes de la connaissance..............110

A. La relativité anthropo-logique..............................................................111a. La subjectivité perceptuelle de la connaissance objective..............111b. La limite logique...............................................................................112

B. Les aspects sociologique et téléologique............................................113a. La connaissance parasitée par la sphère socio-culturelle..............114

6

Page 7: 2. Thèse_Doctorat_YJJ_Duplan.pdf

b. La projectivité de la connaissance scientifique et l'interrelation sujet-objet.................................................................................................115

1.2. Le sujet scientifique comme un être rationnel et conscient ..........116A. Etre computant.....................................................................................117B. ... Et être cogitant.................................................................................118

2. La méthode et la logique de la soutenabilitécomplexe...............................................................120

2.1. Une logique pour la complexité.........................................................120A. Concepts et conceptions analytiques et dialectiques..........................120B. La logique systémique.........................................................................123

2.2. La méthodologie de la complexité.....................................................125A. Le système de l'organisation...............................................................125

a. Le système et sa complexité...........................................................125b. Le systèmescope.............................................................................127c. La représentation du système général............................................128

B. ... Et l'organisation du système............................................................128a. L'organisation et sa complexité.......................................................128b. L'organisation comme un processus...............................................130

3. L'évolution entropique des systèmes....................1343.1. L'approche phénoménologique.........................................................134

A. Les transformations physiques............................................................134a. Les conversions énergétiques.........................................................134b. Les transformations de la matière...................................................136

B. Le principe d'entropie...........................................................................139a. L'énoncé de Carnot-Clausius..........................................................139b. La formulation de Prigogine.............................................................142

3.2. L'approche mécaniste.........................................................................144A. L'évolution probable.............................................................................144

a. Le principe statistique de Boltzmann...............................................145b. Le principe informationnel de Brillouin............................................146c. Le principe probabiliste de Tonnelat................................................148

B. Le temps irréversible et l'évolution probable : une conciliationinconcevable........................................................................................150a. La pseudo-irréversibilité de l'évolution probable.............................151b. Le sens unidirectionnel du Temps...................................................152

CHAPITRE IVLa soutenabilité écologique..............................................155

1. L'éco­thermo­énergétique.....................................1561.1. La compréhension énergétique des systèmes économico-

écologiques..........................................................................................156A. La modélisation éco-énergétique.........................................................156B. L'économie et son environnement : la monnaie et l'énergie...............159

a. L'interface économie-environnement..............................................159b. La valeur énergétique et la valeur monétaire..................................160

7

Page 8: 2. Thèse_Doctorat_YJJ_Duplan.pdf

1.2. L'évaluation émergétique...................................................................162A. La détermination de l'énergie incorporée............................................162

a. Les origines des coûts énergétiques...............................................162b. L'utilisation du tableau de Leontief et de l'intensité énergétique.....163

B. La classification des ressources naturelles.........................................165C. Les indices d'efficacité et d'intensité....................................................166

1.3. L'évaluation éco-thermodynamique..................................................167A. Les indicateurs thermique et entropique.............................................167

a. l'équivalent thermique des substances nocives..............................168b. L'indice entropique de pollution.......................................................168c. L'entropie comme indicateur de la qualité des ressources.............169

B. L'évaluation exergétique......................................................................171a. Les indicateurs de rentabilité exergétique et la productivité

énergétique......................................................................................171b. L'exergie et l'information : le potentiel-Π.........................................173

2. La soutenabilité à la lumière de la bioéconomie : laquestion de la décroissance et de l'état stationnaire. . ..............................................................................175

2.1. L'émergence bioéconomique de la soutenabilité écologique........175A. Vers une économie complexe.............................................................175

a. Le réductionnisme énergétique : les limites de l'éco-thermo-énergétique......................................................................................175

b. L'Économie est un système vivant .................................................177B. La dimension écologique de la soutenabilité.......................................179

a. La hiérarchie de la soutenabilité......................................................179b. Les principes constitutifs de la soutenabilité écologique.................180

2.2. Controverse sur la décroissance et l'état stationnaire...................183A. L'irrévocabilité de la dégradation de la matière : l'unidirectionnalité du

processus économique........................................................................183a. L'hypothèse de Georgescu-Roegen................................................183b. La décroissance globale irrévocable et la stationnarité locale

temporaire.......................................................................................185B. Critiques et contre-critiques : la semi-circularité du processus

économique..........................................................................................187a. Les contestations de l'hypothèse de Georgescu-Roegen...............187b. Critiques du concept d'information : l'intelligibilité des flux socio-

économiques...................................................................................189

3. La déforestation en Haïti : quelle évolution pour laproduction économique ?......................................192

3.1. La dépendance de la société au bois................................................192A. La pression démographique et l'expansion de la déforestation..........192B. Le non respect de la loi........................................................................196

a. La législation sur les arbres et forêts...............................................196b. L'informalité de la tenure des terres................................................198

C. Le primat du bois dans la consommation énergétique du pays..........1993.2. Quelques éléments pour lutter contre la déforestation..................202

8

Page 9: 2. Thèse_Doctorat_YJJ_Duplan.pdf

A. Le dilemme de la croissance et de la décroissance............................203B. Proposition d'une méthode d'évaluation de la filière de bois-énergie .206

a. L'utilisation de l'arbre comme bois-énergie.....................................206b. L'évaluation de la qualité du charbon de bois.................................208c. L'évaluation de la performance du processus de production de

charbon de bois et de l'efficacité de l'utilisation du bois-énergie...210

CONCLUSION.................................................................................214

I. La soutenabilité de l'économisme...........................................................215

II. La soutenabilité complexe.....................................................................216

III. Possibilités de recherches futures........................................................219

BIBLIOGRAPHIE...........................................................................220

ANNEXE...........................................................................................239

9

Page 10: 2. Thèse_Doctorat_YJJ_Duplan.pdf
Page 11: 2. Thèse_Doctorat_YJJ_Duplan.pdf

INTRODUCTION

Page 12: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Jamais les hommes n'ont été aussi nombreux. Jamais l'humanité n'a disposé d'autant de

moyens pour acquérir et produire des richesses. Et pourtant, nous ne nous sommes jamais

posé autant de questions sur le sort de nos contemporains et l'avenir de nos descendants.

Méconnaissant les limites de nos supports physiques et biologiques, nous nous interrogeons

sur l'accroissement de nos capacités prédatrices et destructrices. Nous nous inquiétons de

l'expansion complexifiante des sociétés c'est-à-dire du processus appelé « développement »

[Passet, 1996]1. Source de bien-être pour les uns, véhicule de mal-être pour les autres, le

développement est à la fois apprécié et mal aimé. En dépit des disparités et des doutes qu'il

génère, nombreux sont ceux qui maintiennent que le développement est soutenable. Au nom

de quoi est-il soutenable ? Qu'est-ce qui est soutenable ?

Avant de présenter le projet de la soutenabilité, nous tenons à préciser pourquoi nous

passons du développement à la soutenabilité.

I. Du développement à la soutenabilité

L'expression « développement soutenable » ou « développement durable » est présente

dans la quasi totalité des discours politiques et des annonces de publicité dès lors que l'objet

en question concerne peu ou prou l'environnement naturel. La vulgarisation et la

banalisation de cette notion sont telles qu'il semble incongru de dissocier le qualificatif

« soutenable » du développement, pire de se demander si le développement ne serait pas

insoutenable. A l'encontre de toute idée reçue, nous proposons de mettre le développement

sur la sellette et de soustraire la soutenabilité de sa mainmise.

1. Les dates et/ou les noms entre crochets renvoient à la bibliographie en fin de volume.

Page 13: 2. Thèse_Doctorat_YJJ_Duplan.pdf

1. Le développement sur la sellette

Les stratégies et politiques de développement préconisées après la deuxième guerre

mondiale souvent menées dans les pays en développement sous la roulette des institutions de

Breton Woods — Fonds Monétaire International et Banque Mondiale — n'ont eu qu'un succès

relatif, sinon décevant par rapport aux résultats escomptés. Si des couches sociales se portent

bien notamment dans les pays industrialisés, la pauvreté souvent accompagnée d'instabilité

politique et institutionnelle demeure un phénomène de masse dans les pays en

développement. Et les inégalités socio-économiques restent des problèmes préoccupants aussi

bien au niveau international qu'à l'intérieur des pays. En 1999, 2,8 milliards d'individus

avaient moins de 2 dollars par jour pour subsister ; 1,2 milliard vivaient avec moins de 1

dollar. L'Afrique subsaharienne où les programmes d'ajustement structurel – mesures libérales

des susdites institutions – ont été mis en application se retrouvait en 2000, du point de vue

monétaire, 5% plus pauvre qu'en 1990. En 2000, 1,1 milliard de personnes étaient privés d'eau

potable et 2,4 milliards étaient dépourvus de tout équipement sanitaire amélioré. En ce qui

concerne l'éducation, sur 180 millions d'enfants ayant l'âge de s'inscrire dans le primaire, 133

millions n'étaient pas scolarisés. En 1993, le revenu des 57% les plus pauvres équivalait au

revenu des 5% les plus riches tandis que les 5% les plus riches avaient un revenu 114 fois plus

élevé que les 5% les plus pauvres. Au niveau mondial, le salaire des femmes était inférieur de

25% à celui des hommes [PNUD2, 2002a].

La misère et l'injustice que subit une large frange de la population mondiale sont

assorties de dégradation environnementale et de menaces écologiques. Outre l'accentuation

des nuisances déjà connues comme la diminution de la qualité de l'air dans les villes, l'érosion

des sols, la diminution des zones humides, l'accroissement des déchets, de nouveaux

problèmes sont mis en évidence. Ce sont les pluies acides, l'appauvrissement de la couche

d'ozone, l'augmentation de l'effet de serre et ses conséquences sur le réchauffement

climatique. Sont également identifiés la déforestation massive dans les pays du Sud, la

diminution de la biodiversité, la désertification et les risques nucléaires. « La dégradation des

sols touche plus de 2 milliards d'hectares et nuit ainsi à la subsistance du milliard d'individus

qui vivent sur les terres arides. Environ 70% des pêcheries commerciales sont exploitées à

100% ou surexploitées, et 1,7 milliard d'êtres humains, soit un tiers de la population du monde

en développement, vivent dans des pays subissant un stress hybride » [PNUD, 2003a, p.10].

La nouveauté de ces phénomènes ne relève pas de leur nature, mais tient à l'implication

de l'homme dans leur accentuation et leur accélération. Par exemple, l'augmentation de l'effet

2. PNUD : Programme des Nations Unies pour le Développement.

3

Page 14: 2. Thèse_Doctorat_YJJ_Duplan.pdf

de serre a ses racines dans le développement industriel du XIXème siècle et est particulièrement

reliée aux émissions de gaz carbonique induites par les processus économiques de production

et de consommation. A noter que les émissions de gaz carbonique sont en majeure partie le

fait des pays riches industrialisés : 14% des pays de l'OCDE à haut revenu rejettent à eux

seuls 44% du gaz carbonique [PNUD, 2002a]. Quoique générées à l'échelle locale, ces

pollutions ont des incidences sur toute l'humanité. Les menaces sont d'autant plus inquiétantes

qu'elles présentent un risque non négligeable d'irréversibilité préjudiciable aux générations

futures.

L'épreuve du choc pétrolier de 1973 montre de manière flagrante l'importance du

pétrole dans la reproduction des sociétés industrialisées. L'épuisabilité de cette source

énergétique fait craindre un effondrement social sans précédent. A cause de la voiture

individuelle, le secteur des transports est compté parmi les plus gros consommateurs

d'énergie. Dans l'agriculture industrielle et l'industrie agroalimentaire, le productivisme est

l'un des facteurs de l'utilisation massive et du gaspillage de l'énergie d'origine fossile

[Mercier, 1978]. De plus, l'expansion démographique accroît la consommation énergétique et

accélère l'expansion et l'épuisement des ressources naturelles.

Nombre d'écologistes, certains sociologues et économistes accusent le développement

d'être responsable de la misère dans laquelle est confinée une bonne partie de la population

mondiale et des risques écologiques grandissants auxquels est exposée l'humanité. Les

premières critiques ciblent la dimension quantitative du processus de développement à savoir

la croissance de la production. Les années 1960 sont dominées par la prise de conscience de la

finitude du système terrestre. Il en est ressorti une vision fortement pessimiste. En 1972, le

rapport publié par le Club de Rome, intitulé « Halte à la croissance » [Meadows, 1972], de

peur de l'épuisement des principales matières premières et de l'effondrement des cycles

naturels, appelle à l'arrêt de la croissance économique. Georgescu-Roegen [1995] va jusqu'à

préconiser la décroissance. Alors que Bartoli [1999] exhorte à une nouvelle pensée du

développement lorsque Rist [2001] y voit une croyance occidentale, Latouche [1984, 1994 et

2001] l'assimile à l'occidentalisation du monde et appelle à le refuser. Harribey [1996, p.12],

quant à lui, identifie la crise actuelle à la crise du développement qu'il définit, sur les plans

sociétal et écologique « comme la rupture entre un processus d'accumulation et l'ensemble des

procédures de régulation des rapports sociaux et des rapports entre l'homme et la nature

instrumentalisée ».

Face aux diverses critiques, le développement acquiert des qualités caméléonesques

pour changer de qualificatif ou de signification. Érigé autrefois comme le bien absolu, le

développement est aujourd'hui absolument relativisable, prêt à s'employer à toutes les

4

Page 15: 2. Thèse_Doctorat_YJJ_Duplan.pdf

situations qu'elles soient écologiques, sociales ou économiques. Pour éviter sa remise en cause

et échapper aux contestations, le développement s'affuble de toutes les casaques. Tentant de

s'abstraire de la dimension quantitative originaire que lui confère la croissance économique, il

se dote de caractères qualitatifs en s'associant aux problématiques de l'inégalité, de la santé, de

l'éducation et du genre : il peut être humain. Aussi est-ce sous le coup des virulentes critiques

des écologistes et devant la nécessité de traiter les processus économiques en rapport avec les

processus environnementaux qu'il a connu sa véritable mutation : les anglo-saxons des

départements onusiens lui accolent le qualificatif « sustainable » qui, traduit le plus souvent

par « durable » ou « soutenable », semble le sceller pour l'éternité.

2. Le choix de la soutenabilité

L'expression « sustainable development » fait sa première apparition officielle dans le

rapport World Conservation Strategy publié en 1980 par l'International Union for the

Conservation of Nature. Il s'agit de promouvoir un développement respectueux des équilibres

écologiques, compatible avec la conservation des espèces vivantes et la préservation de la

biodiversité. C'est dans cette visée de protection de la vie que le rapport daté de 1987, intitulé

Notre avenir à tous (Our Common Future) dit rapport Brundtland, définit le « développement

durable » comme « le développement qui permet la satisfaction des besoins présents, sans

compromettre la capacité des générations futures à satisfaire les leurs » [Commission

Mondiale sur l'Environnement et le Développement, 1987, p.51]. Depuis, le terme ''durable''

ou ''soutenable'' est l'image de marque du développement. Sur toutes les lèvres, le vocable

''développement durable'' est la coqueluche des institutions, organisations, associations

nationales et internationales comme si développement et soutenabilité étaient inséparables.

Comme le note Comeliau [1994, p.61], « on ne peut guère aujourd'hui s'aviser de prononcer le

mot ''développement'' sans y adjoindre le mot ''durable'' ou ''soutenable'' ». L'impression qui en

ressort est la croyance que le développement ne serait pas insoutenable. A telle enseigne,

Sachs [1997] propose l'écodéveloppement comme synonyme du développement durable, ce

qui ne peut que gommer la question de l'insoutenabilité du développement.

Mais la définition du rapport Brundtland est imprécise. Et cette imprécision qui favorise

n'importe qu'elle interprétation et qui donne libre cours à toutes les manipulations constitue

une voie où les théories, les conceptions et les idéologies les plus inconciliables peuvent

s'engouffrer. Pezzey [1992] recense plus d'une trentaine de concepts de développement

soutenable. Cherchant à synthétiser l'ensemble des définitions, Hatem [1990] décèle deux

courants de pensée : l'anthropocentrisme qui réduit les discussions sur le développement

5

Page 16: 2. Thèse_Doctorat_YJJ_Duplan.pdf

durable au maintien du bien-être humain et l'écocentrisme qui fait de la protection de la vie en

général sa finalité ultime. L'anthropocentrisme comprend trois approches :

— l'approche économiste qui se contente de poser le problème de la soutenabilité en termes de

moyens économiques ;

— l'approche écologiste pour laquelle il convient de préserver les ressources naturelles ;

— l'approche sociale d'après laquelle il s'agit de créer les conditions socio-écologiques du

bien-être.

La difficulté de s'entendre sur une définition est révélatrice d'un certain malaise.

Comment concilier le soutenable qui qualifie le maintien des conditions naturelles d'existence

et le processus de développement dont on connaît jusqu'ici les effets pervers en termes de

raréfaction des ressources naturelles et de pollutions ? Il y a une contradiction entre le

développement qui met en danger la reproduction de la vie et la soutenabilité qui veut la

préserver. Le développement soutenable est une contradiction dans les termes1,

conceptuellement inadmissible. Le « soutenable » apparaît comme l'un de ces accoutrements

qui fournissent un « alibi » aux pratiques développementalistes. « Le développement durable,

soutenable ou supportable, nous dit Latouche2 [1994, p.79], n'est que la dernière née d'une

longue suite d'innovations conceptuelles visant à faire entrer une part de rêve dans la dure

réalité de la croissance économique. Cette inflation des qualificatifs ajoutés au développement

est une tentative de conjuration magique de ses effets négatifs ».

La notion de développement soutenable crée plus de problème qu'elle n'en résout. Elle

est à la source des « blocages conceptuels » [Coméliau, 1994] qui interdisent l'appréhension

des enjeux sociaux, économiques et écologiques. Cependant, son inanité ne nous empêche pas

de récupérer le terme « soutenable ». Nous garderons l'expression « développement

soutenable » dans le souci de restituer avec une certaine fidélité l'esprit dans lequel des

modèles et théories sont construits. En tant que qualificatif, le « soutenable » n'a pas besoin de

s'associer systématiquement au développement. D'ailleurs, on peut bien remarquer que, dans

la définition du développement soutenable proposée par le rapport Brundtland, la signification

du développement n'est nullement concernée puisque le mot « développement » y est répété.

De manière générale, on peut dire : « sont soutenables toute situation, tout processus ou toute

action qui permet la satisfaction des besoins présents, sans compromettre la capacité des

générations futures à satisfaire les leurs ». Abstrait du développement, le terme soutenable est

libre de qualifier les mots et expressions qui lui conviennent.

L'interprétation en français du terme ''sustainable'' ne fait pas l'unanimité. Certains le

1. O'Riordan cité par Munn [1989].2. Voir aussi Khan [2002].

6

Page 17: 2. Thèse_Doctorat_YJJ_Duplan.pdf

traduisent par « viable », la plupart préfèrent « durable » ou « soutenable ». Ces adjectifs ont

des significations distinctes, tout au moins des nuances qui les différencient. Une

interprétation appropriée du mot ''sustainable'' exige qu'on respecte l'esprit anglo-saxon de sa

signification. Dans le Pocket Oxford Dictionary [Thompson, 1992], le verbe ''to sustain'' a la

signification de ''to support'', qu'on peut aisément traduire par supporter. Supporter dans le

sens d'endurer, porter une charge, subir au cours d'une longue période et dans le sens

d'encourager, agir en faveur de. Ces deux sens paraissent contradictoires puisque l'un suppose

une contrainte, l'autre une liberté de décision.. Il faut aussi remarquer que les adjectifs

français ''durable'' et ''viable'' renvoient respectivement aux termes anglais ''long-lasting'' et

''viable'' mais pas à ''sustainable''. D'après Le maxidico, est soutenable ce « qui peut être

enduré » ou ce « que l'on peut soutenir à l'aide de raisons admissibles ». L'esprit de cette

définition est équivalent à celui de ''to sustain''. Par conséquent, une interprétation adéquate du

''sustainable'' consiste à le traduire par ''soutenable'' ou ''supportable''. Supporter ou soutenir,

c'est aussi faire durer. Mais ce qui est durable n'est pas nécessaire soutenable. La pauvreté et

l'iniquité sociale sont durables. Ô combien de dictatures ont duré ! Nous ne pouvons les

soutenir. L'utilisation de la soutenabilité dans le sens de la durabilité des systèmes naturels

n'est pas nouvelle dans la langue française. Une ordonnance de Philippe de Valois édictée en

1346 impose une exploitation des forêts de telle sorte qu'elles « se puissent perpétuellement

soustenir en bon état » [Smouts, 2001, p.21]. Nous retenons le terme de soutenabilité pour

traduire ''sustainability'' et exprimer nos choix par rapport aux enjeux socio-économiques,

écologiques et épistémologiques. Cependant, nous maintiendrons le terme « durable » lorsque

l'auteur dont nous exposerons les idées adopte cette traduction.

Le sens de ''soutenable'' implique de fait un sujet endurant ou défendant. Un tel concept

est incompatible avec le positivisme qui exclut la subjectivité. Toutefois, nombre d'auteurs

anglo-saxons peinent à récuser la subjectivité de la soutenabilité. C'est le cas de Hueting et

Lucas [1998] selon lesquels le terme ''sustainability'' signifie le maintien de la disponibilité

des fonctions des ressources naturelles. Admettant que c'est aux sciences naturelles d'indiquer

les conditions de la permanence de cette disponibilité, ils affirment : « la soutenabilité est un

concept objectif au même point que les sciences naturelles » [Hueting et Lucas, 1998, p.140].

Or dans le même article, les deux auteurs soutiennent que « la satisfaction des désirs, ou le

bien-être, est une notion subjective » dans la mesure où « c'est une expérience personnelle »

pour laquelle on ne peut établir de mesure cardinale [Hueting et Lucas, 1998, p.141]. La

soutenabilité est l'expression d'un choix personnel car on pourrait décider de ne pas préserver

les fonctions environnementales. C'est donc un concept subjectif par essence, peu importe

qu'il soit mesurable ou non.

7

Page 18: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Les tenants du positivisme cherchent, à tout prix, à éviter les questions de choix de

société qui mettent l'économique et le politique dans un rapport dialectique inconcevable à

l'intérieur de ce courant épistémologique. On comprend bien pourquoi ses partisans préfèrent

adopter le terme ''durable'' dont la signification n'inclut pas nécessairement un sujet décideur.

La soutenabilité secoue le joug du scientisme car elle pose au cœur même de la science le

problème de l'intégration du sujet.

II. Le projet de la soutenabilité

La soutenabilité est un enjeu épistémologique considérable. Les difficultés de

conceptualisation et de modélisation qu'elle soulève relèvent plus d'un mode de pensée que de

l'impossibilité de trouver des principes épistémiques en adéquation avec les problèmes

rencontrés. L'impasse est d'autant plus infranchissable que de nombreux chercheurs

s'accrochent désespérément aux méthodo-logies traditionnelles. Le défi de la soutenabilité

peut être levé si nous nous rendons compte qu'il s'agit de nouveaux projets scientifiques qui,

pour être réalisés, exigent une révolution paradigmatique entraînant un décloisonnement des

sciences, et, dans le cas qui nous concerne, un désenclavement de la pensée économique.

1. L'alternative paradigmatique

L'épistémologie est née au XIXe siècle, au moment où la science se caractérisait par son

homogénéité et son assurance dans ses principes premiers au point que la théorie de la

connaissance se contentait, dans la plupart des cas, de mettre en évidence sa rationalité et son

caractère prétendument unitaire et universel. Dès cette époque, s'est constituée

« l'épistémologie historique », un courant de la philosophie des sciences guidé par une

méthode critique et orientée vers l'histoire des sciences. Au début du XXe siècle, le mot

« épistémologie » fait ses premières apparitions dans les écrits en langue française en place de

la philosophie des sciences. Cependant, dans la littérature anglo-saxonne, le terme

« epistemology » désigne la théorie philosophique et moderne de la connaissance et se

distingue de la philosophie des sciences. L'épistémologie, entendue comme la science de la

science ou plutôt des sciences, est une conception relativement récente.

Selon Barreau, l'épistémologie doit mettre en valeur ses méthodes les plus générales et

ses résultats les plus importants pour compenser la diversification du champ scientifique ; il

lui revient aussi d'« examiner la façon dont la connaissance scientifique, qui a ses traditions

propres, peut se greffer sur la connaissance commune, qui soutient l'échafaudage de ses

concepts, et leur donne droit de cité », et montrer ce qu'est la science, sans en faire l'apologie,

8

Page 19: 2. Thèse_Doctorat_YJJ_Duplan.pdf

« et quelle ouverture elle peut offrir sur l'Univers, sur la vie, sur l'homme et sur la société »

[Barreau, 1992, p.18-27]. En gros, le projet épistémologique est de vérifier le statut

scientifique des connaissances. L'épistémologie doit permettre de répondre à trois questions

d'ordre gnoséologique, méthodologique et éthique : définir la connaissance, montrer comment

elle est constituée et générée et instituer les critères de sa valorisation et de sa validité. Notons

combien l'épistémologie peut être d'une importance cruciale dans la fourniture d'outils

conceptuels et méthodologiques pour acquérir et organiser le savoir scientifique de manière

plus efficace.

L'épistémologie, depuis La structure des révolutions scientifiques de Thomas S. Kuhn,

met en avant la notion de paradigme pour étudier l'évolution de la connaissance scientifique.

Kuhn emploie le terme « paradigme » dans plusieurs sens. Deux d'entre eux méritent

l'attention. Le premier est celui de « matrice disciplinaire » qui, formée d'éléments ordonnés et

spécifiques, désigne la « constellation complète des croyances, valeurs, techniques, etc.

partagées par les membres d'une communauté donnée » [Kuhn, 1970, p.182] ; le second

correspond à celui de « modèle », c'est-à-dire un bloc de la matrice disciplinaire pris à titre

d'exemple en vue de révéler des généralités et similitudes derrière les particularités apparentes

des éléments de la matrice, de définir les problèmes et d'établir leurs critères de sélection ainsi

que les critères de choix des informations et des méthodes d'analyse. La notion de paradigme

se rapproche de celle d'« épistémê » définie par Michel Foucault comme les principes sous-

jacents au savoir qui régissent les codes fondamentaux d'une culture à une époque donnée.

Paradigme et épistémê sont analogues par leur fonction d'ordonner et d'organiser le savoir et

la connaissance, l'un et l'autre sont d'ordre socio-culturel et historique. Fort de ce

rapprochement, nous ne faisons pas de différence sémantique entre les deux termes. En les

considérant du point de vue de l'épistémologie, nous entendons par paradigme ou épistémê le

cadre formé d'un ensemble de principes éthico-gnoséo-méthodo-logiques qui gouvernent des

systèmes d'idée et de pensée ; ce sont des principes d'organisation du savoir et de la

connaissance scientifiques qui contrôlent, commandent et auxquels obéissent la pensée et

l'esprit dans son dialogue avec le réel. Au travers de ces principes, le paradigme repose sur les

relations entre quelques concepts maîtres qui subordonnent aussi bien les discours que leur

logique [Morin, 1999].

Les diverses conceptions de la soutenabilité se prêtent aux dimensions socio-

économique et écologique et n'intègrent les aspects épistémologiques d'aucune manière, en

tout cas pas de façon explicite. Cette lacune est sans surprise. En effet, « depuis un quart de

siècle, constate Le Moigne [1999a, p.6], la méditation épistémologique semble disparaître de

plus en plus des pratiques institutionnelles des chercheurs : chacun cite des interprétations

9

Page 20: 2. Thèse_Doctorat_YJJ_Duplan.pdf

statistiques ou des expérimentations onéreuses insensées (n'ayant pas de sens, et donc ne

produisant pas de connaissances valables), développées non par perfidie, mais par inculture

épistémologique [...] ». A cet égard, la plupart des chercheurs économistes se soumet, souvent

inconsciemment, au joug des principes légitimant la science classique. Ce sont les principes

du mécanisme et de l'analytisme constitutifs de ce que nous appelons le paradigme cosmique.

L'économie les utilise, à tort et à travers, comme s'ils étaient incontournables, valables,

soutenables, du moins suffisent pour l'acquisition et l'organisation des connaissances

scientifiques nécessaires à l'élaboration du macro-concept de soutenabilité, à la prise de

décision et à la praxis. La référence de l'économisme aux modèles de croissance pour

conceptualiser la soutenabilité est symptomatique. Ces modèles ne sont rien d'autre que

l'application de la formalisation mécano-analytique de la physique hamiltonienne et

lagrangienne.

Or la notion de soutenabilité apparaît dans la foulée des questionnements sur la valeur et

la validité de la généralisation des principes de pensée, le statut et les méthodes des

connaissances de type mécano-analytique. Sa multidimensionnalité exige en toute rationalité

l'exercice d'une pensée complexe. C'est en réponse à cette nécessité qu'émerge le « paradigme

de complexité » [Morin, 1990] qui pourrait s'appeler également paradigme chaosmique, ce

paradigme qui, au lieu d'ordonner et d'analyser purement et simplement, distingue et relie à la

fois.

2. Le désenclavement de la pensée économique

La soutenabilité soulève des questions à caractère social comme l'équité de la répartition

des richesses naturelles, la protection des cultures traditionnelles et des questions d'ordre

environnemental comme la protection des systèmes naturels, l'épuisabilité des ressources, la

qualité de l'environnement. Sous peine d'être discrédité, l'économiste ne peut prétendre traiter

la problématique de la soutenabilité et en même temps ignorer que ces questions traversent

des champs disciplinaires multiples. Bon gré, mal gré, il doit répondre aux critiques proférées

à l'encontre de sa conception étroite et unidimensionnelle de l'économique. Aux prises avec la

multidimensionnalité de la soutenabilité, l'économie ne peut s'empêcher d'utiliser des

connaissances qu'elle a longtemps, à tort et à raison, considérées hors de son projet. Certaines,

avec lesquelles elle a beaucoup flirté, viennent des « sciences sociales », de la sociologie, de

l'anthropologie, de la démographie, de la géographie, de la psychologie. D'autres

appartiennent aux « sciences naturelles » en apparence plus éloignées, comme la physique, la

chimie, la géologie, l'écologie, la biologie. Il ne s'agit pas d'emprunter des modèles à d'autres

10

Page 21: 2. Thèse_Doctorat_YJJ_Duplan.pdf

disciplines pour formaliser des phénomènes jugés d'ordre économique comme le font les

néoclassiques. Il s'agit bien de reconnaître qu'à l'intérieur de l'économique et en interaction

avec lui, il y a des phénomènes étudiés par d'autres sciences et d'y rapatrier les connaissances

afférentes.

Dans cette perspective, l'économie s'invite dans le complexe disciplinaire. La

disciplinarité complexe, l'inter-trans-pluridisciplinarité, la met en deçà, au travers et au delà

des autres disciplines. Nous rejetons toute épistémologie qui prône le spécialisme et le

cloisonnement disciplinaire. Nous optons pour « le modèle spiralé des sciences » dans lequel

toutes les plages de la connaissance sont faites du même sable » et ne se distinguent « que par

les nuances colorées de leur camaïeu » [Le Moigne, 1999a, p.103]. Les sciences, certes

distinctes, sont inséparables, les unes des autres. La pratique empirique, gage de la rationalité,

guide le transfert interdisciplinaire des connaissances.

Le projet de la soutenabilité ouvre l'économique à la multidimensionnalité. Nous

sommes portés à faire attention aux extrémismes de la pensée que l'on peut reconnaître par la

terminaison « isme » (« iste » pour l'adjectif)1. Nous sommes à la fois « ismophobes » et

« ismophiles ». Ismophobes, nous nous opposons en toute radicalité à tout radicalisme et tout

réductionnisme qui isolent et hypertrophient l'esprit dans un certain schéma de pensée.

Ismophiles, nous admettons la possibilité d'échapper à l'idéologie et d'emporter les principes

et concepts-clé du courant extrémiste pour les confronter à la réalité perçue, les critiquer et

finalement les approprier en connaissance de cause.

Le projet de la soutenabilité est traité dans le cadre de la boucle tétralogique que

représente la figure 1. Au niveau épistémologique, la discussion porte sur la gnose, les

logiques et méthodes qui sous-tendent les connaissances productrices du macro-concept de

soutenabilité. Ces connaissance se retrouvent au niveau transépistémologique et ont trait à la

physico-chimie, la bio-géo-éco...logie et la socio-économie. Dans la boucle tétralogique, les

1. Nous disons, par exemple, analytisme pour exprimer le radicalisme de la pensée qui se restreint uniquementaux principes de l'analytique même lorsque des principes différents sont soutenables.

11

Physico-chimie

Épistémologie

Socio-économie Bio-géo-éco...logie

Figure 1. La boucle des connaissances supportant la soutenabilité complexe

Page 22: 2. Thèse_Doctorat_YJJ_Duplan.pdf

disciplines se relient entr'elles pour promouvoir la soutenabilité.

Notre thèse pose la problématique de la soutenabilité dans une optique épistémologique.

Il s'agit de mettre en évidence les principes paradigmatiques qui soutiennent une

conceptualisation complexe de la soutenabilité. Nous menons notre argumentation en deux

étapes. Dans une première partie, nous essaierons d'étayer l'idée que la conceptualisation et la

modélisation de la soutenabilité néoclassique est supportée par les principes du mécanisme et

de l'analytisme et qu'en les contestant, il conviendra de proposer un principe de soutenabilité

socio-économique. Dans un second temps, au travers des apports de la pensée complexe, de la

biophysique, de la thermo-économie, de l'écoénergétique et de la bioéconomie, nous

examinerons les dimensions écologique et épistémique de la soutenabilité. En particulier,

nous étudierons la question de la déforestation en Haïti, en rapport au problème de l'évolution

de la production posé dans le cadre de la soutenabilité écologique.

12

Page 23: 2. Thèse_Doctorat_YJJ_Duplan.pdf

PREMIÈRE PARTIE

L'économie de la soutenabilité : descritiques épistémologiques à uneébauche socio-économique de la

soutenabilité complexe

Page 24: 2. Thèse_Doctorat_YJJ_Duplan.pdf

La pensée économique élaborée au XVIIIe par l'École Physiocratique et son chef de

file François Quesnay met l'aspect physique et biologique de la nature au cœur de l'analyse

économique. L'idée primordiale de ce courant est que le secteur agricole est le seul créateur

de richesse. En effet, c'est de la terre que provient le produit physique réparti entre les

classes de la société, bénéficiaires du produit net, des avances annuelles, primitives et

foncières. Pour Quesnay [1991], la soumission de l'homme aux lois physiques, à l'Ordre

Naturel, permettrait de mieux profiter de l'agriculture et garantirait la reproduction de la

société. « L'image de l'économie, qui ressort de cette approche, explique Passet [1996, p.31],

est celle d'une activité régie par des lois naturelles, mettant en œuvre des flux physiques et

ne pouvant se perpétuer qu'à travers la reproduction d'un milieu naturel indépendamment

duquel elle ne saurait être analysée ».

Dans la lignée des physiocrates, Marx [1950, p.18] voit dans la nature la véritable

force créatrice de la richesse : « Le travail n'est pas la source de toute richesse. La nature est

tout autant la source des valeurs d'usage (qui sont bien, tout de même, la richesse réelle !)

que le travail qui n'est lui-même que l'expression d'une force naturelle, la force de travail de

l'homme ». Aux rapports sociaux marqués par l'exploitation du travailleur s'ajoutent les

rapports de l'homme à la nature dans lesquels la production est responsable de la dégradation

du milieu : « chaque progrès de l'agriculture capitaliste est un progrès non seulement dans

l'art d'exploiter le travailleur, mais encore dans l'art de dépouiller le sol [...] La production

capitaliste ne développe donc la technique et la combinaison du procès de production sociale

qu'en épuisant en même temps les deux sources d'où jaillit toute richesse : la terre et le

travailleur » [Marx, 1969, p.363]. La problématique de l'environnement naturel est certes

présente dans l'analyse de Marx et Engels du capitalisme, notamment dans la Dialectique de

la Nature, mais avec une certaine ambiguïté et sans y occuper une place centrale [Passet,

1985 et 1996 ; Löwy, 2003 ; Benton, 2003].

Page 25: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Il est vrai que, dans ses embryons, la science économique traite des rapports entre les

hommes et de leurs rapports avec la nature [Le Masne, 2000]. Cependant, la pensée

économique enseignée nie la spécificité (bio)physique des processus de production, de

consommation et de l'environnement naturel de la société. Elle tend à se focaliser sur les

rapports interindividuels et sociaux et à analyser la répartition du revenu et des richesses sans

toutefois préciser le critère de son équité.

Le courant dominant, l'orthodoxie néoclassique, adopte la démarche de l'individualisme

méthodologique. L'économie est formalisée comme un modèle de rationalité où les individus

– ou l'agent représentatif – maximisent leurs fonctions d'utilité (ou de bien-être) et de profit

sous des contraintes budgétaires et techniques. L'état de l'économie est caractérisé par les

quantités échangées et les prix d'équilibre résultant de l'égalité de l'offre et de la demande.

Dépourvu de toute organisation propre, l'environnement naturel du système économique fait

office de variables exogènes sous la forme des dotations initiales qui font l'objet de

transactions marchandes.

L'« hétérodoxie » marxiste oublieuse des aspects écologiques de la pensée marxienne se

limite à l'expression de la marchandise en termes de valeur-travail. Elle s'enferme dans le

schéma de la reproduction où la circulation de la valeur entre les secteurs des biens de

production et de consommation et où sa répartition résulte des rapports de classe, d'une part,

dans le procès de production entre les capitalistes et les travailleurs, d'autre part, sur le marché

concurrentiel entre les capitalistes eux-mêmes. De manière analogue, l'hétérodoxie

keynésienne formalise l'économie tel un circuit fermé reliant par des flux monétaires les pôles

de la consommation, de la production et des institutions bancaires. Les bornes du système

s'arrêtent aux échanges marchands au mépris de toute interdépendance et de toute interaction

avec son milieu ambiant.

Alors que les hétérodoxes rechignent à intégrer l'environnement naturel dans leurs

cadres conceptuels et leurs modèles, les libéraux néoclassiques ne trouvent aucun

inconvénient à le soumettre à la logique marchande et à la rationalité économique et, de

surcroît, à concevoir la soutenabilité. Or le modèle néoclassique est subordonné aux principes

simplificateurs du mécanisme et de l'analytisme. Comment peut-il prétendre intégrer et traiter

des phénomènes aussi complexes que ceux des systèmes socio-économiques et naturels ?

Qu'elle place donne-t-il à la question socio-économique de l'équité de la répartition du revenu

et des richesses ?

Nos arguments serviront à défendre l'idée que l'intégration de l'environnement dans le

corpus néoclassique aboutit à une appréhension étriquée de la soutenabilité conforme à l'esprit

réducteur du paradigme cosmique et basée sur un paradoxe : l'économie de l'environnement

15

Page 26: 2. Thèse_Doctorat_YJJ_Duplan.pdf

est une économie sans environnement. L'intégration de l'environnement naturel dans le

modèle néoclassique est un déni de la nature équivalant à l'extension sans limite du champ

économique. De plus, réduisant les rapports humains aux rapports marchands, elle fait fi de

l'équité socio-économique.

Cette partie comporte deux chapitres. Dans le chapitre I, nous tenterons de montrer

comment l'économie (néoclassique) est piégée dans le carcan du paradigme cosmique. Dans

le chapitre II où nous proposerons des éléments d'appréhension de la soutenabilité socio-

économique, nous mettrons en évidence et critiquerons la conceptualisation et la modélisation

de l'économie de la soutenabilité.

16

Page 27: 2. Thèse_Doctorat_YJJ_Duplan.pdf

CHAPITRE I

L'économie dans le carcan duparadigme cosmique

Exprimée dans les termes du Cosmos, la vision dominante de l'antiquité greco-latine est

celle d'un univers sphérique dont le fonctionnement est conçu harmonieux. Cette vision

cosmique, axée sur des principes d'ordre et d'identité, régente le développement de la science

et de la pensée occidentales. Jusqu'au XVIe siècle, elle alimente le rationalisme aristotélicien

de la scolastique, puis se systématise dans le mécanisme et l'analytisme de Descartes pour

s'ériger en principe de connaissance de la science classique dite galliléenne. La pensée

mécano-analytiste fait du mouvement, de la divisibilité, de la causalité et de la simplicité les

fondements de l'intelligibilité des phénomènes.

Les « lois de la Nature », quand ce ne sont pas celles de Dieu, régissent l'ordre

cosmique. Ce sont les lois prétendues universelles et simples, d'un monde économique,

complètement déterminé, certain et immuable. La Nature, rationnelle et optimisatrice, ne fait

pas de gaspillage. Les propriétés des phénomènes sont mesurables à n'importe quel degré

d'exactitude. Le non quantifiable, le particulier, l'irrégulier, l'indéterminé, l'incertain, le

chaotique, l'inattendu et l'imprécis sont exclus puis délaissés dans un monde complexe et

évolutif jugé inaccessible à l'entendement humain et à la raison. L'idée d'irréversibilité, en

germe chez Aristote et chez Newton qui décèlent le frottement et l'inertie caractéristiques des

systèmes mécaniques, est complètement mise à l'index, dès le XIXe siècle, par la mécanique

analytique de Hamilton et de Lagrange et par la mécanique classique en général. De

préférence, une place centrale est octroyée aux phénomènes stationnaires et aux processus

réversibles soumis à des lois de symétrie et de conservation.

Page 28: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Les principes du mécanisme et de l'analytisme constituent ce que nous appelons le

paradigme cosmique. Ils imprègnent la culture scientifique et favorisent l'émergence de

l'économisme. En effet, la mécanique et la science économique se sont mutuellement

influencées au cours de l'histoire des sciences. Depuis les classiques, les économistes ne

cessent d'accaparer, sous couvert d'analogies et de métaphores, les concepts et principes de

modélisation de la science classique [Mirowski, 2001]. Un large pan de la pensée

économique, tout au moins l'école libérale néoclassique, est ainsi façonné par le moule

idéologique du paradigme cosmique.

Simplifier et réduire sont les mots d'ordre de l'analytisme (Section 1). Mots d'ordre

auxquels l'économiste semble vouloir répondre lorsqu'à s'y méprendre, il se cramponne à la

mesurabilité physique de la valeur (Section 2) et quand il perçoit l'économie à l'image de la

mécanique classique (Section 3).

1. Le simplisme réducteur et le réductionnismesimplificateur : l'analytisme

Étudier un phénomène, c'est l'analyser. Un tel procédé est si profondément ancré dans

les esprits que penser et analyser semblent s'y confondre. L'analytisme assujettit la pensée à

quelques principes de l'analytique cartésienne et aristotélicienne considérée comme la seule

manière d'appréhender le réel. Il est à la base de la pensée unidimensionnelle qui réduit en

simplifiant et qui simplifie en réduisant.

Avant de critiquer l'analytisme (1.2), il convient d'exposer les principes qui le

constituent (1.1).

1.1. Les principes constitutifs de l'analytisme

Les principes de l'analytisme se restreignent à la logique aristotélicienne, la gnoséologie

et la méthodologie cartésiennes.

A. La logique aristotélicienne

La logique aristotélicienne scolastique est la logique des termes, de non-contradiction.

Elle procède à l'analyse des propositions et est constituée des principes de l'axiomatique

identitaire.

18

Page 29: 2. Thèse_Doctorat_YJJ_Duplan.pdf

a. L'analyse propositionnelle

Dans la pensée scolastique, tout jugement est de la forme sujet-copule-prédicat comme

« A est B ». La copule désigne le verbe « être ». Le sujet (A) et le prédicat (B) sont les termes

du jugement c'est-à-dire les expressions verbales de concepts que l'on interprète en extension

et en compréhension. L'attribution copulative d'un prédicat à un sujet réduit l'un à l'autre et

établit leur identité. Cette attribution qu'on appelle « rapport d'inhérence » est le fondement

analytique de tout jugement et constitue le principe de base de l'analyse propositionnelle.

La logique aristotélicienne n'admet que deux valeurs de vérité : le vrai et le faux. Ainsi

une proposition est-elle définie comme un jugement susceptible d'être déclaré vrai ou faux.

Une proposition est dite vraie si elle correspond à un fait du monde, sinon elle est dite fausse.

On peut distinguer deux classes d'oppositions de propositions, une classe dite

« affirmation/négation » si la proposition est analysée du point de vue de sa compréhension et

une autre dite « universel/particulier » si elle est considérée du point de vue de son extension.

Une proposition est affirmative quand le prédicat appartient à la compréhension du sujet,

sinon elle est négative ; pour la proposition universelle, le prédicat caractérise ou s'exclut de

toute l'extension du sujet, elle est particulière si le sujet ne concerne qu'une partie de son

extension. Du croisement deux à deux des propositions affirmative, négative, universelle,

particulière, on obtient quatre autres formes notées A, E, I, O (figure 1.1) :

A : proposition universelle affirmative comme « toutes les économies sont

complexes » ;

E : proposition universelle négative comme « aucune économie n'est complexe » ;

I : proposition particulière affirmative comme « certaines économies sont complexes » ;

19

Figure 1.1. Types et oppositions de propositions [Gex, 1956]

Universelles

Affirm

atives

E

I O

A

Négatives

Particulières

Compréhension

Extension

Subalternes

Subalternes

Contraires

Subcontraires

Contradictoires

Page 30: 2. Thèse_Doctorat_YJJ_Duplan.pdf

O : proposition particulière négative comme « certaines économies ne sont pas

complexes ».

La combinaison deux à deux de ces propositions fournit quatre relations d'opposition :

la contradiction, la contrariété, la subalternation et la sub-contrariété. La contradiction résulte

de la préfixation d'une proposition par la négation et oppose deux propositions (A et O, E et I)

telles que si l'une est vraie l'autre est fausse et vice versa. La contrariété oppose deux

propositions (A et E) telles que si l'une est vraie l'autre est fausse, mais si l'une est fausse on

ne peut rien conclure sur l'autre. La subalternation est une relation d'inférence (entre E et O, A

et I) où l'on peut conclure de la vérité de l'universelle à la vérité de la particulière et de la

fausseté de la particulière à la fausseté de l'universelle, sans pouvoir conclure de la fausseté de

l'universelle ou de la vérité de la particulière. La sub-contrariété oppose deux propositions (I

et O) telles que si l'une est fausse l'autre est vraie, mais si l'une est vraie on ne peut rien

conclure sur l'autre.

b. L'axiomatique identitaire

L'axiomatique identitaire dite encore aristotélicienne se décline en trois principes de

pensée :

— le principe d'identité « A est A » stipule l'impossibilité qu'un même sujet soit et ne soit pas

(identique à lui-même) en même temps ;

— le principe de non-contradiction « A ne peut être à la fois B et non-B » affirme

l'impossibilité qu'une chose soit et, en même temps et sous le même rapport, ne soit pas ce

qu'elle est ;

— le principe du tiers exclu « A est soit B soit non-B » indique qu'entre deux propositions

contradictoires, une seule peut être déclarée comme vraie.

Le principe d'identité affirme, à un moment donné, l'« être » pensé, computé ou réfléchi

tandis que les principes de non-contradiction et du tiers exclu l'identifient en éliminant toute

ambiguïté. Le principe d'identité est un principe d'égalité et de parité absolues indifférent aux

références et aux rapports, au changement et à la continuité. Parler d'identité relative est une

contradiction dans les termes [Korzybski, 1998]. Dans l'absolu, le principe d'identité est une

répétition tautologique, c'est une inanité. Sa rigueur formelle en fait une formulation générale,

absurde et vide de sens. Le principe du tiers exclu, selon lequel il n'y a pas de tiers possible

entre deux énoncés contradictoires, est le corollaire des deux autres. L'axiomatique identitaire

peut être exprimé en un seul principe : si deux propositions sont contradictoires, l'une est

vraie, l'autre est fausse, et elles ne peuvent être ni toutes les deux vraies ni toutes les deux

fausses [Gex, 1956]. Les principes de la logique identitaire sont inséparables et solidaires les

20

Page 31: 2. Thèse_Doctorat_YJJ_Duplan.pdf

uns des autres.

B. La méthodologie et la gnoséologie cartésiennes

La méthodologie cartésienne d'acquisition et d'organisation du savoir qui est exposée en

détail dans les diverses Règles pour la direction de l'esprit est résumée par les quatre

préceptes de La Méthode. Elle corrobore le principe gnoséologique de la disjonction du sujet

de l'objet de la connaissance.

a. Les préceptes de La méthode

Le premier précepte repose sur le postulat que « toute connaissance est une

connaissance certaine et évidente » [Descartes, 1996a, p.5]. Voici donc la règle que Descartes

s'impose pour éviter toute erreur de jugement dans la recherche de la vérité : « Le premier

était de ne recevoir jamais aucune chose pour vraie que je ne la reconnusse évidemment être

telle : c'est-à-dire d'éviter soigneusement la précipitation et la prévention et de ne comprendre

rien de plus en mes jugements que ce qui se présenterait si clairement et si distinctement à

mon esprit que je n'eusse aucune occasion de le mettre en doute » [Descartes, 1995, p.32].

C'est l'évidence et la certitude de la connaissance qui assurent la vérité scientifique. Pour

« distinguer le vrai du faux », il faut rejeter les connaissances « probables » [Descartes,

1996a] et refuser l'ambiguïté, l'incertitude et l'indécision.

Le second précepte, tout à fait en accord avec le précepte d'évidence, appelle à l'analyse

systématique des phénomènes étudiés et des problèmes posés. Il recommande « de diviser

chacune des difficultés [examinées] en autant de parcelles qu'il se pourrait et qu'il serait requis

pour les mieux résoudre » [Descartes, 1995, p.32]. L'intelligibilité d'une question suppose

qu'il est toujours possible de « l'abstraire de tout concept superflu, de la réduire à sa plus

grande simplicité et la diviser en parties aussi petites que possibles » [Descartes, 1996a, p.96].

La compréhension d'un phénomène nécessite de le simplifier par décomposition et réduction.

Le troisième précepte réalise la synthèse des connaissances. Il ordonne d'opérer « par

ordre [...], en commençant par les plus simples et les plus aisés à connaître, pour monter peu à

peu comme par degrés jusques à la connaissance des plus composés : et supposant même de

l'ordre entre ceux qui se précèdent point naturellement les uns aux autres » [Descartes, 1995,

p.33]. Ainsi, pour Descartes, l'ordre de connaître n'est ni logique ni chronologique ni même

causal, il est analogue à la succession des « raisons toutes simples et faciles » des géomètres.

Les connaissances s'obtiennent suivant le degré de difficulté avec laquelle les choses sont

déduites les unes des autres. A l'étape de la synthèse la connaissance s'acquiert et s'organise

en partant du plus simple vers le plus compliqué.

21

Page 32: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Le quatrième et dernier précepte enjoint le scientifique à s'assurer de ne rien omettre, à

dénombrer et énumérer de manière exhaustive la totalité des éléments à chaque étape de la

synthèse.

b. La disjonction du sujet de l'objet de la connaissance : le primatdu quantifiable

Pour Descartes, le corps existe « en dehors » et indépendamment de l'esprit. Ce sont

deux substances discrètement distinctes crées par la volonté divine. Descartes [1996b, p.63]

croît que « tout ce que nous sentons, vient de quelque autre chose que de notre pensée», et que

le cerveau et l'esprit peuvent fonctionner de manière séparée. Ainsi établit-il le principe

ontologique du positivisme et du réalisme de l'indépendance existentielle du sujet et de l'objet

de la connaissance. L'univers cognitif se divise en deux champs distincts : l'univers du sujet,

spirituel, où est cogité le problème de la philosophie et l'espace des objets, corporels, qui

constitue le domaine d'application de l'analyse et où se pose le problème scientifique (tableau

1.1). De la sorte, le rationalisme cartésien ne reconnaît aucune subjectivité au domaine

scientifique.

Tableau 1.1. Le dualisme cartésien

Substance Domaine Attribut Mode ou accident

Corps Science Res extensa Figure, mouvement, grandeur

Esprit Philosophie Ego cogitans Haine, douleur, amour, doute, couleur, froid...

Le monde du sujet est celui de l'ego cogitans, du moi pensant, de la pensée ou de la

conscience par laquelle il participe à un Dieu parfait, infini et absolu. L'homme, réfléchissant

sur lui-même, a la possibilité de tirer parti de sa raison pour adopter un comportement

rationnel et effectuer un raisonnement abstrait sans le secours des sens et de l'imagination.

Ainsi est-il capable d'avoir la pleine signification de l'énoncé « cogito, ergo sum » (je pense,

donc je suis). De manière évidente et certaine, et indépendamment de toute chose matérielle,

il prend connaissance de son âme, « une substance dont toute l'essence ou la nature n'est que

de penser » [Descartes, 1995, p.49]. Dès lors, l'être pensant est convaincu que « pour penser il

faut être ». Ainsi le sujet est-il défini par la conjonction de sa pensée et de son existence

spirituelle [Laporte, 2000].

L'univers corporel est celui des choses matérielles vouées à la connaissance scientifique.

Dépourvu de pensée, de forme mentale et de qualités sensibles, il regroupe la totalité des

objets que l'esprit, grâce à un Dieu non trompeur, perçoit clairement et distinctement. Flexible

22

Page 33: 2. Thèse_Doctorat_YJJ_Duplan.pdf

et muable, l'objet, le corps ou la matière est de la nature de la res extensa, la chose infiniment

divisible, « étendue en longueur, largeur et profondeur » [Descartes, 1996b]. C'est une

substance géométrique qui ne peut être comprise et expliquée que par la figure, le mouvement

et la grandeur. Dans Les principes, Descartes expose avec clarté et concision sa conception du

monde physique et de la science en général : « [...] je ne connais point d'autre matière des

choses corporelles, que celle qui peut être divisée, figurée et mue en toutes sortes de façons,

c'est-à-dire celle que les géomètres nomment la quantité, et qu'ils prennent pour l'objet de

leurs démonstrations ; et que je ne considère, en cette matière, que ses divisions, ses figures et

ses mouvements ».

Il réduit tout phénomène à des quantités, des nombres, en mouvement géométrique.

Autrement dit, la connaissance scientifique ne peut être fondée que sur la représentation

quantitativiste, dans l'ordre des vérités géométriques et arithmétiques. Or, d'après Descartes,

« tout ce qui est vrai est quelque chose ». Il s'ensuit que les figures géométriques et les

symboles arithmétiques appartiennent au domaine scientifique non seulement en tant que

certitudes mathématiques mais aussi en tant que réalités objectives. Comme le remarque

Garber [1999, p. 144] à propos de la conception cartésienne de la matière, « les corps en

physique sont ainsi des objets de démonstration géométriques devenus réalités ». La science

classique et les mathématiques se rejoignent dans la pensée cartésienne de telle manière que

se confondent vérité formelle et vérité matérielle. A cet égard, Descartes se retrouve dans la

lignée de Galilée qui fait de la géométrie euclidienne l'unique mode d'appréhension et

d'expression des phénomènes physiques : l'« immense livre » de la philosophie, l'Univers,

écrit Galilée1, « est écrit dans le langage mathématique et ses caractères sont des triangles, des

cercles et autres figures géométriques, sans le moyen desquels il est humainement impossible

d'en comprendre un mot ». Galilée va jusqu'à crier que la « science est mesure ».

La place centrale accordée à l'arithmétique et la géométrie repose sur la croyance

pythagoricienne et platonicienne que les nombres préexistent à l'univers sensible et que dans

chaque chose il y a un nombre. Tous les tenants de l'analytisme dont les partisans du

marginalisme ou de l'école libérale néoclassique s'astreindront, à l'instar de Petty, de

s'« exprimer en termes de nombres, poids ou mesure » [Petty, 1899, p. 244]. Pareto, dans le

sillage de Cournot, d'Edgeworth et de Walras, après avoir formalisé l'optimum économique

qui porte son nom, se targue du fait que sa théorie est fondée « sur la détermination des

quantités de biens » et que « la théorie de la science économique acquiert ainsi la rigueur de la

mécanique rationnelle » [Pareto, 1966, p.160]. Jevons ne trouve « aucune limite » à la

méthode qui consiste à peser, mesurer et réduire au point d'outrepasser le dualisme cartésien

1. Cité par Maréchal [2000].

23

Page 34: 2. Thèse_Doctorat_YJJ_Duplan.pdf

pour soumettre la pensée et l'esprit, au même titre que la matière, à l'ordre du quantitativisme.

« Le temps viendra, très probablement, prédit-il, où le délicat mécanisme de l'esprit sera

décortiqué, et où toute pensée sera réduite à une dépense d'une quantité déterminée d'azote et

de phosphore » [Jevons, 1905, p.735]. Fort de ces croyances, l'économiste s'attelle aux

phénomènes économiques qui se prêtent à la quantification pour justifier le recours

systématique aux mathématiques.

1.2. Critique de l'analytisme

Les principes de l'analytisme ne sont pas universels. Ils s'appliquent certainement à une

classe de phénomènes perçus réductibles, simples et au pire compliqués, ceux de la physique

galiléenne, cartésienne, newtonienne, képlérienne, hamiltonienne qui se laissent facilement

apprivoiser par quelques équations. Dans d'autres situations, ils présentent des limites et des

insuffisances. Au mieux, l'analytique peut se généraliser dans la logique floue sans pour

autant perdre son caractère quantitaviste.

A. Les limites de l'analytisme

Les limites principales de l'analytisme sont l'incapacité d'appréhender le relationnel et

l'impossibilité de concevoir le complexe.

a. L'incapacité d'appréhender les relations

Russell1 note que le verbe « être » peut prendre au moins quatre significations dans les

langages indo-européens. Il est employé :

— comme verbe auxiliaire : c'est fait ;

— dans le sens d'existence : je suis ;

— dans le sens d'attribution : la rose est rouge ;

— dans le sens d'identité : la rose est une fleur.

Le peu de cas qu'on fait de ces différences est souvent source de confusion [Korzybski,

1998]. Cette confusion a perduré avec la scolastique qui, longtemps après Aristote, admettait

l'universalité de la forme prédicat-copule-sujet.

Aristote semble ignorer la distinction kantienne entre le « jugement synthétique » et le

« jugement analytique » [Le Blond, 1970, p.168-174]. Certes, dans le jugement analytique, le

verbe « être » exprime l'identité du sujet ; dans le jugement synthétique, il indique plutôt un

« fait » (comme le rapprochement de deux êtres) ou une « causation » (comme l'action d'un

1. cité par Korzybski [1998]

24

Page 35: 2. Thèse_Doctorat_YJJ_Duplan.pdf

être sur un autre). De même, Aristote néglige la différence « entre la copule signe d'attribution

et le verbe « être » au sens existentiel » et celle « entre la copule signe d'identité et la copule

signe de relation ».

A considérer les ambiguïtés qui dérivent de l'analyse prédicative, on peut comprendre

l'erreur qui consiste, par des correspondances métaphoriques et analogiques qu'exprime le

verbe « être », à identifier le système économique à un système mécanique. Ce n'est pas parce

qu'on dit « cette femme est une fleur » que ce qui est bon pour la femme l'est aussi pour la

fleur et vice versa. Si, au nom de la métaphore ou de l'analogie, on perd de vue les réalités

différentes de la fleur et de la femme, on risque de lui offrir des produits d'arrosage à la place

de fioles de parfum. C'est ce qu'ont fait les tenants du libéralisme néoclassique qui, sans

scrupule, ont utilisé métaphores et analogies pour transposer à l'économie les concepts,

méthodes et modèles mathématiques de la mécanique classique.

L'analyse aristotélicienne est « incapable d'admettre la réalité des relations » [Russell,

2002, p.79], en particulier, les relations de fraternité, d'amour, de grandeur, de proximité. Par

exemple, l'affirmation « A est plus proche de B » n'exprime pas une identité entre le sujet

« A » et le prédicat « plus proche de B ». La logique contemporaine (russellienne et

frégéenne) sort des limites de la logique prédicative en analysant les propositions en termes

fonctionnels. A la structure sujet-copule-prédicat elle substitue une forme fonctionnelle qui se

trouve à la base des opérations mathématiques. Celle-ci associe une variable x (le sujet « A »)

à une fonction déterminée f(x) qui représente la liaison copule-prédicat (« est plus proche de

B »). Ainsi l'analyse propositionnelle est-elle supplantée par l'analyse fonctionnelle de logique

contemporaine qui, cependant, reste solidement attachée à l'axiomatique identitaire.

b. L'impossibilité de concevoir le complexe

Dans la mesure où en un point déterminé du temps tout être est scrupuleusement ce qu'il

est, les principes aristotéliciens mettent la réflexion, la pensée, la computation et le sujet en

accord rigoureux avec eux-mêmes. Ce sont des principes formels, de cohérence [Lefebvre,

1969]. L'axiomatique aristotélicienne acquiert sa validité et sa pertinence quand seulement

l'affirmation et l'identification de l'être sont instantanées. Or, tout être observé est en agitation

et transformation continuelles tout au moins à l'échelle microscopique de son soubassement

matériel. De plus, affirmation et identification sont des processus et, par conséquent,

impliquent la durée. Le principe d'identité est inapplicable à un monde en évolution

perpétuelle. L'identité doit être considérée au mieux comme une étape, un instant dans la

construction intellectuelle de la réalité, dans l'abstraction conceptuelle et la conceptualisation

abstraite des phénomènes.

25

Page 36: 2. Thèse_Doctorat_YJJ_Duplan.pdf

D'après la logique aristotélicienne, il n'y a pas de contradiction lorsqu'à un même

concept on attribue deux réalités jugées opposées par rapport à des points de vue et à des

moments distincts. Ainsi sont-elles discrètement différenciées et dépourvues d'ambiguïté. A le

regarder flotter, on peut affirmer que le drapeau bicolore est bleu et rouge. A priori cette

assertion ne semble pas contradictoire puisque le drapeau est bleu (n'est pas rouge) d'un côté

et rouge (n'est pas bleu) de l'autre. Toutefois il est légitime de se demander où commencent et

finissent les côtés « opposés » droit et gauche. Est-il possible de distinguer discrètement le

côté droit du côté gauche ? N'est-ce pas sans discontinuer qu'on passe de gauche à droite et de

droite à gauche ? Qu'elle que soit la part accordée à chacun des deux côtés, il y aura toujours

une zone centrale (floue) dans laquelle ils sont indiscernables. La contradiction peut

apparaître même au niveau du point de vue considéré. Une telle ambiguïté se présente dans le

développement de la vie humaine. Entre l'enfance et l'adolescence on peut toujours distinguer

une période au cours de laquelle l'homme n'est pas tout à fait enfant ni tout à fait adolescent.

De même que la préférence et la non préférence se confondent dans l'indifférence, de même le

jour et la nuit sont indistincts à l'aube (à l'aurore) et au crépuscule. En rejetant la

contradiction, la logique aristotélicienne nie l'ensemble de ces phénomènes dont la

compréhension exige la prise en compte d'un tiers inclus contradictoire.

Les principes de non-contradiction et du tiers-exclus régissent un univers conçu

dichotomique, qui, inerte et identique à lui-même, n'apparaît ni disparaît, ne peut ou être ou ne

pas être. Ainsi, « la diversité se trouve distribuée manu militari selon la nuit et le jour, le mâle

et la femelle ; chaque entité se trouve subsumée sous une logique de concepts rigides et

transparents. Cette efficace mainmise sur les choses alimente une raison pressée et prosaïque,

qui ne trouve nul lieu pour penser l'aurore et le crépuscule en qui se heurtent et se conjuguent

la nuit et le jour, ou la divinité androgyne en qui se composent, selon le tiers-inclus, les

opposés du mâle et de la femelle » [Wunenburger, 1990, p.157]. Il n'y a pas d'intermédiaire,

de jonction ou de liaison par lesquels, de manière continue, morphologiquement, dans le

temps ou dans l'espace, il serait possible de passer d'un être à son différent, à son contraire et à

son contradictoire. Pas de place pour penser le changement et la continuité.

La méthode cartésienne et l'axiomatique aristotélicienne sont compatibles et à bien des

égards équivalentes. Elles affirment ensemble le primat de la connaissance certaine et ont

pour caractéristiques communes l'exclusion systématique et le rejet absolu de l'incertitude, de

l'ambiguïté, de la contradiction et de l'indécision, quitte à défier la réalité empirique au profit

de l'abstraction stricte, de l'ordre et de la cohérence méthodo-logique.

Analyser, c'est disjoindre pour penser clairement et distinctement, de manière cohérente

et rigoureuse. L'analytisme est en adéquation parfaite avec toute pensée qui cherche à isoler,

26

Page 37: 2. Thèse_Doctorat_YJJ_Duplan.pdf

morceler et parcelliser [Morin, 1991]. Il contrôle la pensée « élémentaliste » qui consiste à

juger les phénomènes en scindant verbalement ce qui ne peut l'être empiriquement

[Korzybski, 1998]. Dans le même ordre d'idées, il gouverne la « pensée simplifiante » et

unidimensionnelle qui extrait le réel de ses déterminations, le mutile, le disjoint, le réduit

artificiellement en unités élémentaires et l'ordonner de sorte que le réel dénaturé puisse se

prêter à des propositions abstraites non contradictoires [Morin, 1980]. Le réel est simplifié

pour devenir « une idée logique, c'est-à-dire idéo-logique » [Morin, 1990]. L'analytisme

s'apparente à une rationalisation simpliste qui accommode tout système réel à un système

cohérent, en en évacuant tout ce qui est chaotique, ambigu, paradoxal, contraire et

contradictoire. Dès lors, il empêche toute appréhension de la complexité.

L'analytisme entend saisir la totalité des éléments dans son schéma de compréhension.

Or, généralement, dans un processus de cognition il est impossible de tout prendre en compte

d'autant plus que le principe d'exhaustivité n'indique en rien la façon de se prémunir contre les

omissions. Comme s'exclame Le Moigne [1977, p.40], le précepte d'exhaustivité « est... en

pratique... impraticable ! ».

L'analytisme est de nature utilitaire ; il répond bien aux besoins pratiques de

manipulation des concepts et des objets pour évaluer, sans équivoque, de manière claire et

précise. Considéré en termes binaires de « soit... soit », de « ou... ou », le réel identifié doit

être isolé, tout au moins abstrait de son environnement pour être manipulé et conceptualisé. Il

ne suffit pas seulement de distinguer l'objet par rapport à son environnement par abstraction

conceptuelle mais aussi de le concevoir dénudé, dénué et à l'abri de tout rapport contextuel et

conditionnel. A cet égard, l'analytisme est à la base d'une erreur monumentale dommageable

pour l'évaluation scientifique, la confusion de la distinction conceptuelle abstraite et de

l'isolement effectif de l'objet. Dans la pratique scientifique, le sujet et l'objet sont certes

distincts et distinguables par abstraction conceptuelle mais n'ont pas dans l'absolu, sur le plan

empirique, d'existence indépendante et de réalité proprement discrète. De plus, l'évacuation du

sujet fait de la science un domaine sans conscience. L'économisme qui se veut objectiviste ne

peut avoir de finalité humaine car les jugements de valeur n'y ont pas leur place. Pas d'éthique

épistémique, pas de sens moral aux pratiques techno-scientifiques. Peu importe qu'elles soient

susceptibles d'occasionner des applications et des décisions meurtrières pour l'humanité.

L'absence du sujet fait le plein de l'inconscience objective.

L'univers arithmétique, celui des nombres et des quantités, est respectueux des principes

et méthodes analytiques. En effet, la quantification d'un objet observé ou de l'une de ses

qualités présume de son abstraction et, en pensée, de son isolement de tout autre objet et de

toute qualité qui ne lui soit propre. La numérisation le traduit par des « concepts

27

Page 38: 2. Thèse_Doctorat_YJJ_Duplan.pdf

arithmomorphiques » c'est-à-dire des concepts qui se distinguent discrètement de tout autre

concept [Georgescu-Roegen, 1970 et 1971]. Elle lui attribue un nombre pour symbole,

l'enferme et le réduit dans la sphère des entités discrètes des mathématiques. Ce faisant, le

monde perçu perd toute continuité et toute connexité car « chaque nombre réel, note

Georgescu-Roegen [1970, p. 23], possède une individualité distincte identique en tous points

à celle d'un élément de la suite des nombres entiers. Aussi proche que puisse être un nombre

voisin, il se singularise strictement ». Le phénomène quantifié et numérisé apparaît exclu de

son environnement pour n'être qu'une grandeur ou une variable, un « individu » abstrait ou un

quantum possédant ses propres propriétés. En définitive, l'analytisme ne peut s'appliquer

qu'aux ensembles et langages dont les éléments et les concepts, aussi bien que les symboles,

sont discrètement différenciés.

Échafaudées sur les principes analytistes, la pensée économique est souvent empreinte

de systèmes de valeurs et d'idéologies qui cherchent à les agencer dans un cadre formel

réducteur et simplificateur dont l'exclusivité contribue au saucissonnement du projet

économique et à en faire selon le mot de Lesourne [1990] une « science balkanisée ». La

fragmentation de la science économique en une pluralité de sous-disciplines traduit le

penchant de la plupart des économistes à découper arbitrairement, le système socio-

économique en phénomènes ou modèles indépendants sans critère épistémique, logique et

empirique soutenable. Économie de l'environnement, économie du travail, économie des

ressources naturelles, économie des organisations, économie de l'information, économie

internationale, économie financière, économie industrielle, économie des ressources

humaines, économie des inégalités... sont autant de vases clos dans lesquels le système socio-

économique est méconnaissable. Car ses composantes et ses sous-systèmes sont foncièrement

interdépendants !

B. La conformité de la « logique floue » à l'analytisme

Certains auteurs laissent croire que la logique floue initié par Zadeh en 1956 serait une

alternative à la logique analytique. Il nous semble au contraire que, du point de vue

conceptuel, elle demeure conforme à l'analytisme.

a. Des notions de base de la logique floue

Considérons l'ensemble de référence R. Les éléments de R peuvent être regroupés en

classes appelées sous-ensembles flous ou prédicats vagues et chaque élément est caractérisé

par son appartenance à une ou plusieurs classes. Ce qui définit un sous-ensemble flou Z de R,

28

Page 39: 2. Thèse_Doctorat_YJJ_Duplan.pdf

c'est la fonction d'appartenance qui, à chaque élément x de R, associe le degré Z x ,

compris entre 0 et 1, avec lequel x appartient au sous-ensemble Z : Z : x [0, 1] .

Les opérations sur les sous-ensembles flous généralisent celles de la théorie

« classique » des ensembles (dite encore théorie des ensembles « ordinaires ») : les opérations

d'égalité, d'inclusion, d'intersection, d'union et de complémentarité.

— Deux sous-ensembles flous A et B de R sont égaux si ∀ x∈R , A x =B x .

— Soit F R l'ensemble de tous les sous-ensembles flous de R. Pour A et B appartenant à

F x , A est inclus dans B si ∀ x ∈R , A x B x .

— L'intersection de deux sous-ensembles flous A et B de R est l'élément C de F R tel que

∀ x∈R , C x =min A x , B x .

— L'union de deux sous-ensembles flous A et B de R est l'élément D de F R tel que

∀ x∈R , D x =max A x , B x .

— Le complément Ac d'un élément A de F R est le sous-ensemble flou de R tel que

∀ x∈R , Ac x =1−A x .

Remarquons que la théorie « classique » des ensembles et la théorie des sous-ensembles

flous coïncident lorsque la valeur de Z x est égal à 0 ou à 1. C'est le cas binaire où chaque

élément appartient strictement à une et une seule classe. Effectivement, dans ce cas, les

opérations sur les sous-ensembles flous sont équivalentes aux opérations classiques de la

théorie des ensembles.

On introduit la notion de variable linguistique pour pouvoir représenter les

connaissances sur une variable dont la valeur précise est inconnue. La variable linguistique est

désignée par le triplet (V, R, SV), V étant une variable prenant ses valeurs dans R.

SV =A1 , A2 , ... est un ensemble, fini ou infini, de sous-ensembles flous de R qui

caractérise V et détermine ses différentes valeurs. A chaque sous-ensemble Ai choisi pour

décrire V correspond une fonction d'appartenance Aidéfinie sur R et prenant ses valeurs

dans [0, 1].

29

Page 40: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Pour illustrer les notions de sous-ensemble flou et de variable linguistique, considérons

le prix d'un sac de charbon de bois en gourdes comme variable V (V = prix) définie sur

l'ensemble de référence ℝ+ . Évidemment, les sous-ensembles flous caractérisant la variable

V sont définis par rapport à la qualité du charbon et dépend de la situation du marché.

L'ensemble des caractérisations du prix du charbon est

SV =gratuit, bon marché, cher, exorbitant . Les sous-ensembles flous « gratuit », « bon

marché », « cher », « exorbitant » sont représentés sur le graphique ci-dessus chacun par la

fonction d'appartenance Z , Z étant respectivement, G, BM, C, E. Au prix de 65 gourdes, le

sac de charbon est jugé gratuit à un degré de 0,73 et bon marché à 0,26.

L'état de la variable V peut être altéré par des modificateurs tels que « très », « plutôt »,

« non », ce qui provoque une certaine modulation de sa description. La notion de

modificateur linguistique permet d'appréhender la modulation des caractéristiques de V c'est-

à-dire des éléments de l'ensemble SV associé à la variable linguistique (V, R, SV). Un

modificateur linguistique m génère, à partir d'une caractérisation floue A, une nouvelle

caractérisation floue m A . La fonction d'appartenance m A de m A résulte de la

transformation mathématique tm, attachée à m, de A : m A= tm A .

Soit L un ensemble de variables linguistiques, M un ensemble de modificateurs et

M Sv celui des caractérisations engendrées par M à partir de SV. Étant donné une variable

linguistique (V, R, SV) de L et une caractérisation floue A supposée normalisée1 appartenant à

SV ou à M Sv , la qualification « V est A » est une proposition floue élémentaire. La

fonction d'appartenance A de A détermine la valeur de vérité de cette proposition, le degré

d'appartenance A x d'un élément x de V à A définit son degré de vérité par rapport à x. Plus

la proposition « V est A » est vraie plus la valeur x de V satisfait la caractérisation A et, donc,

1. Un sous-ensemble A de X est dit normalisé lorsqu'il existe x appartenant X tel que A x =1 .

30

Figure 1.2. Un exemple de sous ensemble flou et de variable linguistique

1

13540 535435 935835

Z = G Z = BM Z = C Z = E

δZ

V

0,73

0,26

65

Page 41: 2. Thèse_Doctorat_YJJ_Duplan.pdf

plus son degré de vérité est grand.

Une proposition floue générale est une composition par conjonction, disjonction ou

implication de propositions floues élémentaires. La conjonction « V est A et W est B » est

associée au produit cartésien A×B qui caractérise la variable conjointe (V, W) définie sur

X ×Y , V et W prenant leurs valeurs respectives sur les ensembles de référence X et Y. Elle a

pour degré de vérité min A x , B y , pour tout couple (x, y) de X ×Y . En revanche,

le degré de vérité en tout point (x, y) de X ×Y de la disjonction « ou V est A ou W est B » est

max A x , B y .

L'implication « si V est A alors W est B » est une règle floue, une proposition floue

composée de la prémisse « V est A » et de la conclusion « W est B ». Sa valeur de vérité

résulte de la relation floue I entre X et Y qui supporte l'implication et est donnée par la

fonction d'appartenance I de I. Celle-ci est une combinaison des fonctions d'appartenance

A et B de A et de B. Pour tout point (x, y) de X ×Y , son degré de vérité est :

I x , y= [A x , B y] .

La fonction est choisie de telle manière que l'implication floue soit identique à

l'implication de la logique classique quand A et B sont des ensembles ordinaires.

b. La clarté de la logique floue

La conception de la logique floue repose sur la notion de sous-ensemble flou (ou de

prédicat vague) et sur celle de fonction d'appartenance qui détermine la valeur de vérité d'une

proposition floue. Le sous-ensemble flou, parce qu'il évoque l'imprécision, les nuances des

différences, des contrariétés et des contradictions, est a priori dialectique ; la fonction

d'appartenance, parce que ses valeurs, degrés d'appartenance ou degrés de vérité, sont

comprises dans l'intervalle [0, 1], est arithmomorphique. Or un un sous-ensemble flou est

strictement défini par le degré d'appartenance de ses éléments. Ce dernier étant

arithmomorphique, c'est l'analytique non pas la dialectique qui commande la logique floue.

Chaque concept est élémentaliste car il n'a de sens que par rapport à la notion de degré

d'appartenance. Par conséquent, chaque concept se distingue discrètement de tout autre

concept et un « raisonnement flou » est beaucoup plus précis qu'il n'en a l'air.

La conceptualisation en logique floue consiste à idéaliser, « défuzzyfier » et clarifier le

réel perçu flou au moyen du concept arithmomorphique de degré d'appartenance. Quand ce

dernier ne sert pas de subterfuge pour analyser des réalités qui doivent être perçus complexes,

il fait office d'échappatoire analytique face à de tels phénomènes.

En parfaite harmonie avec l'élémentalisme, « la logique floue est considérée comme une

31

Page 42: 2. Thèse_Doctorat_YJJ_Duplan.pdf

extension de la logique classique » [Bouchon-Meunier, 1999, p.65], admettant sur l'intervalle

[0, 1] une infinité de valeurs de vérité. Ce n'est pas une véritable logique floue. Car « une

''véritable logique floue'' n'aurait pas seulement la présence de prédicats vagues mais les

valeurs de vérité seraient elles-mêmes des ensembles flous » [Gacôgne, 1997, p.47]. Toutefois

la logique floue a le mérite d'apporter une réponse à la question de l'appartenance multiple

dans la théorie des ensembles, réponse somme toute pertinente dès lors qu'empiriquement la

formulation du problème se prête à la quantification.

2. L'introuvable mesure des valeurs

L'enfermement de la pensée économique dans l'analytisme donne le sentiment que

l'économie ne peut être qu'analytique ou que l'économique est forcément quantifiable. C'est

dans cet esprit que l'économiste, sous l'influence du physicien, cherche à s'assurer de la

mesurabilité physique de la valeur. L'économie se prévaudrait d'une mesure qui, non

seulement, assurerait son cadre analytiste et quantitativiste, mais aussi, lui donnerait une

légitimité de science mathématique et de laquelle on pourrait dériver n'importe quelle théorie.

Malheureusement, les économistes ont vite déchanté après s'être rendus compte que, quelle

que soit la définition retenue, la valeur n'admet pas de mesure physique. En vue de présenter

les arguments corroborant cette assertion (2.2), il nous paraît crucial de nous accorder sur ce

qu'on entend par mesure physique (2.1).

2.1. Qu'est-ce que mesurer ?

La métrologie distingue la notion de grandeur dite encore qualité ou variable (par

exemple, la masse) d'un corps (le blé), de la notion d'intensité (le nombre de kilogrammes,

tableau 1.2). Le sens commun confond souvent quantité de grandeur d'un corps et quantité de

ce corps. Une tonne de blé n'est pas une quantité de blé, c'est précisément une quantité de

masse de blé. La masse − grandeur de matière − du blé n'en est qu'une qualité parmi d'autres.

Ce qu'on mesure, ce n'est pas le blé c'est sa masse.

Tableau 1.2. Notions élémentaires de métrologie

Corps ou phénomène Tout ce dont on peut identifier les caractéristiques et lesqualités

Variable ou grandeur d'un corps oud'un phénomène

Attribut permettant de caractériser un corps ou unphénomène

32

Page 43: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Tableau 1.2. Notions élémentaires de métrologie

Intensité ou valeur d'une grandeur Expression de la grandeur sous forme d'un certainnombre ou d'une certaine quantité d'unités

Étalon de mesure Corps ou phénomène de référence permettant dereproduire une grandeur de valeur connue

Unité de mesure Quantité de grandeur conventionnelle permettantd'exprimer la valeur d'une grandeur de mêmedimension

Selon Georgescu-Roegen, on peut distinguer trois types de mesure : les mesures

ordinale faiblement cardinale, et cardinale [Georgescu-Roegen, 1970]. Les grandeurs

ordinalement mesurables (comme la dureté) sont des variables repérables, pouvant être

hiérarchisées selon un « ordre mental » défini, mais ne sont pas additives. La cardinalité faible

est un attribut des grandeurs (comme le Temps et la température) ordinalement mesurables

mais dont la différence admet une mesure cardinale.

La cardinalité est la qualité d'une grandeur (comme la longueur, le poids, la masse)

d'avoir les propriétés d'un groupe commutatif additif1. En effet, quelle que soit la manière

dont on ajoute deux barils de pétrole, on obtiendra la même quantité et le même nombre de

litres de pétrole. On dira que la somme ou la différence de deux quantités de grandeurs

cardinalement mesurables sont indépendantes des opérations physiques d'addition ou de

soustraction.

En principe, mesurer, c'est d'abord trouver un corps ou un phénomène, puis définir une

grandeur de ce corps, et enfin rapporter celle-ci à une grandeur d'un autre corps choisi

arbitrairement comme étalon. L'intensité de la grandeur de ce dernier correspond à une unité,

souvent posée égale à un. La mesure n'a un sens que si les grandeurs en question sont de

même espèce, donc comparables, et restent inchangées durant le procédé de mesurage.

L'étalon sera légitime et, autour de lui, il pourra y avoir un consensus à condition que son

existence soit réelle (empirique) ou qu'elle soit reproductible à l'identique, et que son unité

soit invariable, du moins stable dans le temps et dans l'espace, ce qui garantit une certaine

universalité.

La mesure d'une grandeur cardinale est égale au nombre de fois que l'unité de l'étalon

est répétée dans cette grandeur. Soient i la quantité d'une grandeur M et mi son intensité

en termes de l'unité u : mi=i u . Le rapport des deux quantités m1 et m2 est

indépendant de leur unité de mesure et est égal à celui des nombres 1 et 2 :

1. L'additivité commutative est la propriété algébrique d'un groupe. Soient a et b deux éléments de ce groupe.Celui-ci est commutatif additif si et seulement si a + b = b + a.

33

Page 44: 2. Thèse_Doctorat_YJJ_Duplan.pdf

m1

m2

=1

2

(1.1)

La comparabilité et l'additivité commutative, la reproductibilité à l'identique de l'étalon

et l'invariance quantitative de ses qualités, sont les conditions nécessaires et suffisantes de la

mesurabilité cardinale (physique) de cette grandeur.

2.2. L'épineux problème d'étalon

Aristote [2004] est le premier, au IVe siècle av. J.-C., à concevoir la valeur économique

à partir de l'échange entre les marchandises. Il suppose que deux biens échangés sont

nécessairement égaux et que, par conséquent, les marchandises devraient être

commensurables, du moins comparables. Considérant les objets sous l'angle de leur

complexité physique, il échoue sur la multiplicité de leurs différences qualitatives. A ses

yeux, les marchandises présentent de telles et si tranchantes dissemblances qu'il est vain d'y

chercher des qualités communes. Et il conclut à leur incommensurabilité. Cependant, il admet

qu'elles sont mesurables par rapport à leur utilité et mesurées par son « substitut »

conventionnel, la monnaie. Encore faudrait-il que le terme « mesure » ait ici son sens

métrologique. Car, comme nous venons de le voir, il ne peut être question de mesure s'il n'y a

pas d'étalon. L'impossibilité de trouver un étalon de marchandise est la pierre angulaire de

l'incommensurabilité de la valeur.

Pratiquement, à chaque signification de la valeur est associé un courant de pensée.

Telles sont la théorie de la valeur-travail de l'école classico-marxienne et la théorie de la

valeur-utilité de l'école néoclassique. En général, nous pouvons distinguer deux lignées

définitionnelles de la valeur : dans l'une, la valeur d'un bien est appréhendée du côté de sa

demande, de sa consommation ou de son utilisation ; dans l'autre, elle est appréhendée du côté

de son offre ou de sa production.

A. La valeur définie du côté de la demande

Du côté de la demande, la valeur est définie en termes de pouvoir d'achat, d'utilité ou de

besoin. Smith, Malthus, Jevons, Walras adoptent cette conception.

a. Smith (1723­1790)

Smith [1995] fait observer que deux sens distincts peuvent couvrir le mot « valeur » :

« valeur d'usage » et « valeur d'échange ». L'une désigne l'utilité de l'objet considéré, l'autre le

pouvoir d'achat que procure la possession de cet objet. Abstrayant la valeur d'usage, Smith

34

Page 45: 2. Thèse_Doctorat_YJJ_Duplan.pdf

semble indiquer qu'il n'y a pas de valeur économique autre que la valeur d'échange. Il fonde

celle-ci sur le travail considéré comme le « prix véritable » des produits, l'argent n'étant que

« leur prix nominal ». Alors il utilise indifféremment les termes « valeur » ou « valeur

échangeable » d'une denrée pour désigner « la quantité de travail qu'elle [cette denrée] permet

d'acheter ou commander » [Smith, 1995, p.33-34].

Pour prolonger son analyse, Smith se rend compte de la nécessité d'estimer la valeur et

de trouver une denrée-étalon. Remarquant qu'il n'y a pas de denrée qui aurait une valeur

invariable dans le temps et dans l'espace, il se rabat sur le travail et postule que ce dernier est

« la véritable mesure de la valeur échangeable », car il est le «seul» à ne pas varier « dans sa

propre valeur » [Smith, 1995, p.33]. Cela dit, le travail est assimilé à une denrée et a une

valeur échangeable. C'est ce que Smith laisse entendre de manière plus explicite dans une

note de bas de page lorsqu'il considère qu'il « revient au même » de parler de quantité de

travail ou de produit du travail d'un homme [Smith, 1995, p.34, note I]. Dans la mesure où les

valeurs de toutes les denrées sont variables, la valeur d'un travail quelconque est tout aussi

variable à moins que la valeur « propre » d'un travail soit la quantité de ce travail ou encore

que la valeur d'une denrée soit la quantité de travail nécessaire à sa production. Dans ce cas, il

y aurait une contradiction avec la définition de la valeur qui est une quantité de travail acheté

ou commandé. C'est le résultat auquel est arrivé Ricardo analysant la théorie de la valeur de

Smith : « il serait en effet exact de dire que la quantité de travail fixée dans la production

d'une chose, et la quantité de travail que cet objet peut acheter, sont égales [...]. Mais ces deux

quantités ne sont point égales : la première est très souvent une mesure fixe [...] ; la seconde,

au contraire, éprouve autant de variations que les marchandises ou denrées avec lesquelles on

peut la comparer » [Ricardo, 1977, p.28]. Une remarque similaire apparaît dans Les principes

d'économie politique de Malthus [1969] qui note que chez Smith la valeur d'une marchandise

est tantôt la quantité de travail nécessaire à sa production tantôt la quantité de travail qu'elle

peut commander. Une telle contradiction est insoutenable et enlève au travail commandé sa

qualité de mesure de la valeur.

b. Malthus (1766­1834)

Une fois relevé les confusions de Smith, Malthus se porte en faux contre la théorie

ricardienne de la valeur. Les critiques de Malthus à l'encontre de Ricardo portent sur le fait

que sa définition de la valeur échangeable concerne le travail coûté pour sa production. Dans

la mesure où ce travail n'est que le travail direct, les reproches de Malthus ne concernent pas

la définition ricardienne de la valeur qui est la somme du travail direct et du travail indirect et

35

Page 46: 2. Thèse_Doctorat_YJJ_Duplan.pdf

ne valent pas la peine d'être considérés1. Par ailleurs, Malthus rejette la définition de la valeur

par le travail. Il indique de préférence que la valeur (ou « valeur intrinsèque d'échange ») d'un

objet est son « pouvoir d'acheter [la quantité de marchandises que l'objet peut acheter]

provenant de causes intrinsèques2, en ce sens qu'aucun élément ne s'ajoute à [sa] valeur

propre » [Malthus, 1969, p.38]. A bien regarder cette définition, il est a priori impossible de

trouver un étalon qui permettrait de mesurer la valeur des marchandises. Il faudrait, tout au

moins, que toutes les quantités de marchandises susceptibles d'être achetées soient de la même

espèce. Autrement dit, elles devraient êtres homogènes et donc comparables.

Si la valeur d'un objet A est une quantité d'objet B, la valeur de B est nécessairement

une quantité de A. Si les quantités de A et B sont respectivement des tasses et des cuillères,

par abstraction on peut déterminer une grandeur, par exemple leur masse, et les comparer de

ce point de vue. Cette comparaison n'a de valeur que pour les masses respectives de A et B et

fait abstraction de toutes les autres dimensions de ces objets, dimensions qui, avec la masse,

en font certes des quantités mais des quantités de qualité. En tant que quantités de

marchandises, phénomènes globaux, entités physiques, les tasses et les cuillères ne sont pas

comparables. C'est la conclusion à laquelle Aristote était parvenu.

Dans le même ordre d'idées, Malthus ne se rend pas compte que la mesurabilité de la

grandeur d'un phénomène implique qu'elle est comparable à celle de l'étalon choisi. Sa

conclusion, tant soit peu abrupte, que « la valeur d'une marchandise, à tel moment donné et en

tel lieu, a toujours pour mesure la quantité de travail ordinaire qu'elle peut rétribuer, ou contre

lequel elle peut s'échanger dans le lieu et le temps désignés » [Malthus, 1969, p.79] est

inacceptable. Parce que des quantités de marchandises (x quarter de blé) et des quantités de

travail (z jours de travail) ne sont pas comparables, la valeur au sens de Malthus n'a pas de

mesure et la quantité de travail ordinaire ne peut être prise pour unité de mesure.

c. Jevons (1835­1882)

Lorsqu'on présente la théorie néoclassique, la valeur d'un objet est souvent réduite à son

utilité. La réalité est moins simple à la lecture des fondateurs et constructeurs de cette théorie

comme Jevons et Walras.

Chez Jevons, la valeur d'un produit a deux sens différents. Tantôt elle désigne le rapport

de la quantité de ce produit à la quantité de tout autre produit contre lequel il est échangé ;

tantôt elle signifie « degré final d'utilité » ou « intensité des besoins » [Jevons, 1909]. Dans le

1. Ricardo lui-même s'est plaint de cette incompréhension [Ricardo, 1977, note I, p. 53].2. Les causes intrinsèques de la valeur d'un objet sont celles affectant le désir de le posséder et la difficulté de

s'en rendre possesseur; les causes extrinsèques affectent le désir de posséder et la difficulté de se rendrepossesseur de différents objets avec lesquels cet objet pourrait s'échanger.

36

Page 47: 2. Thèse_Doctorat_YJJ_Duplan.pdf

premier cas, elle est une grandeur repérable mais non mesurable, un indice sans dimension ;

dans le second, elle est cardinalement incommensurable. En effet, il est impossible de trouver

un étalon, un bien dont le degré final d'utilité est invariant dans le temps et dans l'espace.

D'après le principe de satiété des besoins, dit encore principe d'utilité marginale décroissante,

le degré final d'utilité d'un bien diminue au fur et à mesure de sa consommation.

Les néo-classiques espéraient mesurer la valeur en l'assimilant au besoin et en réduisant

ce dernier à l'utilité comme le fait Jevons. Mais, en raison de l'absence de correspondance

biunivoque entre besoins et biens, le schéma des besoins est d'une complexité inextricable

[Georgescu-Roegen, 1970]. Le besoin n'est pas une grandeur homogène et ne peut être réduit

à un dénominateur commun. Car les biens, par rapport à leurs possibilités de satisfaire un

besoin particulier, sont loin d'être parfaitement substituables. L'homme a absolument besoin

d'aliments pour assouvir sa faim, encore une fois rassasié lui faut-il de l'eau pour apaiser sa

soif. Le besoin d'aliment et le besoin d'eau ne sont pas de même nature et ne sont donc pas

interchangeables. Non comparables, ils ne peuvent être réduites à une grandeur commune

comme l'utilité. La valeur telle que la conçoit Jevons n'est pas mesurable.

d. Walras (1834­1910)

Dans sa théorie de l'échange, Walras [1988] suppose que la rareté est la cause de la

valeur et se distingue de Jevons lorsqu'il identifie la valeur à une quantité de francs. « Le blé

vaut 24 francs », se plaît-il à dire. Pour montrer que la valeur ne peut être mesurée au même

titre que la longueur, il développe deux arguments. Le premier est que, contrairement à la

longueur, la valeur n'a pas de mesure fixe et invariable. Si ce point est incontestable, le second

ne l'est pas moins. Il écrit que pour mesurer la valeur d'un hectolitre de blé de la même

manière qu'une longueur, « il faudrait [...] trois choses : la valeur de l'hectolitre de blé, la

valeur du demi-décagramme d'argent au titre de 9/10 et le rapport de la première valeur à la

seconde, qui serait sa mesure. Or de ces trois choses, deux n'existent pas, la première et la

seconde ; il n'existe que la troisième » [Walras, 1988]. Comment le rapport de deux choses

qui n'existent pas peut lui même exister ? L'idée sous-jacente à cette absurdité est l'inexistence

de ce que désigne le franc. Autrement dit, pour Walras une quantité de valeur n'est pas une

quantité de francs. « Le gramme [étant admis] comme l'unité de mesure de la quantité

d'argent » et donc de la monnaie-argent, il s'ensuit que le franc n'est pas une unité de monnaie

et n'a pas d'existence réelle. Le franc n'est qu'un « voile » derrière lequel se cache la réalité de

la monnaie. Au fond, Walras réduit cette dernière à son aspect physique, l'assimile à une

marchandise. Et la valeur d'une marchandise est implicitement identifiée à la masse d'argent-

37

Page 48: 2. Thèse_Doctorat_YJJ_Duplan.pdf

métal contre laquelle elle est échangée.

Walras caractérise le marché par les prix qui garantissent l'équilibre de l'offre et de la

demande. Dans la mesure où ces prix sont des rapports de valeurs, mesurer ces dernières est

d'une importance cruciale pour échafauder la théorie de l'équilibre général. A cet effet, il

rapporte la valeur de chaque marchandise à celle d'une autre marchandise qu'il appelle

« numéraire ». Il prétend qu'il suffit de choisir un numéraire pour que, du même coup, on

mesure la valeur. Il jette son dévolu sur la marchandise-monnaie, arguant que c'est à la fois

l'intermédiaire des échanges et l'instrument de mesure de la valeur. Ainsi le rapport des

quantités M 1 et M 2 de deux marchandises 1 et 2 devrait être égal au rapport inverse de

leurs valeurs (quantités d’argent-métal) v1 et v2 : M 1

M 2

=v2

v1

. A priori, il n'y a aucune

régularité socio-économique qui assure cette égalité pour toute paire de marchandises. De

plus, l'échange ne porte pas nécessairement sur la quantité ou une grandeur des marchandises.

Si on achète des patates en kilogrammes il n'en est pas de même pour les livres. Ce qui pose,

comme dans la définition malthusienne de la valeur, le problème de la comparabilité des

quantités ou des grandeurs de marchandises ; c'est également le problème de leur additivité.

Walras fait fi des critères de mesurabilité et restreint le problème de la mesure à une

question de rapport entre la quantité à mesurer et la quantité du numéraire. La solution de

Walras n'a aucune pertinence métrologique à moins que l'on change le sens du mot

« mesure ».

B. La valeur définie du côté de l'offre

Du côté de l'offre, la valeur est définie en termes de coût ou de prix de production.

Ricardo, Marx et Sraffa adoptent cette conception.

a. Ricardo (1772­1823)

Postulant que le travail est « la source de toute valeur » [Ricardo, 1977, p.33], Ricardo

définit la valeur d'une marchandise comme la quantité de travail consacrée à sa production.

Ce travail comprend le travail direct dépensé lors de sa fabrication et le travail indirect

incorporé dans les capitaux utilisés. Lorsque Ricardo, pour expliquer les variations des prix,

ressent la nécessité de trouver une mesure de la valeur, il bute sur l'inexistence d'une

marchandise qui, relativement à sa valeur, puisse « servir comme type exact et invariable »

[Ricardo, 1977, p.51], c'est-à-dire sur l'inexistence d'une marchandise-étalon. A cet effet, il

démontre que, quelle soit la marchandise considérée, l'or ou tout autre objet, sa valeur subit

des « oscillations » qui relèvent aussi bien du travail lui-même que d'autres facteurs comme

38

Page 49: 2. Thèse_Doctorat_YJJ_Duplan.pdf

les salaires, la durée du capital fixe, le temps de transport de la marchandise vers le marché,

etc.

Il n'empêche que Ricardo a quand même choisi l'or comme marchandise-étalon. Quand

il affirme qu'il fait un tel choix « pour faciliter nos recherches » [Ricardo, 1977, p.52], il faut

comprendre qu'autrement il lui serait impossible de bâtir sa théorie et donner suite à son

analyse. En acceptant l'or comme étalon, il donne la primauté à un cadre théorique formel au

mépris de la validité empirique de l'étalon.

b. Sraffa (1898­1983)

Tout comme Ricardo, en vue d'étudier les mouvements des prix en relation avec les

techniques de production et la répartition du revenu, Sraffa éprouve la nécessité de les

exprimer en termes d'un étalon [Sraffa, 1999]. Pour ce faire, il conçoit l'économie comme un

système dont la reproduction repose sur des flux interindustriels des moyens de production, de

travail et de biens physiques. Sraffa appelle « valeurs d'échange », « valeurs » ou « prix » les

rapports dans lesquels les biens produits doivent être répartis entre les branches de telle

manière que la reproduction du système soit possible. Le modèle de Sraffa peut être mis sous

la forme matricielle suivante :

p=1r pAwl (1.2)

Chaque branche produit annuellement avec surplus une marchandise unique i1. A=aij est la matrice des cœfficients techniques, aij étant le nombre d'unités du produit i utilisées en

une année pour produire une unité de la marchandise j telle que i = 1, ..., k et j = 1,..., k ;

p= p j est le vecteur-ligne des valeurs unitaires des marchandises ; r le taux de profit

supposé identique dans toutes les branches ; w le salaire unitaire identique pour tous les

travailleurs, versé en fin de période comme une part du produit annuel ; l=l j le vecteur-

ligne dans lequel l i est la fraction de travail annuel employée pour produire la marchandise i.

Aux yeux de Sraffa, l'étalon est une marchandise dont la valeur pe est telle que la

variation des prix relatifs pi

pe ne proviennent que des modifications de pi . Vu le modèle (1.2)

de reproduction, la valeur d'une marchandise est déterminée par les conditions techniques de

production données par A et les variables de répartition, w et r. Sur ce, Sraffa admet

l'impossibilité qu'une marchandise simple puisse servir d'étalon et note que s'il y en a un, ce

ne peut être qu'une marchandise composite. Il identifie la « marchandise-étalon » à une

1. Nos conclusions concernant la marchandise-étalon sont aussi valables dans le cas plus général, exposé parSraffa [1999], d'une économie présentant des branches avec production conjointe.

39

Page 50: 2. Thèse_Doctorat_YJJ_Duplan.pdf

marchandise composite définie par le vecteur-colonne m= mi , un panier de marchandises i

en quantités mi produites dans des conditions techniques invariantes à la répartition. Ainsi

la valeur d'une marchandise-étalon ne dépend pas de la structure de répartition. Il s'ensuit que

le rapport d'étalon, R – le taux auquel la production d'une marchandise excède la quantité qui

entre dans l'ensemble des moyens de production – doit être égal pour toutes les marchandises.

Ce rapport correspond au taux maximum de profit et est défini par la relation :

r=R 1−w (1.3)

Soit v le vecteur propre de la matrice des coefficients techniques dont la valeur propre

associé est égale à 1

1R. R et v sont fixés de telle manière qu'ils vérifient le système suivant :

v=1R Avlv=1

(1.4)

La marchandise-étalon est définie par

m=[ I − A] v (1.5)

On vérifie que, lorsque sa valeur pe sert d'unité de mesure telle que pe=pm=1 , la

marchandise composite m est bien l'étalon des valeurs. En effet, Berrebi et Abraham-Frois

[1989 et 1990] montrent que pour pe= pm , on a :

pi

pe

=1RR

pi (1.6)

Le rapportpi

pe

n'est rien d'autre que la valeur de la marchandise simple i mesurée en

termes de pe . Ce rapport varie en fonction du prix pi , du taux de profit maximum R et

indépendamment de pe . Dans la mesure où, conformément au système d'équations (1.4), R

est déterminé par la matrice des coefficients techniques, la mesure de la valeur dépend des

techniques de production : chaque méthode de production « implique un système économique

différent, avec un taux de profit maximum différent » [Sraffa, 1999, p.94]. Les méthodes de

production varient d'une économie à l'autre et changent avec les innovations technologiques.

Par conséquent, la mesure de la valeur d'une quelconque marchandise est modifiée dans le

temps et dans l'espace, ce qui enlève toute comparabilité aux prix et aux salaires dans le temps

et dans l'espace. L'emploi de l'étalon sraffaïen est dépourvu de toute légitimité en dynamique

[Bartoli, 1991].

Sans changer le sens des mots, l'indépendance de la valeur d'une marchandise à la

structure de répartition ne suffit pas pour en faire un étalon. D'ailleurs, la marchandise-étalon

sraffaïenne n'est qu'une construction formelle. Déterminée dans un système où le temps et

40

Page 51: 2. Thèse_Doctorat_YJJ_Duplan.pdf

l'espace sont manifestement mis à l'écart, la mesure n'est rien de moins qu'une fiction logique

et n'a aucune validité métrologique.

c. Marx (1818­1883)

Marx [1969], mieux que tout autre, se rend compte que pour mesurer la valeur, il faut la

définir comme une grandeur homogène, abstraite de toute forme qualitative différenciée. Le

concept de marchandise, pièce maîtresse de l'analyse marxienne de la valeur, est une unité

contradictoire formée de deux pôles à la fois complémentaires et mutuellement exclusifs : la

valeur d'usage et la valeur d'échange. La valeur d'usage est la forme des marchandises d'être

des objets d'utilité caractérisés par leurs propriétés physiques, qui les distinguent les unes des

autres. A l'inverse, la valeur est leur forme indifférenciée qui n'apparaît que dans leur rapport

d'échange. C'est un rapport quantitatif, abstrait des qualités naturelles, des éléments matériels,

de tout ce qui fait des marchandises des valeurs d'usage pour n'être que des produits du

travail, lui-même débarrassé de son caractère utile pour n'être qu'une « dépense de force

humaine ». Ainsi définie, la valeur est une variable comparable. La quantité de valeur d'une

marchandise est un « quantum de travail », le « temps socialement nécessaire à sa

production ». C'est tout naturellement que Marx choisit la durée (horaire) du travail pour

mesurer la valeur. Reste à savoir s'il est possible de trouver une marchandise-étalon1.

Marx note, à bon escient, que « la fixité de l'unité de mesure est chose d'absolue

nécessité ». Autrement dit, il faut trouver un « corps de marchandise » telle que sa quantité de

valeur soit la même dans le temps et dans l'espace. Or, à l'instar de son prédécesseur Ricardo,

il se rend compte lui-même de l'inexistence d'une telle marchandise : le temps nécessaire à la

production d'une marchandise « varie avec chaque modification de la force productive du

travail qui de son côté dépend de circonstances diverses, entre autres de l'habileté moyenne

des travailleurs ; du développement de la science et du degré de son application

technologique ; des combinaisons sociales de la production ; de l'étendue et de l'efficacité des

moyens de produire et des conditions purement naturelles » [Marx, 1969, p.44]. En raison de

la variabilité spatio-temporelle de la quantité de valeur de toutes les marchandises, la durée

sociale du travail ne peut être une mesure de la valeur. Et donc il est vain de chercher une

marchandise-étalon.

L'inexistence empirique de la marchandise-étalon jette le doute sur la validité

scientifique des corpus théoriques dont le fondement est le principe de la mesurabilité

cardinale de la valeur. L'entêtement à vouloir mesurer la valeur semble s'aligner sur la

1. La définition marxienne de la valeur a été reprise par Dupré [1994] qui, pour construire sa « théorie desvaleurs », admet sa mesurabilité.

41

Page 52: 2. Thèse_Doctorat_YJJ_Duplan.pdf

croyance galiléenne que la science est mesure. Nous pensons qu'il n'est pas épistémiquement

– scientifiquement – soutenable de poursuivre une voie de recherche qui est mise à mal par

l'observation. Si la réalité de la marchandise est complexe, sa valeur incommensurable et son

analyse se révèle a posteriori inféconde, tant pis pour la mesure et l'analytisme. Il faut

chercher d'autres principes d'intelligibilité qui puissent permettre la compréhension et

l'explication de la complexité de la marchandise.

3. La mécano-économie ou l'économie mécaniste

Les mécanistes adoptent l'idée que les phénomènes analysés sont des grandeurs

conservées qu'il faut expliquer en termes d'optimisation, d'après l'ordre mécanique ou logique.

La mécano-économie ou l'économie mécaniste désigne l'ensemble des courants, théories et

modèles de la pensée économique exclusivement construits sur la base de ces principes.

Après avoir mis en évidence les principes du mécaniste qui dominent la pensée

économique (3.1), nous indiquerons dans quelle mesure cette pensée est ordinaliste (3.2).

3.1. Les principes fondamentaux de la mécano-économie

L'invariance, la simplicité et l'ordre sont les maîtres-mots de la mécano-économie. On

les retrouve au cœur des trois principes de la mécanique classique et du raisonnement logique.

Ce sont les principes de moindre action et de conservation, les principes de causalité et de

déduction.

A. Les principes de conservation et de moindre action

Le principe de conservation est en germe dans l'idée aristotélicienne de l'invariance de

la substance corporelle. Ce principe est nécessaire à l'application du principe de moindre

action.

a. Le principe de conservation (de l'énergie)

Descartes postule que la conservation du mouvement est « la première loi de la nature :

que chaque chose demeure en l'état qu'elle est pendant que rien ne change » [Descartes, 1996,

p.84]. En l'absence de perturbation divine, le mécanisme de l'univers est invariant dans le

temps. Quant à Leibniz, il admettra que la quantité conservée n'est pas le mouvement, mais la

force vive appelée énergie cinétique dans la physique moderne. Ceci préfigure le principe de

conservation de l'énergie connu, depuis les années 1840, des physiciens comme von

42

Page 53: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Helmholtz, Mayer, Clausius.

La conservation de l'énergie est le pivot du modèle hamiltonien. Dans ce dernier, la

dynamique d'un système physique peut être déduite de la grandeur H dite l'Hamiltonien. Elle

est égale à la somme des énergies potentielle et cinétique du système et est fonction des

variables de position q et de moment p,

H =H p , q avec p=mv (1.7)

Les variables p et q sont supposées indépendantes l'une de l'autre. Le moment d'un point du

système est égal au produit de sa masse m par sa vitesse v, v étant la dérivée première de q par

rapport au temps t, v=d qd t

. L'évolution du système est caractérisée par les propriétés des

équations différentielles suivantes :∂ H∂ q

=− ∂ p∂ t

et ∂ H∂ p

= ∂ q∂ t

(1.8)

Ces équations admettent des solutions si et seulement si elles sont conservatives, donc

intégrables. Par conséquent, elles doivent respecter le principe de conservation de l'énergie

qui stipule qu'à chaque instant, toute variation de l'énergie potentielle est exactement

compensée par l'énergie cinétique, et vice versa :d Hd t

=0 . L'évolution du système laisse

invariantes ses potentialités énergétiques, sa structure et son identité physique.

En général, le principe de conservation est « la règle selon laquelle un aspect spécifique

d'un phénomène reste invariant ou sans changement alors que, dans son ensemble, le même

phénomène est soumis à certaines transformations bien précises » [Mirowski, 2001, p.20].

Utilisé de façon plus ou moins explicite, ce principe est au centre de la plupart des théories

économiques. C'est la condition sine qua non de la mesurabilité hypothétique de la valeur

(valeur-travail ou valeur-utilité) : de la production à la consommation via l'échange, la

quantité de valeur est supposée conservée dans la marchandise. Il est incontournable dans la

théorie néoclassique dont la structure explicative n'est rien d'autre que celle de la théorie

physique des champs [Mirowski, 2001]. Ainsi s'incarne-t-il dans l'axiome des préférences

révélées de la théorie ordinale des préférences. Et dans la théorie cardinale de l'utilité, il se

présente sous la forme de la contrainte budgétaire ou des conditions de Slutsky qui

garantissent l'intégrabilité du champ d'utilité et du champ des vecteurs prix [Varian, 1998].

La persistance du principe d'invariance dans la science classique relève, semble-t-il, du

souci immodéré du sujet-scientifique pour la simplification. « Toute idée de conservation [...],

déclare Mach1, a de solides racines dans l'économie de la pensée ». En ce sens, le principe de

1. Cité par Mirowski [2001, p.21].

43

Page 54: 2. Thèse_Doctorat_YJJ_Duplan.pdf

conservation rejoint le principe de moindre action.

b. Le principe de moindre action

La simplicité méthodologique que préconise l'analyse cartésienne a son correspondant

dans la (méta)physique de Leibniz. Sa déclaration que « la Nature agit par les voies les plus

simples » est équivalente au principe de moindre action énoncé par Maupertuis : « Lorsqu'il

arrive quelque changement dans la Nature, la quantité d'action employée par ce changement

est toujours la plus petite qu'il soit possible ». Le principe de moindre action est donc un

principe de simplicité et d'économie.

Considérons un corps en mouvement entre deux points B et C à l'instant tb et t c ,

disposant d'une quantité d'énergie constante égale à la somme de ses énergies cinétique et

potentielle. Selon Maupertuis, la trajectoire physique entre B et C est celle pour laquelle

l'action Abc est minimale :

Abc=2 ∫

tb

tc

V d t (1.9)

où V est l'énergie cinétique du corps V=1 2

mv2. Euler indique que l'action minimale n'est

pas l'énergie cinétique mais l'énergie potentielle. Sur la base du principe de conservation de

l'énergie, on peut montrer l'équivalence des formulations de Maupertuis et d'Euler. L'action de

Maupertuis devient une nouvelle grandeur notée Sbc :

Sbc=∫

tb

tc

L d t avec L=V−U (1.10)

U est l'énergie potentielle et la fonction L s'appelle Lagrangien (c'est l'équivalent de

l'Hamiltonien). Cette formulation fait du principe de moindre action l'un des énoncés les plus

imposants de la mécanique classique, notamment pour le calcul des extrema. On parlera, en

général, de principe d'optimum, principe qui s'applique à tout système mécanique évoluant

vers l'équilibre (caractérisé par l'égalité entre les forces appliquées et les forces résistantes).

44

Page 55: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Tableau 1.3. Les transpositions de Fisher

Mécanique Économie

Travail ou énergie = force × espace Utilité = utilité marginale × marchandise

La force est un vecteur L'utilité marginale est un vecteur

Les forces sont additives selon l'additionvectorielle

Les utilités marginales sont additives selonl'addition vectorielle

Le travail et l'énergie sont des scalaires La désutilité et l'utilité sont des scalaires

L'énergie totale peut être définie commel'intégrale par rapport aux forces appliquées

L'utilité totale éprouvée par l'individu est uneintégrale identique par rapport aux utilitésmarginales

L'équilibre se réalisera au point où l'énergienette (l'énergie moins le travail) seramaximum

l'équilibre se réalisera au point où le gain(l'utilité moins la désutilité) sera maximum

Si l'énergie totale est soustraite du travailtotal, plutôt que l'inverse, la différence est le« potentiel », et est minimum

Si l'utilité totale est soustraite de la désutilitétotale, plutôt que l'inverse, la différence peutêtre appelée « potentiel », et est minimum

Source : Mirowski [1989, p.259]

Pour peu qu'on connaisse le modèle néoclassique, il va sans dire que la maximisation de

l'utilité est la réplique du principe d'optimum. En témoignent les correspondances

métaphoriques d'Irving Fisher qui transpose à l'économie le modèle mécanique d'optimisation

(tableau 1.3) à partir des identifications analogiques de l'individu à la particule, de la

marchandise à un espace, de l'utilité à l'énergie, de l'utilité (ou désutilité) marginale à la force,

du travail à la désutilité [Mirowski, 2001].

B. Les principes de causalité et de déduction

La causalité et la déduction, paradoxalement, ne relient pas des phénomènes mais les

ordonnent de façon systématique dans une direction donnée. L'une est un ordre mécanique,

l'autre est logique.

a. L'ordre causal

Dans la conception aristotélicienne, le mouvement se produit suivant quatre causes :

formelle, matérielle, efficiente, et finale. Quand on considère une statue, par exemple, l'idée

de statue au début dans l'esprit du sculpteur en est la cause formelle ; le marbre est sa cause

matérielle d'existence ; la force exercée par les ciseaux du sculpteur sur le marbre est sa cause

efficiente ; le besoin qu'elle permet de satisfaire en est la cause finale. La mécanique

classique, notamment cartésienne, fait peu de cas de la cause finale pour réduire toutes les

45

Page 56: 2. Thèse_Doctorat_YJJ_Duplan.pdf

autres formes à la cause efficiente et parler tout simplement de causalité.

Au regard du principe de conservation, pour tout changement dans l'univers ou dans une

de ses parties, il y a nécessairement l'intervention d'un facteur. Si l'on se place au niveau de

l'univers tout entier, cette intervention ne peut être que celle de Dieu, seul capable de créer ou

d'enlever du mouvement. Au niveau des parties de l'univers, il ne peut y avoir que

communication de mouvement. Le principe de conservation fait donc pendant au principe de

causalité qui détermine à partir d'une cause (ou des causes) A – facteur d'intervention – un

effet (ou des effets) B – changement : A B , ce qui se lit « A cause B ». A détermine B

dans un rapport avant-après, d'antécédent à conséquent : la cause précède toujours l'effet. D'un

point de vue logico-mathématique, la causalité est dite fonctionnelle et on écrit B= f A .

Par analogie ou métaphoriquement, A est appelé variable indépendante, facteur explicatif ou

déterminant ; B désigne une variable dépendante, un facteur expliqué, un impact. Dans les

modèles dynamiques, A représente l'état d'une chose ou d'un phénomène à un moment donné

tandis que B est son état à l'instant suivant. La causalité fait office de « loi » et prend un

caractère empirique lorsque, dans les mêmes conditions d'observation, elle se révèle une

propriété nécessaire qu'on peut réitérer par expérience.

Dans la mesure où la cause est assimilée à un facteur générateur d'effet de la même

manière que le « choc » (Descartes) ou la « force » (Newton) sont producteurs de changement

de mouvement, la causalité est « mécanique-productive » [Yakira, 1994]. La causalité est

alors un ordre d'engendrement, une dépendance ontologique de l'effet à la cause. A la

différence de la pensée newtonienne et cartésienne, dans la conception galiléenne la causalité

traduit un ordre fonctionnel : « La cause, dit Galilée1, est ce qui est ce qui est tel que,

lorsqu'elle est posée, l'effet s'ensuit; lorsqu'elle est ôtée l'effet est ôté ».

La causalité n'est pas, comme on veut bien le croire une relation, mais un ordre de

succession défini dans un certain sens, symbolisé par la flèche . Conformément à la

logique analytique, il n'y a pas de tiers reliant la cause à l'effet. La présence d'une relation ou

d'une liaison mettrait la cause et l'effet dans un conflit dialectique qui contredirait

l'axiomatique identitaire. De Rosnay montre comment et pourquoi l'analytisme génère la

causalité. Incapable de concevoir logiquement le cercle vicieux et la récursion, la raison

analytiste préfère s'en débarrasser de façon méthodologique. « Elle l'ouvre. Elle le coupe

arbitrairement en un point : ce qui lui permet de ''l'étaler'' à plat le long de la flèche

conventionnelle du temps. Et de retrouver du même coup la relation familière d'avant/après

entre la cause et son effet » [De Rosnay, 1975, p.234]. Les effets d'aujourd'hui suivent les

causes d'hier et précèdent ceux de demain. La « relation familière » n'est pas une liaison, mais

1. Cité par Yakira [1994, p.9]

46

Page 57: 2. Thèse_Doctorat_YJJ_Duplan.pdf

en réalité une succession dans le temps de deux entités discrètes : la cause (avant) et l'effet

(après).

Le principe de causalité est renforcé par le principe leibnizien dit de raison suffisante.

Ce dernier stipule que « rien jamais n'arrive sans qu'il y ait une cause ou du moins une raison

déterminante, c'est-à-dire quelque chose qui puisse servir à rendre raison a priori pourquoi

cela est ainsi plutôt que de toute autre façon » [Leibniz, Essai de Théodicée, I, 44]. Le

principe de raison suffisante met en évidence le rationalisme de la pensée mécaniste. Quelle

que soit la chose, il est toujours possible, de facto sinon en principe, de lui imputer une cause

ou une raison d'être. A tout événement il y a un antécédent. Il n'existe pas de phénomène qui

échappe à l'explication causale.

La causalité tient une place centrale dans les modèles dynamiques pour expliquer

l'évolution d'un système. Dans la dynamique newtonienne, la causalité mécanique est

exprimée par la relation F=ma entre la force F exercée sur un corps de masse m et

l'accélération a qu'elle engendre. Tout point du système est décrit par sa vitesse v et son

accélération a, v étant la dérivée première de la position q du système, a la dérivée seconde de

q par rapport au temps t : a=d2 q

d t 2 =d vd t

. L'état du système à un instant défini est donné

par la description de chacun de ses points. L'ordre causal dynamique du système, la

succession de ses états, détermine son évolution. Comme dans la dynamique hamiltonienne

celle-ci est telle qu'il est toujours possible, par l'inversion du sens de l'écoulement du temps

t − t (changement du signe algébrique de la variable temps) ou le renversement des

vitesses v −v , de ramener le système à son état initial. Le système est non seulement

symétrique par rapport au temps mais aussi intégralement réversible. Son identité est

indifférente au passé et au futur. Ainsi l'ordre causal dynamique exprime-t-il « l'équivalence

réversible entre cause productive et effet produit » [Prigogine et Stengers, 1993].

Doté de la propriété d'échapper à la flèche du « Temps », le monde perçu sur le mode de

la pensée mécaniste est une véritable « cinématique intemporelle » [Georgescu-Roegen,

1995], un monde a-historique et immortel où l'ordre ''Passé Présent Futur'' est tout à

fait possible.

b. L'ordre déductif

L'ordre déductif suivant qu'il relève de la logique aristotélicienne ou de la logique

modene est syllogistique ou hypothético-déductif. Un syllogisme comprend trois propositions

et trois termes. Les deux premières propositions, respectivement qualifiées de majeure et de

mineure, en sont les prémisses, la troisième la conclusion. Les prémisses ont en commun un

47

Page 58: 2. Thèse_Doctorat_YJJ_Duplan.pdf

terme qualifié de « moyen » en raison de sa position médiane entre les deux autres, le « grand

terme » et le « petit terme ». Le moyen terme, « pivot du syllogisme », garantit la nécessité de

la conclusion : il assure la causalité logique [Le Blond, 1970]. L'ordre syllogistique consiste à

tirer une conclusion à partir de prémisses.

Un syllogisme peut être interprété en termes conceptuels, en extension et en

compréhension [Lefebvre, 1969]. Considérons l'exemple suivant de la figure du syllogisme

parfait dit en BARBARA :

— tout système est complexe,

— or l'économie est un système,

— donc l'économie est complexe

Le moyen terme « système » est sujet dans la prémisse majeure et prédicat dans la

mineure.

L'interprétation en extension met l'accent sur la contenance, l'aspect quantitatif des

concepts qui définit la forme du syllogisme. Les concepts sont hiérarchisées de telle maière

que le grand terme « complexe » inclue le moyen terme qui lui-même contient le petit terme

« économie » d'où l'on subsume que le grand terme inclut le petit terme. En effet, le

syllogisme s'applique au nombre de systèmes complexes. Il porte ici sur les mots « tout » et

« un ». L'admission et la vérité des prémisses exigent l'observation préalable de la complexité

de l'économie. En d'autres termes, la proposition concluante précède nécessairement

l'établissement des prémisses. Cela dit, la conclusion n'apporte aucune connaissance

particulière. Certes, le syllogisme garde sa rigueur déductive, mais son interprétation

extensive en fait « une répétition stérile », « un cercle vicieux », « une pétition de principe »

sans valeur de connaissance. Sa « rigueur parfaite se mue [...] en parfaite absurdité »

[Lefebvre, 1969, p.94-95]. Et le syllogisme est absolument infécond et se réduit à une pure

tautologie.

L'interprétation du syllogisme en compréhension renvoie à son contenu, à l'essence des

concepts. Chacun d'eux désigne un être et se définit par l'ensemble des qualités et propriétés

de celui-ci. Toutes les propriétés inhérentes au moyen terme appartiennent au grand terme et

toutes celles inhérentes au petit terme caractérisent le moyen terme. Il en découle que toutes

les propriétés du petit terme appartiennent au grand terme. Cette conclusion est pourvoyeuse

de connaissance car elle n'est pas nécessaire pour déterminer la vérité des prémisses. Étant

donné qu'un système est pris comme une totalité caractérisée par un ensemble de propriétés

dont la complexité, on doit attribuer cette propriété à l'économie avant même que l'expérience

nous l'apprenne. A cet égard, le syllogisme a la vertu de prévoir. C'est un « outil de

connaissance », insistent Popelard et Vernand [1998], dans une certaine mesure « un

48

Page 59: 2. Thèse_Doctorat_YJJ_Duplan.pdf

instrument de découverte, d'invention », ajoute Lefebvre [1969]. Il a la valeur d'une induction

car tout être déterminé et toute existence singulière déduits par le syllogisme acquièrent leur

universalité au travers de leurs caractères essentiels.

Le syllogisme se définit, en général, par le principe « dictum de omni et nullo ». En

extension, ce principe signifie que ce qu'on affirme de tous les membres (genre ou ensemble)

d'une classe peut être dit de chaque membre ou groupe de membres. Il assure l'automatisme

de la conclusion et de la déduction allant du général au particulier. En compréhension, le

principe signifie que toute implication et toute participation de l'espèce sont aussi celles du

genre : pour un genre qui possède une essence, toute espèce de ce genre comporte les

caractères et propriétés inhérents à l'essence donnée. Dans ce cas, il exprime le contenu

syllogistique et fait du syllogisme une « logique de l'essence » [Lefebvre, 1969]. Cependant,

la validité du syllogisme ne tient pas à la compréhension de ses termes, à son contenu, mais

repose sur leur extension, sur sa forme. Ce en quoi la logique aristotélicienne est une

« logique formelle ». Quand les propositions sont vraies c'est-à-dire empiriquement

perceptibles, ni contradictoires ni contraires, la validité du syllogisme implique

nécessairement la vérité de la conclusion. Déductif par essence, stérile par sa forme, le

syllogisme est inductif et a valeur de connaissance par son contenu.

En général, le syllogisme consiste à tirer une conclusion à partir de prémisses. C'est

l'ordre : Prémisses Conclusion.

La logique déductive moderne dite classique, ordonne non pas des jugements

aristotéliciens mais des propositions fonctionnelles : d'une série d'hypothèses (ou de

prémisses) données on tire une conclusion par des opérations logiques. C'est l'ordre

hypothético-déductif.

L'ordre déductif régit le raisonnement ou la formalisation logico-mathématique mais ne

relève pas nécessairement de la réalité qu'on veut décrire. C'est ainsi que Simon [1977, p.81],

assimilant l'ordre logique à un ordre causal, indique à bon escient que « la relation causale [...]

est dans la métalangue et non dans le langage-objet ».

3.2. L'économie de l'ordre

Si les autres principes sont plus ou moins absents des théories économiques, le principe

d'ordre se trouve dans la plupart des courants de la pensée économique. C'est le raisonnement

ordonné qui caractérise l'essentiel des processus de compréhension et d'explication. Les

économistes n'hésitent pas à clamer leur foi dans le réductionnisme ordinaliste. Cette

proclamation que l'on retrouve avec force de conviction chez les fondateurs des théories

49

Page 60: 2. Thèse_Doctorat_YJJ_Duplan.pdf

économiques modernes est le credo causaliste et déterministe.

A. Les explications ordinales

La vision ordinaliste des phénomènes socio-économiques est caractéristique de l'école

néoclassique, de la théorie keynésienne et s'impose en économétrie. Pour illustrer la

prégnance de l'ordinalisme dans ces théories, nous considérons trois cas respectifs : la

rationalité des préférences individuelles, le principe de la demande effective et les causalités

économétriques.

a. La rationalité des préférences individuelles

L'ordre social que l'école néoclassique construit d'après la démarche de l'individualisme

méthodologique est un ordre mécanique. La société est atomisée en agents économiques c'est-

à-dire des unités de décision indépendantes qui peuvent être des ménages (consommateurs) ou

des entreprises (producteurs). Pris isolément, ce sont des agents considérés comme libres et

égaux. Un ensemble de possibilités techniques caractérise l'entreprise qui choisit ses entrants

pour obtenir un niveau donné de production. La rationalité de l'entreprise consiste à

déterminer, compte tenu des prix de marché, la quantité de facteurs de production qui

maximise son profit (ou minimise ses coûts) pour un maximum de biens produits. Son

comportement repose implicitement sur l'ordonnancement quantitatif des biens à produire et

du profit à réaliser (ou des coûts à supporter).

Les choix des ménages portent sur des paniers de biens de consommation et sont

contraints par leurs ressources limitées en termes de stock de biens, de droits de propriété, de

temps disponible. On suppose que le ménage peut toujours classer ses possibilités de

consommation selon une « relation de préférence ».

Un panier est toujours préféré à lui-même ; on dit que la relation de préférence est

réflexive. Elle est dite complète si tout couple (x, y) de paniers appartenant à l'ensemble des

possibilités de choix est comparable c'est-à-dire que l'individu prend une et une seule des

décisions suivantes : x est préféré à y, y est préféré à x, x et y sont équivalents. La complétude

des préférences conditionne la cohérence des décisions individuelles. La relation de

préférence est transitive si et seulement si pour n'importe quels paniers x, y et z, les situations

où x est préféré ou équivalent à y et y est préféré ou équivalent à z impliquent que x est préféré

ou équivalent à z. Au fait, il ne s'agit pas de relation de préférence mais d'un ordre

préférentiel analogue à la succession causale. Les axiomes de complétude et de transitivité

définissent un ordre logique. Les comportements des ménages en conformité avec un tel ordre

sont qualifiés de rationnels. Les ménages qui font les meilleurs choix sont ceux qui

50

Page 61: 2. Thèse_Doctorat_YJJ_Duplan.pdf

maximisent leurs préférences.

Tout comportement réel, qui ne relève pas de l'ordre des préférences et de

l'optimisation, est jugé « irrationnel » et est strictement écarté de l'analyse libérale

néoclassique. De plus, selon les tenants de cette analyse, le meilleur des mondes possibles est

celui où les comportements individuels sont rationnels, un monde défini par l'optimum de

Pareto tel que, les satisfactions individuelles étant maximales, un agent ne peut améliorer son

sort sans détériorer celui d'au moins un autre. Il s'ensuit que pour garantir un fonctionnement

harmonieux et optimum de la société, il faut rationaliser le comportement de chacun. Une

telle société doit être constituée d'individus faisant leurs choix, non pas comme la plupart des

hommes qui, dans leur vie quotidienne (la réalité !), élaborent des stratégies pour atteindre des

finalités et choisir dans un univers incertain, mais comme des robots ou machines

programmés dénués de spontanéité et de volonté. Il n'est guère étonnant que la règle ou

procédure « satisfaisante » qui fait correspondre la rationalité individuelle à un ordre social

(rationalité à l'échelle sociale) soit « soit imposée, soit dictatoriale » [Arrow, 1997].

b. Le principe de la demande effective

Dans sa Théorie Générale, Keynes s'adonne à une recherche systématique des processus

causaux de détermination du niveau de l'activité économique. Expliquant le raisonnement au

cœur de l'analyse keynésienne, Paulré [1985, p.81] souligne que cette théorie « est

essentiellement causale. Elle procède du souci d'une mise au jour des forces économiques

sous-jacentes qui déterminent les variations du volume de la production et de l'emploi ».

Généralement, la causalité apparaît dans les modèles économiques entre les variables

déterminantes (paramètres, constantes ou variables indépendantes) et les variables

déterminées (ou dépendantes) (figure 1.3). Dans la théorie keynésienne, ce schéma

d'explication est explicite. Les investissements sont déterminés directement par la propension

51

causes effetspuis

Variables indépendantes ou déterminants

Paramètres ou constantes

Variables dépendantes ou déterminées

Figure 1.3. La causalité en économie

Page 62: 2. Thèse_Doctorat_YJJ_Duplan.pdf

à consommer, les dépenses gouvernementales, le taux d'intérêt et l'efficacité marginale (figure

1.4). Indirectement, ils sont déterminés par la préférence pour la liquidité et l'offre de monnaie

qui influe sur le taux d'intérêt et les anticipations qui ont un impact sur l'efficacité marginale

du capital. La décision d'investir permet de définir le niveau de la demande globale D. Selon

le principe de la demande effective, celle-ci détermine à l'équilibre le niveau de l'emploi N :

D= f N [Keynes, 1969].

L'économie keynésienne est une mécano-économie dont le principe moteur est celui de

la demande effective. Ce principe est une loi caractéristique du fonctionnement de l'économie,

une propriété que le technicien économiste exploite à sa guise pour obtenir un résultat. Pour

diminuer le chômage, il suffit de modifier à bon escient les variables stratégiques qui

commandent la demande globale. A cet égard, la causalité revêt une importance cruciale pour

la politique économique. Dès lors que l'on connaît les lois sociales, on acquiert un pouvoir de

manipulation et de contrôle sur la société. Le politique pourrait prévoir ou prédire les

52

Figure 1.4. L'enchaînement causal de l'analyse keynésienne [Paulré, 1985]

Variables psychologiques

Variables indépendantes

Variables dépendantes

Dépenses gouvernementales

Offre de monnaie

Taux d'intérêtEfficacité

marginale du capital

Investissement

Préférence pour la liquidité Anticipations

Emploi

Propension à consommer

Demande globale

Page 63: 2. Thèse_Doctorat_YJJ_Duplan.pdf

conséquences de ses actions, l'impact des variables stratégiques sur les variables-objectifs. Il

serait « maître et possesseur » du corps social. Malheureusement, il n'y pas de loi sociale.

Même le principe de la demande effective n'en est pas un. Si oui, le problème du chômage

serait déjà réglé.

c. Les causalités économétriques

L'économétrie vise à cerner les modèles causals « pertinents ». Pour ce faire, les

définitions de la causalité adoptées par les économètres sont d'ordre opérationnel c'est-à-dire

qu'elles rendent possibles les tests empiriques. C'est sur et en vue de l'ordre causal que sont

construits les modèles économétriques.

Les économètres Strotz et Wold [1960, p.418] optent pour une conception ouvertement

instrumentale de la causalité : « z est cause de y si, par hypothèse, il est ou il serait possible,

en contrôlant z de contrôler indirectement y, au moins de manière stochastique. [...] Une

relation causale est donc asymétrique par essence ». Cette définition suppose une dépendance

de la variable y à la variable z analogue à l'assujettissement de la réponse au stimulus [Wold,

1966]. Or Wold n'admet ni la simultanéité ni la confusion de l'effet et de la cause. L'ordre

causal défini ci-dessus reflète nécessairement la séquence temporelle et est unidirectionnel.

Tandis que la causalité au sens de Strotz et Wold s'applique au niveau de l'équation

(entre des variables reliées fonctionnellement), Simon conçoit l'enchaînement causal dans

l'ordre de résolution des équations, l'asymétrie de la causalité n'est ni chronologique ni

ontologique. L'ordre causal est une propriété logique du modèle et la notion de causalité est

synonyme de déduction [Simon, 1977].

Afin d'illustrer l'ordre causal de Simon, considérons le système d'équations linéaires

suivant : a11 ra12 Y =a10 (B )a21 r−a22 Y −a23 P=a20 (M )

a33 P=a30 (W ) (1.11)

r : taux d'intérêtY : revenuP : niveau des prix

La relation (B) désigne l'équilibre du marché des biens et services sur lequel le revenu

dépend du taux d'intérêt. L'équation (M) représente l'équilibre du marché de la monnaie sur

lequel les prix dépendent négativement du revenu et positivement du taux d'intérêt. La

relation (W) décrit l'équilibre du marché du travail sur lequel est déterminé le salaire réel ; le

salaire nominal étant fixe, seul le niveau des prix est considéré.

En substitant P de l'équation (W) dans (M), on obtient l'équation :

53

Page 64: 2. Thèse_Doctorat_YJJ_Duplan.pdf

a21 r−a22 Y −a23 a30

a33

=a30 (1.12)

Puis de cette équation la variable Y est intégrée pour obtenir r. Enfin, dans la relation

(B), r est remplacé par sa valeur et on déduit Y. L'enchaînement causal peut être représenté de

la manière suivante : P r Y . Certes l'ordre causal est formel mais sa validité est

« empiriquement » déterminée. En effet, en considérant le modèle sous la forme matricielle

AX = A0 , on admet que l'ordre causal est valide si et seulement si les lignes de A sont en

correspondance biunivoque avec les mécanismes que représentent les équations. Dans

l'exemple, les relations (B), (M) et (W) correspondent respectivement aux marchés des biens,

de la monnaie et du travail déterminant le prix, le taux d'intérêt et le revenu. Par conséquent,

l'ordre causal des variables est l'équivalent de l'ordre d'influence des marchés :

B M W .

A la différence de la conception de Simon, la définition de Granger [1969, p.430] de la

causalité porte sur des relations entre des séries temporelles. « La définition de la causalité est

essentiellement fondée sur la prédictibilité de certaines séries, X t , par exemple. Si une autre

série Y t contient, à travers ses valeurs passées, une information qui améliore la prédiction

de Xt et si cette information n'est contenue dans aucune autre série utilisée pour calculer le

prédicteur, alors on dit que Y t cause X t ». Le caractère causal d'une variable tient au fait

que l'information qu'elle contient permet de mieux prédire une autre variable. La causalité

entre les variables tire son asymétrie de l'ordre : information prédiction.

Soit At un processus stochastique stationnaire1, At=At− j , j=1 , 2 , , ∞

l'ensemble de ses valeurs passées. Soit P t A /B le prédicteur des moindres carrés de At

obtenu en utilisant l'ensemble des valeurs Bt . E t A /B représente l'erreur de prévision

en t et A /B2 sa variance telle que

E t A /B= At−P t A /B (11.3)

Formellement, la causalité de Granger se définit de la façon suivante : si

X / U2 X /U−Y

2 alors Y t X t , U représente toute l'information disponible. Le critère de

détermination de la causalité est restreint à la variance de l'erreur de prévision. C'est un critère

formel strictement prédictif. Cette conception de la causalité évacue l'inattendu et

l'imprévisible et fait fi de l'intelligibilité de l'incertain.

Dans de nombreux cas, la conception de la causalité sous-jacente aux études

économétriques peut-être appréhendée par cette définition de Boudon [1967] :

1. On dit que At est un processus stationnaire si la probabilité jointe de la série At est indépendante dutemps.

54

Page 65: 2. Thèse_Doctorat_YJJ_Duplan.pdf

« si 1. y antérieur à x

et 2. Prob x / y≠Prob x toutes choses égales par ailleurs

alors : y cause de x ».

Le critère de causalité constitué par la différence entre les distributions conditionnelles

et marginales de x détermine une dépendance statistique ou probabiliste de x à y. L'ordre

causal, constitué par l'antériorité temporelle de la variable x est explicitement celui de la

succession chronologique. En outre, l'explication causale est basée sur la clause « toutes

choses par ailleurs » suivant laquelle les causes des phénomènes sont indépendantes. Ainsi,

dans le modèle économétrique, l'économie est conçue comme un système fermé, indépendant

de tout phénomène extérieur.

La méthode économétrique devrait permettre la vérification empirique de ces causalités.

A croire que les tests économétriques (de causalité) sont des instruments d'observation. En

réalité, les tests économétriques n'ont qu'une valeur logique ! L'ordre causal est apriorique

dans l'analyse statistique ou économétrique. En effet, le rôle de cette dernière « se limite à

l'élimination des modèles causals dont la structure (au sens de graphe non orienté) n'est pas

compatible avec les données disponibles. Ce sont des considérations théoriques à caractère

sémantique qui sont à l'origine des choix concernant l'ordre causal. » [Paulré, 1985, p.177].

En dehors de l'observation ou de l'expérimentation, la causalité est un présupposé qui

n'exprime aucune propriété phénoménale. Autant il est réel que l'investissement est le fait de

la décision et la conséquence d'une action humaine autant la causalité, conçue comme

relation, entre le taux d'intérêt et le montant de l'investissement que valide un test

économétrique ou statistique appartient à l'esprit de son concepteur. Non justifiées par

l'expérience, les relations causales entre variables ont un statut quasi-métaphysique dans les

modèles économétriques [Gutsatz, 1987]. Elles témoignent la tendance de l'esprit-cerveau à

projeter sur son environnement ses préconceptions d'ordre et de rationalité. Dans les modèles

économiques, la causalité est une construction de l'esprit qui assimile les séquences régulières

des phénomènes aux schèmes de l'action propre [Amselek, 1988].

B. Le credo causaliste et déterministe

La causalité émerge des rouages de la mécanique. Elle imprègne les esprits des sujets

scientifiques pour s'affirmer comme l'unique mode de compréhension et d'explication des

phénomènes naturels et socio-culturels. Comprendre et expliquer un phénomène, c'est

déterminer sa cause ou trouver la raison de son mode d'existence. « Connaître véritablement,

affirme Bacon [1986, p.156], c'est connaître par les causes ». « Sans causes et sans causalité,

pas de science », déclare Lefebvre [1969]. La causalité est brandie comme le garant de la

55

Page 66: 2. Thèse_Doctorat_YJJ_Duplan.pdf

rationalité scientifique. Affirmant la primauté de la causalité, le causalisme accouche la

pensée mécaniste qui utilise analogies et métaphores pour s'appliquer aux autres sciences telle

l'économie.

Il est intéressant de voir qu'on peut distinguer les théories de l'économie politique selon

que c'est le travail ou l'utilité qui est considéré comme la cause de la valeur. A noter que cette

notion de cause est de nature productive dans les théories de la valeur lorsque par métaphore

elle est assimilée aux notions de source, de fondement ou d'origine. Soucieux de fonder

l'économie politique sur les bases de l'épistémê cosmique, Say définit la connaissance

scientifique en deux points. D'une part, elle est la connaissance positive ou réaliste : « la

connaissance de ce qui est ou de ce qui a été » c'est-à-dire la « connaissance des faits ».

D'autre part, elle est la connaissance causaliste : la connaissance des « lois suivant lesquelles

ces faits arrivent », de « la liaison nécessaire qu'ils ont avec ceux qui précèdent, ou avec leurs

causes ; et avec ceux qui suivent ou avec leurs résultats » [Say, 1996, p.83-94]. L'ordre causal

s'inscrit au fronton de l'économie politique comme principe paradigmatique. Force est de

constater que « l'économie politique pure [...] est, comme la mécanique, comme

l'hydraulique, une science physico-mathématique » [Walras, 1988, p.53] ou que l'école néo-

classique réduit la science économique à la « mécanique de l'utilité et de l'intérêt individuel »

[Jevons, 1909].

Pliant sous les faix de la pensée mécaniste et enclins à la simplification, la plupart des

économistes ont tendance à modéliser l'organisation socio-économique dans l'ordre strict de la

logique déductive et de la causalité. Consciemment ou malgré eux, leur pensée chevauche le

dogme du déterminisme. L'économiste croit qu'il serait toujours possible de prédire les

événements, de déterminer les effets et connaître leurs causes avec certitude, tout au moins

dans un certain degré. S'il n'est pas capable de prévoir avec une certitude absolue, c'est à

cause de ses insuffisances intellectuelles ou parce qu'il ignore l'« Ordre caché ». Dès lors, il

peut faire appel à ses « croyances » pour faire ses anticipations. Néanmoins tous les effets ou

états futurs du système sont connus avec certitude, soit de manière discrète soit de manière

floue. De manière discrète, chaque élément de l'ensemble des états appartient tout entier à cet

ensemble ; de manière floue, certains éléments y appartiennent seulement en partie. Ce sont

des états probables, possibles ou des événements dont la fréquence d'apparition est

statistiquement obtenue. Dans ce cas, on parle de déterminisme probabiliste, possibiliste ou

statistique1.

Souvent, les théories économiques sont soumises à l'hégémonie du déterminisme

1. Longtemps on a cru, aujourd'hui encore on fait la confusion, que la théorie des probabilités traite del'incertitude. Knight avait raison de distinguer un événement risqué d'un événement incertain. Le premier estprobabilisable, le second ne l'est pas.

56

Page 67: 2. Thèse_Doctorat_YJJ_Duplan.pdf

classique qui fait prévaloir la certitude de la loi de causalité selon laquelle les mêmes causes

produisent toujours les mêmes effets. Autrement dit, l'ordre causal est constant, régulier et

universel. Comme le font les sciences physiques à l'égard des lois naturelles, les sciences

morales et politiques, l'économie politique, par exemple pour Say et Mill, doivent se

consacrer à la recherche des lois de la société. Dans cet ordre d'idée, Mill [1866 (t.2), p.418]

« considère comme vrai » que « la loi de causalité s'applique dans le même sens et aussi

rigoureusement aux actions humaines qu'aux autres phénomènes » et par conséquent « que les

volitions et les actions humaines sont nécessaires et inévitables ». Mais la certitude de Mill ne

s'arrête pas à quelques phénomènes physiques ou socio-économiques. Paraphrasant Laplace, il

clame sa foi dans un déterminisme absolu et exhaustif : « l'état de l'univers à chaque instant

est, croyons-nous1, la conséquence de son état à l'instant d'avant ; de sorte que celui qui

connaîtrait tous les agents qui existent au moment présent, leur distribution dans l'espace et

toutes leurs propriétés, c'est-à-dire les lois de leur action, pourrait prédire toute l'histoire

future du monde, à moins qu'il ne survint quelque acte nouveau d'une puissance ayant empire

sur l'univers ; et si un état donné du monde revenait aussi, et l'histoire se répéterait

périodiquement comme une décimale circulaire de plusieurs chiffres [...]. Et bien que les

choses ne tournent pas en réalité dans ce cercle éternel, toute la suite des événements passés et

futurs n'en est pas moins susceptible en elle-même d'être construite a priori par une

intelligence supposée pleinement instruite de la distribution originelle de tous les agents

naturels et de toutes leurs propriétés, c'est-à-dire des lois de succession des causes et des

effets; en admettant, bien entendu, la puissance plus qu'humaine de combinaison et de calcul

qui serait requise, même en possédant les données, pour l'exécution de l'opération » [Mill,

1866 (t.1), p.389-391]. La prédictibilité est dans la nature même des phénomènes. Un être

doté de capacités phénoménales, informé à un moment donné de toutes les lois et de toutes les

causes en jeu dans l'univers, pourrait nous raconter toute l'histoire du monde, nous prévenir de

tous les maux et nous annoncer tous les bienfaits à venir, mais nous avertirait que la venue des

événements et leur ordre d'arrivée sont implacables. Un tel être est ce qu'on dénomme souvent

le « démon de Laplace ». Il apparaît dans le dogme libéral néo-classique sous la forme du

commissaire-priseur. Ce démon de Walras qui connaît, de fil en aiguille, la mécanique du

système socio-économique n'est que le corps fictif de la « Main invisible » d'Adam Smith.

Dès lors qu'il prend connaissance des offres et demandes individuelles, il est apte à

déterminer, ne serait-ce qu'« à tâtons », la chronologie de tous les états du système qui font

pendant à l'état de félicité générale, état d'équilibre dans lequel le bonheur des individus

atteint son paroxysme.

1. C'est nous qui soulignons.

57

Page 68: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Le déterminisme, qu'il soit classique, statistique ou probabiliste, repose entièrement sur

la connaissance certaine des effets ou états possibles du système considéré et de leur

distribution. Or l'émergence de nouveautés définit l'évolution et caractérise la reproduction du

système socio-économique. Admettre la conception déterministe, c'est nier que ce dernier est

un système évolutif et donc incertain. En dépit de cette évidence, il n'en demeure pas moins

que de nombreux pans de la science économique se soumettent, sans retenue, au mécanisme.

Avec raison (peut-être), Amselek [1988, p.64] déclare que « dans l'esprit des scientifiques se

trouve profondément ancré le sentiment que le déterminisme constitue l'hypothèse ou postulat

de base de la science : ne pas supposer un ordre dans le monde, de régularités — au moins de

régularités statistiques — reviendront de la part du savant à se renier lui-même, à saper les

fondements mêmes de ses démarches, à leur enlever tout leur sens. Le déterminisme [...] est

ressenti en quelque sorte comme la bouée de sauvetage à laquelle le savant doit se raccrocher,

à laquelle se trouvent suspendues ses espérances, sa volonté d'entreprendre et de persévérer ».

58

Page 69: 2. Thèse_Doctorat_YJJ_Duplan.pdf

CHAPITRE II

Vers la soutenabilité socio­économique : critique de l'économie de

la soutenabilité

La formalisation de la soutenabilité dans le cadre de l'analyse néoclassique est

respectueuse des principes du paradigme cosmique. Cette formalisation procède par

l'intégration de l'environnement dans le modèle d'optimisation sous contrainte et est conforme

à la méthode de l'analyse coût-avantage. Selon cette dernière, un projet est susceptible d'être

porté à exécution si les avantages nets (actualisés) – différence entre les avantages et les coûts

– sont positifs, sinon il est jugé défavorable. Quand il s'agit de choisir entre plusieurs objets,

est retenu celui dont les avantages nets sont les plus élevés. De ce point de vue, une action

économique est évaluée à l'aune des bénéfices nets qui y sont associés. La soutenabilité est

définie en termes des avantages que l'environnement peut procurer dans le temps aux

générations successives.

L'incorporation de l'environnement donne lieu à deux familles de modèles : l'économie

des externalités et l'économie des ressources naturelles suivant que l'environnement est

identifié à une externalité ou à une ressource naturelle. La synthèse de ces deux branches

constitue ce que Dessaigues et Point [1992] dénomment « l'économie du patrimoine naturel ».

Pour ne pas la confondre avec l'économie du patrimoine naturel de Comolet [1994], nous

l'appelons tout simplement « économie de l'environnement ». Ce cadre sert de base à la

conceptualisation de la soutenabilité dans les modèles de croissance. L'ensemble des modèles

Page 70: 2. Thèse_Doctorat_YJJ_Duplan.pdf

néoclassiques, statiques et dynamiques, d'intégration de l'environnement constituent

l'économie de la soutenabilité.

Dans ce chapitre, nous commencerons par exposer les fondamentaux de l'économie de

l'environnement (section 1). Au travers de quelques formalisations mathématico-cosmiques,

nous mettrons en évidence les conceptions alternatives de la soutenabilité dans les modèles de

croissance (section 2). Enfin, nous argumenterons en quoi la soutenabilité issue de l'économie

de l'environnement est réductrice et sa formalisation insoutenable ; et, au gré de nos critiques,

nous entamerons la construction de la soutenabilité complexe en proposant des éléments de

conception de son pôle socio-économique (section 3).

1. L'économie de l'environnement

Assimilé à un bien public, l'environnement est un bien gratuit qui n'est ni appropriable

ni exclusif. Il apporte un bien-être à la collectivité même quand il n'est consommé que par

certains individus. Il est identifié à des externalités ou des ressources (renouvelables ou

épuisables) qui ne font l'objet d'aucune transaction monétaire. Il relève de la nature ou des

interdépendances socio-économiques involontaires. En tant que tel, l'environnement n'est pas

intégrable dans le cadre marchand fait d'échanges monétaires volontaires. Pourtant, les

économistes de la soutenabilité estiment que, pour comprendre l'environnement d'un point de

vue économique, il convient d'imaginer des méthodes de comptabilisation monétaire de

l'environnement (1.1) et de l'ajuster au modèle de marché de l'analyse néoclassique (1.2).

1.1. La comptabilisation monétaire de l'environnement

La valorisation et l'évaluation marchandes des actifs naturels favorisent la

comptabilisation monétaire de l'environnement. Sur ce, les néoclassiques se permettent de

dresser des agrégats et calculer des indices comptables en vue d'apprécier l'état

environnemental de l'économie.

A. La valeur économique totale

L'état de l'environnement est défini par les ressources naturelles qui y sont disponibles

et son niveau de dégradation. L'état environnemental d'un agent économique, tout comme la

consommation, est associé à son bien-être par la fonction d'utilité. On appelle « aménité

environnementale » l'effet de l'environnement sur l'utilité de l'agent.

L'utilité de l'individu est interprétée en termes de satisfaction des préférences. Ainsi la

60

Page 71: 2. Thèse_Doctorat_YJJ_Duplan.pdf

valeur d'un actif n'est-elle pas liée systématiquement à son usage. Il suffit que l'individu soit

satisfait de son choix pour que l'actif concerné ait une valeur économique.

On suppose que l'individu est prêt à payer (ou à recevoir) une somme monétaire pour les

avantages offerts (ou les dommages causés) par l'actif ou tout simplement pour sa

préservation. Le consentement à payer (ou à recevoir) révèle les préférences de l'individu et la

valeur qu'il accorde à l'actif. Outre sa valeur d'usage immédiate [Faucheux et Noël, 1995], ce

dernier peut avoir des valeurs de non usage pour le payeur. On peut classer les valeurs d'un

bien suivant que son utilisation profite à la génération (un ou plusieurs individus) présente ou

future ou qu'il est tout simplement préservé sans motif utilitaire (tableau 2.1).

Tableau 2.1. Valeurs économiques d'un actif

Bénéficiaire du bien Valeur utilitaire Valeur de non utilisation

Génération présente

Génération future

Valeur d'usage, valeur d'option

Valeur de quasi-optionValeur d'existence

Valeur de legs

La valeur d'usage d'un actif est relative aux bénéfices immédiats qu'il peut procurer à la

génération présente. On peut distinguer deux types de valeur de préservation : la valeur

d'option [Weisbrod, 1964] et la valeur de quasi-option [Arrow et Fisher, 1974 ; Henry, 1974]

que Bontems et Rotillon [1998] appellent « valeur d'option informationnelle ». Dans le

premier cas, la préservation du bien profite dans un avenir proche à la génération présente,

mais son offre est sujette à des risques ou à l'incertitude ; dans le second cas, c'est la

génération future qui pourra faire usage des information supplémentaires dues à la

préservation du bien alors que des décisions irréversibles pourraient être prises dans

l'immédiat. On parle de valeur de legs pour désigner la valeur donnée à un bien

environnemental eu égard à l'utilité qu'il pourra avoir pour la génération héritière. Sous

l'hypothèse qu'un bien a une « valeur en soi », on lui attribue une valeur d'existence en dehors

de son utilité pour les individus et indépendamment de leur génération d'appartenance

[Krutilla, 1967]. La valeur économique totale du bien est la somme de ses valeurs utilitaires et

de non utilisation.

Identifiée à la quantité de monnaie dépensée ou reçue, ou qu'on est prêt à dépenser ou

recevoir pour les avantages ou les inconvénients qu'il génère, pour son acquisition, son usage

ou sa préservation, la valeur d'un actif environnemental est strictement marchande. Évaluer

économiquement un actif environnemental, c'est exprimer en termes monétaires ses bénéfices

ou ses coûts.

61

Page 72: 2. Thèse_Doctorat_YJJ_Duplan.pdf

B. Les méthodes d'évaluation

Conformément au libéralisme néoclassique, lorsqu'ils sont observables directement dans

les relevés statistiques des transactions commerciales, les prix de marché permettent d'évaluer

les actifs environnementaux. Dans le cas où ces actifs ne font l'objet d'aucun échange

marchand, leur valeur est estimée indirectement en utilisant les prix des biens et des services

qui en dérivent, ou les prix révélés ou consentis par les agents eux-mêmes. Les méthodes

d'évaluation couramment utilisées peuvent être réparties en deux catégories : les méthodes

d'évaluation directe et les méthodes d'évaluation indirecte.

a. Les méthodes d'évaluation directe

Les méthodes d'évaluation directe sont la méthode d'évaluation contingente et les

méthodes d'actualisation.

La méthode d'évaluation contingente cherche à évaluer les changements de bien être

individuel dus à une modification de l'état environnemental des agents concernés. On réalise

une enquête (par questionnaire) dans laquelle on demande à chaque individu la somme qu'il

serait prêt à verser ou à obtenir pour une amélioration ou une détérioration de la qualité de son

environnement. Dans la mesure où la valeur du bien, le consentement à payer ou à recevoir,

varie d'un individu à l'autre, le prix consenti diffère du prix de marché prévalant en l'absence

de la modification de l'état environnemental. L'écart entre le consentement à payer et le prix

de marché définit le surplus du consommateur qui, d'après l'analyse néoclassique, mesure la

variation de son bien-être. Évaluer économiquement les effets environnementaux consiste à

déterminer les variations de surplus mesurant les changements de bien-être des individus.

Les méthodes d'actualisation sont souvent employées pour évaluer les stocks de

ressources naturelles (non renouvelables) dont l'exploitation est étalée sur une période assez

longue. Ces méthodes sont au nombre de trois : la méthode du prix net, la méthode de la

valeur nette actualisée et la méthode du coût de l'utilisateur [Bartelmus, Lutz et Schweinfest,

1992 ; Nations Unies, 2000].

— Le prix net (ou flux de revenus nets unitaires escomptés) d'une ressource est la différence

entre son prix de vente moyen pt et son coût de production unitaire ct. La valeur Vt de la

ressource exploitée en quantité Yt à la période t est le produit du prix net par la quantité

totale exploitée au cours de la durée de vie T de l'actif :

V t= pt−ct ∑t=0

T

Y t (2.1)

— La valeur nette actualisée V0 est la somme des flux de revenus nets escomptés actualisés au

62

Page 73: 2. Thèse_Doctorat_YJJ_Duplan.pdf

taux d'intérêt nominal (ou réel) r :

V 0=∑t=0

T pt−ct Y t

1r t(2.2)

r étant supposé constant au cours de la durée de vie de l'actif.

— Le coût de l'utilisateur Ct est la différence entre les flux nets de revenus escomptés et un

flux de revenus permanent obtenu grâce à l'investissement d'une partie des revenus

(équivalent à la provision pour le coût de l'utilisateur) :

C t= pt−ct Y t

1r t1 (2.3)

(le coût de l'utilisateur est surtout utilisé pour évaluer l'épuisement des actifs).

b. Les méthodes d'évaluation indirecte

Les méthodes d'évaluation indirecte que sont la méthode des coûts de déplacement, la

méthode des prix hédonistes (ou méthode des prix implicites) et la méthode des fonctions

dose-réponse donnent le prix de l'actif en observant les comportements individuels ou les

impacts d'un changement qualitatif de l'environnement.

La méthode des coûts de déplacement est utilisée pour estimer les changements de bien-

être ou le consentement à payer des individus en vue d'aménager, par exemple, un lieu de

loisir (parc, lac, plage, etc.). On recourt à des marchés de substitution sur lesquels sont offerts

les biens complémentaires (chaussures de marche, maillots de bain) nécessaires à l'usage de

ces lieux. Une enquête de fréquentation est réalisée pour déterminer en priorité le nombre de

visites V (par visiteur et par période) et le prix d'une visite équivalent aux coûts C (prix des

bien complémentaires) supportés lors de cette visite. On recueille aussi certaines informations

sur d'autres variables X susceptibles d'expliquer le nombre de visites comme le temps de

trajet, le lieu d'habitation, le moyen de transport, le revenu ou le niveau d'éducation des

visiteurs.

Sous l'hypothèse que le visiteur est indifférent entre le paiement d'un droit d'entrée sur

le site et le coût marginal de transport, on estime la valeur d'usage récréative du site de loisir

par la fonction de demande [Faucheux et Noël, 1995] : V = f(C, X). On en déduit le surplus1

de chaque visiteur et le surplus total donnant le bénéfice global procuré par les qualités du

site.

La méthode des prix hédonistes repose sur l'hypothèse que le prix d'un bien est lié à ses

différents attributs et caractéristiques observés sur un marché de substitution. Par exemple, on

suppose que le prix Pi d'un bien immobilier i dépend de ses qualités environnementales Ei

1. Géométriquement, le surplus est la surface sous la courbe de demande, située entre le prix effectif de la visiteet le consentement à payer, prix maximum que le visiteur seraît prêt à verser.

63

Page 74: 2. Thèse_Doctorat_YJJ_Duplan.pdf

(qualité de l'air, bruit, vue panoramique...), de ses attributs physiques Si (surface, nombre de

pièce...), des rapports de proximité ou de voisinage Ri (école, commerce, type de

population...) : Pi = g(Ei , Si , Ri). Les cœfficients de cette fonction de prix hédoniste, estimés

économétriquement, donnent la désirabilité relative de chacune des caractéristiques du bien

par les agents. La dérivée partielle du prix par rapport à une caractéristique environnementale

est le prix implicite (hors marché) de cette variable ; elle indique la somme monétaire

supplémentaire que les agents sont disposés à payer pour une amélioration de la qualité de

l'environnement. On en déduit la fonction de demande de la qualité de l'environnement qui

permet de déterminer, en termes de surplus, les bénéfices retirés d'une amélioration de

l'environnement.

La méthode dose-réponse ne fait pas référence aux comportements des agents. Elle est

employée lorsqu'il s'avère que les individus n'ont pas conscience des impacts d'une

modification de la qualité de l'environnement. La liaison dose-réponse est une fonction de

dommage qui lie le changement des conditions environnementales et ses conséquences sur la

société, par exemple la variation du taux de pollution atmosphérique et ses effets sur la santé.

On procède en deux étapes. Tout d'abord, on établit statistiquement la fonction de dommage

qui lie un indicateur de la pollution atmosphérique à des indicateurs de santé. Puis on évalue

en termes monétaires les effets sanitaires du changement environnemental. En définitive, la

valeur des effets environnementaux correspond aux variations des coûts médicaux et des

pertes de salaires concomitants des arrêts de travail résultant de la pollution atmosphérique.

C. Les identités et agrégats comptables

C'est par le Système de Comptabilité Environnementale et Économique Intégrée (SCEE,

représenté dans l'annexe A-1) élaboré en 1993 par la Division de statistiques des Nations

Unies que l'environnement est pris en compte dans la comptabilité nationale. Il fait figure d'un

ensemble de comptes satellites du Système de Comptabilité Nationale (SCN 1993) adopté la

même année par l'Organisation des Nations Unies. Le SCEE complète et étend le SCN en

considérant explicitement les flux et stocks d'actifs naturels dans les comptes courants, les

comptes de patrimoine et d'accumulation. L'environnement tel qu'il est intégré dans le SCN

est interprété comme un capital et les coûts environnementaux indiquent la valeur de la

consommation de capital naturel.

Le SCEE ne retient que des actifs naturels qui sont de deux sortes : les actifs

économiques et les actifs environnementaux. Les premiers sont constitués de « l'ensemble des

actifs naturels [produits ou non] sur lesquels des unités institutionnelles font valoir,

individuellement ou collectivement, des droits de propriété et dont les propriétaires peuvent

64

Page 75: 2. Thèse_Doctorat_YJJ_Duplan.pdf

tirer des avantages économiques » ; les seconds sont formés de « l'ensemble des actifs

naturels non produits qui jouent le rôle de fournisseurs, non de ressources naturelles

nécessaires à la production, mais de services écologiques d'absorption des résidus et de

fonctions d'écologie (habitats, régulation des crues et régulation climatique) ou d'autres

éléments de qualité de vie se rapportant, par exemple, à la santé et à l'esthétique » [Nations

Unies, 2001, p.30]. Ainsi les comptes d'actifs incluent-ils non seulement les actifs

économiques mais aussi les actifs environnementaux et les variations correspondantes. En

particulier, les variations des actifs d'environnement (comme les répercussions des

catastrophes naturelles) qui ne relèvent pas des activités économiques de production ou de

consommation sont considérés dans le compte « changements de volume »1. Par ailleurs,

l'environnement est introduit dans le cadre comptable sous forme de coûts écologiques. Ces

derniers sont les dépenses réellement engagées pour la protection de l'environnement et les

coûts externes (ceux qui ne sont pas supportés par les agents qui les génèrent) tels les coûts

d'épuisement et de dégradation du milieu naturel. Combinée avec la nomenclature des

branches CITI (Classification Internationale Type par Industrie) qui s'applique aux postes de

production, de consommation intermédiaire et de valeur ajoutée, la nomenclature des produits

CAPE (Classification des Activités de Protection de l'Environnement) regroupe les activités

relatives à la protection de l'environnement et les dépenses connexes.

Ces ajustements du SCN en fonction de l'environnement respectent les identités

comptables. Celles-ci sont conservées sous les formes suivantes :

— identité des ressources et des emplois d'un produit p :

Pp + Mp = CIp + CFp + FBCp + Xp (2.4)

signifiant que la totalité de la production (P) et des importations (M) d'un actif est identique à

la somme de ses utilisations sous forme de consommation intermédiaire (CI) et de

consommation finale (CF) ajoutée à la formation brute de capital (FBC) et aux exportations

(X) ;

— identité de l'écovaleur ajoutée de l'industrie i :

EVAi =Pi – CPi – CCFi – CEi = VANi – CEi (2.5)

définissant l'écovaleur ajoutée générée par l'industrie i comme étant égale à sa production (Pi)

diminuée de ses coûts de production (CPi), de sa consommation de capital fixe (CCFi) et de

ses coûts de protection, d'épuisement et de dégradation de l'environnement (CEi) ou encore à

la différence entre la valeur ajoutée nette (VANi) et les coûts environnementaux(CEi) ;

— identité de l'écoproduit de l'économie domestique :

EPI = EVA – CEM = PIN – CE (2.6)

1. Voir le tableau A-1 de l'annexe.

65

Page 76: 2. Thèse_Doctorat_YJJ_Duplan.pdf

définissant l'écoproduit intérieur de l'économie comme égal à la différence entre la totalité de

l'écovaleur ajoutée des industries (EVA) et les coûts de protection de l'environnement (CEM)

engendrés par l'ensemble des ménages ou encore à la différence entre le produit intérieur net

(PIN égal à la totalité de la production diminuée de la totalité de la consommation

intermédiaire) et les coûts environnementaux générés par l'ensemble des industries et des

ménages (CE).

Les soldes des comptes d'actifs produits et non produits donnent lieu à une nouvelle

identité définissant l'écart entre les stocks de fermeture (SF) et d'ouverture (SO) :

∆S = SF – SO= FBC – CCF + V (2.7)

Il est égal à la somme de la formation brute de capital et des plus(ou moins)-values (V)

diminuée de la consommation de capital fixe. Les stocks de fermeture et d'ouverture sont des

« mesures du patrimoine, reflétant la dotation d'un pays en actifs économiques, notamment en

ressources naturelles, au début et à la fin de la période comptable » [Nations Unies, 2001,

p.47]. La positivité de l'écart ∆S signifie une augmentation du patrimoine naturel de

l'économie, un écart négatif indique au contraire une baisse du patrimoine.

Outre les agrégats comptables présents dans ces identités ajustées à l'environnement,

d'autres peuvent êtres calculés pour avoir « une indication plus réaliste de la création des et de

la consommation de biens et de services » [Nations Unies, 2001, p.18]. Par exemple,

l'écoformation de capital pour l'ensemble de l'économie

EFC = FBC – C CF – CE (2.8)

est un « indicateur susceptible d'être utilisé pour démontrer la non-durabilité des performances

économiques » [Nations Unies, 2001, p.45]. Si EFC > 0 (respectivement EFC < 0),

l'économie est jugée durable (respectivement non durable).

1.2. L'environnement ajusté au fonctionnement du marché

Pigou et Hotelling, à la suite de Gray [1914], sont les premiers à tenter d'incorporer

l'environnement naturel dans l'analyse néoclassique. Ils initient respectivement l'économie des

externalités et l'économie des ressources naturelles.

A. L'internalisation des externalités

L'externalité est définie, depuis Pigou [1920], comme l'impact des activités de

production ou de consommation d'un agent sur celles d'un autre, en dehors de l'échange

marchand. On parle d'économie externe quant cet effet est positif et de déséconomie externe

quand il est négatif.

66

Page 77: 2. Thèse_Doctorat_YJJ_Duplan.pdf

On considère un marché concurrentiel, libre de toute intervention et de toute

réglementation, sur lequel le bien échangé est le résultat d'une activité de production

polluante. L'externalité concomitante à la pollution est évaluée par l'écart entre le coût

marginal social CmS et le coût marginal privé CmP supportés pour un niveau donné de la

production (figure 2.1). Le coût social, la somme des coûts supportés par la collectivité,

comprend non seulement les coûts occasionnés par la pollution qui ne sont pas compensés

pécuniairement mais aussi le coût privé c'est-à-dire la somme des coûts (comme ceux des

facteurs de production) payés par les agents à l'origine de l'externalité.

L'équilibre de marché Ep représenté sur la figure 2.1 est déterminé à l'intersection de la

courbe de coût marginal privé et la courbe de demande D. Il tient compte uniquement des

coûts privés mais pas des coûts liés à la pollution. A cet égard, au niveau de la quantité offerte

à l'équilibre EP, le coût marginal social diffère du coût marginal privé d'un montant égal au

coût de l'externalité. On dit que la pollution fausse la rationalité des agents et que le marché

est défaillant. En effet, en présence d'externalité, l'allocation des ressources n'est pas

socialement optimale : l'équilibre concurrentiel est inefficace au sens de Pareto. Selon les

tenants du libéralisme néoclassique, il s'agit d'un dysfonctionnement du marché qu'il convient

de corriger en annulant l'écart entre le coût marginal social et le coût marginal privé

d'équilibre, ce qui revient à porter le prix d'équilibre au niveau du coût social d'équilibre.

L'équilibre social Es satisfait l'optimum parétien.

Les solutions proposées consistent à internaliser l'externalité, c'est-à-dire à intégrer

l'environnement dans le cadre marchand. On peut distinguer deux modes d'internalisation

dans l'analyse libérale néoclassique : l'internalisation pigouvienne et l'internalisation

coasienne.

La proposition de Pigou est de fixer une taxe t égale à l'écart entre le coût social et le

67

Figure 2.1. Équilibre de marché, équilibre social et externalité

Quantité

Prix

Ep

CmPExternalité

CmS

Es

D

t

Page 78: 2. Thèse_Doctorat_YJJ_Duplan.pdf

coût privé d'équilibre (figure 2.1). Le prix d'équilibre est Ps = CmS = CmP + t. Obligé de

payer la taxe, l'individu émetteur de l'externalité est en présence d'un « signal-prix » dont il

tient compte dans le calcul de son coût privé. L'internalisation pigouvienne consiste donc à

donner un coût monétaire à l'externalité par la fiscalité de telle sorte que l'équilibre

économique soit un optimum de Pareto.

Coase [1960] récuse la procédure pigouvienne d'internalisation en raison de son

caractère unilatéral. Pour lui, l'inefficacité parétienne en présence d'externalité est due à

l'absence de règle de responsabilité qu'il faut exprimer en termes d'allocation initiale des

droits propriété. Le mieux est de laisser libre cours à la négociation bilatérale entre les agents

concernés par l'externalité. Un tel marchandage porte sur le montant à payer ou à recevoir par

l'une ou l'autre des parties et est fonction de l'allocation initiale des droits de propriété. Dans

le cas d'une pollution, si l'émetteur possède les droits de propriété sur l'environnement, c'est à

la victime de verser au pollueur une somme susceptible de le dissuader de polluer. Si, au

contraire, les droits appartiennent à la victime, c'est au pollueur de la dédommager en lui

versant une indemnité compensatoire. Coase montre qu'en l'absence de coût de transaction et

indépendamment des dotations initiales des agents, quels que soient l'allocation initiale des

droits et le dédommagement correspondant, la négociation a lieu au point où les dispositions

marginales à payer ou à recevoir sont égales et compatibles avec une situation efficace au sens

de Pareto. L'internalisation coasienne intègre l'externalité dans l'espace marchand par la

négociation du niveau de la pollution contre une somme monétaire que l'émetteur doit

recevoir de l'agent pollué ou lui verser selon que c'est le pollueur ou la victime qui détient les

droits de propriété sur l'environnement.

Dans une optique assez similaire à l'internalisation coasienne, Dales [1968] considère

que les externalités sont le fait d'une carence ou d'une mauvaise définition des droits de

propriété. La structure idéale de ces droits possède les quatre caractéristiques suivantes :

— l'universalité : les ressources sous soumises à la propriété privée et la définition des titres

de propriété est claire et sans ambiguïté ;

— l'exclusivité : les coûts ou bénéfices générés d'une manière ou d'une autre par les

ressources doivent être le fait d'un échange marchand directement ou indirectement, à la

charge ou au profit du propriétaire et à aucun autre ;

— la transférabilité : les droits peuvent toujours faire l'objet d'un transfert par échange

marchand ;

— l'applicabilité : aucun empiétement des droits de propriété par autrui n'est possible.

Ainsi définis, les droits de propriété sur l'environnement peuvent être échangés sur un

marché organisé, par exemple, sur le modèle de la bourse. Pour un niveau donné de la

68

Page 79: 2. Thèse_Doctorat_YJJ_Duplan.pdf

pollution, le prix d'équilibre des droits de polluer est égal au coût marginal de dépollution.

Déterminé sur un marché concurrentiel, il correspond à un optimum de Pareto.

L'intégration monétaire ou marchande de l'environnement dans l'analyse néoclassique

ne se limite pas aux externalités. Elle concerne aussi les ressources naturelles.

B. L'intégration des ressources naturelles

Un ressource naturelle est considérée dans l'analyse néoclassique si elle répond aux

critères économiques de classification et dont le degré de rareté est économiquement –

monétairement – calculable. Le mode d'intégration des ressources naturelles est

l'internalisation hotellinienne qui consiste à la prise en compte de la contrainte d'exploitation

dite d'épuisabilité ou de renouvellement.

a. La classification et la rareté des ressources naturelles

La classification des ressources naturelles (actifs du sous-sol) généralement admise est

celle proposée par McKelvey en 1972, reprise, modifiée et adoptée par les Nations Unies

[2001] pour établir le système de comptabilité environnementale et économique intégrée. Les

critères retenus pour caractériser une ressource sont : l'état des connaissances géologiques et

la faisabilité économique. L'augmentation du degré de certitude sur l'existence d'une ressource

favorise une estimation plus précise de sa réalité géologique. Une ressource est d'autant plus

exploitable que sa faisabilité économique (rentabilité monétaire) est grande.

Tableau 2.2. Classification économique des ressources naturelles

Identifiée Non découverte

Prouvée

Mesurée ÉvaluéeProbable

Présumée (siteconnu)

Spéculative(site inconnu)

Réserve

Ressource

69

Éco

nom

ique

men

t ex

ploi

tabl

e

Degré croissant de certitude géologique

Degré c roissant de fai sabilité économ

iqueE

cono

miq

uem

ent

non

e xpl

oita

ble

Page 80: 2. Thèse_Doctorat_YJJ_Duplan.pdf

On appelle stock ou réserve la part de la ressource qui est géologiquement identifiée et

économiquement exploitable compte tenu des conditions légales et techniques. Grâce à une

hausse de son prix, une avancée technologique ou une baisse de ses coûts, une ressource peut

passer du statut de gisement économiquement inexploitable ou non découvert au statut de

réserve (tableau 2.2). Ce concept de stock laisse supposer que les prix ou les coûts

d'exploitation d'une ressource non renouvelable évoluent dans le même sens que sa rareté. Dès

lors, ils peuvent l'un ou l'autre servir d'indice de rareté.

Le coût unitaire d'extraction (UC) de Barnett et Morse [1963] est l'indice le plus utilisé.

Il donne le coût en travail et en capital de l'extraction d'une unité de la ressource. C'est l'indice

de Laspeyres

UC=L t /LbK t /K b

Y t /Y b

(2.9)

Le travail (Lt), le capital reproductible (Kt), et le produit (Yt) du secteur extractif de l'année t

sont rapportés respectivement aux variables de même nom de l'année de base b, les

paramètres et étant les poids respectifs de ces facteurs dans la production. Le travail est

évalué en nombre de personnes employées ou d'heures de travail, le capital en termes

monétaires ; la production est assimilée à la valeur ajoutée réelle. La raréfaction de la

ressource est reflétée par une utilisation accrue de travail et de capital (la qualité de ces

facteurs restant constante) qui, pour un même niveau de production, s'accompagne d'une

hausse du coût unitaire d'extraction.

Brown et Field [1978] mettent en doute la pertinence de cet indice. Ils expliquent qu'un

changement technologique dû à un effort d'exploration peut modifier le coût unitaire

d'extraction indépendamment de la raréfaction de la ressource. Il n'y a pas de relation

systématique entre le coût d'extraction et la rareté.

L'utilisation d'une ressource non renouvelable équivaut à la perte définitive des services

qu'on pourrait en tirer dans le futur. Par conséquent, outre le coût d'extraction (ou de

production), l'exploitation de la ressource donne lieu à un coût d'opportunité. Ce dernier qu'on

appelle royalty, rente de rareté ou coût d'usage est un coût fictif, inobservable sur le marché.

Le choix du coût d'opportunité comme indice de rareté bute sur une limite essentielle : seul le

degré de la ressource in situ est évalué, celui de la ressource extraite est évacué.

b. L'internalisation hotellinienne

Conformément à la loi de l'offre et de la demande la théorie néoclassique, il suffit de

connaître le niveau des prix dans le temps pour pouvoir déduire, à l'équilibre, le rythme

70

Page 81: 2. Thèse_Doctorat_YJJ_Duplan.pdf

d'exploitation et d'utilisation des ressources. L'évolution des prix et de l'épuisement de la

ressource est telle que le profit et l'utilité totale (ce que Hotelling [1931] appelle la « valeur

sociale de la ressource ») sont maxima. C'est dans ce cadre de pensée que Hotelling propose

d'étudier les « problèmes des actifs épuisables ».

Les hypothèses de base du modèle de Hotelling sont les suivantes :

— le propriétaire de la ressource est un exploitant privé ;

— l'information est parfaite tant du côté de l'offre que du côté de la demande ;

— la réserve est juste suffisante pour satisfaire la demande cumulée dans le temps ;

— le taux d'actualisation est constant et égal au taux d'intérêt ;

— la réserve s'épuise à la date T d'épuisement de la ressource;

— le coût de production est constant ou fonction du temps ;

— la demande est une fonction décroissante du prix net (différence entre le prix et les coûts

d'extraction, de transaction et de commercialisation d'un unité de production) de la

ressource.

Soit Y i t la quantité extraite et offerte à la date t par l'exploitant i au prix net

concurrentiel P(t), la quantité totale demandée étant à l'équilibre du marché : Q t =∑i Y i t .

Soit S(t) la taille du stock à la date t et le taux d'actualisation.

En situation de libre concurrence, chaque exploitant et l'ensemble des consommateurs

maximisent sur la période [0, T] la séquence des valeurs actualisées V t e− t de leurs

fonctions-objectif respectives sous la contrainte de stock exprimant la variation nette de la

réserve :

Max∫0

T

V [X t ] e− t d t

sous la contrainte d'épuisabilité S t =−Q t et S 0 =S0 (2.10)

X étant la variable de contrôle et S la variable d'état.

Pour résoudre ce problème, on utilise le principe de maximum de Pontryagin1. On écrit

la fonction hamiltonienne :

H X , S , , t =V e− t−Q (2.11)

On interprète cette fonction en deux composantes comme la valeur nette actualisée de

l'activité d'extraction : le profit à la date t diminué du coût d'usage de la ressource. est le

prix implicite (fictif) d'une unité additionnelle de S en t.

On notera Z la dérivée de la fonction Z par rapport au temps.

Les conditions d'optimalité sont :

1. Dans l'article pionnier de Hotelling, ce problème d'optimisation dynamique est posé en termes de calcul devariation. Comme c'est le cas ici, il est souvent présenté sous forme de contrôle optimal.

71

Page 82: 2. Thèse_Doctorat_YJJ_Duplan.pdf

∂H∂ X

=0 (2.12)

=−∂H∂S

(2.13)

Pour l'exploitant, la valeur de son extraction à la date t est son profit : V X =PY i . Des

conditions (2.12) et (2.13) on obtient respectivement :

=P e− t et =0 (2.14)

On en déduit :

=P e− t−P e− t=0 (2.15)

PP= (2.16)

Soit la règle de gestion optimale d'une ressource non renouvelable dite « règle de

Hotelling » P t =P 0 e t selon laquelle le rythme d'exploitation de la ressource est tel que le

taux de croissance de son prix net est égal au taux d'actualisation. Le propriétaire est

indifférent entre l'exploitation puis l'investissement du produit de la vente de la ressource sur

le marché financier et la conservation de la réserve.

Du côté des consommateurs, la valeur sociale de la ressource est : V X =U Q c'est-à-

dire que l'offre est égale à la demande. Les conditions d'optimalité deviennent :

=U ' Q e− t et =0 (2.17)

Ce résultat doit être compatible avec l'optimum du profit de l'exploitant, c'est-à-dire que

d'après (2.14) et (2.16) on doit avoir

P t =U ' Q e− t (2.18)

ce qui, avec la règle de Hotelling, décrit la dynamique du prix et de la quantité d'équilibre.

L'évolution du prix et de la quantité extraite serait différente si dans leurs décisions les

agents ne tenaient pas compte de l'épuisabilité de la ressource. Or, d'après le premier théorème

du bien être, l'équilibre concurrentiel est optimum au sens de Pareto. Résultant d'une situation

de libre concurrence, l'équation (2.18) implique que la règle de Hotelling satisfait le critère

d'optimalité parétienne. L'intégration de la contrainte environnementale aboutit à une

efficacité sociale à l'instar de l'internalisation des externalités. De ce point de vue, il s'agit

d'une internalisation de l'environnement sous forme d'une identité comptable définie par

l'égalité de flux entre les variations de stocks et les quantités de ressources exploitées ou

consommées. Nous appellerons cette intégration de l'environnement l'internalisation

hotellinienne. Elle soumet l'environnement aux « lois du marché » dans la mesure où le

rythme d'épuisement de la ressource suit l'évolution des prix, elle-même déterminée par le

rapport de l'offre à de la demande.

72

Page 83: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Passé sous silence jusque dans les années 60, l'article de Hotelling de 1931 sera, dès les

années 70, le guide des tenants du libéralisme néoclassique soucieux de considérer

l'épuisabilité des ressources naturelles dans leurs modèles et de l'environnement en général.

Comme l'utilité ,la production est déterminée par l'état de l'environnement, outre les facteurs

traditionnels tels le capital, le travail et la technologie. La productivité environnementale

indique l'effet de l'environnement sur la production.

L'internalisation de Hotelling sera étendue aux ressources renouvelables pour lesquels la

contrainte d'exploitation est modifiée et s'écrit : S t =G [S t ]−Q t , G étant la quantité de

ressources régénérée à la date t. Puis elle sera appliquée au cas de la dégradation de

l'environnement par la pollution. La contrainte de pollution s'écrit : P=D t −A [P t ] . La

variation de la pollution P est égale aux quantités de déchets rejetées D diminuées des

quantités assimilées A.

A partir d'éléments laissés par Hotelling dans son article, les libéraux néoclassiques

chercheront à déterminer la date optimale d'épuisement et s'évertueront à prendre en compte

les différents facteurs qui peuvent influencer l'évolution des prix et le rythme de l'exploitation

des ressources. En effet, la règle de Hotelling est modifiée lorsqu'on considère la structure et

les aléas du marché, l'effet de stock, l'effort d'exploration, le nombre de forages, les

anticipations de prix, la productivité du capital1.

2. Les conceptions alternatives de la soutenabilitédans les modèles de croissance

La formalisation de la soutenabilité par l'analyse néoclassique traditionnell consiste à

intégrer dans les modèles de croissance la dynamique intergénérationnelle de l'exploitation de

l'environnement. La soutenabilité est conçue comme la non décroissance de l'utilité, de la

consommation ou du capital global dans le temps. La problématique de l'environnement est

réduite à l'étude de la stabilité des trajectoires de développement qui répondent aux conditions

de soutenabilité.

La soutenabilité est caractérisée en fonction des hypothèses relatives aux différentes

formes de capital. On peut distinguer deux types de soutenabilité : la soutenabilité

prométhéenne et la soutenabilité préservative2.

1. Un certain nombre d'ouvrages rassemble les modèles hotelliniens de la théorie des ressources natuelles. Voir,par exemple, Dasgupta et Heal [1979], Percebois [1997], Hartwick [1989], Faucheux et Noël [1995], Kneeseet Sweeney [1993], Schubert et Zagamé [1998].

2. La littérature retient la distinction entre « soutenabilité faible » et « soutenabilité forte ». Nous verrons qu'unetelle distinction est faite par Pearce, Barbier et Markandya [1990], mais les sens attribués aux deux formes desoutenabilité diffèrent de ceux retenus par la littérature. Notre typologie empêche toute confusion sémantiqued'autant plus qu'à notre avis, elle révèle bien les états d'esprit sous-tendant les deux conceptions de la

73

Page 84: 2. Thèse_Doctorat_YJJ_Duplan.pdf

2.1. La soutenabilité prométhéenne

L'idée sous-jacent du caractère prométhéen de la soutenabilité est la croyance que la

nature peut être exploitée sans retenue. L'homme est suffisamment rusé et intelligent pour

résoudre les problèmes sociaux et environnementaux qui peuvent résulter de l'épuisement des

ressources naturelles. De tels présupposés sont à la base des modèles de Solow et de Stiglitz.

A. Le modèle de Solow

Le modèle de Solow [1974a] a pour but de déterminer le niveau de consommation par

tête de chaque période compatible avec une certaine conception de l'équité

intergénérationnelle.

a. Les équations de base du modèle de Solow

Pour définir la soutenabilité, Solow [1974b] reprend l'argument rawlsien suivant lequel

une distribution inégale de la richesse est justifiée à condition qu'on améliore le sort des

individus les plus pauvres. Exprimé en termes utilitaristes, cet argument est le « principe du

maximin » qui consiste à maximiser la fonction d'utilité de l'individu dont la courbe

d'indifférence est la plus basse. Le bien-être social est défini par W=min U 1 , ,U n où

l'utilité U i de l'individu i est fonction de sa consommation. Le principe du maximin est

donc : max W=max min U 1 , ,U n . Dans une perspective intergénérationnelle, le bien-

être social concerne toutes les générations, présentes et futures. L'équité intergénérationnelle,

disons la soutenabilité, est le niveau maximum du bien-être W. La soutenabilité ainsi définie

équivaut à un niveau de consommation par tête identique pour chaque individu et invariant

dans le temps. Car, conformément au principe du maximin, une différence intertemporelle de

la consommation correspond à un bien-être social sous-optimal. Il convient, pour Solow, de

déterminer ce niveau de consommation c0 qui satisfait l'équité intergénérationnelle.

On considère la fonction de production Cobb-Douglas suivante :

Q=e t K R L (2.19)

Le travail L et le capital K sont des facteurs homogènes. R désigne la quantité de ressource

épuisable utilisée dans la production. Q est la quantité produite, les constantes , et

les élasticités partielles (ou parts) respectives du capital, de la ressource et du travail. Les

rendements d'échelle sont constants : =1 . L'une des propriétés fondamentales de

la fonction de production Cobb-Douglas est que l'élasticité de substitution entre deux facteurs

soutenabilité.

74

Page 85: 2. Thèse_Doctorat_YJJ_Duplan.pdf

quelconques est constante et égale à l'unité1. Autrement dit, toutes choses égales par ailleurs,

le rapport entre ces deux facteurs et leur taux marginal de substitution varient dans la même

proportion. Le capital, les ressources naturelles et le travail sont substituables indéfiniment.

La production est répartie entre la consommation C et l'investissement K :

Q=CK (2.20)

Solow suppose que le taux de progrès technique est neutre à la Hicks i.e. =m .

On combine les équations (2.19) et (2.20). Puis on différencie le résultat après y avoir

intégré les valeurs actualisées de la ressource par tête y, du capital par tête z et de la

consommation par tête c : y=R /L emt , z=K /L emt c=C /L emt . On obtient :

z=z y−nm z−c e−mt (2.21)

n est le taux de croissance démographique : n=L /L .

Le niveau de consommation c0 vérifie cette équation différentielle de telle manière

qu'il existe une fonction y t 0 pour t0 qui satisfasse la contrainte d'épuisabilité de la

ressource :

∫0

y t e mn t d tS (2.22)

où S est le stock de ressource par tête à la date 0.

b. Le niveau de consommation optimal soutenable

Solow [1974a] fait remarquer qu'une condition nécessaire de saturation de cette

contrainte est qu'il existe un prix implicite du capital (en termes de la ressource) p(t) tel que

phz y−1=1 (2.23)

etpp=− z−1 y (2.24)

sachant que l'équation (2.21) est satisfaite. La relation (2.23) exprime l'égalité de la valeur

marginale de la ressource produite au prix implicite. La relation (2.24) est l'équivalent de la la

règle de Hotelling : un investisseur rationnel qui se base sur le prix implicite est indifférent

entre la détention des biens du capital et l'obtention d'actifs financiers résultant de la vente de

la ressource. Solow fait de cette règle le principal fondamental de la théorie des ressources

épuisables.

1. Rappelons que l'élasticité de substitution entre deux facteurs X et Z est : =

dd

, où est le rapport

X/Z et

le taux marginal de substitution de X à Z.

75

Page 86: 2. Thèse_Doctorat_YJJ_Duplan.pdf

On différencie le logarithme de la relation (2.23) puis le résultat est combiné avec la

relation (2.22). On en déduit l'équation différentielle suivante :

yy=−

1− mn c e−mt

z (2.25)

Cette relation, la contrainte d'épuisabilité saturée et l'équation (2.21) forment les équations

dynamiques du modèle dont les variables sont y=y t et z=z t .

Solow considère trois situations. La première est celle où il n'y a ni croissance

démographique ni progrès technique m = n = 0. Les équations différentielles et la saturation

de la contrainte d'épuisabilité impliquent que la consommation optimale c0 est fonction de

z0 et de S :

c0=S

1− z0

−1− −

1− 1− (2.26)

En effet, n'importe quel niveau de consommation est soutenable pourvu que le stock de

capital initial soit suffisamment grand, étant donné le stock initial de ressource.

Dans la seconde situation, le progrès technique est nul mais la croissance de la

population est supposée exponentielle : m = 0 et n > 0. La consommation ne peut être

maintenue constante indéfiniment.

Pour Solow, l'hypothèse d'une croissance illimitée de la population sur une planète finie

est absurde. Mais un progrès technique continu quoique improbable est tout à fait plausible.

Dans ce cas, c'est la troisième situation, il suppose que la population reste constante et le

progrès illimité. Sous cette hypothèse, le critère rawlsien n'est pas satisfaisant. Quel que soit

le niveau initial de consommation par tête, la consommation croît dans le temps, et ceci de

manière exponentielle.

B. Les condition de faisabilité de la soutenabilité

Sur la base des hypothèses du modèle de Solow, Stiglitz [1974] et Hartwick [1977]

montrent à quelles conditions est réalisable la soutenabilité d'un régime stationnaire où toutes

les variables prennent des valeurs inchangées dans le temps. En particulier, le modèle de

Stiglitz permet de caractériser la stabilité d'un tel régime.

a. Les propositions de Stiglitz

Stiglitz [1974] reprend le modèle de Solow, le système constitué des équations (2.19) et

(2.20) :

Q=e t K R L , =1 et Q=CK (2.27)

La dynamique du système est étudiée non pas, comme Solow, par rapport à l'évolution

76

Page 87: 2. Thèse_Doctorat_YJJ_Duplan.pdf

de la ressource y et du capital par tête z actualisés, mais en fonction de l'évolution de la

productivité du capital, u, et de la variation du coefficient v : u=Q /K et v=u x avec

x=1−s . Le cœfficient s est le taux d'épargne : s=K /Q .

En partant de la règle de Hotelling, Stiglitz déduit les taux de variation de u et v de ,

gu et gv dont la définition constitue les équations différentielles caractérisant les sentiers

d'évolution du régime :

gu=n v

−1− u et gv=gCv−u (2.28)

gC est le taux de croissance de la consommation.

Le diagramme de phase représenté par la figure 2.2 décrit la dynamique du régime.

L'unique équilibre stationnaire G vérifiant gu=gv=0 est un point selle (instable).

Les trajectoires du système sont soumises à la contrainte d'épuisabilité :

∫0

R t d tS (2.29)

S est le stock initial de la réserve.

A partir de ces relations, Stiglitz détermine les conditions de faisabilité de la

soutenabilité suivant les trois cas étudiés par Solow.

— Si le taux de croissance de la population est positif, une condition nécessaire et suffisante

pour maintenir un niveau de consommation par tête constant est que le rapport du taux de

progrès technique au taux de croissance de la population est supérieur ou égal à la part de

la ressource épuisable : n .

— Si le progrès reste inchangé et la croissance démographique nulle, =n=0 , il existe au

77

gv = 0

u

v

gu= 0

G

Figure 2.2. Dynamique de l'économie de Stiglitz

Page 88: 2. Thèse_Doctorat_YJJ_Duplan.pdf

plus un sentier efficient le long duquel la consommation est invariante, gC=0 , sous

réserve que le taux d'épargne et la part des ressources épuisables sont égaux, s= .

— La supériorité de la part du capital à la part des ressources, ,est nécessaire et

suffisante pour maintenir un niveau de consommation constant sans changement technique.

b. La règle de Hartwick

Hartwick [1977] part de l'hypothèse que chaque génération transforme en capital

reproductible la totalité des rentes et profits qu'elle tire de l'exploitation des ressources

épuisables. Dans la mesure où l'on considère que le capital n'est pas déprécié, cela revient à

admettre que, d'une certaine manière, le stock de ressource est inépuisé.

Comme Solow et Stiglitz, il admet une fonction de production de type Cobb-Douglas.

La population est supposée constante et égale à l'unité. Soit q, r, k la production, la ressource

épuisable et le capital par tête. En l'absence de progrès technique, la fonction de production

par tête a la forme suivante :

q= f k ,r =k r (2.30)

Outre la consommation et l'investissement par tête, la répartition de la production

comprend les coûts d'extraction de la ressource épuisable:

q=cka r (2.31)

où a le coût unitaire de la ressource.

La fonction d'investissement s'écrit :

k=pr (2.32)

tel que

p= f r−a (2.33)

où p est le prix net de la ressource.

La consommation par tête est obtenue par combinaison des relations (2.30), (2.31),

(2.32) et (2.33) :

c=q− f r r (2.34)

La fonction de production a la propriété suivante :

rf r=q (2.35)

Cela implique

c=1− q (2.36)

On différencie la consommation par tête et la fonction de production par tête ; on en déduit :

c= 1 − f k k f r r (2.37)

L'exploitation efficace de la ressource se traduit par le respect de la règle de Hotelling, à

78

Page 89: 2. Thèse_Doctorat_YJJ_Duplan.pdf

savoir : pp= f k (2.38)

En utilisant les équations (2.32) et (2.33), l'équation (2.38) devient :

r [ f rr r f rk k ]= f k k (2.39)

Les dérivées secondes f rr et f rk sont obtenus en différenciant l'équation (2.35)

respectivement par rapport à r et k :

f rr=−1f r

r et f rk=

f k

r(2.40)

En les combinant avec la la relation (2.39), on obtient

1 − f r r f k k =0 (2.41)

Puisque est compris entre 0 et 1 0 1 , cette équation est justifiée si f r r f k k=0 .

Au vu de la formulation (2.36), la consommation par tête est invariante dans le temps, c=0

.

Hartwick note que ce résultat ne pourrait être obtenu si le capital se dépréciait. La

consommation par tête diminuerait d'une valeur égale à la quantité de bien produite pour

remplacer le capital déprécié : c=− f k k , où est le taux de dépréciation.

Dans un modèle de croissance néoclassique avec ressources épuisables et une fonction

de production à rendements d'échelle constants, en l'absence de progrès technique, de

croissance démographique et dépréciation du capital, « l'investissement des rendements

présents des ressources épuisables dans le capital reproductible implique une consommation

par tête constante » [Hartwick, 1977, p.974]. Cette proposition communément appelée « règle

de Hartwick » est interprétée par Solow [1986] : il montre que la constance de la

consommation dont le flux est assimilé à un intérêt sur le capital équivaut à l'invariance du

stock de capital.

2.2. La soutenabilité préservative

La soutenabilité est qualifiée de préservative pour caractériser la conception de l'école

de Londres [Victor, 1991] que nous représentons ici par les modèles de Barbier-Markandya

et de Perrings. Soucieux de la conservation des conditions de la reproduction de la vie, ce

courant de pensée conditionne la soutenabilité au seuil de la dégradation irréversible de la

qualité environnementale.

79

Page 90: 2. Thèse_Doctorat_YJJ_Duplan.pdf

A. Le modèle de Barbier­Makandya

Le modèle de Barbier-Markandya permet d'identifier les sentiers de croissance qui

amènent à un équilibre stationnaire soutenable. Avant de présenter ce modèle, voyons

comment la soutenabilité est modélisée par l'école de Londres.

a. La soutenabilité contrainte

Pearce, Barbier et Markandya [1990] caractérisent le développement par un vecteur

d'objectifs socialement désirables. La soutenabilité est la progression de de ce vecteur dans le

temps. La soutenabilité est dite forte si le vecteur progresse sur chaque période considérée;

elle est dite faible s'il progresse uniquement en tendance ou en termes de sa valeur actualisée.

Par exemple, l'état de développement d'une société est donné par le vecteur composé

d'un ensemble d'attributs comme le revenu par tête, l'état sanitaire et nutritionnel, l'éducation,

l'accessibilité aux ressources, une distribution juste du revenu et une accroissement des

libertés fondamentales. Ces attributs sont utilisés pour construire un indicateur Dt de

développement pour chaque période t. Le développement est soutenable si Dt est non

décroissant dans le temps. Selon Pearce, Barbier et Markandya, la condition nécessaire de la

soutenabilité qu'ils appellent « contrainte de soutenabilité » est l'invariance de la qualité

environnementale c'est-à-dire qu'il convient de maintenir inchangés l'ensemble des services

du stock de capital naturel. Un programme de développement soutenable consiste à maximiser

la valeur nette actualisée des avantages du développement économique sous la contrainte de

soutenabilité.

80

Dt

Bm1, Bm2,Cm

Bm1

Cm

Prime de soutenabilité

Bm2

P1

P2

Figure 2.3. Optimum économique et soutenabilité

( )

Page 91: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Dans l'analyse traditionnelle de laquelle les facteurs environnementaux sont absents, le

programme de planification du projet de développement consiste à maximiser la valeur nette

actualisée des avantages du projet :

max∑t

t [B Dt −C Dt ]

où est le taux d'actualisation du projet dont les avantages et les coûts sont

respectivement B et C. La solution de ce programme est caractérisée par le point P1 d'égalité

entre les avantages marginaux Bm1 et les coûts marginaux Cm (figure 2.3).

L'environnement est intégré par le biais des coûts E des dommages et de la valeur A des

avantages environnementaux. La valeur actualisé des avantages du développement est

soumise à la contrainte de soutenabilité définie par des bénéfices (actualisés)

environnementaux non positifs. Le programme de développement devient :

max∑t

t [B Dt −C Dt −E Dt ]

sous la contrainte E Dt −At0 : soutenabilité faible (2.42)

ou ∑t

t [E Dt −At ]0 : soutenabilité forte (2.43)

L'intégration de l'environnement par le critère de soutenabilité a pour effet de faire déplacer la

courbe des avantages marginaux de Bm1 à Bm2 d'un écart égal à ce que Barbier [1988]

appelle une « prime de soutenabilité » : Bm2 = Bm1 + . L'écart peut être aussi bien positif

(cas représenté par la figure 2.3) que négatif. Le nouvel optimum s'établit au point P2 tel que

Bm2 = Cm.

Barbier et Markandya [1990] expliquent la nécessité d'intégrer le critère de soutenabilité

dans l'analyse économique par le fait que certaines fonctions de l'environnement ne peuvent

être remplies par le capital produit. Ce sont les contributions des systèmes complexes

géochimiques à la reproductibilité du vivant, la diversité biologique, les fonctions esthétiques,

les conditions climatiques, etc. Il y a des substituts artificiels à d'autres fonctions

environnementales mais à des coûts insupportables. Par ailleurs, la dégradation de

l'environnement au delà d'un certain seuil risque de provoquer un effondrement irrévocable de

l'intégrité des systèmes naturels, affectant de façon dramatique leurs taux de renouvellement

et leur résilience. Le capital produit est dépendant du capital naturel : le second ne peut être

indéfiniment remplacé par le premier. La constance du capital naturel est une mesure de

prudence face aux incertitudes et à l'irréversibilité relatives à la complexité des systèmes

naturels [Pearce, Barbier et Markandya, 1990].

81

Page 92: 2. Thèse_Doctorat_YJJ_Duplan.pdf

b. Stabilité et soutenabilité de la croissance

Dans le modèle de Barbier-Markandya, le taux de dégradation de l'environnement S

est défini comme fonction croissante et convexe, d'une part de l'écart entre les flux de déchets

W et la quantité A assimilée par l'environnement, d'autre part de la différence entre la somme

des ressources renouvelables R et épuisables E et le flux de production biologique G :

S= f [ W−A , R−G E ] (2.44)

Les égalités W = A et R + E = G sont la condition minimum d'une croissance soutenable car

elles correspondent à une dégradation environnementale nulle, S=0 .

W, R et E sont des fonctions croissantes avec la consommation C et convexes, A et G

sont concaves et croissantes avec la qualité de l'environnement X que Barbier et Markandya

assimilent à un stock d'actifs environnementaux.

W=W C , R=R C , E=E C , A=A X , G=G X (2.45)

On suppose que la qualité et la dégradation de l'environnement varient en sens inverse

dans une proportion constante a :

X=−a S (2.46)

Des relations (2.44), (2.45) et (2.46), on déduit :

X=−a h C , X (2.47)

Soit X la qualité environnementale en deçà de laquelle toute dégradation détruit

systématiquement les capacités d'assimilation et de régénération du milieu naturel et le sentier

de croissance est insoutenable :

X=−a h C , X si XX , X≪0 si XX (2.48)

Soit U la fonction de bien être social croissante et concave en C et en X : U=U C , X

. Le programme de planification de la société est le problème de maximisation suivant :

max∫0

e− t U C , X d t

sous la contrainte X=−ah C , X , XX (2.49)

Le taux d'actualisation mesure le degré de préférence de la société pour le présent. Plus

est grand plus la préférence sociale pour le présent est importante.

L'hamiltonien de ce problème de contrôle optimal s'écrit :

H=e− t [U C , X −Pah C , X ] (2.50)

où P est une variable adjointe associée à l'évolution de la qualité environnementale.

82

P

E1

Figure 2.4. Dynamique de l'économie de Barbier-Markandya

Page 93: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Les conditions d'optimalité permettent de décrire la dynamique du système par les

variables P et X tels que P=F P , X , et X=G P , X . L'évolution du régime

est représenté par le diagramme de phase de la figure 2.4 mettant en évidence deux équilibres

stationnaires : l'équilibre instable E1 et l'équilibre stable E2, étant donné le taux d'actualisation.

L'évolution du régime dépend de l'écart entre le niveau initial X0 de la qualité de

l'environnement et le niveau X1 :

— si X0 < X1, le système suit une trajectoire le long de laquelle la qualité environnementale

optimale s'abaisse en deçà du seuil critique X . La croissance est insoutenable ;

— si X0 = X1, le système reste à l'optimum au point stationnaire E1 pour lequel la croissance

est soutenable ;

— si X0 > X1, la croissance optimale demeure soutenable et le trajectoire optimale tend vers

l'équilibre stationnaire E2.

X1 est le niveau minimum de stock d'actifs environnementaux nécessaire à un régime

optimal de croissance soutenable. La préférence des agents pour le présent y joue un rôle

déterminant. En effet, une baisse du taux d'actualisation entraîne une translation vers le

bas de la courbe P=0 et un déplacement vers la droite de X1 tandis que X2 tend à s'en

rapprocher. X1 décroît au moment où X2 augmente. Ils se confondent en X* au point optimum

E* qui correspond au taux d'actualisation le plus faible qui admette un équilibre stationnaire.

Si à ce point, X0 est supérieur ou égal à X*, le régime tend vers ou reste au point E* et la

croissance est soutenable ; en deçà, X0 s'écarte davantage de X* et la croissance est

insoutenable.

B. Le modèle de Perrings

Le modèle de Perrings décrit l'évolution de l'économie en termes de la dynamique du

capital produit et du capital naturel. Outre la stabilité et la soutenabilité de l'équilibre

économique, il définit sa résilience.

a. Les hypothèses du modèle

Perrings [1996] juge que le développement tel qu'il est conçu par Pearce, Barbier et

Markandya ne peut être caractérisé par un indice unique. Par convenance mathématique, il

l'identifie à la valeur du capital produit. Alors un pays en développement est un pays dont la

83

X

X=0

d0

P=0

X2X

X1

E2

E*

X*

Page 94: 2. Thèse_Doctorat_YJJ_Duplan.pdf

valeur du capital produit kp croît dans le temps : k p0 . Se mettant au niveau

macroéconomique, Perrings définit la soutenabilité par la croissance du capital global dans le

temps : k pkn0 , kn étant la valeur du capital naturel. Par conséquent, le développement

soutenable d'une économie est la croissance du capital produit et du capital global dans le

temps : k p0 et k pk n0 . La condition suffisante de la soutenabilité du développement

est la constance du capital produit et du capital naturel : k p=k n=0 .

La relation entre le capital produit et le capital naturel caractérise l'interaction entre le

système économique et le système écologique. Leur dynamique est alors étudiée sur la base

de l'évolution du vecteur k= [k p , k n] et par le système d'équations différentielles :

kn= f n k p , kn (2.51)

k p= f p k p , kn (2.52)

fp et fn sont les fonction de variation respectives du capital produit et du capital naturel. Sur la

base des arguments de Pearce, Barbier et Markandya [1990] mettant en évidence l'importance

du capital naturel pour la reproduction et le maintien des systèmes vivants, Perrings soumet

ces équations à trois hypothèses :

— la croissance du capital naturel a une valeur limite kn : k n0 si seulement k nk n ;

— le capital naturel est indispensable à la création du capital produit c'est-à-dire que leur

substituabilité est limitée : k p0 si seulement 0 k nkn et f p k p , k n=0 si kn=0 ;

— pour une technologie donnée, il existe des valeurs du capital produit et du capital naturel

pour lesquelles l'accumulation du capital produit n'entraîne pas l'épuisement du capital

naturel. Pour les autres valeurs, si k p0 alors k n0 .

b. Soutenabilité, stabilité et résilience

Suivant le potentiel de développement du système économique, trois situations sont

possibles. Le premier cas (figure 2.5a) est celui où la capacité du système économique à

transformer du capital naturel en capital produit est faible par rapport à la capacité du système

écologique à transformer du capital produit en capital naturel. Il admet deux équilibres

stationnaires : l'un 0 ,kn stable et l'autre (0,0) instable. Le capital ne peut que s'annuler à

long terme. Le développement de cette économie n'est donc pas soutenable.

84

Page 95: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Le second cas (figure 2.5b) est la réciproque du premier : la capacité du système

économique à transformer du capital naturel en capital produit est élevée relativement par

rapport à la capacité du système écologique à transformer du capital produit en capital naturel.

Les deux équilibres stationnaires 0 ,k n et (0,0) sont des points-selle et, dans la mesure où le

capital s'annule à long terme, le développement de l'économie est insoutenable.

Le troisième cas (figure 2.5c) est celui d'une « co-dépendance des systèmes économique

et écologique » [Perrings, 1996]. Il présente quatre équilibres stationnaires : (0,0), 0 ,k n , k'

et k*. Les deux derniers sont conformes à une trajectoire soutenable où le développement

économique s'associe à des valeurs non nulles du capital naturel et du capital produit.

Cependant, seul k* est (localement) stable.

Soit k t un point en direction i au voisinage de k* au temps t et αi la distance

correspondante telle que ∣k t −k *∣i . Le voisinage-αi de k* est défini par :

B i k *=k t ⊂K / ∣k t −k *∣i ,∀ i et limt∞

∣k t −k *∣=0 (2.53)

K est l'ensemble de définition du capital k. On appelle bassin de l'équilibre stable k*

l'ensemble des trajectoires tendant vers k* quand t tend vers l'infini. La résilience du système

en un point k t du bassin de k* est la perturbation maximum à partir de k t que le système

peut supporter sans sortir du voisinage-αi de k*. Elle indique la capacité du système à garder

sa stabilité lorsqu'il est en proie à des chocs externes. La résilience du point k t est mesurée

par la différence i−k t . Plus cette différence est élevée plus le système est résilient. Une

perte de résilience ne signifie pas que le système devient moins soutenable, mais que son

degré de stabilité diminue ; cependant, les possibilités de son insoutenabilité augmentent. Et

vice versa [Perrings, 1996].

Les modèles de croissance de l'économie de la soutenabilité sont emprisonnés dans le

85

kn

kn=0

k p=0 kn=0

k p=0k p=0

kn=0

knkn(b)k

n(a)

kn

kp k

p

(c)k

n

kp

k'

k*

Figure 2.5. Dynamique de l'économie de Perrings

Page 96: 2. Thèse_Doctorat_YJJ_Duplan.pdf

carcan du paradigme cosmique. Tout particulièrement, ils empruntent la formalisation de la

dynamique hamiltonienne désignant un monde impersonnel et a-historique où prévaut le

temps réversible de la mécanique. C'est dans ce contexte que nous formulons nos critiques de

l'économie de la soutenabilité.

3. La soutenabilité socio-économique via la critiquede l'économie de la soutenabilité

Engoncés dans les principes du mécanisme et de l'analytisme, les partisans de

l'économie de la soutenabilité ne peuvent concevoir sa multidimensionnalité et font une

représentation fantasmée de la réalité. Ils ont tendance à focaliser leur attention sur l'équité

intergénérationnelle qu'ils dépouillent de toute complexité et à y réduire la problématique de

la soutenabilité. Ils font peu de cas de l'équité intragénérationnelle quand elle n'est pas tout

simplement évacuée. Or le rapport des hommes entre eux et leur rapport à la nature sont

inséparables. L'exploitation de la nature et la répartition sociale des richesses qui en découlent

sont inextricablement liées. Elles sont au cœur des liaisons et des tensions de la soutenabilité.

L'équité intragénérationnelle est le versant socio-économique de la soutenabilité ou tout

simplement la soutenabilité socio-économique.

Nous contesterons le caractère fantasmagorique de l'économie de la soutenabilité (3.1),

puis, dans le feu des critiques, à partir de Rawls et Sen, nous proposerons quelques bribes de

réflexions pour caractériser la soutenabilité socio-économique (3.2).

3.1. Une économie fantasmagorique

En proie à l'autisme économique, l'économie de la soutenabilité présente une

modélisation étriquée, voire erronée, du processus de production. L'omission des dimensions

biophysique et écologique de l'économique par l'analyse néoclassique favorise la croyance à

la croissance illimitée et au salut technologique.

A. L'autisme économique ou l'économisme

Au regard de l'économie prométhéenne1, les mécanismes de marché suffisent à assurer

l'optimalité de l'allocation des ressources et prévenir leur épuisement. La solution aux

problèmes écologiques est donc l'élargissement de la sphère marchande à l'environnement

naturel. A cet effet, un cadre légal régissant l'appropriation privée des biens

1. L'économie prométhéenne fait référence à l'économie de l'environnement et l'analyse de la soutenabilitéprométhéenne.

86

Page 97: 2. Thèse_Doctorat_YJJ_Duplan.pdf

environnementaux est plus que nécessaire. Car l'affectation des droits de propriété à des

individus constitutifs d'un espace privé atomisé est essentielle à l'établissement du marché

concurrentiel. Elle permet d'identifier les exploitants des ressources naturelles et les individus

qui doivent payer les effets externes de leurs actions. « Les externalités ne sanctionneraient

donc pas les échecs du mécanisme de marché, mais au contraire l'insuffisante extension de la

propriété privée » [Andreff, 1982, p.70]. La privatisation généralisée est le passage obligé de

toute politique environnementale basée sur l'économie prométhéenne. Elle ouvre la voie à la

« capitalisation de la nature » dans laquelle le propriétaire peut investir et qu'il peut exploiter à

sa guise pour accumuler et en tirer le maximum de revenu. Au final, l'économie prométhéenne

soumet le rapport de l'homme à la nature à la rationalité économique et réduit la

problématique environnementale à la marchandisation des éléments naturels. Vivien [1994,

p.91] a raison d'écrire que « le ''marchand'' est, en quelque sorte, l'horizon borné de la théorie

économique néoclassique dans son diagnostic comme dans ses solutions ».

Le réductionnisme marchand est en réalité supporté par le « fétichisme de la monnaie »

auquel succombe la pensée économique traditionnelle. La comptabilisation de

l'environnement repose sur l'évaluation monétaire des actifs naturels, en dépit de leur absence

des échanges marchands. Il arrive que dans certains modèles de l'économie néoclassique de la

soutenabilité, la dimension des variables, économiques ou non, est paradoxalement monétaire.

Par exemple, Pezzey [1992] écrit ainsi la fonction de production : Q = f(K, L, T, R, S, P). Elle

dépend du « capital » (K), du « travail » (L), de la « technologie » (T), du « flux de ressource »

(R), du « stock de ressource »(S), et de la « pollution » (P). Chacune de ses variables est une

quantité de monnaie. Si g est le prix du stock de ressource et s sa quantité, la variable « stock

de ressource » est : S = gs. Cette formalisation laisse entendre en filigrane que la production

elle-même exprimée en unité monétaire est la transformation de la monnaie par la monnaie.

Au lieu d'être le résultat du processus de production, la formalisation de Pezzey fait de la

pollution, à l'encontre de toute évidence, un facteur au même titre que le travail, le capital, les

ressources. Dans la fonction de production Cobb-Douglas des modèles de Solow et de

Stiglitz, elle n'y apparaît même pas : comme s'il pouvait y avoir de la production de richesse

sans la moindre quantité de pollution.

Les auteurs de l'École de Londres, partisans de la soutenabilité préservative, tentent de

se démarquer, peu ou prou, de l'approche de la soutenabilité prométhéenne et d'intégrer des

notions plutôt écologiques comme la capacité d'assimilation et la capacité de régénération,.

Certains, comme Perrings, vont jusqu'à bannir de leurs modèles les fonctions d'utilité et de

production pour se limiter à l'hypothèse de la non substituabilité du capital naturel et du

capital produit. Cependant, en ne précisant pas la dimension de ces variables, Perrings reste

87

Page 98: 2. Thèse_Doctorat_YJJ_Duplan.pdf

dans l'ambiguïté de l'École de Londres selon laquelle la constance du stock de capital est

interprétable aussi bien en termes physiques qu'en termes de valeur économique. Or,

l'hétérogénéité des actifs économiques et naturels, du capital produit et du capital naturel, est

une véritable limite à l'interprétation physique de la soutenabilité préservative. Ne pouvant

être réduite à une dimension physique commune, les actifs ne peuvent être, mesurés, évalués

et additionnés.

« Devant la difficulté que constitue l'évaluation des contraintes environnementales en

termes physiques homogènes, les auteurs de l'École de Londres finissent par exprimer celles-

ci monétairement » [Faucheux et Noël, 1995, p.305]. L'homogénéité de la monnaie confère

aux variables la propriété d'additivité, ce qui facilite l'agrégation et la construction de

modèles. Un tel procédé réconcilie les approches de la soutenabilité prométhéenne et de la

soutenabilité préservative dans le cadre de la comptabilisation monétaire de l'environnement.

Cependant, l'homogénéité monétaire rend imperceptibles les variations physiques relatives

aux différents types d'actifs. Si le stock de bois croît au même moment où les dépôts de gaz

naturel décroît, il n'est pas possible, par le biais de la comptabilisation monétaire de savoir si

le gaz naturel a cru, diminué ou resté inchangé. De même on ne peut se rendre compte de la

raréfaction des ressources. D'autant plus que la valeur monétaire, le prix de marché, peut

évoluer indépendamment de la quantité d'actifs exploitée [Victor, 1991]. La fiscalité, les

mesures de restriction, la structure de marché sont susceptibles d'influencer le niveau des prix.

L'économisme réduit l'économique à la seule dimension monétaire et ses frontières

s'arrêtent aux échanges marchands au mépris de toute interaction avec le milieu ambiant. Les

spécificités des processus environnementaux n'ont aucun droit de cité. La matière, l'énergie et

l'information sont évacuées en même temps que les soubassements biophysiques et

écologiques du système économique. L'économie néoclassique de la soutenabilité est une

« science tronquée » [Passet, 1971] recluse dans la logique de la marchandise. Dans la mesure

où l'Environnement est extérieur à l'Économie, somme toute en interaction avec elle,

« évaluer l'environnement sous l'optique économique revient, à la lettre, à mettre un prix sur

ce qui n'a pas de prix » [Bürgenmeier, 2000]. Les prix obtenus par les méthodes d'évaluation

sont des valeurs fictives au sens plein du terme [Harribey, 1997a]. Au mieux ce sont des

intentions, en tout cas pas des consentements à payer ou à recevoir. Utiliser ces prix pour

appréhender les enjeux environnementaux, c'est supposer des marchés purement imaginaires

qui n'ont de réalité que dans le modèle néoclassique. C'est accepter l'idée que la science peut

se passer de la perception et la confondre avec la science-fiction. L'économie de

l'environnement est une « économie-fiction », une « économie de rêve ». C'est peut-être un

projet non révélé de privatisation, de capitalisation et de marchandisation de la nature et de

88

Page 99: 2. Thèse_Doctorat_YJJ_Duplan.pdf

toutes les ficelles de la vie humaine, de subordonner l'ensemble des systèmes

environnementaux et sociaux à l'« impérialisme économique » [Daly, 1984 et 1992a]. Ce

projet se pare du manteau du paradigme cosmique, de la science classique, donnant l'illusion

d'une compréhension rationnelle des phénomènes sociaux et environnementaux.

La prise en compte de seuils écologiques par la soutenabilité préservative n'est qu'un

pis-aller. Tandis que le modèle de Barbier-Markandya reste attaché à la mécanique de

utilitariste, le modèle de Perrings décrit une économie sans histoire ni contexte, réduite à la

dynamique des choses mortes, du capital manufacturé et du capital naturel.

B. La foi dans la croissance illimitée et le salut technologique

Les propriétés de la fonction de production Cobb-Douglas expriment bel et bien la

croyance en la possibilité d'une croissance illimitée. Fixons à Q et L les niveaux de la

production et de la consommation. La relation (2.19) peut être réécrite de façon équivalente :

R=[ Qe t K L ]

1 (2.54)

la quantité de ressource R variant en fonction du capital K.

On en déduit la limite de R quand K tend vers l'infini :

limK ∞

R=0 (2.55)

On peut atteindre n'importe quel niveau de production, avec une quantité de ressource aussi

faible que l'on veut pourvu qu'il y ait suffisamment de capital [Georgescu-Roegen, 1979]. En

effet, la propriété que l'élasticité de substitution entre le capital et les ressources naturelles est

unitaire signifie que les ressources épuisables peuvent être toujours remplacées par le capital

pour maintenir voire augmenter la production. Cette propriété traduit les convictions des

adeptes du libéralisme néoclassique comme Nordhaus et Tobin1 selon lesquels « le capital

reproductible est un substitut proche de la terre et des ressources épuisables » ou comme

Solow [1974b, p.11] qui estime qu'« il est très facile de substituer d'autres facteurs aux

ressources naturelles » et qu'« en principe, il n'y a pas de ''problème'' ». Il n'y a donc aucune

raison de s'inquiéter pour la génération future vis-à-vis de l'épuisement des ressources

épuisables : « le monde n'est pas fini aussi longtemps que le changement technique est

possible » [Huettner, 1976, p.103]. Il y a toujours, suivant la croyance de Nordhaus, une

technologie d'arrière-garde (backstop technology), une technologie capable de remédier une

fois pour toutes à l'épuisement des ressources essentielles. Il suffit d'investir dans la recherche

et le développement pour la mettre au point. La technologie d'arrière-garde permettra

l'utilisation et le développement de substituts inépuisables comme l'énergie nucléaire,

1. Cités par Daly [1992].

89

Page 100: 2. Thèse_Doctorat_YJJ_Duplan.pdf

l'énergie solaire. Seul le marché pourrait retarder l'application de cette technologie en raison

de ses coûts élevés par rapport à d'autres technologies concurrentes. Mais conformément à la

loi de l'offre et de la demande, la raréfaction des ressources épuisables générera une hausse de

leurs prix jusqu'à ce qu'ils débordent les coûts d'utilisation de la technologie d'arrière-garde.

Dès lors celle-ci sera rentable et exploitée ad infinitum. Et la production pourra s'accroître

sans contrainte, au moins être maintenue constante.

De plus, la production est réalisée sans déchet ni résidu et ne peut entrainer aucune

dégradation de l'environnement. Si dégradation il y a ce ne peut être qu'un phénomène

passager. Comme l'indique la « courbe de Kuznets environnementale » l'augmentation de la

production ou de manière « équivalente » la hausse du revenu par tête est censée permettre

une baisse de la pollution1 [Grossmant et Krueger, 1992]. Au début de la croissance, la

pollution augmente jusqu'à atteindre un point critique. Puis diminue significativement tandis

que la croissance se poursuit. La croissance illimitée est la solution à la dégradation

environnementale : « la meilleure façon d'améliorer l'environnement de l'énorme masse de la

population mondiale est de leur permettre de maintenir la croissance économique »

[Beckerman, 1992, p.489].

Par définition, la productivité marginale du capital PmK est la production

supplémentaire obtenue lorsqu'à technologie donnée, le capital augmente d'une quantité

infiniment faible et que les quantités des autres facteurs restent constantes :

PmK= e t R L K −1 (2.54)

La productivité marginale est positive : la production croît avec le capital. Or, nous savons

que le capital utilisé dans la production est lui-même le résultat d'un processus de fabrication

qui nécessite des ressources naturelles. Par exemple, l'acier rentrant dans la fabrication du

tracteur est un alliage de fer et de carbone. Admettre la positivité de la productivité marginale

du capital, c'est croire en la possibilité d'utiliser une plus grande quantité d'acier pour

fabriquer davantage de tracteurs, tout en maintenant constante la quantité de fer et de carbone

employée dans la chaîne de production. C'est croire que l'accroissement du capital nécessaire

à l'augmentation de la production est possible sans le secours des ressources naturelles. C'est

qu'il est possible de produire ex nihilo c'est-à-dire de violer le principe physique de

conservation de la masse et de l'énergie. La propriété de la fonction de production Cobb-

Douglas que la productivité marginale d'un facteur est positive n'a pas de prise dans la réalité.

Vue comme une combinaison de facteurs, la fonction de production est assimilable à

une recette technique. Si l'on admet cette interprétation, il suffit de (sa)voir préparer une

omelette pour se rendre compte que l'œuf, le gaz, le poivre, le sel et la casserole nécessaires à

1. Voir Meunié [2003] pour une discussion sur la pertinence de la courbe de Kuznets environnementale.

90

Page 101: 2. Thèse_Doctorat_YJJ_Duplan.pdf

sa production ne sont pas substituables. Une baisse du nombre d'œufs se traduit

systématiquement par une diminution de la quantité d'omelette produite. Peu importe les

quantités de gaz, de poivre, de sel et de casserole utilisées. De plus, il y a toujours des déchets

et des résidus. Par maladresse de la part du cuisinier ou involontairement un peu de jaune et

de blanc d'œuf sera perdu au cours de la préparation de l'omelette. Il faut encore considérer les

coquilles à jeter à la poubelle, l'émanation du monoxyde de carbone due à la combustion du

gaz, l'utilisation irréversible du poivre et du sel et la détérioration physique irrévocable de la

casserole. L'hypothèse de substituabilité des facteurs ne résiste pas aux faits.

Dans le même ordre d'idée, l'hypothèse de substitution du capital manufacturé au capital

naturel est une aberration. Le capital manufacturé (l'acier) est toujours du capital naturel

(carbone et fer) informé – mis en forme. Sans capital naturel, pas de capital manufacturé.

L'affirmation de Solow [1974b, p.11] que « le monde peut [...] se passer des ressources

naturelles, ainsi l'épuisement est justement un événement pas une catastrophe » est analogue à

la promesse biblique du paradis d'Eden. Cette proposition, sans justification empirique, n'a

pas de validité scientifique.

In fine, les analystes néoclassiques adhérent à deux mythes longtemps rejetés par la

science [Georgescu-Roegen, 1995]. L'un est le mythe du « mouvement perpétuel de première

espèce », à savoir que l'homme peut produire et créer à partir de rien, sans disposer au

préalable ni matière ni énergie. L'autre est le mythe du « mouvement perpétuel de seconde

espèce » selon lequel la production – transformation de la matière et de l'énergie – n'engendre

pas (ou peut ne pas engendrer) de déchets c'est-à-dire qu'elle n'est pas un processus

irréversible ou que les qualités de la matière et l'énergie sont inaltérables. Renoncer à ses

mythes, c'est renoncer aux hypothèses de la fonction de production néoclassique. C'est rejeter

l'analyse néoclassique de la production et de la distribution [Daly, 1997]. A telles enseignes,

le refus de l'hypothèse de la productivité marginale positive rend impossible la détermination

des prix relatifs des facteurs. La proposition de la non substituabilité ou la complémentarité

des facteurs ne concorde pas avec la définition de la productivité marginale, la variation de la

production nécessitant la variation simultanée de plusieurs facteurs.

3.2. Éléments de construction de la soutenabilité socio-économique

Rawls [1997] construit sa théorie de la justice en alternative à l'utilitarisme. L'usage

qu'en fait Solow dans son modèle néoclassique – utilitariste – pour concevoir l'équité

intergénérationnelle est critiquable. Même si l'on peut considérer que la reprise de Solow est

91

Page 102: 2. Thèse_Doctorat_YJJ_Duplan.pdf

une régression par rapport aux apports de Rawls, il demeure qu'aux yeux de Sen, la théorie de

ce dernier est insuffisante. Eu égard à la théorie de la justice de Sen par les capacités, nous

proposerons une conception de la soutenabilité socio-économique dont la définition comporte

les conditions explicites d'une répartition équitable du revenu dans l'entreprise.

A. La théorie rawlsienne de la justice : une récupérationillégitime

Dans la conception rawlsienne, la justice est analogue à l'équité. Elle est une

articulation de deux idéaux : la liberté et l'égalité (tableau 2.3). Elle assure, d'une part, l'égal

respect et la pluralité des conceptions « raisonnables » de la vie bonne et, d'autre part, donne à

chacun la même possibilité d'atteindre ses objectifs, compte tenu de ses atouts naturels. Les

membres de la société, en vue de forger des projets de vie et de les réaliser, disposent d'un

certain nombre de moyens naturels et expriment leurs attentes auprès des institutions sociales.

Les moyens et attentes sont en général ce que Rawls [1997] appelle les « biens premiers »

(primary goods qu'on pourrait traduire aussi par « biens fondamentaux ») composés

des« biens premiers naturels » et des « biens premiers sociaux » que « tout homme rationnel

est censé désirer » plus que tout autre bien. Les biens premiers naturels comme la santé et les

talents ne sont pas directement contrôlés par les institutions sociales. A l'inverse, les biens

premiers sociaux sont sous le contrôle direct des institutions ; ils sont répartis en trois

catégories : les libertés fondamentales, les chances d'accès aux différentes positions sociales

et les avantages socio-économiques relatifs à ces positions. Les attentes sociales sont évaluées

par un indice agrégeant l'ensemble des biens premiers sociaux.

92

Page 103: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Tableau 2.3. Le cadre basique de la théorie rawlsienne de la justice

Les biens premiers

Naturels

SantéTalents

VigueurImaginationIntelligence

Sociaux

Libertés fondamentales :Droit de vote et d'éligibilitéLiberté d'expression et de réunionLiberté de conscience et de penséeLiberté de la personne de détenir de lapropriété personnelleProtection contre l'arrestation et ladépossession arbitraires

Chances d'accès aux positions et fonctionssocialesAvantages socio-économiques :

Revenu et richessePouvoirs et prérogativesBases sociales du respect de soi

Loisir [Rawls, 1995]

Les principes de la justice

Les deux principes de la justice

(intragénérationnelle) :

1. Le principe d'égale liberté

2a. Le principe d'égalité équitable deschances2b. Le principe de différence

Le principe de la justice

intergénérationnelle :

Le juste principe d'épargne

La procédure de promulgation des principes de justice : la position originelle

Contraintes formelles du concept du juste :

Généralité

Universalité

Publicité

Transitivité du degré de justice

Irrévocabilité

Voile d'ignorance

Liberté et égalité des personnes

Dans une société juste, la répartition des biens premiers sociaux est équitable c'est-à-

dire qu'elle respecte « les deux principes de la justice » : le principe d'égale liberté et le double

principe de différence et d'égalité équitable des chances. Le principe d'égale liberté stipule que

chacun a un droit égal à un système de libertés fondamentales égales pour tous, que ce

système est le plus étendu possible et compatible avec un système semblable de libertés pour

93

Page 104: 2. Thèse_Doctorat_YJJ_Duplan.pdf

tous. Le principe de différence exige que les éventuelles inégalités sociales et économiques

générées dans le cadre des institutions doivent profiter au maximum aux individus les moins

bien lotis, ce qui équivaut à la « maximinisation » de l'indice des biens premiers sociaux. Le

principe d'égalité équitable des chances garantit que les individus dotés de mêmes biens

fondamentaux naturels aient les mêmes chances d'accéder à des fonctions et des positions

ouvertes à tous. Les trois principes sont classés par ordre de priorité lexicographique : le

principe d'égale liberté est strictement prioritaire au principe d'égalité équitable des chances,

lui-même prioritaire au principe de différence. La règle de priorité est surtout valable dans une

société d'abondance. En situation de rareté absolue où l'établissement des libertés

fondamentales n'est pas durable, le principe de différence s'applique au nom d'une conception

de la justice qui exige la maximisation du minimum d'un indice agrégeant l'ensemble des

biens premiers, sociaux et naturels. Ce doit être une situation transitoire conduisant tôt ou tard

à un état de la société où la règle de priorité s'impose.

Les principes de justice acquièrent leur légitimité s'ils sont l'émanation de la société. Ils

doivent être le fruit d'une coopération consensuelle entre les partenaires sociaux. Pour ce

faire, Rawls place les membres de la société dans une « position originelle ». Là, les

personnes sont toutes libres, égales et rationnelles dans le sens qu'elles préfèrent davantage de

biens sociaux fondamentaux que moins. Elles se trouvent derrière un « voile d'ignorance » de

sorte qu'elles fassent abstraction de leur situation sociale réelle, de la qualité de leurs biens

fondamentaux naturels, ainsi que leurs critères particuliers d'appréciation de la vie pour ne

retenir que leurs connaissances générales de la nature humaine et du fonctionnement de la

société. Les principes qu'elles promulguent respectent les cinq « contraintes formelles du

concept du juste » : la généralité, l'universalité, la publicité, la transitivité du degré de justice

de la société et l'irrévocabilité. Ainsi caractérisée, la situation originelle est jugée impartiale et

garantit l'équité des principes de justice qui emportent l'adhésion des coopérants de la société.

A bien considérer les éléments de la théorie rawlsienne de la justice, sa récupération par

Solow dans son modèle de croissance est critiquable en plusieurs points. Tout d'abord,

l'utilisation de l'utilité (de la consommation ou du revenu) comme indice d'équité est

réductrice : l'indice que Rawls préconise est l'indice des attentes agrégeant l'ensemble des

biens fondamentaux sociaux qui vont au-delà des avantages socio-économiques. D'ailleurs,

contrairement à la conception solowenne qui définit l'équité par le niveau de consommation

ou l'utilité optimum, Rawls [1997, p.331-332] estime qu'il n'y a pas de lien systématique entre

la justice et le niveau de bien-être matériel : « c'est une erreur de croire qu'une société juste et

bonne devrait aller de pair avec un haut niveau de vie matériel. Ce dont les hommes ont

besoin, c'est d'un travail ayant un sens, en association libre avec d'autres travailleurs, dans le

94

Page 105: 2. Thèse_Doctorat_YJJ_Duplan.pdf

cadre d'institutions de base juste. Une abondance de richesse n'est pas nécessaire pour réaliser

cet objectif. De fait, au-delà d'un certain niveau, elle risque plutôt d'être obstacle, au mieux

une distraction sans signification, au pire une tentation de facilité et de vide », voire une

catastrophe environnementale en termes de pollution et d'épuisement des ressources

naturelles.

Le principe du maximin utilisé par Solow fait référence précisément au principe de

différence. Or ce principe qui concilie l'égalité et l'efficacité est en général valide sous la

contrainte des autres principes. A lui seul, il ne peut définir l'équité. De plus, contrairement à

l'usage qu'en fait Solow, Rawls [1997, p.327] restreint l'applicabilité du principe de différence

aux générations présentes c'est-à-dire à l'équité intragénérationnelle : « chaque génération

donne à ses successeurs et reçoit de ses prédécesseurs. Il n'y a pas moyen pour les générations

futures d'aider les plus défavorisés des générations précédentes. Ainsi le principe de

différence ne s'applique pas pour la question de la justice entre générations ». Rawls rejette du

même coup l'idée de préférence intertemporelle qu'il qualifie d'irrationnelle et d'injuste dans la

mesure où les personnes et les générations ne considèrent pas comme égales à tous les

moments de leur vie et sont traitées de manière différente par rapport à leur position dans le

temps.

C'est en termes d'un principe d'épargne jugé juste que Rawls définit l'équité

intergénérationnelle. Dans la position originelle, les partenaires, soucieux de leurs

descendants, se présentent comme des « lignées familiales » et supposent que les générations

antérieures ont mis en œuvre les principes de justice. Sous le voile d'ignorance, ils

méconnaissent le niveau de civilisation de leur société d'appartenance. Ainsi le juste principe

d'épargne est-il formulé tel « un accord entre les générations pour partager équitablement la

charge de la réalisation et du maintien d'une société juste » [Rawls, 1997, p.330]. D'après

Rawls [1997, p.325], l'« épargne peut prendre des formes diverses, depuis l'investissement net

dans les machines et les autres moyens de production jusqu'aux investissements en culture et

en éducation » en passant évidemment, devons-nous ajouter, par la sauvegarde des conditions

biophysiques de reproduction de la vie.

Solow fait l'impasse sur le juste principe d'épargne pour appliquer le principe de

différence qui relève de l'équité intragénérationnelle à des considérations

intergénérationnelles. La fonction de bien-être W qui dérive de cette mise en scène intègre les

générations de tous les temps. Il va sans dire que le modèle de Solow est une fiction

mécanique valable uniquement pour le démon de Laplace qui, connaissant les générations

passées, présentes et futures, est capable de maximiser la fonction W à un instant donné. La

récupération solowenne du principe de différence est une véritable décapitation de la théorie

95

Page 106: 2. Thèse_Doctorat_YJJ_Duplan.pdf

rawlsienne de l'éthique libérale égalitaire sur l'autel de l'utilitarisme de la pensée néoclassique.

« Réduire Rawls aux notions de voile d'ignorance et de maximin, c'est ainsi occulter la

dimension philosophique de sa théorie de la justice. Le détour rawlsien n'est donc pas

légitime » [Méral, 1995, p.307]. Solow [1974a] se voulait être « plus rawlsien que le

Rawls »1. Au final, il s'avère qu'il n'est pas rawlsien du tout.

En assimilant la justice à l'équité, Rawls ouvre une brèche importante pour concevoir la

soutenabilité socio-économique. Mais sa théorie souffre d'une grande carence que Sen se fait

fort de relever.

B. L'insuffisance de la théorie rawlsienne et l'approche de Sen

Sen reproche à Rawls de négliger les biens premiers naturels dans sa conception de la

justice. En effet, c'est l'indice des biens premiers sociaux qui sert à évaluer les avantages et

attentes des individus. Or, de nombreux facteurs qui ne sont pas liés à ces biens peuvent les

empêcher d'accomplir des actes fondamentaux, de réaliser leurs projets de vie, d'obtenir un

certain bien-être et de jouir de leur liberté. Sen considère cinq groupes de circonstances

contingentes susceptibles d'affecter la capacité d'une personne à tirer avantage de ses biens

matériels, de ses ressources ou de ses revenus [2000a]:

— les caractéristiques personnelles : la couleur, l'âge, le sexe, les infirmités ou les maladies ;

— l'environnement naturel : le climat, la pollution ;

— l'environnement social : la qualité de l'enseignement, la prévalence de la criminalité et de la

violence, la nature des relations sociales ;

— la relativité des perspectives : l'importance du montant des ressources personnelles pour

jouir dans la société d'une estime de soi ;

— la distribution familiale du revenu.

La variabilité interpersonnelle, interfamiliale et interrégionale de ces facteurs est source

d'inégalité. Une distribution égale des biens premiers n'implique pas nécessairement une

répartition égalitaire des niveaux de libertés. Par exemple, deux personnes en bonne santé,

ayant toutes deux le même niveau de revenu et en général le même indice de biens

fondamentaux, sont en position égalitaire du point de vue de la théorie rawlsienne. S'ils

s'avèrent que ces personnes sont un noir et un blanc, en dépit d'un revenu suffisant, le premier

aura moins de possibilité ou de liberté que le second de louer un appartement à Paris, à cause

de la différence de couleur et des préjugés qui l'accompagnent. Ainsi, « la liberté dans la

possession de biens premiers et des ressources peut aller de pair avec de graves difficultés

dans les libertés réelles dont jouissent différentes personnes » [Sen, 2001, p.220]. De plus,

1. En français, dans le texte.

96

Page 107: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Sen explique que le défaut de la théorie rawlsienne est d'être fétichiste dans le sens où les

avantages sont représentés par des biens premiers au lieu d'être considérés comme une

relation entre les personnes et les biens. Pour ces raisons, Sen dénie la pertinence de l'indice

des biens premiers de Rawls pour évaluer les attentes des individus et juger si une situation

est juste ou non.

Pour combler l'insuffisance de la théorie de Rawls, Sen [ 2001] propose de distinguer la

liberté et les moyens de la liberté c'est-à-dire l'ensemble des choix et les possibilités réelles de

les faire. Malgré cette distinction, la liberté prend son sens quand seulement les moyens

effectifs de son exercice existent. C'est exactement ce qu'il indique lorsqu'il précise que « la

notion de liberté [...] prend en compte aussi bien les processus qui permettent l'exercice d'un

libre choix dans l'action que les possibilités réelles qui s'offrent aux individus, compte tenu

des conditions de vie dans lesquelles ils évoluent » [Sen, 2000a, p.27].

Afin de fonder sa théorie sur la notion de liberté, Sen propose deux concepts : le

concept de « capabilité » (capability, traduit aussi par « capacité ») et celui de

« fonctionnement » (functioning, traduit aussi par « réalisation » ou « accomplissement »).

« Le concept de "fonctionnement" [...] recouvre les différentes choses qu'une personne peut

aspirer à faire ou à être » [Sen, 2000a, p.82]. « La "capacité" d'une personne définit les

différentes combinaisons de fonctionnements qu'il lui est possible de mettre en œuvre » [Sen,

2000a, p.83]. La vie étant considérée comme une combinaison de modes de fonctionnements,

de façons d'agir ou d'être, « "l'ensemble des capabilités" exprime [...] la liberté réelle1 qu'a une

personne de choisir entre les différentes vies qu'elle peut mener » [Sen, 2001, p.218]. En

particulier, les « capabilités de base » correspondent aux différentes capacités d'accomplir des

actes fondamentaux telles les capacités de se nourrir, de se déplacer, de satisfaire ses besoins

nutritionnels, de se procurer un vêtement ou un toit, le pouvoir de participer à la vie sociale.

1. La liberté réelle (non formelle ou positive) doit être distinguée de la liberté formelle (négative). La premièredésigne ce qu'une personne peut ou ne peut réaliser indépendamment des facteurs expliquant sa situation. Laseconde concerne ses capacités d'accomplir ses actes compte tenu des contraintes qui pourraient être imposéespar autrui ; ce sont les libertés fondamentales de Rawls [Sen, 1999].

97

Capabilités

Biens premiersFonctionnements

• •

Figure 2.6. La base conceptuelle de l'approche de Sen

Page 108: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Certains auteurs présentant l'approche de Sen se focalisent uniquement sur les notions

de fonctionnement et de capabilité. Malgré ses critiques vis-à-vis de la théorie de Rawls, la

notion de biens premiers est indispensable à l'approche de Sen qu'il dénomme « approche par

les capacités » : « dans la mesure où notre propos consiste à définir la possibilité réelle pour

individu, de poursuivre ses objectifs (ainsi que le recommande John Rawls), alors il est

important de prendre en compte non seulement les biens premiers détenus par les individus,

mais aussi les caractéristiques personnelles qui commandent la conversion des biens premiers

en facultés personnelles de favoriser ses fins » [Sen, 2000, p.82]. Contrairement aux dires de

de Bertin [2004], l'approche de Sen ne se trouve pas dans la lignée utilitariste au point de la

qualifier d'« alter-utilitariste » mais plutôt, comme Sen [2000, p.212] le dit lui-même, dans le

« le prolongement de l'analyse de Rawls dans une direction non fétichiste ». A la différence

de la démarche conséquentialiste de l'utilitarisme qui évalue toute action (cause) par rapport à

son impact (effet) sur l'utilité ou le bien être, la démarche de Sen est téléonomique. Il s'agit de

prendre en compte non seulement les fins (fonctionnements) et les moyens (biens premiers),

mais aussi et surtout les possibilités (capacités) de convertir les moyens en fins. Le cadre

conceptuel de la théorie de Sen est le triangle (ou le circuit récursif) de la figure 2.6 dont les

sommets sont constitués des notions de capabilité, de fonctionnement et de biens premiers,

chaque terme étant distinct et complémentaire des deux autres.

C'est sur cette base conceptuelle que Sen fonde sa théorie de la justice. En effet, à la

différence de Rawls, dans l'évaluation de la justice, il propose d'exprimer les exigences des

individus non pas en termes de leurs ressources ou de leurs biens premiers, mais en termes de

leurs possibilités d'action en vue de réaliser leurs projets de vie, c'est-à-dire en fonction de

leurs capabilités d'accomplir leurs « fonctionnements ». Ainsi une société juste est-elle une

société où les capacités de base sont satisfaites pour tous de manière égale.

La vie et la reproduction de l'espèce humaine sont au cœur de la problématique de la

soutenabilité. La notion de capacité, en se définissant par les choix de vie qu'une personne

peut mener, y trouve naturellement sa place. Cela étant, la soutenabilité recouvre la dimension

socio-économique qui caractérise le concept de capabilité. Précisément, nous définissons la

soutenabilité socio-économique comme le respect des conditions d'une justice sociale, c'est-à-

dire comme une répartition équitable des capabilités au sein des générations présentes1. Une

juste répartition des capacités se traduit par une répartition équitable des possibilités réelles de

faire les choix. Car la liberté n'a de sens que par l'effectivité des moyens de son exercice.

1. Sen [2000b] conçoit « le développement soutenable comme le développement qui promeut les capacités despersonnes présentes sans compromettre celles des générations futures ». Cette définition, analogue à celle duRapport Brundtland, fait abstraction de l'équité intragénérationnelle et ne concerne que les relationsintergénérationnelles.

98

Page 109: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Dans une économie monétaire, le revenu, par les richesses qu'il permet d'acquérir, est

l'un des principaux moyens d'avoir des capabilités. « Le revenu est un moyen essentiel pour

développer des capacités, écrit Sen, [2000, p.98] ». Dans une certaine mesure, la distribution

du revenu commande la distribution des capabilités. L'équité de l'une traduit l'équité de l'autre.

Alors un des pans définitionnels de la soutenabilité socio-économique est le respect des

conditions de l'équité de la répartition du revenu dans la société, et dans les entreprises en

particulier. Dans le paragraphe suivant, nous tenterons de définir un critère à partir duquel une

distribution du revenu dans une entreprise pourrait être jugé soutenable.

C. Une répartition équitable du revenu dans l'entreprise

Par suite de la création monétaire, avant l'espace familial, l'unité de production de biens

et services, l'entreprise, est le lieu de la répartition du revenu. Les recettes issues de la vente

de ses produits sont partagées entre les capitalistes, les travailleurs et l'État.

Le statut du capitaliste relève du droit de propriété (sur les moyens de production) qui

lui confère la liberté de gérer ses biens, de les vendre et de recevoir des revenus liés à cette

propriété. Le capitaliste peut être un prêteur qui perçoit des intérêts ou un propriétaire

d'entreprise individuelle qui perçoit seul les bénéfices de son activité, assure la direction de

l'entreprise, l'apport des capitaux et l'activité productive. Il peut être aussi un actionnaire d'une

société qui reçoit un dividende, une partie du bénéfice proportionnelle à la fraction du capital

qu'il détient.

Par son statut le capitaliste n'est pas obligé de travailler. Rien ne lui empêche de confier

la gestion de son capital à des travailleurs et profiter librement de ses bénéfices ou de son

dividende. Pourvu que son capital et les travailleurs lui rapportent suffisamment, il peut

occuper et jouir de son temps de vie en toute liberté. Cependant, bon gré, mal gré, le

travailleur doit s'échiner non seulement pour obtenir un salaire mais aussi pour payer la liberté

du capitaliste. La distribution du revenu de l'entreprise, explique Rawls [1997], est à la fois

efficiente et juste. Car, d'une part, le travailleur est rétribué à la hauteur de sa productivité et le

capitaliste au niveau de la productivité du capital et, d'autre part, le travailleur a le choix de sa

profession et de son emploi dans le cadre d'une juste égalité des chances et dans un système

de marché libre et parfaitement concurrentiel. Or, la société ne peut se reproduire que grâce au

travail de ses membres. Le travail est la seule activité humaine dont la finalité est la

production des moyens biophysiques du maintien de la vie des personnes et de la reproduction

de l'espèce. Le travail est le critère éthique fondamental de l'égalisation des hommes dans les

rapports qu'ils entretiennent au sein de l'organisation productive. Quand quelqu'un vit ou

perçoit un revenu sans travailler, c'est toujours parce que d'autres travaillent et produisent à sa

99

Page 110: 2. Thèse_Doctorat_YJJ_Duplan.pdf

place les biens et services dont il a besoin pour consommer ou échanger. La question éthique

ne concerne pas uniquement la liberté de choisir sa profession et son emploi, elle a trait aussi

à la liberté de travailler ou ne pas travailler. Dans la mesure où pour vivre il faut produire les

richesses nécessaires, le travail n'est pas un choix, c'est une exigence. Le droit de ne pas

travailler au nom de la propriété, en débarrassant – tout au moins partiellement – les

capitalistes de l'exigence de travailler, en dehors de toute considération de solidarité, lui offre

une liberté supplémentaire aux dépens des autres membres de la société. Le droit de ne pas

travailler au nom de la propriété est le principe fondamental de l'inégalité des hommes et de

l'iniquité économique dans une société capitaliste. Le problème n'est pas la propriété en soi,

c'est le droit à l'exploitation dévolu au possédant au nom de la propriété privée, c'est-à-dire le

droit du capitaliste de « capter » [Harribey, 2001, 2002, 2004], sans travailler, une part du

revenu au-delà de la valeur de son capital. Un principe éthique qui met la vie au cœur des

finalités humaines ne peut que remettre en cause le droit du capitaliste à vivre et percevoir un

revenu au nom de la propriété et établir sur la base du travail l'égalité des hommes et l'équité

de la distribution du revenu.

Travailler, c'est consacrer une part de sa vie à produire des biens et services au profit de

la vie sociale. « Une unité de temps de vie d'un individu, déclare Harribey [1997b, p.15] vaut

éthiquement autant qu'une unité de vie d'un autre individu, et par extension aucune vie

humaine ne peut se situer hiérarchiquement au-dessus d'une autre ». L'équité de ce jugement

est incontestable. Dès lors, on ne peut être qu'en accord avec sa traduction économique à

savoir « qu'une unité de temps de vie passée à travailler vaut économiquement autant qu'une

autre unité de vie passée à travailler ». Cependant, peut-on d'un point de vue éthique admettre

une proportionnalité entre l'unité de temps de vie et sa valeur éthique et en déduire, par

analogie, que le temps de travail et la valeur économique sont proportionnelles ? Deux heures

de ma vie ont-elles plus de valeur qu'une minute de votre vie ? La valeur de la vie est

indépendante de ses dimensions particulières. Quelles que soient sa durée, son intensité ou sa

qualité, votre vie a autant de valeur que la mienne ! Une répartition conforme à l'éthique,

basée sur la vie en général, attribuerait la même part du revenu national à chaque travailleur,

peu importe le degré de sa participation à la production. Or, le travailleur est incité ou motivé

à travailler davantage à condition qu'il puisse en retirer un avantage supplémentaire. En

quelque sorte, il est prêt à accepter et admet pour équitable que son revenu soit proportionnel

au travail fourni.

Nous supposons que la société accepte et vote les lois qui fondent la rémunération

individuelle sur le travail. Nous admettons que l'État, outre ses fonctions régaliennes, tient à

assurer l'égalité des capabilités fondamentales, permettre à chaque citoyen de mener une vie

100

Page 111: 2. Thèse_Doctorat_YJJ_Duplan.pdf

digne et contribue à garantir les conditions de pérennisation de la vie de l'espèce humaine.

Nous supposons donc qu'une partie du revenu national est allouée à l'État pour la

rémunération des services publics et la solidarité nationale et internationale.

L'État met en place un système bancaire qui supporte la liberté d'entreprise et

d'association : il finance par des prêts sans intérêt des projets d'investissement que la société

est susceptible de valider par l'échange monétaire. La responsabilité de l'entreprise à l'égard

de ses dettes est partagée par tous les travailleurs. L'entreprise est autonome et sa gestion

nécessite l'implication de ses membres. Cependant, la direction, somme toute transparente,

sous l'œil exigeant et bienveillant des travailleurs et de la société, doit disposer d'une certaine

liberté d'action, d'une souplesse suffisante en matières d'investissement et de fixation des prix.

On suppose qu'une partie des recettes (R) de l'entreprise est répartie entre les

prélèvements de l'État (E), les investissements prévus (I) et le remboursement de ses dettes

(D). La partie restante est allouée aux n travailleurs de l'entreprise ; c'est le revenu net à

distribuer :

L=R−DIE (2.56)

Chaque jour, le travailleur a besoin d'une certaine quantité de biens et services de

première nécessité (alimentation, logement, transport...) pour se maintenir en vie et travailler.

Soit Vi la valeur de ces biens et services pour le travailleur i sur tous les jours de son travail,

depuis la dernière distribution, ou depuis son arrivée dans l'entreprise s'il vient d'être associé

et V leur valeur totale :

V=∑i=1

n

V i (2.57)

Nous admettons qu'indépendamment de sa fonction dans l'entreprise, chaque travailleur

i a d'emblée le droit à un revenu minimum vi équivalent à la valeur des biens et services de

première nécessité. Deux cas sont possibles :

— le premier est celui où le revenu est insuffisant i.e. L < V le travailleur recevra

vi=i L tel que i=V i

V (2.58)

— le second est celui où le revenu est suffisant i.e. L ≥ V , le travailleur recevra

vi = Vi (2.59)

Soit Lmin le revenu total ainsi distribué entre les n travailleurs de l'entreprise :

Lmin=∑i=1

n

vi (2.60)

Le revenu net restant est réparti au prorata d'un indice prenant en compte un ensemble de

caractéristiques liées au travail. Cet indice qu'on pourrait appeler laborité est fonction

101

Page 112: 2. Thèse_Doctorat_YJJ_Duplan.pdf

croissante de la charge de travail (durée, rythme), de la productivité du travail, de la difficulté

des conditions de travail, de l'expérience professionnelle, etc. Il augmente aussi quand on sort

du cadre des horaires normaux de travail (plus élevé pour le travail de nuit et pendant le week-

end que le travail dans la journée et la semaine). La laborité symbolise l'importance relative

de l'appartenance du travailleur dans la production et désigne son poids dans la distribution du

revenu net de l'entreprise.

Soit Ti une fonction f positive croissante du vecteur Xi dont les composantes X ij sont

la durée, le rythme de travail la productivité du travail, l'expérience professionnelle, etc du

travailleur1 i :

T i= f X i (2.61)

La laborité correspondant au travailleur i est :

i=T i

∑i=1

n

T i

(2.62)

Ainsi i a les propriétés suivantes : ∑i=1

n

i=1 et 0 i1 .

Le revenu li perçu par le travailleur que nous appelons labaire pour le distinguer du salaire qui

a lieu dans un système capitaliste est :

l i=i L−Lmin vi (2.63)

En distribuant la valeur de sa production à ses propres associés, l'entreprise est

responsable de ses prises de décision en matières d'investissement et de fixation des prix. Il

nous semble juste de supposer que la responsabilité de l'entreprise à l'égard de ses dettes et

des risques encourus est partagée par tous ses membres. Si l'entreprise fait faillite et sa dette

s'élève à D* , l'endettement du travailleur i est :

d i=i D* (2.64)

où i est sa laborité lors de la dernière distribution.

Une répartition du revenu dans l'entreprise qui respecte les conditions ci-dessus est

équitable. Associé à la condition d'endettement du travailleur, le labaire est le revenu

soutenable du travailleur.

1. On peut très bien imaginer que f est la moyenne (pondérée) des Xi.

102

Page 113: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Conclusion de la première partie

La disjonction conceptuelle de la cause et de l'effet, de l'hypothèse et de la conclusion

met le mécanisme en harmonie avec l'axiomatique de l'analytisme. Ce n'est pas la relation ni

la liaison qui caractérisent le mécanisme mais l'ordre de succession déterminé de la logique et

de la causalité. Disjoindre et ordonner sont les commandements analytistes et mécanistes du

paradigme cosmique. Via la formalisation logico-mathématique des modèles néoclassiques,

l'économie de la soutenabilité se retrouve dans le carcan de ce paradigme. Ce dernier insuffle

l'esprit réducteur et simplificateur qu'incarne la comptabilisation monétaire unidimensionnelle

de l'environnement et la conception utilitariste ou développementaliste de la soutenabilité.

L'économie de la soutenabilité donne la primauté à la logique marchande. C'est une

véritable incorporation qui met l'environnement sous la coupe réglée du processus de

marchandisation. Internalisé de manière à être conforme au critère de l'optimum de Pareto

prévalant à l'équilibre concurrentiel, l'environnement est directement intégré dans le cadre

marchand. Indirectement, il apparaît sur le marché par le biais de l'offre et de la demande.

Celles-ci véhiculent respectivement les impacts de l'environnement sur la production et

l'utilité évalués la productivité et l'aménité (figure 2). Au lieu de se hisser comme normes

éthiques finalisant et régissant les conduites humaines, les rapports des hommes entre eux et

103

Figure 2. L'incorporation économique de l'environnement

Environnement

Production Marchandisation Consommation

InternalisationProdu

ctivit

é Aménité

DemandeOffre

Page 114: 2. Thèse_Doctorat_YJJ_Duplan.pdf

leurs rapports avec la nature, la soutenabilité est soumise aux injonctions de la rentabilité. A

l'inverse, lorsque nous concevons la soutenabilité comme la répartition équitable des moyens

et des possibilités de vivre, nous admettons que l'éthique transcende les mesures et politiques

socio-économiques. La soutenabilité n'est plus subordonnée, mais devient une norme à suivre

et établit, comme dans le cas de la répartition du revenu dans l'entreprise, le critère de l'équité

intragénérationnelle.

La réalisation de notre objectif d'esquisser la construction de la soutenabilité socio-

économique ouvre la voie aux autres pôles de la soutenabilité complexe : la soutenabilité

épistémique et la soutenabilité écologique dont l'élaboration est le projet de la deuxième

partie.

104

Page 115: 2. Thèse_Doctorat_YJJ_Duplan.pdf

DEUXIÈME PARTIE

La soutenabilité épistémique etécologique

Page 116: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Au moment où l'économiste, tout particulièrement le libéral néoclassique se plaît à

imiter le physicien de la mécanique classique pour se couvrir d'une parure scientifique, au

sein même de la physique sont décochées les premières flèches à l'encontre de la science

classique. Dès le XIXe siècle, les savants butent sur des phénomènes rebelles aux principes

mécano-analytiques. La tentative de modéliser ces phénomènes enfantera, à contre-courant

du paradigme cosmique, deux branches de la physique, la thermodynamique et la

microphysique desquelles émergera une double révolution : la « révolution carnotienne »

[Grinevald, 1976] et la « révolution des quanta » [Weisskopf, 1989]. La première met en

valeur les notions d'irréversibilité et de désordre en établissant le principe d'irréversibilité

des transformations énergétiques et matérielles ; la seconde instaure, en lieu et place du

déterminisme laplacien, le principe d'incertitude d'Heisenberg, dit justement principe

d'indétermination. Ce dernier stipule l'impossibilité d'observer une particule élémentaire sans

modifier son état quantique c'est-à-dire de déterminer à la fois sa position et son impulsion

exactes. Sous l'effet de son interaction avec l'observateur et les instruments d'observation, la

particule apparaît tantôt comme une onde tantôt comme un corpuscule. Il convient, alors,

d'une part, d'intégrer le sujet-observateur dans l'argumentation scientifique et de rejeter le

dualisme cartésien, d'autre part, d'accepter la complémentarité contradictoire de la continuité

ondulatoire et la discontinuité corpusculaire de la particule et de violer le principe de non-

contradiction1.

Après la deuxième guerre mondiale, deux nouveaux courants de pensée émergent dans

le sillage et en marge de la thermodynamique et de la mécanique quantique : la cybernétique

et le structuralisme. La cybernétique couvre tout le champ de la théorie de la commande et

de la communication [Wiener, 1971] et met en avant des notions longtemps méconnues,

1. La violation du principe de non-contradiction ne substitue pas la contradiction à la non-contradiction. Car,explique Lupasco [1989, p.135], « la microphysique manifeste une contradiction qui existe et qui n'existepas, en même temps ».

Page 117: 2. Thèse_Doctorat_YJJ_Duplan.pdf

sinon bannies de la science classique telles les notions de rétroaction, de finalité, de projet,

d'autonomie. Quant au structuralisme, sa démarche consiste à étudier le phénomène à partir de

« ses caractères de totalité, de transformation et d'auto-réglage » [Piaget, 1996, p.6. La

systémique conjoindra les principes de la cybernétique et du structuralisme pour donner

naissance à la « méthode de la complexité » [Morin, 1977], méthode qui favorisera la

compréhension des phénomènes aux dimensions multiples et intégrées.

C'est dans ce contexte d'effervescence et de révolution épistémologiques qu'ont été

prises les bastilles de la monodisciplinarité et du spécialisme des sciences. Émergent la

physico-chimie, la biophysique, les sciences de l'information et de la communication, la

psycho-sociologie... tout un ensemble de domaines qui cultivent l'inter-trans-

pluridisciplinairité. Ils constituent ce que Le Moigne [1994] dénomme les « sciences de la

complexité ». Pour répondre à la nécessité d'appréhender les dimensions non monétaires des

systèmes sociaux, la physique, la biologie, l'énergétique frappent aux portes bien gardées de

l'économisme. Ces portes se fissurent lorsque les économistes s'emparent de la problématique

environnementale et sont enfoncées dès lors que l'on reconnaît que les processus socio-

économiques comportent des processus de transformation de la matière et de l'énergie.

L'économisme n'a plus de raison d'être. L'économie se libère du carcan du paradigme

cosmique et devient une science ouverte, complexe. L'éco-énergétique, la thermo-économie,

la bioéconomie sont autant de passerelles qui la relient aux sciences naturelles.

La soutenabilité émerge et est garante de la disciplinarité complexe. Du point de vue

épistémologique, elle porte en elle-même ses propres principes d'intelligibilité. Ce sont les

principes généraux du paradigme chaosmique qui font prévaloir la soutenabilité épistémique.

Du point de vue praxéologique, elle engendre la soutenabilité socio-économique. Au travers

des concepts et modèles éco-thermo-énergétiques et dans le cadre de la vision bioéconomique,

elle génère la soutenabilité écologique dont nous essaierons de saisir la portée par rapport aux

controverses sur la (dé)croissance et dans le cas de la déforestation en Haïti.

La soutenabilité socio-économique qui émerge des critiques de l'économie est solidaire

de la soutenabilité épistémique et de la soutenabilité écologique qui sont les projets respectifs

des chapitres III et IV de cette deuxième partie.

107

Page 118: 2. Thèse_Doctorat_YJJ_Duplan.pdf

CHAPITRE III

Le paradigme chaosmique :l'émergence de la soutenabilité

épistémique

Depuis l'antiquité grecque, la pensée « occidentale », contrairement au taoïsme chinois

où l'existant est conçu dans la conflictualité et la complémentarité du yin (symbole de la terre,

de l'humidité et de la passivité) et du yang (symbole de chaleur, d'activité et de virilité), est

largement dominée par le sentiment que la contradiction et le paradoxe heurtent et blessent la

raison et par la conviction qu'ils défient la rationalité. La contradiction et le paradoxe sont

assimilés à l'irrationalité et sont posés comme des problèmes à résoudre sinon à contourner au

nom de la simplicité (ou plutôt du simplisme). Or, la soutenabilité est complexe, paradoxale et

contradictoire. Elle ne peut être conceptualisée par une logique d'exclusion, de réduction et de

simplification.

La compréhension de la soutenabilité nous a fait prendre conscience non seulement de

l'inconsistance du paradigme dominant, mais encore de la nécessité d'un épistémê soutenable

pour appréhender les phénomènes jugés complexes. Il faut d'autres principes paradigmatiques

pour concevoir et intégrer les multiples dimensions de la soutenabilité.

Les révélations des sciences de la complexité laissent entendre que le fonctionnement

des systèmes naturels, artificiels, sociaux n'est pas simplement régi par l'ordre cosmique, mais

que le désordre chaotique est incontournable. Les principes d'intelligibilité tirés de

l'observation des systèmes sont à la fois des principes d'ordre (Cosmos), de désordre (Chaos)

et de méta-ordre (entre Cosmos et Chaos). La conjonction de ces principes de pensée concourt

Page 119: 2. Thèse_Doctorat_YJJ_Duplan.pdf

à l'organisation du paradigme chaosmique d'où émerge la soutenabilité épistémique.

Le dualisme cartésien, au nom de l'objectivité, dépouille la connaissance scientifique du

sujet qui la construit. A l'inverse, le paradigme chaosmique rejette cette disjonction et

reconnaît que toute connaissance scientifique est un projet qui se réalise par l'interaction du

sujet et de l'objet : la soutenabilité objective intègre le sujet qui la projette dans ses finalités

éthiques (section 1).

Les principes méthodo-logiques du paradigme chaosmique, sans rejeter l'analytique,

appellent à une pensée dialectique, systémique, pour comprendre et expliquer les phénomènes

perçus complexes (section 2). En particulier, nous mettrons en évidence le principe

d'irréversibilité qui intervient dans les processus de l'organisation, dans l'évolution physique

des systèmes (section 3).

1. L'éthique épistémique de la soutenabilité

La soutenabilité n'est pas une propriété intrinsèque au système de pensée qui la

supporte, aux systèmes socio-économique ou écologique. Le « soutenable » est une

qualification normative, un jugement porté à l'égard de l'épistémê, de l'organisation et des

systèmes socio-économiques et écologiques sur la base de règles et principes préalablement

définis et rigoureusement établis. Il inclut de fait et nécessite un sujet-juge ou un sujet-

législateur. Cependant, la soutenabilité résulte de véritables « computations » (Morin) de la

société et de son environnement. Épistémique, la soutenabilité se conçoit à la lumière de la

Raison.

La soutenabilité épistémique prend conscience de l'interrelation sujet-objet-projet dans

la construction de la connaissance scientifique et de son rôle dans ses indéterminations et ses

limites (1.1) et admet la nécessité éthique que le sujet scientifique soit à la fois un être

rationnel et conscient (1.2).

1.1. La suprobjectivité et les incertitudes de laconnaissance

La science classique retient deux types de processus pour garantir la vérité scientifique :

les opérations empiriques d'observation ou d'expérimentation et les opérations logiques. Ces

opérations étant le fait d'un sujet computant un objet, la vérité scientifique est d'ordre

anthropo-logique ; elle est sujette à la finalité du scientifique et aux influences du champ

social.

109

Page 120: 2. Thèse_Doctorat_YJJ_Duplan.pdf

A. La relativité anthropo­logique

L'objectivité de la soutenabilité est relativisée par la perception du sujet et la logique qui

la sous-tend.

a. La subjectivité perceptuelle de la connaissance objective

L'observation et l'expérimentation sont des pratiques, des processus de perception,

sensoriels et psycho-cérébraux par lesquels le sujet confronte la réalité. Elles mettent en

relation le sujet observateur et l'objet observé, le sujet computant et l'objet computé. C'est de

cette relation qu'émanent les connaissances empiriques.

Il s'avère que le cerveau du scientifique n'est pas en communication directe avec le

monde extérieur. La connaissance acquise est une traduction de son environnement que les

nerfs communiquent au cerveau en tant qu'information, grâce à leurs facultés sensitives telles

la vue, l'ouïe, l'odorat, le goût, le toucher. Nos connaissances ne sont pas des « reflets » ni ne

« correspondent » à une réalité en-soi. En fait, ce sont des traductions de traductions, les

traductions de la réalité en perceptions, puis les traductions de celles-ci par des symboles ou

des concepts dans le langage scientifique, le langage logico-mathématique par exemple.

Korzybski [1998] distingue dans le processus cognitif d'abstraction quatre niveaux

interactifs : les « niveaux non-verbaux dits silencieux ou indicibles » qui correspondent aux

événements observés (niveau I), aux processus nerveux (niveau II) et neurono-cérébraux

(niveau III) et les « niveaux verbaux » propres aux réactions linguistiques (niveau IV). Il

regrette qu'« en général, les gens, y compris de nombreux scientifiques, négligent

complètement les niveaux II et III et réagissent comme s'ils n'avaient pas conscience que IV

''n'est pas I'' » c'est-à-dire qu'ils ne tiennent pas compte des conditions anthropologiques de la

connaissance et confondent les événements et leurs représentations linguistiques [Korzybski,

1998]. Par exemple, une fonction de production n'est pas le reflet d'un processus de

production. Un X n'est que le simple représentant symbolique d'une personne, d'une somme

de monnaie ou même d'une quantité de biens. Les opérations logiques effectuées avec des

symboles mathématiques ne correspondent d'aucune manière au processus économique réel.

Car toute correspondance, le fait remarquer Frege [1971], ne met en relation que des termes

de même nature, ce qui n'est pas le cas entre une variable ou une relation fonctionnelle et ce

qu'elles représentent. « Une carte n'est pas le territoire », [Korzybski, 1998]. Un concept n'est

pas la chose qu'il désigne, un mot ou un modèle ne sont pas les choses qu'ils représentent. De

plus, « une carte ne couvre pas tout le territoire ». Un phénomène ne peut être parfaitement

défini par un concept et scrupuleusement décrit par un modèle.

110

Page 121: 2. Thèse_Doctorat_YJJ_Duplan.pdf

A l'inverse des dires de Lefebvre [1969], il n'y a ni connaissance-reflet ni connaissance-

correspondance, ni vérité-reflet ni vérité-correspondance. « Nous ne connaissons pas la réalité

en soi. La connaissance n'est pas le reflet des choses [ajoutons, ni leur correspondance]. Nous

sommes condamnés à ne connaître que les phénomènes, c'est-à-dire la réalité telle qu'elle nous

apparaît à travers la perception sensorielle » [Fortin, 2000, p.137]. Nous n'en sommes

qu'informés ! La connaissance est une construction de l'esprit-cerveau, c'est un « artefact ». Le

noumène (Kant), l'essence (Aristote), l'arrière-monde (Nietzsche), s'ils existent, sont hors de

notre portée cognitive tant que nous ne faisons pas appel à nos organes cérébraux et

sensoriels. Lorsque nous parlons d'objet, de phénomène ou de réel nous faisons référence au

perçu. Nous ne connaissons que ce que nous connaissons, toujours par l'expérience sensible et

la computation, même aidés par nos instruments exosomatiques, nos instruments de

laboratoire, nos instruments de mesure. En effet, il est impossible « de séparer rigoureusement

la perception, la vision, l'audition, etc. de la connaissance ; c'est une division qui ne peut être

faite, sinon superficiellement, à des niveaux verbaux » [Korzybski, 1998, p.22].

Ce que nous déduisons et induisons par raisonnements logiques restera dans l'ordre des

connaissances supposées et des croyances dès lors qu'il échappe à l'expérience ou à

l'observation. Nos connaissances de l'objet sont phénoménales ; générées par des processus

perceptuels, elles sont les traductions d'une réalité informée et computée, le fruit de

l'interrelation sujet-objet. La connaissance objective est entachée de subjectivité. Même la

logique ne peut s'y soustraire car le raisonnement c'est avant tout des interactions neuronales.

La vérité empirico-scientifique est donc conditionnée par les activités psycho-cérébrales

et les expériences sensibles du scientifique ; elle est radicalement bio-anthropologique. C'est

une vérité empreinte d'incertitude dans la mesure où le cerveau ne contient aucun dispositif

qui lui permettrait de distinguer avec assurance la perception de l'hallucination, l'imaginaire

du réel [Morin, 1990].

b. La limite logique

L'épistémê cosmique s'accroche aux règles de la logique aristotélicienne pour éviter des

erreurs de raisonnement et s'assurer d'une connaissance certaine. La plupart des théories

économiques, à l'image de la science classique, se conforment sans réserve à la cohérence

logico-mathématique prise comme critère de vérité. Une telle attitude repose sur la croyance

dans l'infaillibilité et le caractère absolu de la logique. Ce qui est irrecevable, sinon ce serait

nier ou ignorer les incertitudes de tout système formel qui, pour être cohérent, doit respecter

les métarègles :

— de consistance : validité de toute formule déductible du système ;

111

Page 122: 2. Thèse_Doctorat_YJJ_Duplan.pdf

— de complétude : démontrabilité de toute formule valide ;

— de décidabilité : existence d'un algorithme qui détermine en un nombre fini d'étapes si une

formule du système est démontrable ou non ;

— d'indépendance des axiomes : impossibilité qu'un axiome A puisse être démontré,

directement ou par l'absurde, à partir des autres axiomes.

Wittgenstein [1993], dans le Tractatus Logico-Philosophicus, maintient l'idée de

l'impossibilité de construire une métalogique ou une métalangue, c'est-à-dire de penser hors

de la logique avec une logique plus riche ou d'exprimer les propriétés non propositionnelles

d'un langage de niveau inférieur. Il semblerait que la logique ne se prête pas aux hiérarchies.

Or on peut toujours parler de la logique. En témoignent la syntaxe formelle de Carnap, son

arithmétisation par Gödel et la sémantique qui permet d'exprimer le sens des propositions et

leur vérité. C'est dans cet ordre de pensée qu'on peut saisir cette analogie de Korzybski [1998]

: « une carte est auto-réflexive ». Il est toujours possible de parler logiquement à propos de la

logique.

Par ailleurs, Gödel montre que tout système logique, quelles que soient sa puissance et

sa richesse pour juger l'arithmétique élémentaire, est incomplet : au moins une des formules

valides du système est indémontrable [Gödel, 1931]. Il démontre aussi qu'aucun système

formel ne dispose de ressources suffisantes en moyens de démonstration pour valider ou

infirmer sa propre consistance. A fortiori, la consistance d'un système plus général est

indémontrable. Dans cette même lignée, Tarski affirme l'impossibilité de construire une

sémantique formelle pour un langage sémantiquement clos. A l'intérieur de ce dernier, le

concept de vérité ne peut être défini. Cependant, toutes les propositions d'un langage peuvent

s'avérer décidables si l'on recourt à un métalangage, lui-même restant inconsistant du point de

vue de ses propres énoncés. Pour garantir de manière absolue la décidabilité et la consistance

d'une logique formelle, il faudrait recourir à une régression infinie de métalogiques. Ceci dit,

la cohérence logique est toujours relative à une métalogique et la délimitation de la logique

n'est pas au rendez-vous. L'organisation logique des idées, de la pensée et des connaissances

ne satisfait et ne peut satisfaire l'exigence de certitude scientifique. Elle présente une

indétermination per se qui imprime à la connaissance scientifique un caractère incertain. Cette

incertitude cognitive d'ordre logique ne permet pas de trancher la vérité des théories

scientifiques. Elle est tout aussi fondamentale, indépassable et inéluctable que l'incertitude

anthropologique.

B. Les aspects sociologique et téléologique

La connaissance ne peut échapper à la sphère socio-culturelle qui influence la formation

112

Page 123: 2. Thèse_Doctorat_YJJ_Duplan.pdf

de la pensée scientifique. Sous l'influence de cette sphère, de toutes déterminations

subjectives, elle reste toutefois un projet, une finalité, que le scientifique construit en toute

objectivité.

a. La connaissance parasitée par la sphère socio­culturelle

« Dans le domaine des sciences humaines, le savant lui-même fait partie de ses

matériaux et influe inconsciemment sur les données de l'observation » [Foulquié, 1969, p.79].

En effet, le sujet connaissant naît dans et par une société et un milieu culturel qui lui

fournissent un langage et des cadres noologiques. En Europe, jusqu'à la fin du XVIIe siècle, le

latin et la pensée aristotélicienne de la scolastique demeuraient le vecteur et le corset de la

connaissance scientifique. Celle-ci est sujette aux mythes et idéologies qui traversent le corps

social.

La science économique, par exemple, bien qu'axée sur la rationalité, est essentiellement

tributaire du mythe prométhéen du progrès qui co-produit l'idéologie du développement qu'on

pourrait appeler le développementalisme. Harribey exprime bien les liens entre la culture

« occidentale », la religion et la techno-science, le paradigme cosmique (positivisme) sous-

jacent, le développement et le progrès ; « [...] tous les messianismes issus de la pensé

occidentale, le messianisme marxiste, le messianisme techno-scientifique, ce dernier

s'épanouissant à la fois dans le positivisme et le libéralisme se sont renforcés mutuellement

pour ériger en finalités le développement et le progrès que l'on peut atteindre grâce à la

rationalité » [Harribey, 1997a, p.80]. Et le développement et le progrès, à l'instar d'une

croyance religieuse promettant le salut [Rist, 2001], seraient porteurs de bonheur éternel.

Rostow [1997] assimile l'histoire économique de l'humanité, à la genèse du développement. Il

prophétise que toutes les sociétés, grâce à la technique, à l'esprit d'entreprise et des

investissements considérables passeront du statut traditionnel à l'« ère de la consommation de

masse » et de l'abondance où tous les bienfaits sont possibles. C'est ainsi que l'accroissement

des capacités socio-techniques de production reste l'alpha et l'oméga de la plupart des théories

économiques. L'économie libérale néoclassique fait de la concurrence, au nom de l'exigence

de rationalité y afférente, le moteur incontournable des améliorations technologiques et de la

croissance économique. Comme dans toute religion où la fin dernière n'a pas de date définie,

la fin de la croissance économique et du développement est renvoyée aux calendes grecques.

La « décroissance » ou la « croissance zéro », le non-développement et le non-progrès

comme perspectives écologiquement soutenables font partie des tabous et des interdits de la

pensée économique traditionnelle. Tous les courants de la science économique, marxisme,

keynésianisme, libéralisme et leurs dérivés, réfèrent explicitement ou implicitement à la

113

Page 124: 2. Thèse_Doctorat_YJJ_Duplan.pdf

croissance, au progrès ou au développement comme objectifs à atteindre sinon comme

processus à poursuivre. Ils constituent le poteau mitan vaudouesque du péristyle de la pensée

économique traditionnelle. Il est indéniable que la pensée scientifique (économique) est

truffée d'idées mythologico-phantasmatiques et de valeurs sociales véhiculées par la culture et

tapies sous les strates inconscientes de l'esprit du sujet-chercheur (économiste).

Les déterminants historiques, psychiques et socio-culturels peuvent s'imposer comme

normes ou prohibitions et jouer un rôle décisif dans l'acquisition, l'organisation et la finalité

des connaissances. S'il n'en prend pas conscience, le scientifique étudiera les phénomènes

socio-économiques par le biais de ses propres grilles socio-culturelles. Constituant elles-

mêmes une certaine vision du monde, celles-ci lui feront perdre toute objectivité et sont

susceptibles de l'acculer dans le champ de la science-fiction. A telle enseigne, Morin [1991,

p.46] note que « l'anthropologie du début de notre [du XXe] siècle considérait les sociétés

archaïques selon les normes d'une rationalité qu'elle croyait universelle et qui était en fait une

rationalisation européo-centrique ». Participant à l'organisation des idées et de la pensée, la

sphère socio-culturelle contient les ingrédients noologiques nécessaires pour empreindre voire

souiller de socio-subjectivité erronée et d'erreurs socio-subjectives les critères de vérité

scientifique ; paradigmes, doctrines, mythologies, idéologies, théories gangrènent la

noosphère et les langages qui charrient les connaissances. Source d'erreurs et d'illusions, elle

expose la connaissance scientifique aux jugements de valeur qui tendent à l'écarter de

l'objectivité et qui sont susceptibles de parasiter la relation du sujet connaissant avec l'objet à

connaître et de biaiser le projet de compréhension. Et, de ce fait, elle fait peser sur elle une

lourde incertitude.

b. La projectivité de la connaissance scientifique et l'interrelationsujet­objet

Il est vrai, comme nous venons de le voir, que « toute connaissance est l'œuvre d'un

sujet connaissant et d'un objet à connaître, d'un connaissable ou connu » [Lupasco, 1989,

p.192]. En tant qu'œuvre à élaborer et à réaliser, la connaissance scientifique est aussi projet.

En effet, elle n'est pas une donnée (immédiate), mais s'inscrit dans la construction, la

formulation et la ré-solution de problèmes. Bachelard exprime avec perspicacité ce caractère

projectif ou téléonomique de la connaissance scientifique : « dans la vie scientifique, les

problèmes ne se posent d'eux-mêmes. [...] Pour un esprit scientifique, toute connaissance est

une réponse à une question. S'il n'y a pas de question, il ne peut y avoir connaissance

scientifique. Rien ne va de soi. Tout est donné. Tout est construit » [Bachelard, 1993, p. 14].

Et ceci, par le sujet computant l'objet ! La projectivité s'emmêle intimement à l'interrelation

114

Page 125: 2. Thèse_Doctorat_YJJ_Duplan.pdf

sujet-objet productrice de connaissance scientifique.

Au demeurant, l'intelligibilité de la connaissance repose sur la boucle générative

« Le sujet produit l'objet. Il le produit parce qu'il le traduit dans son langage propre, qui est

celui d'un être bio-anthropologique dont les possibilités et les limites relèvent d'un

esprit/cerveau coupé du reste du monde qu'il ne connaît que sous forme de représentations. Il

le produit parce qu'il le traduit en mots, idées et concepts qui renvoient toujours à une société

(culture) hic et nunc. Il le produit parce qu'ils le traduisent en théories, idéologies, systèmes

d'idées à travers un langage, une logique, des paradigmes (noologie) » [Fortin, 2000, p.142].

« Inversement l'objet produit le sujet. D'une part parce qu'il est fondement de toute

connaissance, c'est-à-dire de la possibilité pour un sujet de connaître quelque chose de la

réalité » [Fortin, 2000, p.1]. « Pas de connaissance sans un objet à connaître », déclare

Lefebvre [1969, p.23] ; pas de connaissance non plus sans objet connu. « D'autre part, et

conséquemment, parce que cet objet qui est connu n'est pas la chose en soi mais concerne

cependant l'objectivité du phénomène, donc produit l'objectivité de la connaissance et par là

fonde le sujet connaissant dans son activité de connaître » [Fortin, 2000, p.142]. De plus,

« dans la pensée scientifique, la méditation de l'objet par le sujet prend toujours la forme de

projet » [Bachelard, 1991, p.15].

Connaître est le sens de l'interrelation objet-sujet ; La connaissance est, enfin de compte,

projet réalisé, production du processus cognitif. Elle est identifiable et peut être communiquée

d'un sujet à un autre. Le fondement gnoséologique du paradigme chaosmique est le caractère

suprobjectif de la connaissance scientifique : subjectivité, objectivité et projectivité, sont au

cœur de tout processus scientifique de cognition. C'est aussi la certitude des incertitudes

cognitives (d'ordre antropo-socio-logique) et l'incertitude de cette certitude (qui est le produit

de la réflexion d'un sujet).

1.2. Le sujet scientifique comme un être rationnel etconscient

Élaborant sa connaissance dans l'incertitude, le sujet scientifique a une double identité.

D'une part, il est un être rationnel capable d'effectuer des opérations de computation. D'autre

part, il est un être conscient caractérisé par ses facultés de « cogitation ».

115

ProjetSujet Objet

Page 126: 2. Thèse_Doctorat_YJJ_Duplan.pdf

A. Etre computant ...

Le sujet est, au premier chef, une organisation vivante, un individu qui est apte à s'auto-

analyser, à reconnaître le « Soi » et à le distinguer du « non Soi ». Pour ce faire, il est doté de

capacités biologiques de computation, c'est-à-dire de capacités cognitives d'identifier,

d'évaluer, de sélectionner, de calculer... ou de traiter des symboles, des données, des formes

de manière rationnelle. La computation est une réflexion inconsciente du sujet, inconsciente

dans le sens où l'on entend ici par prise de conscience l'acte de réflexion qui génère chez l'être

humain le sentiment qu'il a de son existence, de ses actes, de ses pensées. La moindre bactérie

compute lorsqu'elle identifie, sélectionne et évalue sa nourriture. Ce faisant, elle effectue une

discrimination entre ses propres constituants, le monde du sujet, et son environnement

externe, l'univers des objets. De la sorte, elle exprime son ego, son « je » biologique par

rapport à son environnement.

L'expression « je » computationnelle établit l'individu-sujet dans son « site égo-

centrique » qu'aucun autre ne peut occuper ; d'emblée, le « je » exclut tout autre sujet. Le sujet

compute au moins « pour soi » et toujours par soi. La computation est donc auto-égo-

finalitaire. De même, le sujet valorise le « soi » par auto-transcendance et y accorde une

« priorité ontologique »1. « Il est unique pour lui-même » [Morin, 1980, p.165]. Or, par

définition, l'auto-transcendance renvoie à l'existence de son milieu extérieur. Le « je » ne fait

pas seulement référence à soi, il évoque aussi le monde environnant dont il est le centre ; il est

à la fois auto-référentiel et exo-référentiel. La computation relève donc d'une logique d'auto-

exo-référence.

Par ailleurs, l'individu-sujet est à même de reconnaître autrui dans son égo-centre et de

se reconnaître dans un autre égo-centre. Cette inclusion altruistique, sans cesser d'être auto-

égo-finalitaire, se réalise, parfois via des symboles (le drapeau, le totem, la croix, le voile...)

par assimilation, par identification, de soi à autrui, de l'ego à l'alter et vice versa. Sur la base

de ce principe, on peut comprendre le circuit transubjetif, transindividuel constitutif de la

nation, de la tribu, de la communauté où l'ipséité individuelle est omniprésente.

La subjectivité est propre à tout être vivant. En termes de computation, elle est

biologique. Elle a une triple particularité : par référence du sujet à soi et à soi-même, elle

acquiert une dimension logique ; de par son site auto-égo-centrique, elle est ontologique ; c'est

son auto-égo-finalité qui lui confère son caractère éthologique [Morin, 1980].

Le sujet est un être biologique qui se reconnaît dans et par la computation. Le computo

le caractérise : le « je suis moi » de Morin. C'est le circuit réflexif

1. Castanedo cité par Morin [1980]

116

Page 127: 2. Thèse_Doctorat_YJJ_Duplan.pdf

où le Je, le Soi (« suis »), le Moi sont des instances auto-référentielles, non des entités

substantielles. Le long de ce circuit, elles se distinguent/s'identifient, se

virtualisent/s'actualisent, se subjectivisent/s'objectivisent de façon récursive ; le Je fait

émerger l'ego-centre ; puis le Soi suggère l'objectivité corporelle, autrement dit « produit

l'être, l'existence et la qualité du sujet » [Morin, 1980] ; et le Moi, quant à lui, indique

l'objectivité du Je et la subjectivité du Soi. Je, Soi, Moi se reconnaissent et se confondent

comme des miroirs qui réfléchissent les uns sur les autres. En effet, « le computo compute

nécessairement ensemble le Je, le Moi, le Soi, c'est-à-dire la corporalité physique du Moi-Je.

Le computo opère l'unité fondamentale du physique, du biologique, du cognitif » [Morin,

1980, p.190]. Le « je suis moi » est une auto-computation incarnant l'unité physico-bio-

cognitive du sujet.

Le sujet scientifique est un computeur anthropologique. C'est un être humain qui utilise

ses fonctions vitales, ses organes sensoriels, ses neurones, son cerveau pour connaître. Outre

ses potentialités computatives, il a la faculté de penser, de méditer, de cogiter, c'est-à-dire la

possibilité d'agir en vue d'un projet par réflexion consciente. Le sujet scientifique est aussi

celui du cogito.

B. ... Et être cogitant

Revu par Morin dans le cadre de la logique de la complexité, le cogito, le « je pense

donc je suis » de Descartes, prend l'allure d'une spirale récursive dans laquelle le « je pense »

s'actualise et se virtualise quand respectivement et conflictuellement le « je suis » se virtualise

et s'actualise. Cette récursion traduit « l'auto-communication pensante de soi à soi ». Le sujet

s'auto-informe et s'auto-affirme par la méditation auto-référentielle de la computation « je suis

moi ». Autrement dit, le cogito est la pensée réflexive du computo. C'est par et dans cette

méditation, par et dans la pensée réflexive que la conscience du sujet s'éveille et que ce

dernier auto-transcende sa réalité biophysique. Le cogito produit la conscience d'être et

d'existence au-delà de l'organisation biologique. Le cogito correspond bien au métaphysique

de l'ego. C'est une qualité propre au sujet conscient qui médite sur sa computation.

Computation et cogitation sont deux processus qu'il faut maintenir liés et considérer comme

les moments de la boucle complexe [Morin, 1986]

117

Computation Cogitation

JeMoi Soi

Page 128: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Cette conjonction réalise le mariage de la techno-science et de la philosophie qui

légitime la soutenabilité épistémique. En effet, la soutenabilité épistémique exige une science

philosophée optant pour la sagesse et une éthique de la connaissance, et une philosophie

consciente des avancées scientifiques récusant les réflexions et les spéculations stériles. Le

sujet anthropologique, qui soutient tel ou tel paradigme, est à la fois un sujet computant et

cogitant. Computant il peut s'actualiser en homme de techno-science et tirer parti de sa

qualité d'être rationnel afin d'étudier avec objectivité, appréhender, comprendre et expliquer

l'environnement avec lequel il interagit, et mettre en pratique selon ses propres finalités les

connaissances qui en découlent. Cogitant, il peut mener des réflexions philosophiques,

joindre le raisonnable (voire l'irrationnel) au rationnel [Bartoli, 1991 ; Maréchal, 1997],

l'efficace et l'équitable [Harribey, 1997a], et prendre conscience de l'importance de ses actes

et de leurs effets pour orienter sa pensée, ses méditations, ses applications techno-

scientifiques et concevoir les transformations socio-économiques souhaitées dans le sens des

valeurs éthiques et morales ; il peut se rendre compte de sa subjectivité et dès lors éviter des

erreurs de computation qui pourraient en résulter.

« Seul un sujet conscient d'être sujet peut lutter contre sa subjectivité. Seul un sujet

conscient d'être sujet peut concevoir son auto-egocentrisme et tenter de se décentrer par

l'esprit en s'inscrivant dans un circuit trans-subjectif qui va s'appeler l'amour de la vérité »

[Morin, 1980, p.299]. « Réintroduire le sujet, c'est rappeler au scientifique la responsabilité

qu'il a face aux connaissances et aux pouvoirs qu'il produit. C'est décider des valeurs à

privilégier si l'on veut éviter l'auto-destruction de l'humanité » [Fortin, 2000, p.183]. Le sujet

scientifique est une personne responsable, au sens de la responsabilité de Hans Jonas [1990].

Responsable devant les générations présentes et futures, il agit de telle façon que les résultats

de son action soient compatibles avec la permanence d'une vie authentiquement humaine.

En substance, la soutenabilité épistémique conditionne et finalise les activités techno-

scientifiques. Elle s'enracine dans « l'ethos subjectif » (Morin) et « l'intentionalité » (Husserl)

du scientifique philosophe et du philosophe scientifique. Elle est basée sur une éthique de la

connaissance qui exhorte le scientifique à recourir à la Raison, à la rationalité et à l'efficacité

pour atteindre l'objectivité, à l'équité et à la conscience pour donner à sa recherche une issue

humanitaire. La soutenabilité épistémique tire sa rigueur et sa rationalité des principes

méthodo-logiques de la complexité.

118

Page 129: 2. Thèse_Doctorat_YJJ_Duplan.pdf

2. La méthode et la logique de la soutenabilitécomplexe

Dans la section précédente, nous avons utilisé implicitement d'autres principes de

pensée qui ne concordent pas avec la logique analytique aristotélicienne. Sous l'angle

gnoséologique, ils ont permis l'émergence de la soutenabilité épistémique. Ce sont les

principes logiques de la pensée complexe (2.1) tributaires des conceptions dialectiques. Joints

aux méthodes de modélisation des systèmes et organisations complexes (2.2) dont ils

permettent l'exposition, ils sous-tendent la conceptualisation de la soutenabilité.

2.1. Une logique pour la complexité

Avant de proposer les principes logiques auxquels nous nous référerons pour légitimer

la soutenabilité complexe, nous tenons à présenter les différents types de concepts et de

conceptions.

A. Concepts et conceptions analytiques et dialectiques

Dans la nature, le changement et l'évolution sont de mise et les systèmes montrent une

complexité caractérisée par l'interrelation, la conjonction, l'imbrication et la solidarité des

différents, des contraires et des contradictoires. Si l'on veut conceptualiser et surtout agir avec

efficacité sur et dans les systèmes perçus complexes, le système socio-économique par

exemple, il serait préjudiciable de passer outre ou négliger les contrastes qui s'y présentent.

D'ailleurs, le paradoxe s'impose lorsqu'il convient de penser en termes systémiques, de

totalité, de globalité. Une pensée, comme celle de la soutenabilité complexe, qui s'allie au

concret et au complexe et qui est construite pour la praxis, doit nécessairement violer le

principe de non-contradiction. Une pensée (économique) épistémologiquement soutenable ne

peut être qu'une pensée complexe.

Tableau 3.1. Différents types de concepts et de conceptions

Analytique Dialectique

Concept A A A et A A A A

Conception Distinctiondiscrète

Réconciliationsynthétique

Juxtaposition

complémentaire

Tiers inclus :continuitéintuitive

Récursion(actualisation/vi

rtualisation)

Auteur Aristote Hegel Bachelard Georgescu-Roegen

Morin(Lupasco)

119

A A

Page 130: 2. Thèse_Doctorat_YJJ_Duplan.pdf

De la pensée dialectique qui met en rapport des concepts opposés ne peut-on pas

extraire quelques pierres pour construire la logique de la complexité ? En marge de

l'analytique aristotélicienne, on peut distinguer cinq types de dialectiques : les dialectiques

hégélienne, bachelardienne, roegenienne, lupasquienne et morinienne (tableau 3.1).

La dialectique hégélienne est un processus constitué de trois moments ou trois étapes de

la pensée. Le premier moment est celui de l'« affirmation » : l'être est. L'être absolu qui

demeure identique à lui-même est un être indéterminé, un être vide, abstrait équivalent au rien

et au néant. Tout être concret est toujours déterminé, comme si pour exister et s'affirmer, il

nécessite le non être. L'affirmation de l'être entraîne le second moment, celui de la

« négation » : l'être n'est pas. Au troisième moment, cette négation est niée et l'on obtient la

« négation de la négation » : l'être est devenir.

Si le mouvement de la pensée lie des termes et des propositions opposés, la dialectique

hégélienne n'aboutit pas au paradoxe. La négation de la négation synthétise et met en accord

les contraires et les contradictoires. « Le processus dialectique, après avoir conduit la

différence vers l'écart le plus grand, rassemble ce qui s'est trouvé éclaté selon l'exclusion

logique. La contradiction abandonne donc le principe d'incompatibilité des opposés qu'elle

nourrit pour faire des opposés les soubassements d'une unité qui les confond. La contradiction

fait donc place à une réconciliation1 qui dynamise les différences en les enveloppant les unes

dans les autres » [Wunenburger, 1990, p.178]. La dialectique hégélienne n'est pas centrée sur

la tension et la lutte des oppositions. C'est un raisonnement qui consiste à surmonter et

dépasser la contradiction pour rétablir une nouvelle identité. A telle enseigne, malgré les

apparences, Hegel admet le principe de non-contradiction [Foulquié, 1969].

Après avoir mis à l'index la philosophie hégélienne, Bachelard [1988] s'appuie sur les

résultats de la physique quantique pour instituer la « philosophie du non ». Cette philosophie

qu'il dénomme le « surrationalisme » organise la connaissance sur la base de la dialectique de

la « pénombre conceptuelle qui réunit le corpusculaire et l'ondulatoire, le ponctuel et l'infini.

C'est [...] dans cette pénombre, ajoute-t-il, que les concepts se diffractent, qu'ils interfèrent,

qu'ils se déforment » [Bachelard, 1988, p.113]. La pénombre conceptuelle est une bipolarité

de termes, théories ou systèmes opposés juxtaposés de façon complémentaire : la

« philosophie du non [...] ne vise qu'à des systèmes juxtaposés, qu'à des systèmes qui se

mettent sur un point précis en rapport de complémentarité » [Bachelard, 1988, p.137]. Elle ne

remet pas en cause l'axiomatique identitaire dans la mesure où chaque pôle de la pénombre

garde son identité propre où tout terme tiers brille par son absence. C'est une pénombre

fallacieuse dans laquelle le positif et le négatif sont clairement distincts. D'ailleurs, « la

1. C'est nous qui soulignons.

120

Page 131: 2. Thèse_Doctorat_YJJ_Duplan.pdf

dialectique, explique Bachelard, [...] ne sert qu'à virer d'un système vers un autre »

[Bachelard, 1988, p.137]. Chaque système, à l'instar des termes de la bipolarité dialectique,

est identique à lui-même. Au lieu d'être diluée comme dans la synthèse hégélienne, la

contradiction est tout bonnement contournée par le biais de la juxtaposition complémentaire

des concepts. Le conflit des termes opposés n'a pas lieu et « la dialectique du

''surrationalisme'' bachelardien demeure respectueuse du vieil aristotélisme » [Wunenburger,

1990, p.184].

A l'inverse, Georgescu-Roegen [1970 et 1971] qualifie de dialectiques les concepts qui,

contrevenant au principe de non-contradiction, se recoupent dans une « pénombre

séparatrice » (un « médium commun » [Wunenburger, 1990, p.184]) qui est elle-même un

« concept dialectique ». S'inspirant d'Hegel, cet auteur explique que « le changement est la

source de tous les concepts dialectiques » [Georgescu-Roegen, 1970, p.32]. Puisque tout

changement est une transformation, un déplacement ou une durée, c'est la « continuité

intuitive », celle de la forme, de l'espace et du temps, qui caractérise la dialectique

roegenienne. Georgescu-Roegen fait bien la différence entre le continuum intuitif et le

continuum arithmétique : le second est une suite « de perles sur un collier, mais sans le fil » ;

le premier, « que ce soit dans l'Espace, dans le Temps, ou dans la Nature elle-même, constitue

un tout sans couture ». La connexité des concepts est le fondement même du continuum

intuitif. Chaque concept désignant un phénomène est relié à d'autres concepts ou en est le

prolongement. En effet, il n'y a pas de phénomène isolable, identique à lui-même ou

strictement distinguable. Tout phénomène est en transformation (ne serait-ce qu'à certaines

échelles d'observation), s'insère dans l'espace et dans le temps. Il n'est pas de processus où l'on

passe discrètement d'une forme à une autre, d'un espace à un autre, d'un moment à un autre. Et

le Temps et l'Espace et la Forme sont dialectiques. Ce sont toujours des pénombres

dialectiques qui recouvrent la trajectoire d'un processus ou d'une évolution. Le principe de la

dialectique roegenienne est celui du tiers inclus : un phénomène B est à la fois A et non-A (ou

encore A ).

La dialectique morinienne est intelligible dans la boucle générative, récursive ou

rétroactive

où les termes A et A se co-produisent l'un l'autre, tout étant à la fois complémentaires,

concurrents et antagonistes. Dans le même ordre d'idée, la dialectique lupasquienne est une

relation antagonique de « complémentarité contradictoire dynamique » (Lupasco, 1989) où

chaque terme possède les propriétés d'actualité et de virtualité. L'actualisation d'un terme n'est

121

A A

Page 132: 2. Thèse_Doctorat_YJJ_Duplan.pdf

pas la disparition de l'autre, mais est simultanément sa virtualisation. Les termes A et A , en

conflit dynamique, s'actualisent et se virtualisent réciproquement.

B. La logique systémique

La faculté de computer et de penser (de surcroît la vie elle-même) a pu émerger

certainement grâce à la possibilité de distinguer et de différencier l'être du non-être.

Computer, penser, c'est distinguer. Les phénomènes observés sont des transformations de

l'être en non-être, des liaisons et relations entre l'être et le non-être.

Computer, penser, c'est aussi relier. Il faut des principes de pensée qui distinguent et

conjoignent à la fois. Ce doit être des principes qui, au plan épistémique, sont en-deçà et au-

delà des principes du tiers exclus et du tiers inclus. Ces principes sont constitutifs de la

logique systémique. Ce sont quatre principes qui se différencient, se distinguent et se

complètent :

— le principe d'ipséité : A est soi-même ;

— le principe de distinction : A n'est pas à ;

— le principe de conjonction : A n'est jamais que A ;

— le principe du tiers inclus : on peut toujours concevoir B qui soit à la fois A et Ã.

Le principe d'ipséité légitime toute conceptualisation de phénomène qui maintient son

organisation ou qui demeure inchangé dans le Temps irréversible. Il fait pendant au principe

de distinction selon lequel un phénomène représenté par A est perceptible et différenciable de

tout autre phénomène désigné par Ã. Distinction non discrète car, comme l'exprime le

principe de conjonction, un phénomène prolonge et relationne toujours d'autres phénomènes.

Cela étant, il est toujours possible de concevoir un terme B qui symbolise la conjonction de A

et à d'où le principe du tiers inclus. La durée, l'espace et la morphologie de cette conjonction

définissent l'interrelation et la frontière commune de A et Ã. C'est un concept de bouclage qui

relie A à Ã. Par commodité B est lui-même représenté par des flèches en boucle. Il faut noter

que à n'est pas forcément l'opposé (subalterne, contraire, concurrent ou contradictoire) de A,

c'en est généralement une différenciation1.

Le principe du tiers inexclus peut être compris et expliqué dans les termes du

raisonnement récursif de Morin et du raisonnement par actualisation/virtualisation de

Lupasco, comme la boucle générative d'intelligibilité

1. Les oppositions entre le positif et le négatif, le noir et le blanc, le continu et le discontinu semblent être deshabitudes de pensée. Le bleu et le jaune sont-ils des opposés ? Les subalternes, contraires et contradictoiressont des différenciations parmi d'autres.

122

A Ã

Page 133: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Une boucle dont les termes A et à sont des moments d'actualisation et de virtualisation

réciproques. Une boucle dans laquelle A et à sont distincts, conjoints, et complémentaires. A

et à sont conjoints et complémentaires dans leur différence et différents dans leur conjonction

et complémentarité : A et à génèrent l'un l'autre par la conjonction de B. Seuls A et à sont

nécessaires et insuffisants pour concevoir B ; rapportés l'un à l'autre de manière récursive, ils

sont solidaires, inséparables, et permettent la conceptualisation de B.

Par la logique systémique, nous optons pour une pensée complexe et refusons toute

forme de réductionnisme comme l'analytisme et le causalisme. Mais nous reconnaissons la

nécessité cognitive de l'analytique en raison du besoin de distinguer et ne nions pas la

pertinence de la causalité pour les phénomènes mécaniques. A l'assertion de Lefebvre [1969,

p.221] « rien n'est à part » il faut joindre l'affirmation « tout se distingue ». Cette conjonction

ne fait qu'approuver la proposition de Delorme [2000, p.12] : « l'analyse exclut la complexité

alors que la complexité subsume l'analyse, lui reconnaissant une pertinence possible mais

seulement locale et circonscrite ». Au plan épistémique, la logique systémique fait pendant à

la boucle

qui lie l'analytique et la dialectique. C'est la boucle générative de la compréhension et de

l'explication. Computer, penser, c'est analyser et dialectiser. Analyser c'est distinguer, c'est-à-

dire abstraire le réel, le percevoir hors de ses déterminations, son contexte et son

environnement. Et dialectiser, c'est considérer le réel dans ses rapports et ses relations

concrets. Par la conjonction de l'analytique et de la dialectique, la logique systémique noue

l'abstrait et le concret. Abstraction et concrétisation sont des moments indissociables de la

pensée :

« Tout progrès de la connaissance est va-et-vient de l'esprit entre l'abstrait et le concret »

[Bartoli, 1991, p.56]

La pensée scientifique est inconcevable sans la logique systémique et il faut l'émergence

d'une pensée scientifique pour concevoir la logique systémique. La pensée émergente est la

pensée chaosmique que légitime la logique sytémique. Cette pensée enveloppe et développe la

soutenabilité complexe.

123

Analytique Dialectique

Abstraction Concrétisation

Page 134: 2. Thèse_Doctorat_YJJ_Duplan.pdf

2.2. La méthodologie de la complexité

Système, organisation et complexité sont les concepts-clés de la pensée chaosmique

dont ils sont à la fois l'ouverture et la fermeture. Axée sur la logique de la complexité, la

méthode de la complexité encore appelée approche systémique est fondée sur les principes de

conceptualisation et de modélisation des systèmes complexes et sur ceux des processus

organisationnels.

A. Le système de l'organisation...

Dans ce qui suit, nous proposons de définir le concept de système, caractériser sa

complexité et présenter la méthode de représentation du système général.

a. Le système et sa complexité

Système et organisation sont deux concepts distincts qui se définissent l'un par rapport à

l'autre. En tant que phénomène global et émergence, le système est « le visage extériorisé » de

son organisation [Morin, 1977, p.145]. C'est un complexe d'interrelations entre composants,

actions ou individus, une unité globale organisée en fonction de ses finalités.

Souvent, les systèmes s'emboîtent comme des « poupées russes » [De Rosnay, 1975].

Le système est composé d'autres systèmes appelés sous-systèmes et est lui-même une

composante ou sous-système d'un système qui l'englobe (figure 3.1).

Nous appelons péri-système, environnement ou milieu ambiant son complémentaire

dans le système englobant qui se trouve dans sa continuité spatiale ou avec lequel il interagit.

Il n'y a pas de frontière qui isole strictement le système de son environnement. Tout au moins,

124

Sous-système

Système

Système englobant

Péri-système

Figure 3.1. L'emboîtement des systèmes et sous-systèmes

Page 135: 2. Thèse_Doctorat_YJJ_Duplan.pdf

ils partagent le même espace et coévoluent dans le même flux temporel. Conçu par nécessité

méthodologique, la notion de frontière « révèle l'unité de la double identité qui est à la fois

distinction et appartenance » [Morin, 1977, p.204], distinction de l'être-système de son

environnement et appartenance de la frontière à l'un et à l'autre.

La complexité systémique relève de l'indétermination du système, de ses interactions

avec son environnement et de son irréductibilité à sa seule totalité comme à ses seules parties.

On se réfère à cette pensée de Pascal pour mettre en évidence l'intelligibilité de la complexité

systémique : « toutes choses étant causées et causantes, aidées et aidantes, médiatement et

immédiatement, et toutes s'entretenant par un lieu naturel et insensible qui lie les plus

éloignées et les plus différentes, je tiens impossible de connaître les parties sans connaître le

tout, non plus que de connaître le tout sans connaître particulièrement les parties » [Pascal,

1976, p.132]. La compréhension du système en tant que « tout » et « parties » nécessite de

mettre en relation le tout et les parties et les relativiser réciproquement. C'est par le circuit

récursif

qu'on peut appréhender le système et l'organisation et en proposer une explication adéquate.

Pourtant, le système est indéterminé dans la mesure où il est impossible de distinguer le tout

qui est dans la partie de la partie qui est dans le tout, la société qui est dans la personne du

point de vue de ses éléments et contraintes culturels et la personne qui est physiquement dans

la société avec sa culture.

Le système, lui-même dépendant de ses éléments ou sous-systèmes, pour parvenir à ses

fins, fait peser des contraintes sur ses parties et leur laisse des marges de liberté. C'est donc

dans l'ordre, le désordre et le méta-ordre que se manifeste l'organisation du système. D'une

part, les contraintes assurent l'unité, les répétions et les régularités des relations

organisationnelles, d'autre part, les libertés d'où émergent l'incertitude, l'aléa et le hasard

rendent possibles accidents, événements, déviances et perturbations. Dans cet ordre d'idée,

l'antagonisme et la complémentarité des parties sont intrinsèques à l'organisation systémique :

« toute relation organisationnelle, donc tout système comporte et produit de l'antagonisme en

même temps que de la complémentarité » [Morin, 1977, p.119].

A la complexité du système sont liées trois autres caractéristiques : l'émergence,

l'inhibition et la spécificité. Ces phénomènes sont appréhendés en rapportant récursivement le

tout au tout, les parties aux parties et le tout à la somme des parties. L'émergence est une

propriété nouvelle qui apparaît au niveau global ou au niveau local du système mais qui

disparaît lorsque les composants sont séparés. Dans le cas d'une émergence globale, on dit que

125

Tout Parties

Page 136: 2. Thèse_Doctorat_YJJ_Duplan.pdf

le tout est plus que la somme des parties ; dans celui d'une émergence locale, les parties sont

plus que les parties. A l'inverse, des propriétés des parties qui se manifestent hors système

peuvent être inhibées ou réprimées à l'intérieur de ce dernier. En ce sens, le tout est moins que

la somme des parties et les parties moins que les parties. La spécificité est le fait des scissions

et de l'ignorance mutuelle entre les parties et le tout ou entre les parties elles-mêmes.

L'incapacité du tout de combler ces lacunes signifie que le tout est moins que le tout. Par

contre, en raison de ses potentialités organisationnelles et organisatrices de rétroagir sur ses

parties, le tout est plus que le tout [Morin, 1977].

b. Le systèmescope

Pascal nous enjoint certes à comprendre tout système par la conjonction des niveaux

local et global. N'est-ce pas encore lui qui s'exclame avec un verbe tout héraclitéen : « tout est

un, tout est divers. Que de natures en celle de l'homme ! » [Pascal, 1976, p.86] ? Le système

est unitas multiplex, « une unité qui vient de la diversité, qui lie de la diversité, qui porte en

lui de la diversité, qui organise de la diversité, qui produit de la diversité » [Morin, 1977,

p.145]. Pour mieux le connaître et le comprendre, il convient d'en avoir une vision

polyoculaire. En général, un phénomène complexe peut être perçu et conçu sous plusieurs

angles d'intelligibilité c'est-à-dire à différentes échelles, sous différents aspects, suivant

différents points de vue, sur différents plans, selon différentes finalités. Et donc on peut en

construire plusieurs modèles. Justement, « il sera [...] a priori toujours possible de concevoir

et de construire bien des systémographies différentes du même objet » [Le Moigne, 1990,

p.70]. Une pièce de monnaie, par exemple, est à la fois un objet physique et un objet social ;

elle peut être perçue, d'un point de vue physique, aux échelles microscopique, mesoscopique

et macroscopique, et d'un point de vue social, aux niveaux microéconomque,

mésoéconomique, et macroéconomique.

Chaque angle d'intelligibilité est nécessaire et insuffisant à lui seul pour appréhender la

complexité du réel. Chaque angle d'intelligibilité est à la fois séparé et inséparable. Séparé, il

apporte par lui-même de nouveaux éclairages sur le phénomène observé, peu importe que

l'angle d'intelligibilité en question soit révélateur de contradiction ou de paradoxe pourvu qu'il

ne s'agisse pas d'un diagnostic erroné ou d'une erreur de pensée ; inséparable, il est

indispensable pour concevoir son unité et sa totalité. Nous appelons systèmescope,

l’instrument conceptuel qui permet d'appréhender et de comprendre la réalité sous divers

angles d'intelligibilité lesquels sont reliés par une boucle récursive d'actualisation et de

virtualisation. Il convient, en principe, de les relier parce qu'il s'agit du même objet considéré.

Tout angle d'intelligibilité est un angle fermé et ouvert. En effet, tout modèle qui, fermé i.e.

126

Page 137: 2. Thèse_Doctorat_YJJ_Duplan.pdf

par ses propres démarches, saisit la réalité sous un certain angle doit s'ouvrir à d'autres

modèles présentant d'autres angles d'intelligibilité. Ce principe que nous pourrions qualifier

de systèmescopique reconnaît la multidimennsionalité et l'unité dimensionnelle de tout

système complexe et exhorte à l'inter-trans-pluridisciplinarité.

c. La représentation du système général

Tout système à représenter est un phénomène en activité dans un environnement perçu

actif. Ce pourquoi la modélisation systémique « part de la question ''qu'est-ce que ça fait,

pourquoi ?'' » [Le Moigne, 1999, p.81]. Modéliser un système c'est le représenter comme le

« Système Général » [Le Moigne, 1990 et 1999b] c'est-à-dire l'identifier dans son

environnement et concevoir ses finalités, fonctions et transformations (figure 3.2).

Le Moigne appelle « systémographie » la procédure de modélisation qui consiste à

concevoir un phénomène perçu complexe comme et par un Système Général.

Systémographier, c'est représenter un objet (système de départ) par un modèle (système

d'arrivée) avec lequel il est « correspondance homomorphique » et qui soit « isomorphe du

système général ». Le modélisateur lui-même muni de ses outils de modélisation (crayon,

stylo, feuille de papier, ordinateur, microscope, etc.) fait partie intégrante de la

systémographie. En interaction avec l'objet à modéliser, il élabore ses projets de modélisation

en finalisant le modèle de cet objet.

B. ... Et l'organisation du système

Ici, nous nous efforcerons de définir le concept d'organisation, caractériser sa

complexité et présenter la méthode de sa modélisation.

a. L'organisation et sa complexité

« Visage intériorisé » de son système, l'organisation est son caractère structurel,

127

Fonctions

Finalités

Environnement Transformations

Figure 3.2. Le tétralogue de la représentation du système général

Page 138: 2. Thèse_Doctorat_YJJ_Duplan.pdf

interrelationnel, articulaire et praxique. Elle traduit « l'agencement des relations entre

composants ou individus qui produit une unité complexe ou système » [Morin, 1977, p.103].

Par l'organisation on peut se « rendre compte à la fois du comportement de chacun des

niveaux projectifs que l'on a attribués au système et de l'articulation entre ces niveaux, sans

les séparer » [Le Moigne, 1999, p.75].

Système d'actions, l'organisation est une « unité active » [Perroux, 1975].

L'irréductibilité des « multiples actions qu'elle assure, transitives et récursives, au cours du

temps » [Le Moigne, 1999, p.76] et qui s'imbriquent les unes sur les autres traduit sa

complexité. C'est de l'« organisaction » qu'il s'agit si l'on veut bien accepter ce néologisme de

Morin. Organisactionnel, le système agit sur et dans l'environnement qui, par des flux et des

champs, l'affecte et l'altère. Dans son « fonctionnement synchronique » [Le Moigne, 1999], le

système est ouvert sur son environnement avec lequel il entretient des relations déterminées,

incertaines et aléatoires. Ce sont des relations écologiques. L'organisation du système est en

fait une éco-organisation.

Grâce à et à cause de son environnement, le système doté de capacités régulatrices est

une « machine productrice-de-soi » [Morin, 1977]. Il ne se contente pas d'être au gré des

forces externes, il peut se produire, se générer, s'organiser soi-même. L'organisation n'est pas

seulement écologisée, elle est aussi autonomisée, autopoïétique, disons bouclée par des

processus internes. L'ouverture du système, de manière conflictuelle et complémentaire,

s'associe à sa fermeture (ou sa clôture) gage de son autonomie. L'éco-organisation est en

même temps auto-organisation, l'organisation de soi par soi-même. Le système est à la fois

éco-organisation dans ses rapports avec son environnement et auto-organisation par son

fonctionnement propre.

Pour maintenir son être et pérenniser son existence, le système éco-auto-organisé et

organisateur, se ré-pare, se ré-génère, se re-produit, se ré-organise en permanence. Le

processus du système est récursif, récursion dans le sens de « transformation diachronique »

[Le Moigne, 1999] où le système est à la fois cause et conséquence, produit et producteur de

lui-même. L'éco-auto-organisation est également re-organisation : « auto-organisation et éco-

organisation, précise Morin [1980, p.333], sont chacune à leur manière, mais

fondamentalement l'une et l'autre, des RE-organisations ». L'organisaction est éco-auto-re-

organisation. L'approche organisactionnelle de Morin se tient dans la boucle récursive :

C'est d'elle qu'émerge l'intelligibilité de l'organisation systémique.

128

Auto Eco Re Organisation

Page 139: 2. Thèse_Doctorat_YJJ_Duplan.pdf

b. L'organisation comme un processus

Le processement est un changement irréversible de forme, de temps et d'espace tandis

qu'un processus est un complexe d'actions reconnaissable par son exercice et son résultat. En

tant que système d'actions, l'organisation est un processus que l'on peut représenter dans le

référentiel « Espace-Forme1, Temps ». On peut donc modéliser une organisation, en

articulant, d'une part, les fonctions E et F, de transfert spatial et de transformation

morphologique, et d'autre part, la fonction T de transfert temporel (figure 3.3). Les processus

associés aux fonctions E, F, T sont d'ordre énergétique, matériel et informationnel. Ce sont

respectivement les processus de transport et de transmission, de traitement et de computation,

de stockage et de mémorisation [Le Moigne, 1990 et 1999b].

On appelle processus élémentaire tout processus interne d'une organisation que le

concepteur-modélisateur, en fonction de ses finalités, distingue et considère comme une unité.

Il est possible de différencier trois types de processus élémentaires : les processus de transfert,

de transport ou de transmission, les processus de transformation de traitement ou de

computation et les processus de stockage, d'emmagasinage ou de mémorisation. Les

interrelations entre les processus élémentaires eux-mêmes, entre ceux-ci et le milieu extérieur,

définissent la structure organisationnelle du système. Dans un système constitué de N

processus élémentaires, il y a 2N 2

interrelations. Le logarithme (à base 2) de ce nombre définit

la variété du système : V=log2 2N 2 N 2 .

Un processus élémentaire est aussi caractérisé par les valeurs de ses composants. Ces

derniers sont définis par rapport à l'espace et à la forme et sont fonction de la période

considérée par le concepteur-modélisateur.

1. La forme doit être entendue ici dans son sens général d'organisation identifiée par un acte cognitif deperception.

129

Forme

Figure 3.3. Représentation d'un processus dans le référentiel « E-F, T »

Espace

Temps

P1

P2

Page 140: 2. Thèse_Doctorat_YJJ_Duplan.pdf

On peut distinguer trois catégories de composants : les flux, les fonds et les stocks

(figure 3.4). Les éléments de flux correspondent aux quantités d'agents, de substance, de

matière, d'énergie et d'information qui, au cours d'un intervalle de temps, rentrent dans le

système, participent à des processus élémentaires et en sortent plus ou moins transformés. Les

flux peuvent être le fait d'un stockage, d'un déstockage ou de la transformation d'éléments par

le processus. Trois sortes de flux sont à considérer : les intrants (input), les extrants (output) et

les traversants (throughput). L'intrant provient du système lui-même ou de son

environnement, y rentre pour participer au processement ; le traversant désigne un élément en

cours d'être processé ; l'extrant revient au système ou en sort pour rejoindre le milieu

extérieur.

130

Bouclage

Intrant (t) Extrant (t)Traversant (t)

Fig 3.4. Caractérisation d'un processus à la période t

Fonds (t)

Stock (t)

+

+

-

+

Amplification Compensation

Progressive

-

-

Régressive +

-

Tableau 3.2. Différents types de bouclages

Page 141: 2. Thèse_Doctorat_YJJ_Duplan.pdf

On parle de bouclage (feedback) lorsqu'un processus utilise son propre extrant comme

intrant : de recyclage s'il s'agit d'un processus matériel ou énergétique, de rétro-information si

c'est un processus informationnel. Lorsqu'on compare la trajectoire de l'évolution de

l'organisation par rapport à un état donné, on peut distinguer quatre types de bouclages

(tableau 3.2) :

— le bouclage d'amplification progressive : l'organisation tend à s'écarter positivement de

l'état considéré ;

— le bouclage d'amplification régressive : l'organisation tend à s'écarter négativement de l'état

considéré ;

— le bouclage de compensation progressive : s'écartant négativement de l'état considéré, elle

tend à y revenir par des écarts positifs ;

— le bouclage de compensation régressive : s'écartant positivement de l'état considéré, elle

tend à y revenir par des écarts négatifs.

Le bouclage amplificateur caractérise les phénomènes instables explosifs. Le bouclage

compensateur est caractéristique des phénomènes de régulation ; il est à l'œuvre dans les

organisations stables et les systèmes auto-organisateurs.

Les éléments de fonds représentent les agents qui, au cours de la période considérée,

processent les intrants en extrants, c'est-à-dire qu'en général, ils utilisent ou agissent sur les

flux. Le fonds est un agent d'« efficacité constante » qui, grâce à la maintenance, est capable

d'avoir la même fonction. En outre, le même fonds peut, au cours d'une période donnée, offrir

ses services à plusieurs processus.

Les stocks sont les éléments conservés à l'intérieur du système du début à la fin de la

période.

Évidemment, le processus est dynamique, l'intrant devient un stock, un fonds ou un

traversant, qui à son tour sera un extrant qui, peut-être, pourra boucler le processus en

devenant un intrant.

Les flux qui relient les processus de l'organisaction avec son environnement sont d'ordre

informationnel, matériel ou énergétique. Nous pouvons caractériser l'ouverture et la fermeture

du système suivant le type de flux qu'ils échangent. Nous disons que le système est fermé s'il

ne réalise aucun échange avec son environnement et clos si l'échange est seulement d'ordre

énergétique. Le système est dit semi-ouvert ou semi-clos s'il échange de la matière et ouvert

s'il échange de l'information. Notons qu'un échange de matière s'accompagne nécessairement

d'un échange d'énergie et qu'il ne peut y avoir d'échange d'information sans échange de

matière ou d'énergie.

En tant que processus, l'organisation d'un système complexe évolue dans le temps

131

Page 142: 2. Thèse_Doctorat_YJJ_Duplan.pdf

irréversible. Les états (variables caractéristiques du système) et régimes (équilibre, non-

équilibre) du système permettent de caractériser son évolution. On distingue les régimes

transitoires et stationnaires, les états d'équilibre et de non-équilibre. L'organisation est dans un

régime transitoire si les variables caractéristiques de ses propriétés évoluent dans le temps.

Dans un régime stationnaire, elles demeurent invariantes par rapport au temps. Le régime

d'une organisation peut être tout à fait ambigu : il est en régime transitoire par rapport à

certaines variables et en régime stationnaire par rapport à d'autres. C'est le cas des

organisations vivantes qui sont en équilibration homéostatique.

Hors équilibre, l'organisation est sujette à l'évolution. A l'équilibre, l'organisation ne se

prête à aucune évolution spontanée ; Les forces et les échanges susceptibles de provoquer une

modification de son régime se compensent mutuellement. On dit que l'organisation est en

équilibre statique si le système est fermé ; sinon elle est en équilibre dynamique. Lorsqu'après

une perturbation générée par le milieu extérieur, le système tend à revenir à un état

d'équilibre, on est en présence d'un équilibre stable. Quand l'équilibre se rétablit uniquement

pour de faibles modifications, il est qualifié d'instable. L'équilibre est dit métastable si une

intervention externe peut faire évoluer le système vers un autre régime d'équilibre.

Dans la plupart des cas, c'est via un régime transitoire que l'organisation passe d'un

régime stationnaire à un autre. Le cours de son évolution suit en général une trajectoire le long

de laquelle ses états et régimes changent avec le temps. Le processus de l'organisation est

irréversible, si la trajectoire ne peut être parcourue que dans un sens. Nous disons, à l'instar de

Fer [1977], qu'il est impossible à l'organisation de retourner d'un état ou régime à un autre,

sans porter atteinte à son milieu extérieur, en parcourant en sens inverse la trajectoire sur

laquelle, au bout de chaque variation de temps, l'organisation retrouve successivement les

états et régimes intermédiaires. Lorsqu'on décrit la trajectoire du système par l'équation S = S

(t), l'irréversibilité signifie que cette relation est modifiée si l'on inverse le sens du temps

(représenté par le signe algébrique de t) : S≠S −t . Si la trajectoire peut être parcourue

dans les deux sens sans modifier son environnement, le processus est réversible. Dans ce cas,

l'équation représentative de la trajectoire est invariante au sens du temps S=S t =S −t .

S'il est possible de retourner de B à A par une autre trajectoire, on parle d'inversibilité de

l'évolution. Si l'état A ne peut être atteint plus d'une fois, l'évolution à partir de A est

irrévocable. Une suite de transformations irrévocables donne lieu à un processus irréversible.

De même, l'irréversibilité d'un processus implique l'inversibilité des processus intermédiaires.

132

Page 143: 2. Thèse_Doctorat_YJJ_Duplan.pdf

3. L'évolution entropique des systèmes

L'évolution entropique des systèmes est irréversible et conditionne l'unidirectionnalité

du temps. Cette problématique est traditionnellement le projet de connaissance de la

thermodynamique. On distingue deux approches de l'évolution des systèmes physiques : d'une

part, l'approche phénoménologique adoptée par la thermodynamique classique née des

travaux de Carnot et de Clausius et par la thermodynamique des processus irréversibles

impulsée par Prigogine et, d'autre part, l'approche mécaniste de la thermodynamique

statistique instiguée par Boltzmann et de la thermodynamique probabiliste développée par

Tonnelat. Si le principe d'irréversibilité de l'évolution des systèmes admis a priori par

l'approche phénoménologique fait l'objet d'un consensus scientifique, les propositions, à ce

sujet, de l'approche mécaniste sont critiquables.

Dans cette section, nous commenterons les différentes conceptions de l'évolution

physique des systèmes d'après l'approche phénoménologique (3.1) et l'approche mécaniste

(3.2).

3.1. L'approche phénoménologique

Dans la thermodynamique classique et la thermodynamique des processus irréversibles,

l'évolution des systèmes a trait à leurs transformations physiques. Le principe explicatif du

sens de l'évolution et de l'irréversibilité des transformations est le principe d'entropie.

A. Les transformations physiques

Les transformations physiques sont de deux ordres. Ce sont les conversions

énergétiques et les changements de structure de la matière.

a. Les conversions énergétiques

L'énergie est déterminée par les variables caractéristiques de l'état thermodynamique

telles la pression, la température, le volume, la composition physique et chimique du système,

etc. On dit que l'énergie est une fonction d'état. Elle est égale à la quantité de travail que le

système échange avec le milieu extérieur lors d'un processus adiabatique1. En général,

l'énergie d'un système est divisée en deux parties suivant les paramètres qui contribuent à son

existence : l'énergie interne, fonction des paramètres propres au système, et l'énergie externe,

1. Le travail dW est défini comme le produit d'une force F par un déplacement dl : dW = F dl. Les forcesgénérant un travail sont les forces de pression, de tension, cinétiques, magnétiques, électriques, chimiques. Unprocessus adiabatique est un processus suivant lequel le système n'échange que du travail avec sonenvironnement.

133

Page 144: 2. Thèse_Doctorat_YJJ_Duplan.pdf

fonction des champs extérieurs imposés au système1 [Perrot, 1994].

On parle d'équivalence énergétique du fait que les formes d'énergie sont

interchangeables c'est-à-dire qu'il est possible de convertir une forme F1 en une forme F2, et

vice versa. Le « principe de conservation de l'énergie » traduit quantitativement l'équivalence

des formes d'énergie. Ce principe dit premier principe de la thermodynamique que Clausius

[1991, Mémoire I, p.22] dénomme « principe de l'équivalence de l'énergie et du travail »,

s'énonce comme suit : « Dans tous les cas où la chaleur produit du travail, une quantité de

chaleur proportionnelle au travail produit se trouve consommée et, réciproquement, la même

quantité de chaleur peut être produite par la consommation de cette même quantité de

travail ». Lors d'une transformation, la variation, dE, d'énergie d'un système est égale à la

somme algébrique des quantités d'énergie calorifique, dQ, et mécanique, dW, échangées avec

le milieu extérieur :

d E=d Qd W (3.1)

Lorsque le système échange avec le milieu extérieur une quantité d E e d'énergie pendant un

certain intervalle de temps, la conservation de l'énergie signifie que la variation de l'énergie

globale du système et la quantité échangée sont algébriquement égales :

d E=d E e (3.2)

Si le système est fermé, l'énergie globale est constante :

d E=0 ⇔d Q=−d W (3.3)

La conservation de l'énergie signifie, en fait, que le passage d'une forme d'énergie à une autre

ne fait pas de varier la quantité d'énergie mise en jeu dans la conversion.

Lors de la transformation physique d'un système, une partie de son énergie se

transforme inévitablement en chaleur dégradée. Dégradée dans le sens où, pour une même

quantité d'énergie, la chaleur permet d'obtenir moins de travail par comparaison aux autres

formes d'énergie ; la chaleur est d'autant plus dégradée que la température du système est

faible. En général, la qualité d'une unité d'énergie est d'autant plus grande qu'elle est capable

de fournir du travail. Une hiérarchisation qualitative des formes d'énergie fait apparaître trois

niveaux [Brillouin, 1958 ; Brunhes, 1991] :

— les formes supérieures comme la lumière cohérente, les énergies nucléaire, mécanique,

élastique, électrique ;

— les formes moyennes comme les énergies chimiques ;

— les formes inférieures comme la chaleur, la lumière du rayonnement de corps noir.

Si la conversion d'une forme supérieure d'énergie en une forme inférieure est un

processus pratiquement spontané, la transformation inverse nécessite l'intervention du milieu

1. L'énergie est mesurée en calorie, joule, british thermal unit, etc.

134

Page 145: 2. Thèse_Doctorat_YJJ_Duplan.pdf

extérieur, est difficilement réalisable et implique néanmoins une transformation irréversible

équivalente à une dégradation énergétique non compensée ou, dans le langage de la

thermodynamique des processus irréversibles, à une déperdition des forces

thermodynamiques qui pourraient contrecarrer la dégradation de l'énergie. Les processus de

dégradation irréversible sont dus à un certain nombre de facteurs inévitables tels les

hétérogénéités de température ou de concentration, les phénomènes de frottement

(mécanique) ou d'hystérésis (mécanique, diélectrique, magnétique), les phénomènes de

viscosité (fluide, solide, chimique, résistance électrique) [Fer, 1977].

b. Les transformations de la matière

La matière – l'or, l'eau, l'air, etc. – est un système de particules en mouvement organisé

suivant le cas en atomes, ions ou molécules. Les particules sont caractérisées par leurs charges

(positive, négative ou neutre) et leurs masses. Elles peuvent se retrouver dans deux zones de

l'atome : l'une occupée par le noyau, la zone nucléaire ; l'autre autour du noyau, la zone

orbitale. Les éléments constitutifs du noyau sont les nucléons divisés en protons (particules

chargées positivement) et en neutrons (particules électriquement neutre). Dans la zone

orbitale, les électrons (particules chargées négativement) se meuvent de manière aléatoire et

sont plus ou moins liés au noyau. Un atome comporte autant de protons que d'électrons. On

dit qu'il est électriquement neutre.

L'état caractéristique de l'électron est donné par sa « couche énergétique », c'est-à-dire

la quantité d'énergie qu'il faut dépenser pour l'arracher du noyau. Plus l'électron est proche du

noyau plus sa couche est profonde. Le nombre d'électrons par couche d'énergie est limité. La

couche la plus profonde, la plus proche du noyau, ne peut contenir plus de deux électrons.

L'ordre de grandeur d'une couche est si important que dans un processus physique ou

chimique seuls quelques électrons externes peuvent changer d'état. Ce sont les électrons des

couches superficielles, les plus éloignés du noyau, qui assurent les liaisons interatomiques et

de covalence dans la matière condensée et dans la molécule. On représente un atome par la

formule XZA , où X est le symbole de l'atome, Z son numéro atomique (nombre de protons) et

A son nombre de masse (nombre de nucléons). Les trois atomes d'uranium U92234 , U92

235 et

U92236 appelés uranium 234, uranium 235 et uranium 236 comportent respectivement 234,

235 et 236 nucléons et contiennent chacun 92 protons.

Une molécule est un système stable d'atomes liés entre eux, disposés suivant une

structure bien définie. Le schéma descriptif de la molécule donne la positon des atomes

constituants et l'état des électrons de liaison. Par exemple, la structure de la molécule de

135

Page 146: 2. Thèse_Doctorat_YJJ_Duplan.pdf

méthane, CH4, constituée d'un atome de carbone et de quatre atomes d'hydrogène, est

représentée de la manière suivante :

Un ion est un atome ou plusieurs atomes liés entre eux qui ont gagné ou perdu des

électrons. Un ion positif (négatif) ou cation (anion) a plus de protons (électrons) que

d'électrons (protons). Le cation cuivre Cu2+ dérive de la perte de deux électrons par l'atome de

cuivre Cu et l'anion chlore Cl- du gain d'un électron par l'atome de chlore.

D'ordinaire, on distingue trois phases ou états de la matière : solide, liquide et gaz. Si la

molécule est, en règle générale, la particule de base (ou le constituant élémentaire) de la

matière à l'état gazeux, ce n'est pas toujours le cas pour les solides et les liquides. Ces derniers

peuvent être construits à partir d'atomes ou d'ions. Les différentes transitions, ou changements

de phase, entre le solide, le liquide et le gaz sont résumés par la figure 3.5.

'

136

••

• •

•C

H

H H

H

ORDRE DÉSORDRE

Solide Gaz

T

C

Pression

Température

Liquide

Figure 3.6. La dichotomie de l'état ordonné et de l'état désordonné de la matière

Solide Liquide Gaz

Fusion LiquéfactionCondensation

SublimationSolidification Vaporisation

(évaporation)

Figure 3.5. Les changements de phase de la matière

Page 147: 2. Thèse_Doctorat_YJJ_Duplan.pdf

L'état matériel d'un système dépend de son volume, de sa pression..., et en général de sa

température. Les trois états peuvent être représentés comme des régions du champ (Pression,

Température) séparées par les lignes d'équilibre de changement de phase passant par le point

triple T et le point critique C (figure 3.6). En deçà du point critique, les transitions de

vaporisation ou de liquéfaction, de condensation ou de sublimation, sont effectuées de façon

discontinue ; au-delà elles sont plutôt progressives. En général, les transitions de sublimation

ou de condensation, de fusion ou de solidification, ne peuvent être réalisées que de manière

discontinue. Contrairement aux changements d'état entre le liquide et le gaz, il n'est pas

possible de passer au solide ou de transformer une matière solide sans franchir une « ligne de

partage » (courbe en gras sur la figure 3.6) qui distingue discrètement l'état solide des états

liquides et gazeux. A ce titre, Guinier [1980 et 1981] divise les états ou structures de la

matière en deux classes : la classe des « structures ordonnées » où se rangent les solides

cristallisés et la classe des « structures désordonnées » formée des liquides, des gaz et de

certains solides comme les verres. A ces structures sont intimement liées les propriétés

émergentes de la matière.

L'état désordonné est caractérisé par la faiblesse des interactions et de cohésion entre les

particules de base et la (quasi) absence de règle de détermination de leurs positions et

directions. Le gaz est l'état le plus désordonné : sa très faible densité ne favorise aucune

interaction entre les molécules et leurs positions sont complètement indéterminées. A

l'inverse, dans l'état ordonné, la structure de la matière est réglée ; les particules de base sont

liées et disposées avec rigueur et régularité. L'état parfaitement ordonné est celui du cristal

dont la structure est une répétition d'un motif d'atomes. Nombre de structures matérielles ne

sont ni tout à fait ordonnées ni tout à fait désordonnées. C'est de la matière dans des états

intermédiaires, des structures « mal cristallisées ou douées d'un ordre cristallin partiel » qui

présentent des imperfections, des irrégularités, des fautes d'ordre... [Veyssié, 1981]. Les

plastiques, les cristaux liquides, les tissus vivants sont des structures intermédiaires.

Quelle que soit la structure de la matière, ses constituants élémentaires sont en agitation

perpétuelle. A l'état désordonné, les molécules s'activent de façon irrégulière ; à l'état

ordonné, les atomes vibrent autour d'un point fixe, maintenus par les forces de cohésion du

solide. Par conséquent, là où il y a de la matière, il y a toujours de l'énergie d'agitation. Celle-

ci ne varie qu'avec la température et en est fonction croissante1. « Les particules de base [sont]

soumises à un mouvement perpétuel que nous ne pouvons ni accélérer ni ralentir, à une

1. Au zéro absolu, l'énergie d'agitation devrait être nulle. Cela n'est pas possible puisque suivant le troisièmeprincipe de la thermodynamique dit principe de Nerst, le zéro absolue est inaccessible.

137

Page 148: 2. Thèse_Doctorat_YJJ_Duplan.pdf

température donnée » [Guinier, 1981, p.37]. La structure matérielle d'un système en état

stationnaire ne peut évoluer indépendamment d'intervention externe susceptible de modifier

la température.

Les transformations de la matière se font par ionisation, par changement de phase ou par

(dé)structuration atomique ou moléculaire.

B. Le principe d'entropie

La formulation du principe d'entropie diffère suivant qu'il s'agit d'un système proche de

l'équilibre ou loin de l'équilibre. Le premier cas convient à l'énoncé de Carnot-Clausius ; dans

le second cas, on peut appliquer la formulation de Prigogine.

a. L'énoncé de Carnot­Clausius

Dans son mémoire « Réflexions sur la puissance motrice du feu et sur les machines

propres à développer cette puissance », Carnot cherche à démontrer qu'une quantité de

« puissance motrice »1 due à un échange de chaleur est indépendante des systèmes utilisés

pour effectuer l'échange thermique et que seules leurs températures interviennent. Dans ce

cadre, il établit que « la production de la puissance motrice du feu est [...] due, dans les

machines à vapeur, à son transport d'un corps chaud à un corps froid » [Carnot, 1990, p.10].

Sur cette base, Clausius [1991, Mémoire IV, p.138, note 1] pose l'axiome, qui lui permettra

d'établir le principe d'entropie, à savoir que « la chaleur ne peut pas passer d'elle-même d'un

corps froid à un corps plus chaud ».

Considérons un système physique qui reçoit de son environnement une quantité de

chaleur infiniment petite égale à dQ (dQ > 0). L'échange calorifique modifie l'état du système

et se traduit par des transferts de chaleur entre les parties du système. Une quantité de chaleur

dH (dH > 0) passe d'une partie du système de température T1 à une autre partie à la

température T2.

Clausius fait remarquer que sans compensation énergétique, l'inégalitéd HT 2

≥d HT 1

(3.4)

est la seule possible. La situation inverse signifierait la possibilité que la chaleur passe d'elle-

même d'un corps froid à un corps plus chaud (T1 < T2), résultat qui contredirait l'axiome de

Carnot. Clausius en déduit « le principe d'équivalence des transformations » selon lequel la

production de la quantité dH de chaleur à la température t au moyen du travail aura la « valeur

1. Par puissance motrice on entend énergie calorifique.

138

Page 149: 2. Thèse_Doctorat_YJJ_Duplan.pdf

d'équivalence »d H

T et le passage de la quantité de chaleur dH de la température t1 à la

température t2 la valeur d'équivalence d H 1 T 2

− 1 T 1

, où T est une fonction de la

température, indépendante de la nature de l'opération par laquelle s'est effectuée la

transformation. [Clausius, 1991, Mémoire IV, p.148-149]. Dans le cas d'un gaz qui ne reçoit

de chaleur que du milieu extérieur et se dilate à température constante. Clausius montre que

la température absolue de Kelvin T est fonction linéaire de la température empirique t : T

(K) = 273 + t(°C). La valeur d'équivalence d'une variation de chaleur est d'autant plus faible

que la température est élevée. C'est donc un indicateur exprimant la qualité de la chaleur :

plus grande est la valeur d'équivalence, plus la chaleur est dégradée.

L'échange calorifique ne modifie pas seulement le contenu en chaleur du système, il

génère aussi une quantité de travail dL. La quantité de chaleur nécessaire pour effectuer ce

travail est égale à AdL, A étant la quantité de chaleur par unité de travail. Le bilan énergétique

de l'échange est donc :

d Q=d H A d L (3.5)

Par la production de travail, l'échange de chaleur influe sur l'arrangement des particules

de base et, par voie de conséquence, a un impact sur la cohésion du système. Clausius appelle

« disgrégation » le degré Z de cohésion, de division ou la valeur de la transformation de

l'arrangement des constituants élémentaires. Cette grandeur n'exprime que la cohésion des

particules de base de la matière et ne concernant en rien ses propriétés. Complètement

déterminée par l'état du système, elle est un indicateur de sa structure matérielle : « La

disgrégation d'un corps est plus grande à l'état liquide qu'à l'état solide, et plus grande à l'état

gazeux qu'à l'état liquide. Si une certaine quantité de matière se trouve en partie solide, en

partie liquide, la disgrégation sera d'autant plus grande qu'une partie plus considérable de la

masse sera liquide ; de même, si une partie est liquide et l'autre gazeuse, la disgrégation sera

d'autant plus grande que celle-ci sera plus considérable »[Clausius, 1991, Mémoire VI,

p.265]. Au regard de la distinction effectuée par Guinier [1981], la disgrégation est le degré

d'ordonnancement de la structure matérielle du système.

Clausius explique, par ailleurs, que l'échange de chaleur provoque un changement de

disgrégation, en valeur absolue, plus important que la valeur d'équivalence de la chaleur

transformée en travail :

d Z A d LT

(3.6)

sous l'hypothèse que les différences de température sont à la limite négligeables. Au même

139

Page 150: 2. Thèse_Doctorat_YJJ_Duplan.pdf

titre que la dégradation énergétique, la perte de cohésion du système est irréversible, en

l'absence de compensation externe. Par conséquent, la matière ne peut passer spontanément de

l'état désordonné à l'état ordonné. Si nous appelons désagrégation le passage d'un état ordonné

à un état désordonné ou moins ordonné, ou le passage d'un état désordonné à un état plus

désordonné, la matière d'un système fermé ne peut que se désagréger, et ceci de manière

irrévocable. De ce point de vue, la disgrégation exprime la qualité de l'organisation de la

matière.

Clausius nomme « entropie » la somme S des valeurs des transformations du système.

La variation d'entropie due à l'échange de chaleur est égale à la somme des valeurs de

transformation du contenu calorifique et de la disgrégation du système :

d S=∫d HT

∫d Z (3.7)

Notons que l'entropie ainsi définie n'est valable qu'à l'équilibre puisqu'elle suppose

l'uniformité de la température à l'intérieur du système en évolution ou entre deux systèmes

communicant par échange de chaleur. Or il est pratiquement impossible d'échanger de la

chaleur sans qu'il apparaisse un gradient de température. La différence de température est

négligeable, par hypothèse, pour que la formulation de l'entropie soit acceptable. En somme,

l'entropie de Clausius n'a de sens qu'au voisinage de l'équilibre thermique (uniformité de la

température).

L'entropie est une fonction d'état. Il y a lieu de distinguer une entropie énergétique

équivalant à la valeur des transformations énergétiques et une entropie matérielle

correspondant à la disgrégation1. Ce sont deux composantes distinctes et inséparables

constitutives de l'entropie. L'entropie est la grandeur de la qualité matérielle et énergétique

d'un système physique ; l'ampleur de sa variation est la valeur du processus qui la provoque.

Tout processus physique génère à la fois de l'entropie énergétique et de l'entropie matérielle.

Plus élevée est l'entropie d'un système moins bonne est sa qualité énergétique et matérielle.

Clausius appelle « transformations non compensées » N l'écart entre la variation de

l'entropie et la valeur de la quantité de chaleur échangée :

N =d S−∫d QT

(3.8)

En effectuant la somme des variations calorifiques et utilisant les équations (3.5), (3.6), (3.7)

et (3.8), on déduit le principe d'entropie de Clausius : « des transformations non compensées

ne peuvent être que positives » [Clausius, 1991, Mémoire VI, p.290]. La grandeur N et la

variation d'entropie sont toujours positives N 0 et d S0 . En effet, la variation dS

1. La transformation de la masse en énergie entraîne une production d'entropie. Il en est de même pour lesprocessus de désintégration de noyaux atomiques ou de particules élémentaires.

140

Page 151: 2. Thèse_Doctorat_YJJ_Duplan.pdf

l'emporte sur la grandeur −∫dQT

lorsque que celle-ci est négative :

d S∫d QT

(3.9)

La grandeur N est, en fait, une production d'entropie non compensée, indéfectible dans un

système isolé (qui ne reçoit ni énergie ni matière). Sur ce, le principe d'entropie dit second

principe de la thermodynamique qu'il convient d'appeler principe de Carnot-Clausius stipule

que l'entropie d'un système isolé en évolution s'accroît spontanément de façon irréversible

jusqu'à son maximum : l'état ainsi atteint est l'état d'équilibre thermodynamique du système.

Quand la grandeur N est strictement positive, la transformation est irréversible ; quand

elle tend à s'annuler, la transformation est, à la « limite », réversible. L'irréversibilité est le

propre des transformations physiques. La réversibilité est un cas limite « cas que l'on peut

regarder comme possible en théorie, quoiqu'il soit impossible de le réaliser » [Clausius, 1991,

Mémoire IX, p.380]. La réversibilité est irréalisable ! Nombre d'auteurs qui reprennent les

idées de Clausius, sous le joug du mécanisme mentionnent à peine cette impossibilité et

posent l'égalité d S=∫d QT

au point de faire passer la réversibilité pour une vulgaire

possibilité. Très souvent, faisant peu de cas de l'œuvre de Clausius, surtout de la Théorie

mécanique de la chaleur qui rassemble ses dix-sept mémoires, les auteurs utilisent cette

relation pour définir l'entropie1. La simple présence des variables Q et T laisse croire que

l'entropie de Clausius est essentiellement énergétique. Un économicien aussi éminent que

Georgescu-Roegen va jusqu'à dire que « la fameuse proclamation de Rudolf Clausius

— ''l'entropie de l'univers tend continuellement vers un maximum'' — ne représente qu'une

vue tronquée de la réalité, étant donné qu'elle ne concerne que la dégradation de l'énergie »

[Georgescu-Roegen, 1995, p.173]. En réalité, l'égalité d S=∫d QT

est la traduction

mathématique de l'hypothèse de réversibilité à la limite, pas la définition de l'entropie qui est

donnée par la relation (3.7). L'entropie énergétique et l'entropie matérielle sont

consubstantielles dans l'entropie de Clausius2. Ce sont les deux faces d'une même pièce.

b. La formulation de Prigogine

Dans son Introduction à la thermodynamique des processus irréversibles, Prigogine

[1996] distingue deux composantes de la variation dS de l'entropie d'un système : la variation

1. Pour s'en convaincre, il n'y a qu'à consulter la plupart des manuels de thermodynamique.2. A priori, la face matérielle de l'entropie a été principalement masquée par le dogme énergétiste que

Georgescu-Roegen a combattu avec acharnement.

141

Page 152: 2. Thèse_Doctorat_YJJ_Duplan.pdf

dSe due aux échanges d'énergie et de matière avec l'extérieur et la variation dSi équivalente à

la transformation non compensée produite par les processus physico-chimiques (échange

d'énergie, réactions chimiques, réactions électrochimiques) internes du système1. Il faut noter

que l'entropie interne est l'équivalente de la grandeur N de Clausius. La variation globale

d'entropie est :

d S=d Sed S i (3.10)

Sous l'effet de courants ou de flux résultant de forces thermodynamiques, les processus

physico-chimiques produisent de l'entropie. La production d'entropie du système par unité de

volume, au cours d'un intervalle de temps, est égale au produit de la force thermodynamique

généralisée F (l'affinité, la chaleur) par le flux généralisé J correspondant (la vitesse, la

différence des inverses des températures du système et du milieu extérieur échangeant de la

chaleur)2 :

d S i=FJ (3.11)

En général, la production d'entropie interne d'un système de volume V est donnée par

P=d S i=∫V∑

k

F k J k d V (3.12)

L'écoulement du temps entraîne deux effets sur la production d'entropie : un effet-force d PF

d t

et un effet-flux d P J

d t. La production d'entropie par unité de temps s'écrit :

d Pd t

=d F

d t

d J

d t avec

d F

d t=∫

V∑

k

J k

d F k

d t et

d J

d t=∫

V∑

k

F k

d J k

d t

(3.13)

Pour étudier un système hors équilibre, la thermodynamique des phénomènes

irréversibles suppose qu'il est en équilibre local (c'est souvent le cas des systèmes

hydrodynamiques et chimiques). Sous cette hypothèse, Glansdorff et Prigogine [1971]

établissent « le critére universel d'évolution » défini par l'inégalité d F

d t≤0 : les forces

thermodynamiques diminuent leur capacité à contrecarrer la hausse de l'entropie au fur et à

mesure de l'écoulement du temps. Telle est l'explication du principe d'entropie dont l'énoncé

dans la thermodynamique des processus irréversibles est d'ordre local, à savoir : « dans

chaque région macroscopique du système la production d'entropie due aux processus

irréversibles est positive » [Prigogine, 1996, p.17]. Ce qui revient à dire que l'entropie interne

est toujours croissante : d S i0 . Cependant l'entropie d'échange peut varier dans les deux

1. N = dSi.2. Outre les échanges énergétiques, les transferts de matière sont pris en compte. Et le principe chimique de

conservation de la masse est supposé.

142

Page 153: 2. Thèse_Doctorat_YJJ_Duplan.pdf

sens. Lorsqu'on a d Se0 , l'échange avec l'extérieur ne fait qu'aggraver la dégradation

énergético-matérielle du système : d S0 . d Se=0 est le cas d'une neutralité entropique de

l'échange ou celui de la thermodynamique classique d'un système fermé ; la production

d'entropie globale est positive. Lorsque l'entropie d'échange décroît, d Se0 , trois cas sont

envisageables [Binswanger, 1993] :

— ∣d Se∣=d S i⇒d S=0 , le système est à l'état stationnaire et son entropie reste constante

dans le temps ;

— ∣d Se∣d S i⇒d S0 , la variation de l'entropie du système est moins importante en étant

ouvert que s'il était fermé ;

— ∣de S∣d S i⇒d S0 , l'entropie du système baisse : la diminution de l'entropie externe

l'emporte sur l'accroissement inévitable de l'entropie interne.

Cette dernière situation est caractéristique des systèmes ouverts (vivants). La

consolidation des forces thermodynamiques qui découle de l'utilisation de la matière-énergie

de basse entropie prélevée sur le milieu extérieur leur permet d'évoluer vers des états loin de

l'équilibre. En état de non-équilibre, ce sont des systèmes instables où siègent de processus

dissipatifs. Ils se révèlent, en dépit et grâce à l'aléa, des « structures dissipatives », des

organisations complexes marquées par un certain ordre spatio-temporel. L'accroissement de

leur complexité est au prix d'une augmentation non compensée de l'entropie de

l'environnement et de la dissipation de l'énergie-matière. L'entropie totale du système et de

son environnement augmente.

3.2. L'approche mécaniste

Niant les transformations qualitatives d'énergie et les changements organisationnels de

la matière, l'approche mécaniste se limite à l'étude de l'évolution des systèmes (gazeux) dont

les constituants se déplacent de façon incohérente ou aléatoire, plus précisément à la

distribution des vitesses et à la position des particules dans le cadre de la thermodynamique

statistique, aux répartitions spatiales et énergétiques des constituants élémentaires dans le

cadre de la thermodynamique probabiliste. Le sens de l'évolution qui ressort de cette approche

est probabiliste. Il convient de discuter sa pertinence au regard du concept d'irréversibilité et

l'unidirectionnalité temporelle qui en découle.

A. L'évolution probable

Le principe d'évolution en termes de probabilité a trois formulations : le principe

statistique de Boltzmann, le principe informationnel de Brillouin qui en est le prolongement et

143

Page 154: 2. Thèse_Doctorat_YJJ_Duplan.pdf

le principe probabiliste de de Tonnelat.

a. Le principe statistique de Boltzmann

Dans ses Leçons sur la théorie des gaz, Boltzmann [1987 (1902 et 1905)] étudie

l'évolution des systèmes gazeux sur la base du critère qu'il appelle « grandeur H ». Un gaz

d'un très grand nombre de molécules est contenu dans un récipient de volume donné. Les

parois du récipient sont lisses et les molécules du gaz sphériques ; elles sont supposées

élastiques et peu déformables. Les molécules se déplacent en ligne droite en l'absence de tout

mouvement et de toute « organisation d'ensemble moléculaire »1. Et aucune force extérieure

n'agit sur le système ainsi constitué.

Soient ξ, η et ζ les coordonnées de l'un des sommets d'un parallélépipède, un élément

de volume du récipient. Ces coordonnées sont également les composantes de la vitesse c d'une

molécule et se situent, à un moment donné, dans les intervalles respectifs : [ξ, ξ+dξ], [η,

η+dη], [ζ, ζ+dζ]. Les arrêtes, parallèles aux axes de coordonnées, ont pour longueurs dξ, dη

et dζ ; chaque parallélépipède a un volume égal au produit dξdηdζ. On suppose que le

récipient est divisé en un nombre fini de volumes. Les molécules qui se trouvent au temps t

dans un élément de volume et dont les composantes de vitesses répondent aux conditions

limites sont au nombre de f(ξ, η, ζ, t)dξdηdζ. La fonction f des composantes de vitesse

mesure la densité de probabilité qu'une molécule se retrouve dans un élément de volume.

Boltzmann montre qu'à l'état stationnaire, f ne peut correspondre qu'à la loi de répartition des

vitesses de Maxwell et que cette distribution est la plus probable au cours de l'évolution du

système. Dans la littérature, cette loi est représentée par la fonction de densité de probabilité:

f c=4 c2 n m2 k T

3 /2

exp −mc2

2kT (3.14)

avec c2=222 et k=1,38 0658 . 1023 ; n est le nombre total de molécules, m la

masse d'une molécule, k la constante de Boltzmann-Plank, T la température du gaz..

Boltzmann désigne par lnf la « valeur de la fonction logarithmique » d'une molécule qui

n'est rien d'autre que le logarithme népérien de la fonction f de ses composantes de vitesse.

Sur ce, il définit la grandeur H de la manière suivante :

H =∫ f , , , t ln f , , , t d d d (3.15)

l'intégrale étant étendue à tous les éléments de volume du récipient2. Si on appelle pi la densité

1. Cette hypothèse dite de « chaos moléculaire » signifie que lors de la distribution des vitesses il n'y a pas demouvement d'ensemble perceptible dans la masse gazeuse, d'aucun gradient de température ou de densité.

2. Une forme générale de la grandeur H est établie par Boltzmann pour des volumes contenant plusieurs gaz àmolécules complexes [Boltzmann, 1987 (1905), p.214-216]. La formulation simple présentée ici n'influed'aucune façon sur la conclusion générale.

144

Page 155: 2. Thèse_Doctorat_YJJ_Duplan.pdf

de probabilité d'une molécule i, on a

H =∫i

pi ln pi (3.16)

En fait, H indique, pour un état macroscopique du gaz, la moyenne du logarithme du nombre

de molécules par unité de volume. Boltzmann en déduit l'équivalence de la loi de répartition

des vitesses de Maxwell et « le théorème H » appelé aussi « théorème du minimum » selon

lequel l'espérance mathématique de la dérivée de H par rapport au temps est négative (dH / dt

≤ 0) : par suite des chocs des molécules du gaz, la fonction H décroît dans le temps jusqu'à

son minimum. Boltzmann attribue une double signification à la fonction H. La première est

mathématique : H mesure la probabilité que dans un état du système, il y ait f(ξ, η, ζ, t)

dξdηdζ molécules par élément de volume, sachant que chaque molécule a la même

probabilité de se trouver dans un élément de volume ou dans un autre. Boltzmann démontre la

relation :

H =−ln W (3.17)

où W est la probabilité de la disposition des molécules. La seconde est physique et correspond

au fait qu'à l'équilibre « H est identique à l'entropie » de Clausius. Plus précisément, la

grandeur H et l'entropie varient en raison inverse, quand l'une est maximum l'autre est

minimum :

S=−kH = k ln W (3.18)

L'entropie revêt le caractère statistique de l'évolution de la grandeur H. Le principe d'entropie

prend alors l'allure d'un « théorème de probabilité ». Boltzmann conclut à la tendance

naturelle que tout système, libre de toute influence extérieure, passe au bout d'un certain

temps d'un état organisé probable à l'état inorganisé le plus probable, celui de la répartition

des vitesses de Maxwell dans lequel il se maintiendra, certes avec une très forte probabilité.

L'entropie de Clausius telle que nous l'avons comprise est une qualité de la matière et de

l'énergie. L'identifier à la grandeur H reviendrait à attribuer à cette dernière un tel caractère.

Construite dans le cadre d'un système gazeux, la grandeur H perd sa validité pour tout autre

état de la matière. Elle ne représente ni le degré de cohésion matérielle ni la qualité

énergétique du système. L'identification de H et S à l'équilibre n'est que formel. Boltzmann,

comme la plupart de ses successeurs, confond la définition de l'entropie de Clausius et

l'expression mathématique de la réversibilité.

b. Le principe informationnel de Brillouin

Dans la théorie des communications, l'information que délivre un message est évaluée

par la rareté de l'occurrence des symboles de ce message. Sur ce, « l'information est une

145

Page 156: 2. Thèse_Doctorat_YJJ_Duplan.pdf

mesure de la liberté de choix dont on dispose lorsque l'on sélectionne un message » [Weaver,

1975, p.38]. Moins l'apparition du message est probable, plus faible est la liberté de le choisir

et plus élevée est l'information correspondante.

Shannon [1975] considère une source d'information produisant n symboles distincts et

indépendants avec une probabilité pi ( i = 1, 2, ..., n). Si N est la longueur d'un message ou

d'une séquence de symboles, le nombre d'occurrences du symbole i est piN. La probabilité

d'un message est donc :

p= p1p1 N p2

p2 N ... pnpn N avec ∑

i=1

n

pi=1 (3.19)

La quantité H d'information est « le logarithme de l'inverse de la probabilité d'une longue

séquence typique divisé par le nombre de symboles contenus dans la séquence » [Shannon,

1975, p.93] :

H =log 1 / p

N=−∑

i=1

n

pi log pi(3.20)

L'unité d'information est le « digit binaire » ou « bit » quand il n'y a que deux choix possibles.

Shannon ne se contente pas de l'interprétation contestée de H. Il va carrément déposer

une boîte de Pandore entre la théorie des communications et la thermodynamique lorsqu'en

raison de la correspondance mathématique de sa grandeur avec celle de Boltzmann, il propose

d'appeler « H =−∑ pi log pi l'entropie de l'ensemble de probabilités p1, ..., pn » [Shannon,

1975, p.89]. La boîte de Pandore était déjà ouverte par Szilard [1964] lorsque Brillouin [1959,

p.148] admet que « l'information peut être transformée en néguentropie et réciproquement » et

qu'à sa suite, de Beauregard [1963, p.100] postule que « l'équivalence physique entre les

grandeurs information et néguentropie est manifeste ».

Si Shannon réfère à Boltzmann pour faire correspondre sa définition de l'information à

l'entropie, Brillouin préfère utiliser la formulation de Plank pour exprimer l'équivalence

formelle de ce deux grandeurs. Soit P le nombre de complexions (ou états microscopiques)

possibles d'un système physique. Définie par la formule de Plank, l'entropie du système est

donnée par1 :

S= k ln P (3.21)

où k est la constante de Boltzmann. Brillouin nomme « néguentropie » l'opposé de l'entropie :

N =−S (3.22)

1. Les complexions sont les structures quantifiées que prend un système physique sous l'effet de variablesmicroscopiques comme la position et la vitesse de chaque atome, les états quantiques des atomes, lesstructures moléculaires, etc. Or, l'entropie telle qu'elle est définie par Boltzmann est liée aux étatsmicroscopiques, alors que celle de Plank est déterminée par les complexions eux-mêmes. Étant donné que cesderniers sont définies par les variables microscopiques, l'entropie de Boltzmann et celle de Plank sontéquivalentes.

146

Page 157: 2. Thèse_Doctorat_YJJ_Duplan.pdf

L'information nécessaire pour réduire les possibilités de complexions de P0 à P1 est définie

par :

I 1= k lnP0

P1

(3.23)

sachant que l'information disposée à la date 0 est nulle. Les équations (3.21), (3.22) et (3.23)

impliquent :

I 1=S0−S1=N 1−N 0 (3.24)

Brillouin en déduit ce qu'il appelle « le principe de néguentropie de l'information » :

information (physique) = décroissance de l'entropie = croissance de la néguentropie. Et

conclut à « la généralisation du principe de Carnot », à savoir que, si le système est isolé, à la

suite de la baisse de l'entropie, on a pour toute évolution ultérieure d S1=d S0− I 10 .

Toute information supplémentaire équivaut à une baisse de l'entropie, mais l'information

acquise génère une hausse globale d'entropie non compensée. Obtenue par observation,

l'information devient, selon Brillouin, pouvoir d'action et capacité d'organisation, ou, d'après

de de Beauregard, de la néguentropie potentielle.

Un déséquilibre thermodynamique entre un système et son environnement est

caractérisé par une différence de potentiel – un différentiel de température, de concentration

des composants ou de pression. Si le système est isolé, cette différence diminue spontanément

au fur et à mesure que l'entropie du système augmente. A l'équilibre, l'entropie est maximum

et le système est complètement homogène –uniformité de la température, de la concentration

des composant microscopiques, de la pression. C'est en ce sens que Tribus [1961] interprète la

différence entre l'entropie du système en déséquilibre avec son environnement et son entropie

à l'équilibre comme une mesure de la capacité de les distinguer. L'information qui est égale,

par définition, à cette différence (équation 3.24) est confondue avec la « distinguabilité » du

système. Cette appréciation rejoint l'interprétation de Brillouin et de de Beauregard lorsque S

est l'entropie du système en équilibre avec son environnement et S0 son entropie actuelle.

L'information shannonienne, originellement élaborée pour mesurer l'incertitude lors de

la transmission d'un message, est carrément une mesure physique dans la conception de

Brillouin, de de Beauregard et de Tribus. Et on est passé d'une théorie de la communication en

termes de transmission de message à une théorie thermodynamique de l'information en termes

de l'observabilité des caractéristique physiques des systèmes considérés.

c. Le principe probabiliste de Tonnelat

« La thermodynamique probabiliste n'est pas fondée sur des relations mathématiques

déterministes, mais directement sur des considérations de probabilités » [Tonnelat, 1991,

147

Page 158: 2. Thèse_Doctorat_YJJ_Duplan.pdf

p.10]. En ces termes, Tonnelat se porte en faux à l'approche boltzmannienne de la

thermodynamique statistique. Il fait remarquer qu'en raison de l'incommensurabilité du

nombre de paramètres à considérer, il est impossible de décrire mathématiquement les

relations de mouvement entre les constituants et d'étudier la dynamique d'un système

complexe. A partir du moment où les constituants (objets individualisables comme les

molécules, les particules élémentaires...) du système se comportent de manière aléatoire, il

propose de recourir à un raisonnement probabiliste1. En effet, reprenant la conception de

Cournot que le hasard est le résultat de la rencontre de deux ou plusieurs séries de causes

indépendantes, il adopte l'approche probabiliste laplacienne et définit la probabilité d'un

événement comme le rapport du nombre de cas favorables à cet événement au nombre total de

cas possibles. Sous l'hypothèse que les forces attractives ou répulsives exercées à l'intérieur du

système sont négligeables, les mouvements des constituants sont considérés comme aléatoires

et assimilés à des « déplacements incohérents ». Le concept de « complexité est utilisé

thermodynamique » en lieu et place de l'entropie pour étudier l'évolution des systèmes

physiques.

L'état d'un système à un moment donné est caractérisé par la nature de ses constituants,

leur répartition moyenne sur les différents niveaux d'énergie et leur répartition dans l'espace.

On suppose que le système est formé d'un grand nombre de constituants contenus dans un

récipient découpé en cubes de même volume. Un cube parcouru par un constituant est interdit

aux autres. L'« état énergétique » du système est déterminé par la valeur énergétique de ses

constituants tandis que son « état spatial » est donné par la répartition entre les cubes des

centres de gravité des molécules. L'état (macroscopique) du système est caractérisé à un

moment donné par le nombre de façons de répartir les constituants élémentaires du volume

dans l'espace et sur les différents niveaux d'énergie. Tonnelat appelle « réalisabilité » d'un état

macroscopique le nombre de répartitions spatio-énergétiques correspondant à cet état. C'est le

nombre de possibilités de sa réalisation. La réalisabilité Ω d'un état du système est égale au

produit de sa réalisabilité énergétique (Ωe) et de sa réalisabilité spatiale (Ωs) :

=e s (3.22)

Sa probabilité est donnée par le rapport :

=

où ϕ désigne un facteur de fréquence proportionnel au temps moyen écoulé entre deux

1. Cette thèse est celle de Krönig [cité par Georgescu-Roegen, 1971] qui soutient l'idée de recourir auxprobabilités en raison de notre incapacité inhérente à déterminer toutes les coordonnées d'un systèmecomplexe.

148

Page 159: 2. Thèse_Doctorat_YJJ_Duplan.pdf

changements d'état, la somme étant faite pour tous les états. La réalisabilité de l'état du

système sert de repère à sa probabilité en raison du fait qu'elles varient dans le même sens à la

suite d'une transformation. Les changements spatio-énergétiques sont alors déterminée par les

modifications de la valeur de Ω. C'est ainsi que Tonnelat, pour étudier l'évolution des

systèmes physiques, choisit la fonction logarithmique C de Ω qu'il appelle « complexité

thermodynamique » :

C= ln (3.23)

On peut voir que C est la somme de « la complexité énergétique », C e= ln e , et « de la

complexité spatiale », C s= ln s . C'est sur la base de cette grandeur numérique sans

dimension que Tonnelat énonce la loi d'évolution des systèmes, ce qu'il appelle la « loi

générale d'évolution spontanée » : « Un système clos, non soumis à une influence extérieure

et dont l'évolution résulte uniquement des déplacements incohérents de ses constituants, passe

en moyenne au cours du temps dans des états dont la complexité thermodynamique va en

croissant en tendant vers des états d'équilibre instantanés successifs » [Tonnelat, 1991, p.87].

A part qu'elle précise que l'état vers lequel évolue le système est un état d'équilibre, cette loi

est équivalente à celle formulée par Boltzmann. Si différence il y a, elle est de l'ordre des

concepts et du cadre théorique utilisés.

En essayant de rapprocher la complexité thermodynamique de l'entropie de Clausius,

Tonnelat montre que pour un échange de chaleur infiniment petit, l'égalité

d S= 3 2

k d C e (3.23)

est vérifiée. Le fondement de ce rapprochement est erroné dans la mesure où, selon Tonnelat,

la relation d S=∫d QT

« ne concerne que l'entropie énergétique » [Tonnelat, 1991, p.152]. A

l'instar de Boltzmann, de Georgescu-Roegen et de bon nombre de physiciens, Tonnelat ignore

la notion de disgrégation inventée par Clausius.

B. Le temps irréversible et l'évolution probable : uneconciliation inconcevable

Boltzmann et Tonnelat ont beau essayer de rapprocher leurs conceptions probabilistes

de l'évolution entropique irréversible, il nous semble qu'on ne peut concilier le concept

d'irréversibilité et l'unidirectionnalité du temps avec le caractère probabiliste de l'évolution de

la conception mécaniste. Nous montrerons en quoi le Temps conçu à partir du référentiel

entropique est le Temps unidirectionnel.

149

Page 160: 2. Thèse_Doctorat_YJJ_Duplan.pdf

a. La pseudo­irréversibilité de l'évolution probable

Les grandeurs H et C construites par agrégation des réalisations élémentaires sont

d'ordre macroscopique. En effet, à chaque valeur de H ou C correspond un état

(macroscopique) du système. Affecter une probabilité à la réalisation d'un état revient à

l'attribuer à la valeur de H ou C qui lui est afférente. Il faut donc comprendre que les vocables

de tendance en moyenne, de probabilité d'évolution ou de probabilité de passage renvoient

aux valeurs prises par les grandeurs H ou C dans le temps. H et C sont des variables aléatoires

c'est-à-dire que le système, vu au niveau macroscopique, évolue au hasard. L'idée que la

complexité thermodynamique croît en moyenne n'interdit pas que cette grandeur puisse

décroître sur certains intervalles de temps. Contrairement aux dires de Tonnelat, il peut y

avoir inversion temporaire, certes aléatoire, du sens de l'évolution.

« Le passage d'un état organisé à un état non organisé, écrit Boltzmann, est seulement

extrêmement probable. Le passage inverse présente aussi une certaine probabilité calculable »

[Boltzmann, 1987 (1905), p.248], probabilité qui, d'ailleurs, croît avec la baisse du nombre

des molécules. Il en résulte que la variation de H et de surcroît le sens de l'évolution sont

aléatoires et indépendants du signe du temps. Aussi faible que soit la probabilité d'évolution

du système, dès lors qu'elle est non nulle, rien ne lui empêche de revenir d'un moment à l'autre

à un état précédemment atteint. Rien ne lui empêche non plus de rester constamment hors

équilibre ou d'abandonner son état d'équilibre qu'il soit stable ou non. A telles enseignes,

Boltzmann explique qu'au bout d'un temps suffisamment long, le système finira par repasser à

sa position initiale et qu'en inversant les vitesses à partir d'un état donné, il parcourra en sens

inverse la trajectoire qui l'a conduit à cet état. Sur ce, Prigogine et Stengers concluent :

« l'irréversibilité n'est donc qu'une apparence » [Prigogine et Stengers, 1992, p.98]. Dès lors

que l'évolution est aléatoire, les notions d'équilibre, de stabilité, d'irréversibilité perdent leur

signification conceptuelle. La réversibilité macroscopique n'est pas exclue du cadre mécano-

probabiliste, contrairement à l'affirmation de Boltzmann que la valeur de l'entropie, « dans

chaque phénomène naturel, ne peut jamais varier que dans un seul sens, à savoir : croître »

[Boltzmann, 1987 (1905), p.251].

L'irréversibilité serait systématique, en dépit du caractère aléatoire de l'augmentation de

la complexité thermodynamique et la décroissance de H, si l'on supposait l'irrévocabilité des

transformations macroscopiques. Autrement dit, la probabilité que le système se retrouve dans

un état déjà atteint devait être nulle. Cette hypothèse est absente de la thermodynamique

probabiliste et le contraire est affirmé dans la thermodynamique statistique. D'ailleurs, parler

de probabilité d'évolution ou de distribution, « d'une manière absolue, c'est supposer que

150

Page 161: 2. Thèse_Doctorat_YJJ_Duplan.pdf

l'évaluation est également exacte à toute époque » [note de Brillouin, in Boltzmann, 1987,

p.276]. Il est plausible que la probabilité d'une répartition ou de la réalisabilité d'un état

macroscopique change au cours de l'évolution du système. « Évaluer les probabilités, conclut

Brillouin, sans montrer leur permanence, ce n'est plus faire de la Dynamique ».

Les modèles et conclusions de la thermodynamique statistique et de la thermodynamique

probabiliste sont loin d'être convaincants. S'il est admis qu'un système (gazeux) livré à lui-

même passe d'un état probable à un état plus probable, le sens unidirectionnel de son

évolution et son irréversibilité macroscopique ne font aucun doute1. C'est peut-être l'ampleur

ou le rythme de l'augmentation de l'entropie qui présentent une certaine incertitude. L'aléa

attribué au sens de l'évolution rend inconcevable l'irréversibilité physique et

l'unidirectionnalité du Temps.

b. Le sens unidirectionnel du Temps

Georgescu-Roegen [1970, 1971] différencie avec raison le Temps T, variable ordinale

du temps t, variable cardinale. Il propose de rejeter toute dualité entre ces deux variables et

définit t comme une mesure (Meas) de l'intervalle de Temps [T0 , T1] : t=Meas [T 0 , T 1] .

Lorsqu'il affirme que « le Temps résulte du flot de la conscience ; ni de la variation de

l'entropie ; ni, de ce fait, du mouvement d'une horloge » [Georgescu-Roegen, 1971, p.135], il

nie que la computation d'une réalité idéelle ou formelle, elle-même soumise au changement

est nécessaire à l'émergence et l'expression de la conscience et ne fait aucun cas du système de

référence où cette dernière est plongée. Il n'y a de conscience que la conscience de quelque

chose, quitte à ce que la conscience soit conscience d'elle-même. Sans représentation ou

information, sans computation, sans la projection de l'esprit-cerveau sur une réalité, la

conscience s'évanouit d'elle-même. Le Temps n'est concevable que par rapport à un

changement réel dont on a la conscience. Sans changement aucun, le Temps ne peut se

manifester dans la conscience. C'est par le biais de la conscience que le changement et le

Temps se correspondent et s'équivalent. Le repère temporel qu'est la position de l'aiguille

d'une montre ou celle de la Terre tournant sur elle même et autour de du Soleil en est un

exemple patent. Il en reste que ce sont des phénomènes qui ne sont pas irréversibles, vu sous

un angle purement mécanique.

Le Temps ne peut être conceptualisé que par rapport à un système de référence en

évolution. À chaque état de ce système on fait correspondre une valeur du Temps.

Considérons deux systèmes SA et SB. A et B1, B2 désignent leurs ensembles d'états

1. Fer démontre l'incompatibilité de la dynamique hamiltonienne qu'utilise Boltzmann pour décrire l'évolutionde la fonction H avec l'irréversibilité qu'implique le principe d'entropie. Il propose de substituer à cettedynamique la mécanique héréditaire, garantissant l'irréversibilité des processus aléatoires [Fer, 1977].

151

Page 162: 2. Thèse_Doctorat_YJJ_Duplan.pdf

respectifs. Si le Temps est défini seulement sur la base de SA, il s'estompe ab ovo car SA ne

peut se mettre que dans l'état A ; par rapport à SB, le Temps peut être symbolisé par T1 quand

SB est dans l'état B1 et par T2 quand il se trouve dans l'état B2. Le Temps est alors variable : il

passe de T1 à T2 quand B2 suit B1, et vice-versa. Supposons maintenant que SA et SB,

indépendants l'un de l'autre, constituent un ensemble S de deux systèmes. Alors AB1 et AB2

sont des états que S peut prendre et, par référence à S, le Temps peut être représenté de deux

manière distinctes. Et SA, système fermé de l'ensemble S, se maintiendra indifférent à

l'écoulement du Temps, et demeurera dans l'état stationnaire A.

Prenons le Chaosmos1 comme système référentiel pour définir le Temps. Le Temps ,

une fois conçu, est élevé au rang de référence pour pouvoir appréhender les transformations

du Chaosmos et de ses sous-systèmes. L'ordre d'évolution du Chaosmos et l'ordre des

changements temporels sont équivalents.

L'entropie caractérise l'état du Chaosmos et est l'indicateur de son évolution. Dans cet

ordre d'idée, la croissance irréversible de l'entropie implique que chaque état du Chaosmos est

un état nouveau. L'ordre du Temps est donc irréversible et son sens unidirectionnel. On

retrouve la loi d'évolution formulée par Georgescu-Roegen : soit « E un attribut ordinal

(indice d'évolution) d'un système donné. Si E1 < E2 (lire E2 suit E1) alors l'observation de E2

arrive plus tard dans le temps que E1. » [Georgescu-Roegen, 1971]. La réciproque est fausse.

L'inversion du sens d'évolution d'un sous-système du Chaosmos ne peut s'effectuer que dans

la direction unique de la « flèche du Temps » d'Eddington, c'est-à-dire à temps croissant.

Par ailleurs, l'individu, depuis l'éveil de sa conscience jusqu'à sa mort, vivant dans un

système social et physique complexe, suit le fil d'une existence parsemée de nouveautés où

événements et circonstances se succèdent et sont aussi différents les uns que les autres. Quand

certains événements et circonstances semblent se répéter, d'autres presque aussi

simultanément sautent à sa conscience pour donner au tableau une touche nouvelle. En outre,

la personne elle-même subit une transformation psychique et physique consciente, continuelle

et irrévocable. « Les circonstances, raconte Bergson [1994], ont beau être les mêmes, ce n'est

plus sur la même personne qu'elles agissent puisqu'elles la prennent à un nouveau moment de

son histoire. Notre personnalité, qui se bâtit à chaque instant avec de l'expérience accumulée,

change sans cesse. ». Dès lors, il n'y a aucune raison de concevoir le Temps autrement que

comme une flèche unidirectionnelle suivant l'ordre indéfectible des événements et

circonstances concomitants. Le Temps, tout comme le temps de l'évolution qu'indique le

« sablier thermodynamique » de Georgescu-Roegen, est bien le temps historique et

1. Nous maintenons donc l'idée que le Chaosmos, le système d'appartenance de tous les êtres et de tous lesprocessus, est unique, infiniment grand (peut-être ?).

152

Page 163: 2. Thèse_Doctorat_YJJ_Duplan.pdf

chronologique irréversible par opposition au temps réversible de l'horloge mécanique.

153

Page 164: 2. Thèse_Doctorat_YJJ_Duplan.pdf

CHAPITRE IV

La soutenabilité écologique

Alors que l'école néoclassique peine à distinguer l'économie de son environnement et

échoue à modéliser la complexité de leurs interactions, la thermodynamique fait preuve d'une

grande capacité paradigmatique pour intégrer les systèmes environnementaux et

économiques. Parce qu'elle traite des transformations physiques, elle favorise la

compréhension des processus économiques et écologiques. S'appliquant à l'étude des

systèmes, elle est la courroie de transmission qui relie l'économique à l'écologique.

L'utilisation de la thermodynamique pour appréhender les phénomènes économico-

écologiques donne lieu à deux modes d'évaluation : l'éco-énergétique axée sur la notion

d'énergie incorporée et l'éco-thermodynamique basée sur les notions d'entropie ou d'exergie.

De par leur complémentarité, on peut les réunir dans le terme composé « éco-thermo-

énergétique ». L'éco-thermo-énergétique, en mettant en évidence l'ouverture écologique du

système économique, permet la prise en compte de son caractère vivant. C'est de cette

considération qu'émerge la bioéconomie dont le cadre donne droit de cité à la soutenabilité

écologique. En effet, celle-ci trouve sa raison d'être dans la volonté de garantir et pérenniser

les conditions de reproduction du vivant.

L'éthique de la soutenabilité nous pousse à nous interroger sur la nécessité de la

croissance de la production économique, sachant que les prélèvements de ressources qu'elle

exige et les déchets qu'elle génère fragilisent les écosystèmes. Dans cette optique, nous nous

demandons dans quelle mesure les alternatives de la décroissance et de l'état stationnaire sont

des modes d'évolution soutenables. A partir de la problématique de la déforestation, nous

essaierons de répondre à cette question dans le cas d'Haïti, un pays écologiquement et

Page 165: 2. Thèse_Doctorat_YJJ_Duplan.pdf

socialement dévasté.

Le projet central de ce chapitre est de dresser le pôle écologique de la soutenabilité en

rapport à la problématique de la décroissance et de l'état stationnaire. Dans un premier temps,

nous exposerons les méthodes de compréhension et d'évaluation de l'éco-thermo-énergétique

(section 1). Puis nous examinerons la question de l'évolution de la production, d'une part, à la

lumière de l'éthique de la soutenabilité écologique dont les principes sont d'ordre

bioéconomique (section 2), et d'autre part, au regard du cas de la déforestation en Haïti

(section 3).

1. L'éco-thermo-énergétique

Inaugurée par Raymond Lindeman dans un article de 1942 où il met en lumière les

interrelations quantitatives entre les êtres vivants et leurs environnements naturels, l'éco-

énergétique est développée par Howard Odum à partir des années 1950. Elle se veut une

approche globale qui appréhende les interdépendances des systèmes écologiques par leur

dimension énergétique. Sur ce, elle se fonde sur les principes thermodynamiques de

conservation et d'entropie et utilise le valorimètre énergétique pour dresser des indicateurs en

vue d'apprécier les systèmes sociaux et environnementaux par rapport aux normes de la

soutenabilité écologique.

Nous présenterons les principes éco-énergétiques de compréhension des systèmes

économico-écologiques (1.1) et les indicateurs d'évaluation éco-thermo-énergétiques (1.2).

1.1. La compréhension énergétique des systèmeséconomico-écologiques

L'éco-énergétique modélise les systèmes comme des modules fonctionnels échangeant

des flux énergétiques. C'est en ces termes que sont comprises les relations entre le système

socio-économique et son environnement sans pour autant renier les flux monétaires propres à

celui-là.

A. La modélisation éco­énergétique

155

Page 166: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Dans le « langage éco-énergétique » [Odum, 1971 ; Pillet et Odum, 1987], tout système

ou sous-système, humain ou naturel, s'exprime et est évalué en termes de flux d'énergie. Ces

flux relient et sont transformés par les différents compartiments du système. Définis par leurs

fonctions ou leurs finalités, ces compartiments sont des unités de transformation, de transfert

et de stockage de l'énergie. Elles sont représentées par les symboles de la figure 4.1, les

flèches indiquant la direction des flux énergétiques.

Un modèle éco-énergétique simple est celui de la figure 4.2 qui représente un réservoir

stockant au temps t+1 une quantité Qt1 d'énergie. Il est relié à une source qui lui fournit à

chaque période t une quantité J t d'énergie tandis qu'une quantité kQt en sort. L'énergie

réservée varie d'une quantité

Q=J t−kQt (4.1)

Cette équation de différence finie permet de simuler l'évolution du contenu du réservoir. A

chaque temps t+1 on peut déterminer l'énergie réservée :

Qt1=J t 1−k Qt (4.2)

156

Réservoir

SwitchProducteurConsommateurPuitsAmplificateurSous-système

Source CyclageInteractions Échange

Figure 4.1. Les symboles du langage éco-énergétique

Figure 4.2. Modèle de réservoir

QkQJ

Page 167: 2. Thèse_Doctorat_YJJ_Duplan.pdf

La construction d'un modèle énergétique se fait en trois étapes.

1. On commence par ranger les sources jugées importantes par degré de qualité croissant

énergétique (figure 4.3a).

2. Puis, on identifie les différentes fonctions qu'on place à l'intérieur du diagramme,

également par degré croissant de qualité énergétique (figure 4.3b).

3. Enfin, on trace aussi bien les flux reliant les compartiments fonctionnels que les flux

entrants et sortants (figure 4.3c).

Un modèle éco-énergétique apparaît comme un diagramme dans lequel ces symboles sont

joints les uns aux autres et ajustés suivant la réalité concernée.

Le système écologique ou écosystème est l'unité de base de l'éco-énergétique. Il relie les

êtres vivants à leur environnement, et les êtres vivants entre eux. Son fonctionnement s'appuie

sur le flux énergétique d'origine solaire qui permet à la matière organique d'être recyclé par le

vivant ; à sa mort, celui-ci est transformé en matière inerte. Ainsi l'écosystème est-il saisi

comme un système dynamique évolutif formé de deux composantes principales :

— un biotope qui rassemble les facteurs abiotiques, physico-chimiques tels la localisation

géographique, la température, l'hygrométrie, les concentrations en substances chimiques, la

structure du sol, etc ;

— une biocénose qui est un réseau d'espèces associées dans un biotope donné et reliées par

des flux de matière et d'énergie.

Les rôles des espèces vivantes dans l'écosystème sont différenciés en fonction des

transformations physique et chimiques qu'elles effectuent. On distingue les producteurs ou

autotrophes (les plantes) qui, capables de synthétiser l'énergie solaire, réalisent à eux seuls la

photosynthèse ; les consommateurs, qui font usage de l'énergie et de la matière synthétisée,

sont pour l'essentiel les auteurs de la respiration ; et les décomposeurs qui transforment les

organismes morts en substances chimiques. Comme le montre la figure 4.3c, la production, le

stockage et la respiration (consommation ou décomposition) sont les unités de transformation

157

Figure 4.3 Construction du modèle de base d'un écosystème

S S

T

P R S

T

P

(a) (b) (c)

S : source, T : stockage, P : production, R : respiration

R

Page 168: 2. Thèse_Doctorat_YJJ_Duplan.pdf

de base d'un écosystème alimenté par une source énergétique.

Outre les principes de conservation et d'entropie de la thermodynamique, le principe du

maximum de puissance de Lotka [1925] est à la base de l'éco-énergétique des systèmes. Pillet

et Odum [1987, p.63] énoncent de la façon suivante ce principe explicatif considéré comme

fondamental pour l'organisation des systèmes éco-énergétiques : « dans la mesure où tout

processus entraîne une dispersion d'énergie, une transformation énergétique serait perdue si

elle ne donnait pas simultanément naissance à un produit nouveau et utile pour le système ;

autrement dit, si elle ne transmuait pas de l'énergie en une forme neuve inexistante avant cette

transformation ». En marge des pertes d'énergie qu'il génère, le système maximise l'énergie

utile à chaque transformation et acquiert une certaine capacité de rétroaction de telle manière

que le flux d'énergie nécessaire pour le feedback excède le flux de dépréciation dû à la boucle

de rétroaction. Par exemple, L'unité de respiration (R) de la figure 4.3c, grâce à l'énergie de

qualité supérieure qu'elle stocke dans le réservoir (T) est capable de rétroagir pour capter le

flux d'énergie de qualité inférieure en provenance de la production (P). La rétroaction par

laquelle l'unité de respiration contrôle l'influx a souvent un effet multiplicateur et catalyse le

flux d'arrivée. Une tel processus est dit « autocalytique ».

Sous l'effet des principes thermodynamiques, l'écosystème est hiérarchiquement

organisé. En effet, au bout de chaque processus l'énergie transformée est décomposée en deux

parties : une partie, suivant le principe d'entropie, se dissipe en se transformant en chaleur

dégradée irrécupérable (stockée dans le puits) ; à l'inverse, l'autre partie, de meilleure qualité,

est plus élaborée, plus structurée et concentrée et est utilisable par d'autres unités du système.

Au bout de quelques transformations, la quantité d'énergie disponible à un moment donné

dans l'écosystème est dissipée au maximum.

B. L'économie et son environnement : la monnaie et l'énergie

L'économie de l'environnement apparaît dans « l'analyse éco-énergétique » comme un

modèle d'interface où les biens et services ont une valeur énergétique. Quand ils sont

échangés sur un marché, il prennent une valeur monétaire qui est statistiquement corrélée à sa

valeur énergétique.

a. L'interface économie­environnement

L'interface économie-environnement relie les fonctions environnementales et

économiques par des flux énergétiques, comme le montre le graphique 4.4. Dans le système

économique, ces derniers sont échangés sur un marché contre des flux monétaires : monnaie

et énergie circulent en sens inverse.

158

Page 169: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Sont appelés subsides (S) les flux énergétiques affectés à la recherche, la production,

l'amélioration et le transport de l'énergie. Ce sont les coûts énergétiques d'extraction et de

transformation de l'énergie. Une partie des subsides (S1) trouve son origine dans

l'environnement qui remplit indépendamment de tout échange monétaire des fonctions

d'épuration d'eau et d'air, de régulations des cycles écologiques, de contrôle de la biodiversité,

etc ; parce que ce sont des influx dont la source est extérieure aux activités économiques,

Pillet [1993] les nomme externalités énergétiques. L'autre partie, en provenance des processus

d'extraction et de transformation, est directement réutilisée sous forme d'énergie (S2) et

indirectement, par le biais des processus sociaux, sous forme de matière, de service et

d'information (S3).

Les processus d'extraction et de transformation, outre les subsides, puisent une quantité

d'énergie brute dans le stock de ressources et satisfont la demande en énergie traitée. La

différence entre cette demande d'énergie et la totalité des subsides définit l'énergie nette égale

à la quantité d'énergie allouée aux consommateurs.

b. La valeur énergétique et la valeur monétaire

Comme le fait apparaître le modèle ci-dessus, l'énergie solaire prend sa source à

l'extérieur du système terrestre. Non recyclable et non substituable, l'énergie solaire

conditionne directement et indirectement la croissance, le maintien et la reproduction de la vie

159

Pertes physiques et thermodynamiques

InteractionExtraction et

transformation de l'énergie

Ressources énergétiques

Énergie brute

Énergie transformée

Subsides

Figure 4.4. Relations entre fonctions économiquees et fonctions environnementales [Gilliland, 1975]

SoleilEnvironnement :

épuration, régulation, valeur récréative...

Société

(S1)

(S2)

(S3)

Flux énergétiques

Flux monétaires

Page 170: 2. Thèse_Doctorat_YJJ_Duplan.pdf

tant dans les écosystèmes naturels que dans les écosystèmes humains. « Tout ce qui est sur la

terre, indique Costanza [1980, p. 1219], peut être considérée comme le produit direct ou

indirect de l'énergie solaire présente et passée ». Les énergéticiens admettent que l'énergie

(solaire) est « le principal » [Costanza, 1980], ou « l'ultime facteur limitant » [Gilliland, 1975]

sinon « le seul facteur fondamental de la production » [Hall, Cleveland et Kaufmann, 1986].

En raison de son importance, ils en font le déterminant et la mesure de la valeur des biens et

services produits. Ainsi considèrent-ils que l'agriculture et l'industrie sont les seuls secteurs de

l'économie créateurs de valeur. Car, par la photosynthèse et le processus de production, ils

sont les seuls à fournir à la société l'énergie directement utile.

La valeur énergétique d'un actif, qu'il soit économique ou environnemental, est mesurée

par son coût énergétique c'est-à-dire la quantité d'énergie qui intervient dans sa production.

C'est ce que les écoénergéticiens appellent l'« énergie incorporée » ou « émergie » (emergy,

contraction de embodied energy) de l'actif. Certains utilisent l'unité traditionnelle de calorie

(ou de joule) pour mesurer l'énergie incorporée. Choisissant l'énergie solaire comme étalon de

mesure, Odum et Scienceman1 proposent d'utiliser l'emjoule (emJ) solaire dit encore joule

solaire incorporée comme unité de mesure.

Croyant que la valeur énergétique détermine la valeur monétaire ou faute de trouver une

équivalence « naturelle » entre l'énergie et la monnaie analogue à l'équivalence entre l'énergie

et la masse, les énergéticiens se sont remis aux outils statistiques pour chercher des

corrélations entre des variables mesurées en termes énergétiques et d'autres exprimées en

termes monétaires. Les études dont nous avons connaissance concernent les États-Unis.

Herendeen2 est l'un des premiers à trouver, sur la période 1960-1963, une corrélation

positive entre le revenu net de la famille américaine et sa consommation énergétique. Dans le

même ordre d'idée, Thoresen [1981 et 1985] montre qu'entre 1929 et 1973, le revenu

disponible et la consommation énergétique croissent dans une proportion constante. Il indique

également que plus le PNB par tête d'un pays est important plus élevée est sa consommation

énergétique par tête. D'une certaine manière, ce résultat est corroboré par Hall, Kaufman et

Cleveland [1984] qui trouvent qu'entre 1890 et 1980, la consommation des combustibles et le

produit national brut des États-Unis sont fortement corrélés. A partir d'une base de données de

1967 concernant 92 secteurs de l'économie américaine, prenant en compte tous les coûts

énergétiques dont les influx d'énergie solaire, Costanza [1980] détermine une forte corrélation

entre la valeur (V, en dollars) de la production d'un secteur et sa consommation d'énergie

incorporée (C en BTU, British Thermal Unit, 1BTU =1055 Joules). En effet, le modèle

1. Cité par Pillet et Odum [1987].2. Cité par Hannon [1975].

160

Page 171: 2. Thèse_Doctorat_YJJ_Duplan.pdf

linéaire

V=0,1996 0,00105C , R2=0,8535 (0,17) (22,64)

(4.3)

présente un t de Student très faible (0,17) pour la constante (0,1996) alors qu'il est très élevé

(22,64) pour le cœfficient (0,0105) de la variable explicative. Même à un niveau de

signification de 0,005%, contrairement à la constante, ce cœfficient est significatif.

Forts de ces résultats statistiques, des éconergéticiens admettent, au niveau

microéconomique, que le prix d'une marchandise est directement proportionnel à son énergie

incorporée. De même, Pillet et Odum [1987] supposent, au niveau macroéconomique, que la

monergie d'un pays, le rapport de l'émergie nationale au produit national brut, est constante.

1.2. L'évaluation émergétique

L'évaluation émergétique repose sur la comptabilisation des coûts énergétiques. Celle-ci

permet la classification des ressources naturelles et la construction d'indicateurs à l'aide

desquels est appréciée la performance des systèmes économico-écologiques.

A. La détermination de l'énergie incorporée

L'énergie incorporée d'un produit peut être déterminée si l'on parvient à identifier les

origines de ses coûts de production énergétiques. On peut la déduire des flux monétaires

comptabilisés dans la matrice de Leontief si l'on connaît l'intensité énergétique des produits

échangés.

a. Les origines des coûts énergétiques

Le processus de production comprend généralement trois étapes : l'extraction, le

traitement et la fabrication. Les ressources extraites du milieu naturel sont raffinées pour

devenir des matières premières. Celles-ci sont traitées pour devenir des biens intermédiaires

qui, à leur tour, sont transformées en biens et services. La totalité des quantités d'énergie

intervenant à ces différentes étapes donne l'énergie incorporée de l'actif produit.

L'énergie incorporée est déterminée par les coûts énergétiques des facteurs de

production que sont le combustible, le capital et le travail. L'émergie associée à un

combustible a deux composantes : l'énergie chimique dépensée pendant la combustion et

l'énergie nécessaire à l'extraction, au traitement et à la livraison du combustible au

consommateur.

Quant au capital, Hall, Cleveland et Kaufmann [1986, p.106] l'assimilent à « l'énergie

161

Page 172: 2. Thèse_Doctorat_YJJ_Duplan.pdf

investie dans les machines et les outils qui remplacent ou renforcent la capacité du travail

humain ». La contribution du capital à l'émergie revient aux quantités d'énergie incorporée

dans sa production et utilisés pour son maintien et sa réparation. Le coût énergétique du

capital est parfois défini par la quantité marginale d'énergie épargnée sous forme de travail ou

de combustible.

Pour tenir compte de la dégradation du capital, deux méthodes peuvent être utilisées

pour calculer son coût énergétique du capital. Dans l'une, on suppose qu'à chaque unité

produite le capital se déprécie à un taux constant. L'énergie incorporée d'une unité de capital

est donc égale à son émergie totale divisée par le nombre de biens et services que cette unité a

produits au cours de sa vie. Dans l'autre, on fait l'hypothèse que les industries remplacent leur

capital à un rythme plus ou moins constant. Or, d'après les résultats statistiques, il existe un

rapport constant entre la valeur monétaire du capital de remplacement et son équivalent

énergétique. Alors, l'énergie incorporée de la dégradation du capital est proportionnelle à la

valeur monétaire des unités produites chaque année.

L'énergie incorporée relative au travail comprend l'équivalent énergétique de la

nourriture du travailleur, les coûts énergétiques de cette nourriture et la valeur énergétique

des biens et services, autres que les aliments, achetés par le travailleur. L'énergie de la

nourriture est égale à l'énergie dépensée en travaillant. L'énergie incorporée dans les aliments

est estimée par la quantité d'énergie solaire directe employée dans l'agriculture (combustible,

engrais, produits phytosanitaires, dégradation des outils et des machines) et celle consommée

dans la distribution de la nourriture (transports). Les dépenses en biens et services du

travailleur peuvent concerner aussi bien les achats de vêtements que l'abonnement à un

journal, le transport au travail, etc.

L'énergie incorporée d'un actif est parfois étendue à l'ensemble des coûts énergétiques

qui interviennent dans sa commercialisation jusqu'à sa consommation. Ce sont les énergies

liées au stockage, au transport et à la vente de l'actif.

b. L'utilisation du tableau de Leontief et de l'intensité énergétique

A l'origine, le tableau des entrées et sorties a été mis au point par Wassily Leontief pour

définir les contraintes matérielles auxquelles l'économie américaine aurait fait face pendant la

deuxième guerre mondiale. En décrivant de façon détaillée les flux interindustriels, ce tableau

permettait de déterminer de combien il fallait diminuer les quantités disponibles de matières

premières dans le secteur des ménages au profit de l'industrie militaire.

162

Page 173: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Fréquemment utilisé pour retracer les flux monétaires intersectoriels, le tableau des

entrées et sorties de Leontief est emprunté par les éco-themo-énergéticiens comme Herendeen

et Bullard [1975], Costanza [1980], Hall, Cleveland et Kaufmann [1986] pour comptabiliser

les flux d'énergie. Analogue au tableau de Leontief, la figure 4.5 représente la matrice des

transactions interindustrielles [Cleveland et Kaufmann, 1986]. Chaque élément de cette

matrice représente la valeur monétaire du produit acheté par le secteur i au secteur j. Soit Ej

l'énergie directe externe reçue par le secteur j, xj la valeur monétaire la production totale de ce

secteur. L'intensité énergétique ej indique la quantité d'énergie incorporée dans cette

production pour une unité de sa valeur monétaire. Soit xij la quantité de monnaie que le

secteur j reçoit du secteur i en échange de biens et de service. Soit ei leur intensité

énergétique. Le bilan énergétique du secteur j est donné par la relation

E j=e j x j−∑i=1

n

ei x ij (4.4)

Sous forme matricielle, cette équation s'écrit :

E=e x−x (4.5)

où e est le vecteur ligne 1 × n des entrants d'énergie directe externe, x la matrice diagonale

des flux de production bruts n × n, x la matrice n × n des transactions.

163

Secteur j

Matrice des transactions interindustrielles

1 2 … j … n

1

2

i

n Dép

ense

s de

con

som

mat

ion

pers

onne

lles

Inve

stis

sem

ent b

rut d

u se

cteu

r

priv

é do

mes

tique

Salarié

Exp

orta

tion

s ne

ttes

de

bien

s et

se

rvic

esA

chat

s pu

blic

s de

bie

ns e

t se

rvic

es

Détenteurs de capitaux

ÉtatVal

eur

ajo u

tée

Pro d

u cte

urs

Producteurs

Consommation finale

Ej

Figure 4.5. La matrice des transactions interindustrielles

∑i

ei x ij

e j x j

Page 174: 2. Thèse_Doctorat_YJJ_Duplan.pdf

B. La classification des ressources naturelles

L'abondance crustale d'une ressource minière est l'indicateur de sa rareté absolue,

indépendamment de tout besoin. Définie par le rapport (en pourcentage) du poids de la

ressource à celui de la croûte terrestre, l'abondance crustale mesure la concentration de cette

ressource. Si l'abondance crustale d'un élément est supérieure à 0,1%, on dit qu'il est

géochimiquement abondant (voir le tableau A-2 de l'annexe). Sinon, on dit qu'il est

géochimiquement rare . Or, à technologie donnée, moins une ressource est concentrée plus les

coûts énergétiques de son extraction et de son traitement sont importants. A cet égard, par

analogie à la classification économique des ressources, Hall, Cleveland et Kaufmann [1986]

proposent une classification des ressources naturelles en fonction des coûts directs et indirects

d'énergie supportés pour la découverte et l'extraction (tableau 4.1).

Tableau 4.1. Classification énergétique des ressources naturelles

Identifiée Non découverte

Réserve

Ressource

Seuil minéralogique

Concentration de Clark

Est appelée réserve la part de la ressource la plus concentrée, identifiée et récupérable

moyennant peu d'investissement énergétique. La part de la ressource dont l'exploitation

demande une quantité importante d'énergie est dite marginale. Au fur et à mesure qu'on

164

Non

récupérableM

argi

nale

Degré croissant de certitude géologique

Coût énergétique cumulatif croissant de la découverte de la ressource

Coût énergétique croissant d'extraction de la ressource et de mise en valeur

Réc

upér

able

Page 175: 2. Thèse_Doctorat_YJJ_Duplan.pdf

s'approche du seuil (ou de la barrière) minéralogique1, les coûts énergétiques d'extraction

augmentent à un rythme vertigineux. Au-delà de ce point, l'abondance crustale correspond au

niveau de la concentration de Clarke où la ressource est dispersée dans la structure cristalline

d'autres ressources qui composent les roches ordinaires constituant la majeure partie de la

croûte terrestre. Pour cette concentration, la ressource est pratiquement irrécupérable : son

extraction demande une quantité illimitée d'énergie. Via la concentration de la ressource,

l'importance de ses coûts énergétiques détermine et est déterminée par son abondance crustale

ou sa rareté absolue.

C. Les indices d'efficacité et d'intensité

L'efficacité relativise l'importance d'un ou de plusieurs flux à d'autres flux d'un même

processus. L'indice d'évaluation de l'efficacité d'un système varie donc suivant le point de vue

considéré. L'éco-thermo-énergétique distingue plusieurs indices d'efficacité.

Quand on considère dans un système une transformation énergétique d'une qualité A à

une qualité B, son efficacité est appréciée par l'indicateur de « transformité ». La transformité

de l'énergie de type B mesure la quantité d'énergie incorporée de type A par unité d'énergie de

type B [Pillet et Odum, 1987].

Considérons le modèle d'interface de la figure 4.6 où les variables F, X, I et Y mesurées

en emjoules désignent respectivement l'émergie introduite dans le système, l'externalité

énergétique dans l'économie, l'externalité énergétique dans l'environnement et la production

nette du système. Pillet et Odum [1987] évaluent l'efficacité du système par la grandeur

e= YFI

(4.6)

qui indique la quantité d'émergie nette produite (Y) pour une unité de la sommme (I+F)

d'externalité énergétique dans l'environnement et d'émergie introduite dans le système. Ils

proposent quatre autres indicateurs d'intensité :

1. Le seuil minéralogique fait référence aux conditions naturelles minimales nécessaires à la formation deminéraux séparées de telle sorte qu'ils puissent être extraits et traités par les méthodes d'exploitationdisponibles.

165

F

YX ; I

Figure 4.6. Modèle agrégé d'interface économie-environnement

Page 176: 2. Thèse_Doctorat_YJJ_Duplan.pdf

— le taux de rendement émergétique net qui rapporte la production nette (Y) aux intrants (F)

en provenance du marché ;

— le taux d'externalité énergétique évaluant la part de l'émergie des intrants gratuits (X) tirés

de l'environnement dans l'ensemble émergétique (X+F) des intrants intervenant dans le

produit final ;

— le taux d'investissement émergétique qui est donné par le rapport de l'émergie (F)

introduite dans le système en provenance de l'économie à l'émergie (X) qui provient de

l'environnement

— l'intensité d'utilisation du travail de l'environnement définie le rapport de la production

nette (Y) à l'externatlité énergétique dans l'environnement (I).

Soient E le besoin brut en énergie c'est-à-dire la totalité d'énergie directe et indirecte

intervenant dans un processus de production (en kcal). Soit Q la quantité d'énergie (en kcal)

produite. Dans un registre peu différent de l'évaluation proposée ci-dessus, on utilise

l'indicateur ERE (Energy Requirement for Energy : Besoin en Énergie pour Produire de

l'Énergie [Slesser, 1978]) dit ratio de l'énergie nette [Gilliland, 1975] pour définir l'efficacité

énergétique d'un système. Cet indicateur mesure le besoin brut en énergie par unité d'énergie

produite :

ERE=EQ

(4.7)

Un autre indicateur de performance égal à l'inverse de l'ERE évalue la productivité du

processus considéré. C'est l'indicateur EROI (Energy Return On Investment : Rendement

Énergétique de l'Investissement) employé par Hall, Cleveland et Kaufmann [1986] :

EROI=QE

(4.8)

1.3. L'évaluation éco-thermodynamique

Les indicateurs éco-thermodynamiques sont surtout utilisés pour évaluer la qualité des

ressources et le degré de pollution. Ils sont exprimés en termes de chaleur d'entropie ou

d'exergie.

A. Les indicateurs thermique et entropique

Parmi les mesures d'évaluation éco-thermodynamiques, on peut distinguer l'équivalent

thermique des substances nocives de Kümmel et Schüssler [1991] et les mesures entropiques

de la pollution et de la qualité des ressources de Faber [1985].

166

Page 177: 2. Thèse_Doctorat_YJJ_Duplan.pdf

a. l'équivalent thermique des substances nocives

Assimilant la chaleur à une forme de déchets, Kümmel et Schüssler [1991] proposent

l'indicateur nommé HEONS (Heat Equivalent of noxious susbstances), l'équivalent thermique

des substances nocives, pour évaluer la pollution thermique des processus industriels, des

centrales électriques, thermiques et nucléaires. Ils appellent « substance nocive » une

substance rejetée dans l'environnement à une quantité qui altère significativement la

concentration à laquelle les espèces vivantes se sont adaptées au cours de l'évolution et de

l'histoire humaine. On considère un processus qui produit un bien d'une utilité donnée et qui

émet dans l'environnement une substance nocive. L'adjonction d'un dispositif de contrôle de

pollution à ce processus maintiendrait le rejet de la substance en dessous d'un seuil tolérable.

Soit C la chaleur polluante (relative à la substance émise) générée par le dispositif de contrôle

relié lié au processus de production. On détermine une quantité de référence R qui, relative à

l'utilité du processus de production et rapportée à la chaleur polluante, rend comparables les

différences substances nuisibles. Du fait de sa proximité avec la chaleur polluante et de sa

participation dans le processus de contrôle de pollution, Kümmel et Schüssler choisissent

l'énergie primaire comme quantité de référence. R est précisément la quantité d'énergie

primaire utilisée comme facteur dans un processus qui, en l'absence du dispositif de contrôle,

produit un bien de même utilité que celui produit par le processus émettant la chaleur C.

L'équivalent thermique de la substance nocive est défini par le quotient :

HEONS= RC

(4.9)

b. L'indice entropique de pollution

Faber [1985] et Faber, Niemes et Stephan [1995] considèrent que les déchets résultant

du processus économique correspondent à un accroissement de l'entropie dans

l'environnement naturel. Alors, ils admettent que l'entropie est une mesure agrégée de la

pollution. Ils proposent d'évaluer la pollution par la variation de l'entropie dans le temps, prise

dans une espace écologique donné. Soit W i l'indicateur de pollution associé au polluant (ou à

la molécule) de type i :

W i=1V

d S i

d t(4.10)

où V est l'espace écologique considéré etd S i

d tla variation dans le temps de l'entropie du

polluant i. Soit W ci le niveau critique de pollution tel que la société ne peut tolérer

W iW ci et W oi le taux de purification naturelle. L'indicateur de pollution de la molécule

167

Page 178: 2. Thèse_Doctorat_YJJ_Duplan.pdf

de type i est la fonction

pi=pi W i ;W ci ,W oi (4.11)

qui mesure la contribution du polluant i (i = 1, ..., m) à la baisse du bien-être de la société. La

fonction pi a les propriétés suivantes :

— elle prend une valeur quasiment nulle si W iW ci et infinie si W iW ci ;

— plus la valeur W oi est élevé moins pi augmente quand W i s'approche W ci .

L'indice entropique de pollution est la fonction de pollution totale :

p=∑i=1

m

pi W i ;W ci ,W oi (4.12)

c. L'entropie comme indicateur de la qualité des ressources

L'utilisation de l'entropie comme indicateur de la qualité des ressources repose sur l'idée

qu'extraire une ressource revient à la séparer des constituants matériels du site où elle se

trouve. Cette séparation qui est considérée comme un amélioration de la qualité de la

ressource correspond à une diminution de l'entropie du site. Ce qui peut être démontré à partir

de l'exemple de la boîte de Van't Hoff.

La boîte de Van't Hoff (figure 4.7) est un cylindre isolé adiabatiquement et contenant

deux gaz 1 et 2. Elle comprend deux pistons en opposition formés chacun d'une membrane

semi-perméable. L'une est imperméable au gaz 1 et perméable au gaz 2 ; réciproquement,

l'autre est perméable au gaz 1 et imperméable au gaz 2.

Dans un premier temps, les pistons sont dans la position indiquée sur la figure 4.10a et

le système évolue en équilibre. Toute transformation interne de la boîte entraîne une

conversion de son énergie totale en chaleur (dQ) et en énergie mécanique (dW). Le système

étant isolé, la variation de son énergie est :

d Qd W=0 (4.13)

Son entropie qu'on appelle « entropie de mélange » est :

d S=d QT

(4.14)

168

Figure 4.7. La boîte de Van’t Hoff

(a) (b)

Page 179: 2. Thèse_Doctorat_YJJ_Duplan.pdf

où T est la température absolue du gaz.

On suppose que le contenu de la boîte se comporte comme un gaz parfaits c'est-à-dire

qu'il suit la loi

PV=NRT (4.15)

où P désigne la pression, V le volume du cylindre, N le nombre de moles, R la constante des

gaz parfaits1. Par définition, l'énergie mécanique est :

d W=P d V (4.16)

A partir des relations (4.14), (4.15) et (4.16) l'équation (4.13) devient :

T d S− NRTV

d V=0 (4.17)

On en déduit par intégration l'entropie du système :

S V =RN ln V (4.18)

Lorsque, dans un second temps, on pousse les pistons l'un vers l'autre, les deux gaz se

séparent. Chacun se met derrière la membrane qui lui est perméable (figure 4.10b) et occupe

un volume V i tel que V=V 1V 2 . La poussée du piston est suffisamment lente pour que le

système évolue dans des conditions proches de l'équilibre. L'entropie totale de la boîte est

S V 1S V 2 , l'entropie du gaz i étant

S V i =R N i ln V i (4.19)

La variation de l'entropie de la boîte de la position 4.10a à la position 4.10b est :

d S=S V 1S V 2 −S V =R [N 1 ln V 1

V N 2 ln V 2

V ] (4.20)

La poussée du piston entraînant une séparation des gaz se traduit par une diminution de

l'entropie de la boîte : d S0 .

On considère un site de volume V contenant N molécules dont N 1 molécules d'une

certaine ressource. La concentration de cette ressource est donnée par

1=N 1

N(4.21)

Si on suppose que chaque molécule a le même volume v, on a :

N 1 v=V 1 et Nv=V (4.22)

Ce qui implique

1=V 1

V(4.23)

D'après l'équation 4.20 et 4.23, l'extraction de la ressource fait baisser l'entropie molaire

du site d'une quantité

1. R = 8,314510 J-1.mol-1K-1.

169

Page 180: 2. Thèse_Doctorat_YJJ_Duplan.pdf

d S1=R ln 11−1

1

ln 1−10 (4.24)

Et on montre que la quantité d'énergie nécessaire à l'extraction d'une mole de la ressource est

U 1=−T d S1 (4.25)

Cette quantité d'énergie mesure la qualité de la ressource. Lorsque la concentration de

cette dernière augmente l'énergie utilisée pour son extraction diminue tandis que l'entropie du

site augmente. Le coût énergétique d'extraction et la valeur entropique de la ressource sont

équivalents. L'entropie de la ressource peut être aussi utilisée comme indicateur de sa qualité.

B. L'évaluation exergétique

Alors que Edgerton [1982] caractérise les ressources naturelles en fonction de leur

rentabilité exergétique, Cleveland, Kaufmann et Stern [2000] utilisent l'exergie pour définir

qualitativement la productivité des systèmes. A partir de la théorie de l'information et d'une

interprétation « négative » de l'exergie, Ayres et Martinás [1995 et 1996] construisent

l'indicateur d'évaluation des déchets : le potentiel-Π.

a. Les indicateurs de rentabilité exergétique et la productivitéénergétique

L'exergie ou l'énergie disponible, (dite encore essergie, travail utile, travail disponible

ou disponibilité) est l'équivalent du travail maximum que produit un système tendant vers

l'équilibre avec son environnement lorsque les variables thermodynamique (pression,

température, volume) et la composition chimique du système ne sont soumises à aucune

contrainte. L'exergie est, en quelque sorte, la quantité d'énergie qui est potentiellement

convertible en travail utile, compte tenu de son état énergétique et de son environnement

[Edgerton, 1982]. Elle mesure le travail potentiel incorporé dans une forme matérielle

quelconque. Pour cette raison, Ayres et Martinas [1996] suggèrent d'en faire une mesure

commune de la quantité des ressources.

L'exergie peut être exprimée en termes des variables intensives (non additives) de

l'environnement du système tels la température T0, la pression P0, les potentiel chimiques i0

des constituants microscopiques (atomiques) de type i et les variables extensives (additives)

du système comme l'énergie E, l'entropie S, le volume V, le nombre de moles Ni [Edgerton,

1982 ; Eriksson, 1984]. C'est la grandeur

B=E−T 0 SP0 V−∑i

i0 N (4.26)

Selon Ayres et Martinàs [1996], on peut, en principe, décomposer le contenu exergique

170

Page 181: 2. Thèse_Doctorat_YJJ_Duplan.pdf

d'un système en trois parties : l'exergie cinétique (reflétant la vitesse d'un flux), l'exergie

potentielle (d'ordre électro-magnétique), l'exergie thermique et l'exergie chimique. La quantité

de travail qu'on peut obtenir d'un système par des processus réversibles – compression,

extension et échange de chaleur – à la température et la pression de son environnement définit

l'exergie thermique du système. Celle qu'on peut obtenir avec un système ayant la même

température, la même pression et la même composition chimique que son environnement

donne l'exergie chimique. Lorsque le système est fermé, l'exergie thermique et l'exergie

chimique maximales sont égales respectivement à l'énergie libre de Gibbs G et à l'énergie

libre de Helmholtz F telles que

G=E−TS et F=E−TS (4.27)

Tableau 4.2. Classification exergétique des ressources natuelles

Découverte Non découverte

Réserves

Concentration maritime

Concentration de Clarke

Edgerton [1982] propose une classification des ressources naturelles en tenant compte

de leur rentabilité exergétique. Il estime qu'une ressource ne présente aucun intérêt si la

quantité d'énergie disponible utilisée pour son extraction excède la quantité récupérée. La

partie de la ressource qui est rentable et exploitable du point de vue de sa valeur exergétique

est la réserve. Celle-ci est fonction croissante du progrès technologique et décroissante avec

les difficultés géologiques. Car le progrès technologique et les difficultés géologiques

respectivement augmente et diminue la rentabilité exergétique de la ressource (tableau 4.2).

L'extraction des ressources minières commence au niveau de concentration le plus élevé

auquel l'énergie disponible des ressources est d'une très grande quantité vers le niveau de

concentration de Clarke en passant par le niveau de concentration maritime.

171

Var

iabl

es

géol

ogi q

ues

Variables technologiques

Tra

item

ent d

e l'é

nerg

ie d

i spo

nibl

ede

man

Page 182: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Cleveland, Kaufmann et Stern [2000] reprochent à la plupart des mesures énergétiques

de ne pas tenir compte des différences qualitatives entre les formes d'énergie. Ils proposent de

rectifier l'EROI, considérant la qualité éxergétique de chaque type d'énergie. L'EROI corrigé,

mesurant la productivité d'un processus énergétique, est définit au temps t par le rapport:

EROI t*=∑i=1

n

it Qit

∑i=1

n

it E it

(4.28)

où it est le cœfficient exprimant la qualité éxergétique de l'énergie de type i, E it et Qit

étant les quantités respectives de l'énergie de type i utilisée et produite.

b. L'exergie et l'information : le potentiel­Π

Aux yeux de Ayres et Martinás [1995 et 1996] l'économie est un processeur

d'information (figure 4.8). Ainsi déclarent-ils que « tous les facteurs de production, y compris

le savoir technologique, peuvent être considérés comme des formes d'information

''condensée'' ou ''incorporée'' » [Ayres et Martinás, 1995, p.96]. Les énergies fossiles sont des

stocks d'information qui conservent de l'énergie solaire elle-même considérée comme un flux

d'information. La production est une « information morphologique » résultant de la

transformation de l'énergie, de la composition et de la structure de la matière à l'échelle

macroscopique. Les images sont des formes d'« information symbolique ». La dépréciation du

capital est une perte d'information.

172

Entrants thermodynamiques (matières premières et énergie)

Consommation finale

Travail Capital

Addition d'information thermodynamique

Addition d'information morphologique

Production de services informationnels et technologie

Information des services du capital

Information technologique

Information de contrôle

Information technologique

Figure 4.8. L'économie comme processeur d'information [Ayres et Martinás,1995]

Page 183: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Cette lecture de l'économie est sous-tendue par l'interprétation de Tribus [1961] que

l'information est une capacité de distinguer. Par exemple, l'assimilation des ressources

minières à l'information repose sur le fait qu'elles sont distinguables de la croûte terrestre.

L'interprétation informationnelle de l'économie équivaut formellement à une interprétation en

termes d'exergie ou de potentialité. Car, du point de vue la formalisation mathématique,

l'information et la potentialité entropique sont identiques et équivalentes à l'exergie.

Suivant le principe d'entropie, toute production de travail s'accompagne toujours d'une

production d'entropie. Alors, l'exergie en tant que production potentielle de travail est une

« source potentielle d'accroissement futur de l'entropie » [Ayres et Martinás, 1995 et 1996].

Réciproquement, la variation de l'entropie d'un système équivaut à l'étendue de l'épuisement

de son contenu exergétique. Cela étant, l'exergie et la potentialité entropique d'un système

sont équivalentes. Ainsi, dans la mesure où un accroissement inattendu de l'entropie, sous la

forme de production de toxines, peut porter atteinte à l'environnement, Ayres et Martinas

proposent d'utiliser l'exergie ou le potentiel entropique pour évaluer la production de déchets

et la potentialité de nuire aux processus biologiques et écologiques.

Comme l'entropie d'un système à l'équilibre est maximum, sa potentialité entropique est

définie par l'écart entre son entropie actuelle S0 et son entropie à l'équilibre avec son

evironnement S. C'est la grandeur que Ayres et Martinas appellent potentiel-Π :

=S0−S (4.29)

Le potentiel-Π est identique à la définition de l'information de Brillouin et mesure le « stock

d'information physique » du système relativement à son environnement.

Les deux auteurs montrent, par ailleurs, que l'exergie B est proportionnelle, au potentiel-

Π :

B=T (4.30)

où T est la température ambiante.

Soient la production d'entropie du système terrestre et J le flux d'entropie

potentielle. La variation nette dans le temps du potentiel du système terrestre est : dd t

=J− (4.31)

« Le système terrestre est soutenable si en moyenne le taux de production d'entropie

n'excède pas le taux du potentiel-Π J en provenance du soleil – la seule source

soutenable » [Ayres et Martinás, 1995, p.105]. Dans le cas contraire, le système est déficitaire

en termes d'information physique. Une politique environnementale doit chercher a satisfaire le

critère de soutenabilité : J .

173

Page 184: 2. Thèse_Doctorat_YJJ_Duplan.pdf

A l'instar du potentiel-Π, les indicateurs éco-thermo-énergétiques, dès lors que leur

pertinence est reconnue, peuvent être utilisés pour apprécier les systèmes socio-économiques

et écologiques par leurs dimensions physiques. Leur importance sera davantage ressentie une

fois que nous aurons établi les principes constitutifs de la soutenabilité écologique.

2. La soutenabilité à la lumière de la bioéconomie :la question de la décroissance et de l'étatstationnaire

Élaborée par Nicholas Georgescu-Roegen et développée par René Passet, la

bioéconomie se nourrit de la compréhension éco-thermo-énergétique des relations entre le

système économique et l'environnement, reconnaissant la dépendance de celui-là vis-à-vis des

flux énergétiques. L'approche bioéconomique est un outil adéquat pour saisir le problème de

l'équité intergénérationnelle. C'est donc sous le regard de la bioéconomie que s'éclaire la

dimension écologique de la soutenabilité et que se pose la question de l'évolution de la

production économique.

Nous essaierons de faire émerger la soutenabilité écologique du cadre bioéconomique

(2.1). Puis nous traiterons des controverses sur les fondements des nécessités de la

décroissance et de l'état stationnaire (2.2).

2.1. L'émergence bioéconomique de la soutenabilitéécologique

La bioéconomie repose sa légitimité sur les principes du paradigme chaosmique qui

permet de penser la complexité de l'économie. En faisant de la vie le fondement et la finalité

de l'Économie, elle favorise l'appréhension de la dimension écologique de la soutenabilité.

A. Vers une économie complexe

La vision bioéconomique s'affirme au-delà des limites de la méthode éco-thermo-

énergétique. L'Économie y apparaît comme un système vivant.

a. Le réductionnisme énergétique : les limites de l'éco­thermo­énergétique

Conçu par Wilhelm Ostwald et impulsé aux États-Unis dans le Mouvement de la

Technocratie fondé par Howard Scott dans la première moitié du siècle dernier, l'énergétisme

174

Page 185: 2. Thèse_Doctorat_YJJ_Duplan.pdf

fait de l'énergie le concept primaire de la connaissance. C'est la notion à partir de laquelle

devaient découler toutes les compréhensions et explications scientifiques. D'après l'écologie

odumienne, toutes les questions sociales doivent être traitées dans le langage énergétique.

Odum [1971] n'a pas hésité à voir dans l'énergie le fondement de la morale religieuse.

En ne retenant que des valorimètres énergétiques, l'éco-thermo-énergétique est dominée

par l'influence de l'énergétisme. Pour cette raison, elle est incapable d'appréhender un certain

nombre de phénomènes. Parmi les obstacles insurmontables par la théorie émergétique on

peut citer celui de l'évaluation des coûts de production, du savoir-faire humain et de

l'information génétique. Ce sont des phénomènes émergents non reproductibles dont les

processus n'ont pas d'origine définie. On ne peut donc déterminer l'émergie du savoir faire

humain et de l'information génétique.

La prégnance de l'énergétisme est si forte que les émérgéticiens se sentent obligés de

trouver une clé de conversion de la monnaie en énergie. La corrélation entre la valeur

monétaire et l'énergie incorporée sert de prétexte à l'hypothèse d'un rapport déterminé entre

ces dernières. Quelle que soit sa valeur statistique, la corrélation ne justifie jamais la causalité.

De toutes les manières, la monnaie et l'énergie ne sont pas équivalentes [Faucheux et Noël,

1995]. La monnaie est une émergence sociale. C'est une information qui exprime une quantité

de droit d'achat. Quant à l'énergie, c'est la capacité à produire du travail physique.

Käberger [1991] explique que la méthode de la « mesure historique » sur laquelle est

basée la théorie de l'énergie incorporée est inapplicable lorsque les coûts de production

énergétiques sont d'origines diverses. En effet, l'évaluation émergétique d'un bien nécessite

qu'on détermine les coûts en remontant tous les processus qui ont permis son élaboration

jusqu'à l'énergie solaire. Or, quand on considère le gaz naturel et le pétrole puisés dans la

croûte terrestre, il est impossible de déterminer la quantité d'énergie solaire nécessaire à sa

formation. De plus, à la différence des végétaux et des animaux, l'énergie nucléaire ne s'est

pas constituée sous l'effet de la radiation solaire. Autrement dit, il n'y a pas une base

commune pour comparer et, donc, mesurer, les différentes formes d'énergie.

Par ailleurs, l'évaluation éco-thermodynamique est entièrement basée sur l'entropie

énergétique. En témoigne l'utilisation systématique de la formule d S=d QT

. De plus celle-ci

n'est valable que pour des processus extrêmement lents, des systèmes évoluant proches de

l'équilibre. Elle est inapplicable au système économique qui évolue loin de l'équilibre. Ce

pourquoi l'indicateur de Faber qui repose sur l'hypothèse restrictive que le processus

d'extraction est équilibré n'a aucune utilité pour l'économie.

L'éco-thermo-énergétique exclut les dimensions matérielles et informationnelles (dans

175

Page 186: 2. Thèse_Doctorat_YJJ_Duplan.pdf

le sens d'information signifiante) des systèmes. Lui échappent les phénomènes de

structuration dont l'appréhension permet de comprendre les organisations vivantes.

b. L'Économie est un système vivant

L'organisation économique comprend les processus de marchandisation, de production et

de consommation de biens et services dont l'objectif de satisfaire les désirs et les besoins des

hommes. Suivant le principe d'économicité de Bartoli, les buts que poursuit le système

économique doivent être atteints à moindres coûts humains. A cet égard, l'Économie n'est pas

réduite à la gestion du capital, mais apparaît « comme une relation d'hommes à hommes

médiée par les choses dont la finalité objective est la survie et la montée de la vie vers plus

d'être » Bartoli [1991, p.180]. Les hommes son reliés les uns aux autres dans le travail et par

l'échange. Dans le travail, ils s'organisent en rapport aux moyens de production et poursuivent

le but commun de produire ; par l'échange, ils se lient en achetant et vendant des actifs contre

une somme monétaire. En général, l'Économie rend les hommes interdépendants par un flux

sémantique d'information signifiante, notamment par le circuit de la monnaie, et un flux

physique de matière-énergie. La monnaie circule d'un propriétaire à l'autre, du prêteur à

l'emprunteur, et est échangée contre des biens et services. De son côté, la matière-énergie

provient de l'environnement chaosmique sous une forme utile, se lie au circuit monétaire dans

le système socio-économique, est réorganisée par la production et, une fois consommée, est

rejetée dans le milieu naturel sous une forme dégradée (figure 4.9).

Du point de vue de la thermodynamique des processus irréversibles, l'Économie est

« une structure dissipative ouverte sur l'énergie solaire mise à sa disposition :

— soit sous la forme d'un flux capté par les végétaux verts et circulant le long des chaînes

alimentaires,

— soit sous la forme des ressources fossiles stockées au cours des millénaires.

Son activité consiste à '' informer '', (c'est-à-dire à structurer) cette énergie par le travail,

176

Figure 4.9. Lien entre l'Économie et son environnement chaosmique

Environnement Chaosmique

Information,matière-énergie utile

Rejets

ECONOMIE

Circuit monétaire

Transform

ation physico-sém

antique

Page 187: 2. Thèse_Doctorat_YJJ_Duplan.pdf

tout en rejetant les sous-produits de cette activité sur le milieu » [Passet, 1980, p.22 ;

Bruggink, 1985 ; Ayres, 1988]. C'est au sens de Schrödinger [1986, p. 176 et 177], un

système vivant qui « se nourrit d'entropie négative », de la matière à l'état extrêmement bien

ordonné qu'il rend « sous une forme très dégradée ». L'Économie organise et désorganise en

même temps. Producteur de biens et services, le processus économique est un processus de

destruction créatrice [Passet, 1980 et 1996 ; Faucheux et Passet, 1995] ; consommateur, il est

un processus de création destructrice. Il est « à la fois entropique et ektropique » [Guitton,

1975, p.82]. Entropique, il dissipe et détruit par la consommation la matière et l'énergie

récupérées. Ektropique, il les organise et en crée des formes nouvelles pour répondre à ses

finalités et contrecarrer localement la tendance à la dégradation entropique. Grâce à son

ouverture biophysique, par ces activités dissipatives de production et de consommation,

l'Économie dans sa localité sous-systémique est capable d'évoluer loin de l'équilibre

thermodynamique, vers des états de plus haute complexité, en augmentant irréversiblement

l'état entropique de son environnement.

Ouverte tel un système vivant, l'Économie a des propriétés auto-éco-re-organisatrices.

Grâce à des boucles de régulation et d'amplification multiples et imbriquées, elle maintient et

entretient son organisation. Par exemple, à partir d'un objectif de revenu donné, l'entreprise

prend des décisions de production et d'emploi (figure 4.10). La marchandisation de ses

produits lui procure un certain niveau de revenu. L'entreprise compare ce dernier à son

objectif initial et revoit les conditions de transformation de sa décision en résultat. Sur la base

de ses computations, elle reprend la décision de produire, de maintenir et poursuivre ses

activités. De la sorte, l'entreprise auto-entretient son organisation et contribue au maintien de

l'organisation économique. Elle peut décider d'arrêter sa production. Dans ce cas, ce sont les

autres boucles qui continuent à assurer la survie de l'économie. Ce modèle de comportement

est valable, au niveau de l'État, des structures syndicales et même des individus. Les boucles

disparaissent et apparaissent dans le jeu des régulations du système économique et de son

auto-organisation.

177

Transformations(Re)prise de décision en vue d'un objectif donné

Résultat

Computation (étude des conditions de transformation, comparaison de l'objectif au résultat)

Figure 4.10. Le modèle de comportement régulateur de l'organsiation économique

Page 188: 2. Thèse_Doctorat_YJJ_Duplan.pdf

B. La dimension écologique de la soutenabilité

Les principes de la soutenabilité écologique émanent de la perception complexe de

l'intégration hiérarchique des systèmes économique, social et chaosmique.

a. La hiérarchie de la soutenabilité

Le support compréhensif – dans le sens de prendre ensemble, relier – de la soutenabilité

est l'intégration hiérarchique de l'Économie, de la Société et du Chaosmos. Le Chaosmos

(dont la taille est peut-être infinie) est le plus grand système englobant que l'on puisse

imaginer. Il comporte tous les êtres vivants, animés et inanimés. Il contient la Société qui,

elle-même, inclut l'Économie (figure 4.11)1. L'Économie, sous-système de la Société et du

Chaosmos, est sociale et chaosmique, la Société économique en partie est chaosmique en

totalité.

La Société, dont l'Économie, systémise l'ensemble des organisations humaines.

Distinguable de son environnement chaosmique, elle n'en est pas séparée d'une frontière

discernable. A telle enseigne, l'homme intervient à tous les niveaux du Chaosmos. Le système

social est dans le prolongement de son environnement avec lequel il interagit et partage tout

espace intermédiaire. La société est psychiquement et physiquement ouverte sur et à son

1. L'inclusion de la sphère économique dans la sphère sociale et de la sphère sociale dans la sphère sociale estexplicitement formulée par Passet [1996 et 1997] et de Rosnay [1975]. Au lieu de parler de sphère, nouspréférons parler de système car la notion de sphère renvoie trop aux idées cosmiques de l'invariance, del'ordre et de l'identité. Cependant, nous restons dans le cadre de pensée de ces auteurs.

178

Figure 4.11. L'intégration des systèmes économiques, social et chaosmique

Économie

Société

ESEECS

Chaosmos

ECE

ECS : Environnement Chaosmique de la SociétéESE : Environnement Social de l'ÉconomieECE : Environnement Chaosmique de l'Économie

Page 189: 2. Thèse_Doctorat_YJJ_Duplan.pdf

environnement chaosmique qui comprend la totalité des systèmes écologiques (non humains).

De par la nécessité de satisfaire ses besoins énergétiques, matériels et informationnels, sans un

environnement naturel répondant aux normes de qualité biologiques, aucune société ne peut

exister. C'est son support vital : elle en est bio-dépendante. Cependant, le Chaosmos peut

entretenir son organisation en l'absence de la Société (ce qui était déjà arrivé au cours de

l'histoire de l'Univers). Néanmoins, les systèmes sociaux et leur environnement chaosmique,

en interaction perpétuelle depuis l'apparition de l'espèce humaine, suivent une dynamique co-

évolutive [Norgaard, 1988].

L'existence de la vie sociale ne peut échapper aux processus économiques. Ils

fournissent à la Société les biens et services nécessaires à son organisation. De même, les

activités sociales, non économiques, d'ordre religieux, éducatif, récréatif, indispensables au

bien-être psychique des personnes, sont d'une importance cruciale pour l'Économie. Le

système économique et son environnement social ne sont pas seulement interdépendants, ils

sont bio-équivalents.

L'organisation hiérarchique des systèmes économique, social et chaosmique soumet

l'autonomie de l'Économie à celle de la Société, et l'autonomie de la Société à celle du

Chaosmos. Les finalités de la Société, ne serait-ce que dans leurs réalisations, ne peuvent

contrecarrer les possibilités de reproduction du Chaosmos sans remettre en cause sa propre

existence. L'autonomie de la Société doit aller de pair avec la capacité du Chaosmos à

perpétuer ses organisations biologiques. Les processus de marchandisation et de

financiarisation, qui sont gouvernés par le souci de rentabilité et qui assurent l'autonomie de

l'organisation économique ne sauraient être valables pour tout le corps social, notamment

dans son rapport avec l'environnement chaosmique, sans saper ses bases existentielles. Dans

cette optique, il convient justement de rejeter, sans retenue, l'économie néoclassique de la

soutenabilité, qui entend réduire tous les rapports humains à la logique de la rentabilité

monétaire.

C'est au regard de cette hiérarchie qu'émergent la soutenabilité et, de façon plus

évidente, la soutenabilité écologique.

b. Les principes constitutifs de la soutenabilité écologique

Une société qui veut perdurer son existence doit s'assurer de la viabilité de ses

interactions avec son milieu ambiant. Elle doit notamment tenir compte du stress que

provoquent ses prélèvements de ressources et ses rejets de déchets. Dans leur organisation et

pour leur réorganisation, les écosystèmes ont besoin, d'une période à l'autre, d'un espace à un

autre, d'un certain degré de diversité biologique et d'un minimum de ressources disponibles.

179

Page 190: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Ils sont capables de supporter et assimiler (ou absorber) sur une période et un espace donnés

une certaine quantité de rejets. Ils sont dotés d'une capacité de régénération et d'une capacité

d'assimilation.

Attribuées aux fonctions de la totalité environnementale, les capacités de régénération et

d'assimilation sont interdépendantes. Via les processus naturels, une hausse de la capacité de

régénération se traduit par un accroissement de la productivité écologique des systèmes

environnementaux et multiplie leurs possibilités de complexification. Et, par conséquent, elle

est plus apte à absorber et transformer les rejets. De la sorte, elle renforce la capacité

d'assimilation de l'environnement. Réciproquement, une capacité d'assimilation accrue génère

une plus forte capacité de régénération. Par exemple, plus les végétaux croissent et se

répandent plus ils sont capables de dissocier le gaz carbonique (CO2) atmosphérique en

dégageant l'oxygène (O2) et en fixant le carbone (C). Réciproquement, plus ils dissocient le

CO2, plus ils croissent et se répandent en fixant le carbone. La capacité de dissociation des

végétaux est équivalente à leur capacité à se reproduire. Certes distinctes, la capacité de

régénération et la capacité d'assimilation se tiennent dans la boucle de la vitalité du Chaosmos

Tout processus (vivant) du Chaosmos est à la fois assimilation et régénération.

Les capacités d'assimilation et de régénération sont limités au niveau de la capacité de

charge. Celle-ci est comme la « ligne de Plimsoll » au-delà de laquelle un bateau trop rempli

coule. La capacité de charge mesure les taux de prélèvements et de rejets maxima que les

écosystèmes peuvent supporter sans s'effondrer. Dans le souci d'accroître, du moins maintenir,

les chances de la reproductibilité de la Société et de la survie de l'espèce humaine, en vue de

l'équité intergénérationnelle, la capacité de charge doit être conjointement et absolument

préservée. En ce sens, nous admettons avec Daly [1990] les deux principes suivants :

— les taux de prélèvement de « ressources renouvelables » doivent être inférieurs à leur taux

de régénération ;

— les taux de rejets doivent être en deçà des capacités assimilatrices naturelles des

écosystèmes.

Ces principes sont à concevoir de façon dynamique dans la mesure où la capacité de

charge des écosystèmes est susceptible d'évoluer dans le temps

En ce qui concerne les « ressources non renouvelables », Daly formule un troisième

principe qui ressemble, à peu de chose près, à la règle de Hartwick et, de manière générale

équivaut à la règle de Hicks : l'utilisation des « ressources non renouvelables » doit être

compensée en investissant dans des ressources renouvelables substituables c'est-à-dire

180

Assimilation Régénération

Page 191: 2. Thèse_Doctorat_YJJ_Duplan.pdf

capables de remplir les mêmes fonctions. Cette compensation est telle qu'à la fin des

ressources non renouvelables, la production annuelle du substitut soit égale à la

consommation annuelle passée de la ressource épuisée. Ce principe serait soutenable si

toutefois il était possible de trouver deux ressources, renouvelable et non renouvelable, qui

aient exactement les mêmes fonctions et si l'épuisabilité de la ressource non renouvelable ne

mettait pas en cause les deux premiers principes. Ces hypothèses sont pratiquement

irréalisables. Pour produire de l'énergie électrique et mécanique, on pourrait épuiser tout le

pétrole de l'écorce terrestre et le remplacer par l'énergie solaire. Premièrement, les photons

solaires ne peuvent être transformés pour en faire des matières plastiques. Deuxièmement, il

est fort probable que les rejets de carbone issus de la transformation du pétrole mettent en

péril la reproductibilité des systèmes naturels.

Au regard de la hiérarchisation du Chaosmos qui fait dépendre le système socio-

économique de son environnement naturel et parce qu'elle met la vie (humaine) au cœur des

finalités humaines, la soutenabilité écologique est le respect des deux premiers principes. En

gros, elle stipule qu'à l'intérieur du Chaosmos, la société doit s'organiser de telle manière que

les activités humaines respectent et garantissent les conditions naturelles d'émergence et de

reproduction de la vie, de toutes les formes de vie, d'une vie sociale juste et décente pour tous

les êtres humains. Exigeant que nous soyons responsables à l'égard des générations à venir,

face aux incertitudes et aux risques d'effondrement des systèmes environnementaux, elle

exhorte au principe de précaution « selon lequel il est fondé d'agir avant d'avoir des certitudes

scientifiques », du moins, des connaissance satisfaisantes. Agir dans le sens, d'une part,

d'« innover, introduire de nouvelles techniques, fabriquer de nouveaux produits, accepter

certains niveaux de rejets dans le milieu », d'autre part, de « prendre des mesures de

sauvegarde et développer des programmes de connaissance du risque, considérer l'action

comme une expérimentation gérée par étapes, se mettre en état de réagir à de nouvelles

informations en choisissant des actions et dispositifs révisables, etc. » [Godard, 2000, p.29].

Lorsqu'une partie de la Société capte en tout iniquité la plus grande part de la richesse

ou du revenu national et qu'en même temps l'autre partie vit dans le dénuement et la pauvreté,

une façon de satisfaire les besoins biologiques de la population démunie, de lui permettre une

vie décente et de renforcer sa dignité est la croissance de la production économique. Ce qui

signifie, à productivité non croissante, une accentuation des pressions sur l'environnement en

termes de prélèvements et de rejets. Si l'on devait éviter de perturber le fonctionnement de

l'environnement, il faudrait une répartition équitable de la richesse ou du revenu (si la richesse

ou le revenu global est suffisant) qui maintienne chaque personne au-dessus du seuil de

dénuement et de pauvreté. De la sorte, la soutenabilité écologique, sous les auspices de la

181

Page 192: 2. Thèse_Doctorat_YJJ_Duplan.pdf

soutenabilité épistémique, est reliée à la soutenabilité socio-économique. Dans ses multiples

dimensions, la soutenabilité exprime l'équité intergénérationnelle et intragénérationnelle et

assure la solidarité des uns envers les autres, des génération présentes vis-à-vis des

générations futures.

2.2. Controverse sur la décroissance et l'état stationnaire

Selon Georgescu-Roegen, la croissance économique accélère l'épuisement irrévocable

des ressources naturelles au détriment des générations futures. Dans une optique de

soutenabilité écologique, il prône la décroissance de la production économique qui doit, me

semble-t-il, aboutir à un état stationnaire. Ce dernier est le mode d'évolution de la production

préconisé par Daly.

L'hypothèse d'irrévocabilité de la dégradation de la matière est la clé de voûte de

l'argumentation de ces deux auteurs. Cette hypothèse conditionne une conception strictement

unidirectionnelle des processus économique. Les critiques avancées par les contestataires

laissent apparaître un processus économique semi-circulaire.

A. L'irrévocabilité de la dégradation de la matière :l'unidirectionnalité du processus économique

L'hypothèse de dégradation irrévocable de la matière que propose Georgescu-Roegen

soumet le système Terre, dans sa globalité, à une diminution irréversible de sa qualité

matérielle. L'état stationnaire ne peut être que local et temporaire.

a. L'hypothèse de Georgescu­Roegen

Tout comme l'énergie, la matière est partie prenante des transformations physiques.

C'est ainsi que Georgescu-Roegen insiste sur le fait que la dissipation physique ne concerne

pas seulement l'énergie, elle est aussi de l'ordre de la matière. Cet auteur ne donne pas une

définition explicite de la dégradation de la matière. Cependant, les éléments que nous avons

recueillis à la lecture de son œuvre nous laissent penser qu'il identifie la dégradation

matérielle au mélange des constituants de base (particules élémentaires, atomes ou molécules)

des matières de types différents ou à la dislocation des constituants d'une même matière. Les

« imperfections » omniprésentes du monde matériel sont les causes de la dégradation de la

matière lors des transformations physiques. Aucun procédé industriel ne peut les éliminer

dans leur totalité. « Dans la réalité, il n'y a pas de solides indéformables, il n'y a pas de

matériaux qui soient ou parfaits conducteurs ou parfaits isolants, il n'y a pas de membranes

182

Page 193: 2. Thèse_Doctorat_YJJ_Duplan.pdf

vraiment semi-perméables. Il n'y a pas non plus de membranes qui ne s'obstruent avec le

temps [...] Le système matériel est continuellement sujet au frottement (qui inclut toute

érosion), écaillement, craquement, fendage, combustion spontanée, etc. » [Georgescu-Roegen,

1978, p. 362]. Ces phénomènes ont pour conséquence l'éparpillement des atomes ou

molécules du système matériel.

Ainsi l'utilisation d'une voiture entraîne-t-elle l'usure irrémédiable des pneus, des

métaux et de ses constituants matériels, en général. « Les molécules de cuivre dispersées aux

quatre vents par l'usage d'une pièce de monnaie ou d'un toit sont aussi '' perdues '' à jamais

pour nous » [Georgescu-Roegen, 1978 p. 362]. « Un morceau de charbon brûlé par nos

arrière-grands-pères est perdu aujourd'hui pour toujours, de même que la part d'argent ou de

fer, par exemple, qu'ils ont extraite. En revanche, les générations à venir pourront encore

disposer de leur part inaliénable d'énergie solaire [...]. Aussi bien pourront-elles utiliser

chaque année, au moins, une quantité de bois correspondant à la croissance végétale annuelle.

Pour l'argent et le fer dissipés par les générations antérieures, il n'est point semblable

compensation. [...] Toute Cadillac ou toute Zim — et bien sûr tout instrument de guerre —

signifie moins de socs de charrue pour de futures générations et, implicitement, moins d'êtres

humains aussi » [Georgescu-Roegen, 1995, p. 116]. Jamais deux fois on ne roule la même

voiture, n'échange la même pièce de monnaie, ne se rase avec le même rasoir. La matière se

dissipe systématiquement avec l'usage. C'est dans ce sens que Georgescu-Roegen [1995, p.85]

considère que « la Loi de l'Entropie est la racine de la rareté économique ». Il y a lieu de

distinguer « la matière utilisable », de basse entropie, dont la structure est hautement

ordonnée, de « la matière non-utilisable », de haute entropie, dont les constituants sont

dispersés.

Pour Georgescu-Roegen, recycler de la matière dégradée revient à rassembler

l'ensemble des éléments qui la constituaient avant sa dislocation. Or, selon lui, il faudrait un

temps infini et une quantité d'énergie inimaginable pour collecter la totalité des particules de

la matière dissipée1. Autant dire qu'en pratique « le recyclage complet est impossible »

[Georgescu-Roegen, 1978, p. 366]. Il conclut qu'indépendamment des échanges ou des

transformations énergétiques, « dans un système clos, la matière utilisable se transforme

irrévocablement en matière non-utilisable » [Georgescu-Roegen, 1995, p. 180]. Cette

conclusion analogue au principe d'entropie de l'énergie est le principe d'entropie de la matière

qu'il appelle « la quatrième loi de la thermodynamique » dont il donne une formulation

équivalente, à savoir : « dans un système clos, l'entropie de la matière tend continuellement

vers un maximum ». Joint au principe de la dégradation de l'énergie, ce principe constitue la

1. Voir aussi Daly [1992].

183

Page 194: 2. Thèse_Doctorat_YJJ_Duplan.pdf

« Loi de l'Entropie » qui interdit la réversibilité à la fois énergétique et matérielle des

processus physiques.

b. La décroissance globale irrévocable et la stationnarité localetemporaire

La quantité de matière reçue de l'espace sidéral étant négligeable, la Terre est à la limite

un système clos, recevant continuellement un flux d'énergie solaire. Elle est donc soumise à la

loi de l'entropie matérielle : la quantité de matière utilisable du système Terre se dégrade

irrévocablement en matière non-utilisable. Pour contourner les limites imposées par la clôture

matérielle et profiter de l'ouverture énergétique de la Terre, l'homme pourrait espérer

transformer l'énergie disponible en matière utilisable. Malheureusement, cette conversion est

pratiquement impossible sans recourir à un minimum de matière. Aux yeux de Georgescu-

Roegen, la matière, comme l'énergie, est un élément critique pour les espèces vivantes.

L'Environnement du système socio-économique apparaît d'une part comme une source

de matière et d'énergie de basse entropie, d'autre part et en même temps, comme un puits de

matière et d'énergie de haute entropie. L'impossibilité du recyclage de la matière dissipée

implique que le processus socio-économique est dans son ensemble, d'un point de vue

physique, unidirectionnel et linéaire (figure 4.12).

Certes, le flux d'énergie solaire que les plantes transforment en énergie utilisable est

ininterrompu, mais il leur arrive en quantité finie. De même, la quantité de matière disponible

pour l'espèce humaine est une « dot » en quantité limitée contenue au sein de la croûte

184

Figure 4.12. L'irrévocabilité des transformations matérielles et énergétiques

Processus socio-

économiqueBasse

Entropie Entropie

Haute

Environnement

Page 195: 2. Thèse_Doctorat_YJJ_Duplan.pdf

terrestre. Sans intervention extérieure, sous le coup de la Loi de l'Entropie, le contenu

énergétique et matériel de l'Environnement se dégrade à son rythme naturel, tout au plus se

maintient à un état entropique stationnaire dans des conditions physico-chimiques inchangées.

L'intervention humaine par le processus socio-économique de transformation des matières

premières, la vie en général, ne fait qu'accélérer la dissipation de la matière-énergie,

l'épuisement des ressources disponibles et le comblement du puits de déchets. La « dot

entropique de l'humanité » diminue et se raréfie irrévocablement. A l'échelle du système

Terre, la décroissance est un processus systématique et irréversible.

Dans la mesure où l'humanité survit des ressources énergético-matérielles utilisables de

son environnement, elle a une durée de vie limitée. Le rythme de l'accroissement de la

production industrielle commande celui de la réduction du nombre de générations à venir.

Ainsi la croissance économique1 a-t-elle pour implication directe l'avancement de la date de la

fin dernière de l'espèce humaine. Si, auparavant, les hommes ne s'entre-tuent pas par une

guerre nucléaire ou une pollution insoutenable, la fin de l'humanité devra correspondre au

moment où son stock de ressources de basse entropie est épuisé [Georgescu-Roegen, 1978 et

1995]. Un comportement écologiquement soutenable, responsable vis-à-vis de nos

contemporains et de la génération future, devrait nous obliger à refuser la croissance

économique, ce qui déboucherait sur « un état de décroissance ».

Dans le sillage de Georgescu-Roegen, Daly [1992b, p.92] semble admettre la quatrième

loi sans toutefois la défendre de façon explicite : « face à l'évidence du sens commun, écrit-il,

je suis porté à croire que dans la pratique le recyclage complet est impossible ». La

décroissance globale (à l'échelle du système Terre) et irrévocable affirmée par Georgescu-

Roegen n'exclut pas un état stationnaire local (au niveau du sous-système économique) de

l'Économie. Dans cet ordre d'idée, Daly [1974 et 1992a] opte pour « une économie

stationnaire » (a steady-state economy), une économie caractérisée par un stock de richesse

physique constant et une population constante. Il ne rejette pas la croissance et la décroissance

pourvu que ce soient des phases intermédiaires vers un état stationnaire jugé soutenable :

« par suite d'une évolution technique ou morale, la croissance ou la décroissance pourrait

devenir possible ou souhaitable. Mais cela apparaîtrait comme une transition temporaire d'un

état stationnaire à un autre, non pas comme la norme d'une économie saine » [Daly, 1974,

p.16]. S'il est vrai que Georgescu-Roegen ne cesse de plaider en faveur de la décroissance

économique, il semble qu'au bout du compte il ne refuse pas de manière catégorique l'état

stationnaire de Daly. En effet, il soutient « que la grandeur souhaitable de la population est

1. La croissance économique doit être prise ici dans le sens de l'augmentation de la quantité de matière etd'énergie contenue dans le système économique.

185

Page 196: 2. Thèse_Doctorat_YJJ_Duplan.pdf

celle que pourrait nourrir une agriculture exclusivement organique » [Georgescu-Roegen,

1995, p.165]. La décroissance matérielle et énergétique nécessaire au ralentissement de la

raréfaction des ressources minérales exige la décroissance démographique et la

désindustrialisation au point où une agriculture non mécanisée suffit pour assurer les

conditions biophysiques de la « joie de vivre » [Georgescu-Roegen, 1971, 1978 et 1995].

B. Critiques et contre­critiques : la semi­circularité du processuséconomique

L'hypothèse de Georgescu-Roegen ne fait pas l'humanité. Son rejet donne lieu à une

conception semi-bouclée du processus économique. Cependant, les contestations formulées à

son encontre sont critiquables. Quand ce n'est pas une compréhension erronée du principe

d'entropie traditionnel ou de l'hypothèse de Georgescu-Roegen qui fausse les contestations,

c'est le recours à la théorie de l'information pour juger de la validité de l'hypothèse de

Georgerscu-Roegen qui paraît illégitime.

a. Les contestations de l'hypothèse de Georgescu­Roegen

On a vu, dans la section précédente, que dans un système fermé tel la boîte de Van't

Hoff, il était possible de diminuer l'entropie en séparant deux gaz distincts. En raison de la

quatrième loi, la séparation ne peut être complète, il existe toujours une quantité d'entropie

incompressible. Pour Bianciardi, Tiezzi et Ulgiati [1993], ce résultat est en contradiction avec

le principe d'entropie traditionnel. Ils expliquent qu'il existerait suffisamment d'énergie

externe et un contenu informationnel (dans le sens de la théorie de l'information) dû au

mélange restant qui devraient permettre l'abaissement de l'entropie. Cet argument est, d'une

certaine manière, équivalent à la croyance que l'impossibilité de rendre disponible la matière

utile ou de recycler la matière dissipée est juste une question technique. D'après Young

[1991], il suffirait d'avoir les « technologies appropriées » pour que le recyclage complet soit

possible.

A l'inverse des dires de Bianciardi, Tiezzi et Ulgiati [1993], le principe d'entropie

traditionnel est pertinent seulement dans le cadre d'un système fermé qui évolue de façon

spontanée, « d'elle-même » comme le dit Clausius : l'entropie augmente sans aucune

intervention externe. Ce n'est pas le cas de la séparation des gaz dans la boîte de Van't Hoff où

l'entropie diminue sous l'effet d'un agent extérieur qui tire les pistons aux extrémités du

cylindre.

Cette contre-argumentation que le principe d'entropie traditionnel s'applique aux

systèmes clos et aux transformations spontanées soutiendrait la thèse de Khalil [1990]. Selon

186

Page 197: 2. Thèse_Doctorat_YJJ_Duplan.pdf

lui, le principe d'entropie n'est pas valable en économie, étant donné que le processus

économique est intentionnel (purposeful). Certes, la production économique est délibérée,

mais la perte irrévocable d'énergie en chaleur dégradée est incontournable. Due aux

inévitables frictions des machines, elle échappe à la volonté du producteur et de leur

constructeur. Dans le même ordre d'idées, l'incompressibilité de l'entropie ne tient pas à des

facteurs exogènes, mais s'explique par les caractéristiques physiques du système comme

l'incontournable imperfection de la perméabilité des membranes. Encore faut-il comprendre

qu'à la suite de Max Plank, Georgescu-Roegen [1978 et 1995] interprète l'entropie de mélange

en termes matériels, mais pas en termes énergétiques, distinction que Biancardi, Tiezzi et

Ulgiati ne font pas dans leurs contestations du principe de Georgescu-Roegen. Le second

principe qui concerne l'entropie énergétique n'est pas pertinent dans le cas de la boîte de Van't

Hoff à moins que l'on retienne l'interprétation en termes énergétiques de l'entropie de

mélange. Dans un cas comme dans l'autre, il n'y a pas lieu de parler de contradiction, du

moins d'une contradiction insoutenable.

Dans une réponse à Bianciardi, Tiezzi et Ulgiati, Converse [1996] fait appel à la théorie

du transfert de masse pour corroborer l'hypothèse de Georgescu-Roegen. Il fait remarquer que

la surface de la membrane (l'interphase) de séparation devrait être nulle pour qu'il n'y ait

aucun mélange. En effet, une surface de séparation nulle n'est concevable qu'à la limite c'est-

à-dire qu'aussi petite que l'on veut il y aura toujours une quantité de gaz mélangés et une

quantité d'entropie correspondante.

187

Figure 4.13. L'irrévocabilité des transformations énergétiqueset la recyclabilité de la matière

Recyclage

Processus socio-

économiqueBasse

Entropie Entropie

Haute

Environnement

de la matière

Page 198: 2. Thèse_Doctorat_YJJ_Duplan.pdf

La critique la plus courante portée à l'encontre de la quatrième loi est d'ordre

écologique. Ayres et Kneese [1989], Ayres [1998], Bianciardi, Tiezzi et Ulgiati [1993] se

réfèrent au fonctionnement des écosystèmes pour justifier la possibilité du recyclage complet.

Grâce à l'énergie (solaire), les systèmes vivants accumulent, composent et décomposent les

éléments chimiques et de nombreuses substances organiques. Ces processus sont le fait des

cycles biogéochimiques (cycles du carbone, du carbonate de calcium, de l'azote, de l'oxygène)

qui concentrent des oligoéléments, des éléments minéraux, comme le phosphore, le soufre, le

calcium, le manganèse, le cuivre, le cobalt, cheminant le long des chaînes trophiques.

Bianciardi, Tiezzi et Ulgiati [1993, p.5] en déduisent que « le recyclage complet est

physiquement possible s'il y a une quantité suffisante d'énergie disponible » et que l'hypothèse

de Georgescu-Roegen est inacceptable dans le champ de la physique. Ayres [1998, p.2], sur la

même lancée, martèle que « la ''quatrième loi'' n'a pas de statut en physique ». On retrouve

ainsi la thèse de l'éco-thermo-énergétique que l'énergie disponible est le seul facteur limitant.

A la différence de l'énergie, il n'y a pas de perte irrévocable de la matière dans les processus

physiques. Le processus économique est un processus bouclé : la matière dégradée, de haute

entropie est recyclable ou recyclée, grâce à l'énergie disponible, pour recouvrer sa qualité

antérieure de basse entropie (figure 4.13) ; recomposés, réorganisés, purifiés en totalité par les

cycles biogéochimiques, les déchets, les polluants, redeviennent des facteurs de production.

La contestation de l'hypothèse de la dégradation irrévocable de la matière sur la base

des cycles naturels serait pertinente s'il s'agissait de cycles clos. Car le principe de Georgescu-

Roegen s'applique pour des systèmes clos ou fermés. Or le cycle du carbonate de calcium

(CaCO3) est relié au cycle du calcium (Ca) du carbone (C) et de l'oxygène. Les cycles

biogéochimiques s'entremêlent, se supportent et interagissent les uns avec les autres par la

photosynthèse, les processus de minéralisation, de dénitrification, d'oxydation, de réduction

[Frontier et Pichod-Viale, 1998]. L'hypothèse de Georgescu-Roegen ne peut être invalidée par

l'argumentation écologique du fait que les cycles ne sont pas des cycles clos. Il faudrait

remonter au niveau du système Terre et considérer les écosystèmes naturels dans leur

globalité. Mais à cette échelle, la notion de cycle biogéochimique qui renvoie à un niveau

d'abstraction inférieur, à un phénomène local du système terrestre, perd tout son sens.

b. Critiques du concept d'information : l'intelligibilité des fluxsocio­économiques

Le recours de Bianciardi, Tiezzi et Ulgiati [1993] au concept d'information pour

critiquer l'hypothèse de Georgescu-Roegen serait légitime si ce dernier n'était pas lui-même

contesté. Mayumi, après Georgescu-Roegen, remet en cause sa validité physique, plus

188

Page 199: 2. Thèse_Doctorat_YJJ_Duplan.pdf

particulièrement son équivalence avec l'entropie.

Reprenant l'exemple de Shannon, Mayumi [1997] note que la quantité de séquences de

symboles de longueur N qu'un canal peut transmettre est le nombre de combinaisons :

W = N !N 1 N 2 ... N n

avec N i=Npi et ∑i=1

n

pi=1 (4.32)

Le logarithme de W est une mesure de la « capacité de transmission du canal ». Mayumi

montre que lorsque la longueur d'une séquence est très grande, la capacité de transmission du

canal par signal est en fait la grandeur H :

limN ∞

log WN

=H (4.33)

Il conclut que le concept d'information de Shannon est une « appellation impropre » et que la

capacité de transmission du canal par signal est la nomination adéquate de la grandeur H.

Cette critique éloigne la possibilité de justifier d'un point de vue physique l'équivalence entre

l'entropie et l'information de Shannon.

Nous pouvons faire remarquer que l'entropie d'un système caractérise sa qualité

énergétique. Dire que l'entropie et l'information sont équivalentes ou que l'acquisition

d'information est égale à une baisse d'entropie, c'est admettre implicitement que l'information

est une caractéristique physique. Comme l'activité du démon de Brillouin qui utilise une

torche électrique pour voir les molécules d'un système, le processus d'acquisition

d'information est l'observation. Observé ou pas, l'entropie du système est maintenue à l'état

stationnaire ou varie s'il n'est pas en équilibre ou interagit en déséquilibre avec son

environnement. Peut-être que l'état énergétique du système pourrait être modifié par les

photons qui proviennent de la torche. Là encore, l'interaction de la torche allumée avec le

système est indifférente à l'observation. Il serait tentant de rejeter cette remarque en admettant

l'interprétation de l'information en termes de potentialité ou de capacité d'action. Ce faisant,

on esquive l'interprétation shannonienne de l'information qui s'applique à des transferts de

message, indépendamment de toute signification. De fait, l'information telle qu'elle est conçue

dans la théorie de l'information ne coïncide pas avec sa définition dans la théorie de la

communication. De plus, entropie et information ne sont pas des grandeurs de même

dimension. L'entropie est mesurée en Joule/Kelvin tandis que l'unité d'information, le bit, est

un nombre purement mathématique.

L'équivalence de l'entropie et de l'information n'a de valeur que formelle. La définition

de l'information comme entropie négative est «véritablement superflue » [Mayumi, 1997].

Sur la base de ces considérations, il nous semble que l'assimilation du potentiel-Π à un

stock d'information physique et son égalisation avec une différence d'entropie ne peuvent être

189

Page 200: 2. Thèse_Doctorat_YJJ_Duplan.pdf

légitimées d'un point de vue physique. Après avoir fermé la boîte de Pandore laissée par la

théorie de la communication de Shannon, ouverte par Szilard et Brillouin pour construire la

théorie de l'information, doit être rejetée, du moins revue, la théorie élaborée par Ayres et

Mártinas qui fait du processus économique un processus physique de traitement

d'information.

Le mot « information » tel qu'il est utilisé par Passet, dans le sens aristotélicien de mise

en forme, peut être remplacé par les mots « organisation » ou « structuration ». Si nous

admettons la proposition de Mayumi que la grandeur H de Shannon mesure la capacité de

transmission d'un canal, nous pouvons alors récupérer le terme « information » et acceptons la

définition systémique : « l'information est une composition de formes (gestalt), ou une

configuration stable de symboles » [Le Moigne, 1999b, p.102]. Le symbole est à la fois signe,

signifié et signifiant. En tant que signe, il est le support physique (support spatio-temporel

comme un imprimé, un signal électrique, une onde sonore, etc.) de la signification ; en tant

que signifié et signifiant, il assure les fonctions de signification, c'est-à-dire de désignation et

de production de symboles. Un symbole peut être représenté par la boucle :

dans laquelle le signe associe le signifié au signifiant. L'information est la liaison récursive du

signe et de la signification (du signifié et du signifiant).

La signification nécessite toujours un support matériel ou énergétique. De même, là où

il y a de l'énergie, il y a toujours un substrat matériel. Et il n'a pas de matière sans énergie. Pas

de processement matériel sans absorption ou dégagement de chaleur. Réciproquement toute

transformation énergétique s'accompagne de variations de température susceptibles de

modifier la structure de la matière, du moins au niveau microscopique, atomique ou

moléculaire. Le processus économique est énergétique, matériel et informationnel. Il est à la

fois physique et sémantique. Son intelligibilité repose sur le circuit

le long duquel les concepts d'énergie, de matière et de signification se distinguent et se

complètent. Dans la mesure où toute signification, pour exprimer l'information, nécessite le

support physique qu'est le signe, la détérioration entropique de ce dernier se traduit par la

dissipation de la signification et détruit l'information. Nous pouvons donc conclure au

principe de la dégradation universelle : l'énergie d'un système fermé se dégrade, sa matière se

désagrège, sa signification se dissipe de manière irréversible.

190

SignifiantSigneSignifié

InformationMatièreÉnergie

Page 201: 2. Thèse_Doctorat_YJJ_Duplan.pdf

3. La déforestation en Haïti : quelle évolution pour laproduction économique ?

La société haïtienne est en proie à une crise écologique sans précédent. Depuis

l'indépendance en janvier 1804, Haïti est confrontée à un processus de déforestation

ininterrompu qui s'accompagne de la disparition de son substrat biophysique. Ce processus

qui se poursuit sans discontinuer est alimenté par la dépendance de la société au bois (3.1) .

Si l'on doit se conformer aux recommandations de la soutenabilité écologique, la

décroissance semble être une option incontournable pour freiner la déforestation. Quelle

décroissance ? Comment diminuer la production d'un pays dont la population ne peut

subvenir à ses besoins élémentaires ? La joie de vivre qui est la finalité ultime de la

soutenabilité n'est pas possible si les besoins biologiques minima ne sont pas satisfaits. Dans

ces conditions, la soutenabilité implique le paradoxe suivant : la croissance est aussi

nécessaire que la décroissance (3.2).

3.1. La dépendance de la société au bois

La dépendance de la société haïtienne au bois est une relation bioéconomique qui lie

l'évolution démographique au processus de déforestation. Cette relation qui se fait au mépris

du cadre législatif se manifeste par l'importance du bois-énergie dans la consommation

énergétique du pays.

A. La pression démographique et l'expansion de la déforestation

La figure 4.14 montre une augmentation ininterrompue de la population depuis

l'indépendance, aussi bien en milieu rural qu'en milieu urbain. D'environ 400 000 habitants en

1805, la population haïtienne dépasse aujourd'hui les 8 millions c'est-à-dire que sur deux

siècles, elle a été multipliée par 20 ! Avec un taux de croissance annuel autour de 1% qui

dépasse les 2% à la fin des années 1970. Cependant, depuis la deuxième moitié du XXe siècle,

le rapport de la population rurale à la population totale baisse régulièrement. Ce rapport passe

de 87,8% en 1950 à 63,13% en 2002 [PNUD, 2003b]. Avec une superficie de 27 750 km2, la

densité moyenne de la population en 2002 s'élève à 290 habitants/km2, l'une des plus

importantes au monde. Dans certaines zones agricoles, elle peut atteindre jusqu'à 800

habitants/km2 !

191

Page 202: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Dans l'histoire de la déforestation en Haïti, l'évolution démographique joue un rôle

croissant, mais n'a pas toujours été le principal élément déterminant. Ainsi pouvons-nous

distinguer trois périodes : la période du bois précieux, une période transitoire et la période du

bois-énergie (figure 4.15). La période du bois précieux démarre avec l'indépendance jusqu'à la

fin du XIXème siècle. Elle est dominée par une déforestation que Moral [1961] traite de

« parasitaire », destinée essentiellement à satisfaire la demande internationale de produits

forestiers. Il s'agit de coupes massives de bois d'œuvre et tinctoriaux, tels l'acajou, le gaïac, le

bois du Brésil, le bois de campêche, etc. Les zones ainsi boisées sont dévastées à une allure

vertigineuse si bien qu'au début du XXème siècle les réserves forestières de bois précieux ont

quasiment disparu et que l'exportation de bois a pratiquement cessé. Lorsqu'en 1944

l'exportation des ressources ligneuses est légalement interdite, il est déjà trop tard. A défaut de

données exhaustives, le tableau 4.3 nous donne une certaine idée de l'exportation de bois

192

Ère du bois précieux Période transitoire

1805 19341900

Ère du bois-énergie

Figure 4.15. L'importance du bois précieux et du bois-énergie dans l'histoire de la déforestation en Haïti

Figure 4.14. L'expansion démographique en Haïti depuis l'indépendance

Source : graphique réalisé par l'auteur à partir de Lundahl [1979], IHSI (Institut Haïtien de Statistique et d'informatique) [1996], PNUD [2003b].

1805 1864 1922 1950 1971 1982 1990 1995 20020

0,51

1,52

2,53

3,54

4,55

5,56

6,57

7,58

8,5

Année

Mill

ions

d'h

abita

nts

Page 203: 2. Thèse_Doctorat_YJJ_Duplan.pdf

pendant le XIXème siècle à partir des exemples de l'acajou et du bois de campêche.

Tableau 4.3. Exportations d'acajou et de campêche entre 1818 et 1952 en million detonnes métriques

Acajou Campêche

Année Export Année Export Période Export Période Export

1835 5,41 1862 2,44 1818-2182 11,3 1912/13-1916/17 249,7

1838 4,88 1863 2,02 1823-1827 12 1917/18-1921/22 318,2

1839 5,90 1864 2,37 1828-1832 35,1 1922/23-1926/27 137,9

1842 4,10 1838-1842 63,4 1927/28-1931/32 124,1

1845 7,90 1887/88-1891/92 419 1932/33-1936/37 69,4

1859 2,69 1892/93-1896/97 295,6 1937/38-1941/42 25,7

1860 2,26 1897/98-1901/02 218,8 1942/43-1946/47 16,5

1861 1,66 1902/03-1906/07 262,1 1947/48-1951/52 6,1

1907/08-1911/12 204,8

Source : Lundahl [1979, p.197]

A la déforestation parasitaire s'ajoute une déforestation que Moral [1961] qualifie de

« fondamentale », servant à répondre aux besoins des résidents nationaux dont près de 90%

vivent en milieu rural au XIXème siècle. Comme bois de feu ou sous forme de charbon de bois,

le bois est utilisé comme combustible pour la cuisson, la fabrication de la chaux, dans les

poteries, les briquetteries et les guildives ; en tant que bois d'œuvre ou bois d'étayage, il sert

pour la construction et, dans la deuxième décennie du XXème, de madrier dans les chemins de

fer des plaines de l'Artibonite et du Nord. La fin de l'ère du bois précieux fait place, au début

du siècle dernier, à la période transitoire au cours de laquelle l'exportation de bois perd de son

importance et est sérieusement concurrencée par la consommation domestique du bois-

énergie (charbon de bois, bois de feu).

Après l'occupation américaine (1915-1934), l'ère du bois-énergie succède à la période

transitoire et dure jusqu'à aujourd'hui. L'augmentation de la densité de la population haïtienne

associée à l'accroissement démographique pèse lourdement sur l'environnement et les

capacités de charge des écosystèmes. Via une demande croissante de produits alimentaires et

des besoins énergétiques galopants, les forêts sont déboisées au profit de l'exploitation

agricole, et le bois-énergie surpasse en proportion les autres utilisations du bois pour devenir

la principale source énergétique du pays. La demande de ressources ligneuses dans les villes

193

Page 204: 2. Thèse_Doctorat_YJJ_Duplan.pdf

augmente au taux de 5%, un rythme pratiquement égal à celui de l'évolution de la population

urbaine [Saint-Jean et Young, 1998].

Tableau 4.4. Pourcentage de la quantité de charbon de bois desservie à Port-au-Princesuivant la date et le lieu de sa provenance

ZoneAnnée

1979 1985 1990

Nortd'Ouest 50 33 21

Sud 30 36* 2

Centre 10 15** 13

Gonâve 10 3 5

Grand'Anse 0 - 13

Sud'Est 0 9 3

Ouest 0 4 26

Artibonite 0 - 13

Nord 0 0 4

Total 100 100 100

* Y compris la Grand'Anse

** Y compris l'Artibonite

Source : ESMAP1 [1991]

Le charbon délivré à Port-au-Prince était localisée en 1979 dans les départements du

Nord'Ouest, du Sud, du Centre et à la Gonâve (tableau 4.4 et, en annexe, figure A-1). Avec

l'explosion démographique dans la capitale concomitante à l'exode rural, la déforestation se

développe au cours des années 1980 dans les autres départements, le Nord, la Grand'Anse, le

Sud'Est, l'Ouest et l'Artibonite. Il est raisonnable de penser que la diversification de l'origine

du charbon vendu à Port-au-Prince traduit l'expansion de la déforestation. Car le charbon est

produit à l'endroit même de la coupe du bois.

Sous la pression démographique et en l'absence de reboisement ou de reforestation, le

rythme de la coupe du bois est supérieur au taux de renouvellement des forêts : le

déboisement entraîne une déforestation irréversible. Estimée entre 60 et 80% au

commencement du XXème siècle, la couverture forestière du pays est de 10% en 1978. Elle est

passée à 8% en 1988 [ESMAP, 1991]. Aujourd'hui, les diverses statistiques l'estiment entre 3

et 1%.

1. ESMAP : Energy Sector Management Assistance Programme.

194

Page 205: 2. Thèse_Doctorat_YJJ_Duplan.pdf

B. Le non respect de la loi

Malgré l'existence d'une législation sur les arbres et forêts, la déforestation a toujours eu

cours. En effet, l'État haïtien, en proie à la dictature tout au long de son histoire, s'est rarement

efforcé de faire appliquer la loi. Son irresponsabilité favorise, en dehors de tout cadre légal,

l'informalité de la tenure des terres qui n'encourage point le reboisement.

a. La législation sur les arbres et forêts

Dès le premier quart de siècle de l'existence du pays, les législateurs haïtiens ont prêté

attention au problème de la déforestation. Ainsi le Code Rural de 1825, en vigueur jusqu'en

1862, interdit-il explicitement la coupe d'arbres sur les pentes raides et les sommets des

montagnes, près des sources et des rivières. Cette interdiction sera reprise dans le Code de

1864 qui, en outre, soumet à autorisation toute coupe de bois sous peine d'arrestation

immédiate.

En 1926, la loi autorise le Ministère de l'Agriculture à créer des réserves forestières dès

que cela est jugé nécessaire. Cette année-là, puis en 1936 et en 1937 seront successivement

créées une réserve dans le département du Nord, une autre à Plaisance et Cerisier et une forêt

nationale à Fonds-Verrettes et Bodarie. En 1933, il lui est dévolu la compétence de délivrer

des autorisations de coupe d'arbres aussi bien sur les domaines publics que privés. En 1944,

l'exportation de bois précieux est strictement prohibée et l'année suivante un décret est

promulgué pour réguler la coupe, le transport et la vente du bois.

Révisé à partir de 1959, le vieux Code Rural de 1864 cède la place, en 1962, au Code

Rural François Duvalier. Ce dernier régit avec précision la mise en culture des terres et

détaille les mesures nécessaires à la déforestation. Le pays est divisé en trois zones suivant

l'importance de la précipitation annuelle : une zone sèche avec une précipitation annuelle

inférieure à 750 mm, une zone semi-sèche ayant une précipitation annuelle comprise entre

750 et 1350 mm et une zone humide où la précipitation est supérieure à 1350 mm. La loi

interdit le déboisement et l'exploitation, sans autorisation spéciale, des réserves forestières

privées dans les zones sèches, semi-séches et humides où les pentes excèdent respectivement

30, 40 et 50 degrés. Les zones qui ont été privées de leur végétation naturelle doivent être

reboisées. Seules les cultures permanentes comme le cacao, le café, des fruits... sont

autorisées sur ces pentes ; les autres cultures, sauf autorisation spéciale, sont prohibée sur les

zones sèches, semi-séches et humides où les pentes dépassent respectivement les 25, 35 et 40

degrés. Seront mises en réserves les forêts qui protègent des bassins hydrologiques, des

sommets ou des pentes supérieures à 60 degrés. En principe, toute coupe de bois sans

195

Page 206: 2. Thèse_Doctorat_YJJ_Duplan.pdf

autorisation préalable est prohibée. Et est interdit l'usage des arbres fruitiers ou de ceux dont

le bois peut être employé à d'autres fins que le feu de bois [Lundahl, 1979].

Après la chute de la dictature des Duvalier en février 1986, outre la pauvreté et

l'insécurité, la dégradation écologique apparaît comme l'un des problèmes majeurs auxquels la

société haïtienne devra faire face. C'est ainsi que la constitution de 1987 consacre un chapitre

entier à l'environnement naturel de la société haïtienne. Dans l'article 253, elle met l'accent sur

l'importance capitale du biotope naturel pour la reproduction de la société : « l'environnement

étant le cadre de vie de la population, les pratiques susceptibles de perturber l'équilibre

écologique sont formellement interdites » (Constitution de la République d'Haïti de 1987). Le

chapitre De l'environnement de cette constitution se précise quelque peu dans le décret du 7

juillet 1987 réglementant l'exploitation du bois-énergie en Haïti, depuis sa production via sa

commercialisation et son transport jusqu'à son utilisation. Dans le même esprit que la loi de

1933, les articles 1, 2 et 3 du décret de 1987 chargent le Ministère de l'Agriculture, des

Ressources Naturelles et du Développement Rural de la gestion la coupe des arbres, de

comptabiliser et d'accroître la population arbustive, de délivrer l'autorisation d'abattre des

arbres et de faire respecter l'engagement de les remplacer. Les articles 4, 5 et 6 donnent au dit

ministère les moyens de contrôler le système de transport du bois de chauffage et de

construction. Les articles 7, 8 et 9 interdisent l'utilisation du bois-énergie dans les

boulangeries, les dry-cleanings (blanchisseries) et les entreprises agro-industrielles telles les

guildives et autres.

Jusqu'en 1987, la législation haïtienne sur les arbres et forêts est particulièrement

prohibitive ; des options incitatives en faveur du reboisement font défaut. Cette législation

« repose beaucoup plus sur le pouvoir coercitif que sur le pouvoir persuasif ou rétributif. C'est

pourquoi elle s'intéresse surtout à la coupe des arbres, c'est-à-dire à la contravention ou au

délit et très peu au reboisement qui représente la démarche efficace et positive » [Saint-Jean,

1999a]. La constitution de 1987 fait une entorse à cette habitude dans l'article 255 lorsqu'elle

enjoint l'État à encourager le développement des formes d'énergie propre : solaire, éolienne, et

autres en vue de la protection des réserves forestières et de l'élargissement de la couverture

végétale. Le décret de 1987 va dans le même sens lorsqu'il prévoit, un crédit de modernisation

en faveur des entreprises utilisant le bois-énergie comme combustible.

La déforestation a toujours été une des préoccupations des législateurs. Pour attaquer le

problème de la dégradation environnementale en Haïti, ce n'est pas la loi qui fait défaut.

Comme le note Saint-Jean [2001], « il existe un instrument légal capable de faire la différence

[...] s'il était appliqué normalement aurait déjà certainement contribué à diminuer la pression

sur le bois de feu en Haïti ». C'est par manque de volonté, l'instabilité politique aidant, que les

196

Page 207: 2. Thèse_Doctorat_YJJ_Duplan.pdf

décrets, les lois et aujourd'hui la Constitution sont violés en toute impunité, ne sont pas suivis

d'effets et restent lettres mortes. L'environnement naturel de la société haïtienne est dévasté

sans aucun contrôle de l'État.

b. L'informalité de la tenure des terres

La déforestation est liée au comportement courtermiste qui consiste à exploiter et

valoriser dans l'immédiat les ressources ligneuses au lieu de s'assurer de la reproduction à

long terme de la forêt et de la conservation des sols. A la base de ce comportement se trouve

l'informalité du régime de la tenure des terres. Les propriétaires des terres sont rarement ceux

qui les exploitent directement. L'exploitant est généralement un paysan qui détient la terre par

le métayage ou le fermage. Comme fermier, il loue la terre pour un montant et une durée fixés

à l'avance par un bail ; en tant que métayer, il l'emprunte au propriétaire ou au fermier et

s'engage à lui verser une part de la récolte, entre un tiers et la moitié. Un troisième mode de

tenure informelle est celui du cohéritage en indivision. C'est le cas où les héritiers d'une

propriété ne parviennent pas à s'entendre sur une répartition de la terre ; celle-ci est

abandonnée ou au mieux est utilisée pour l'élevage extensif, ce qui permet d'éviter des conflits

familiaux. Un quatrième type de tenure, non moins courant, est la vente sous seing privée

dont la valeur légale est quasi nulle. Cette situation est préférée à l'acquisition en bonne et due

forme d'un titre de propriété en raison des frais d'arpentage et de notariat trop élevés. Parfois,

le terrain, propriété de l'État dans la plupart des cas, est occupé, advienne que pourra, par le

paysan qui n'a aucune possibilité d'accéder à la propriété en se conformant à loi. Il arrive que

certains, fort de leur appartenance au régime politique en place et de leur pouvoir, profitent

impunément de terres qui ne leur appartiennent pas. Presqu'à chaque changement de régime

ou de gouvernement, des terrains occupés par d'anciens dignitaires du pouvoir changent de

main1.

McLain et Stienbarger [1988] révèlent que dans les années 1980, dans les communes de

Les Anglais et Grande Ravine du Sud, 56% des terrains étaient principalement occupés par

des métayers, des fermiers et des usufruitiers. Victor [1993] estime que près de 1 000 000

d'hectares de terres sont occupées de facto par la population, soit 36% de la superficie du

pays. C'est avec raison qu'il considère que « l'occupation de facto et l'usucapion constituaient

[...] les voies principales par lesquelles la population avait accès à la propriété » [Victor, 1993,

p.319]. Dans ce contexte où, comme à l'accoutumée, l'État ne prend pas ses responsabilités

vis-à-vis de la population, les exploitants et les occupants des terres, les paysans et les

agriculteurs n'ont pas de garantie institutionnelle et légale qui leur permettrait d'avoir une

1. C'est l'un des phénomènes les plus marquants après la chute de Duvalier en février 1986.

197

Page 208: 2. Thèse_Doctorat_YJJ_Duplan.pdf

vision de long terme de l'exploitation des terres et de la gestion des forêts. N'étant pas assurés

de récupérer la terre à moyen ou long terme, la plupart des fermiers, des métayers et des

cohéritiers ne trouvent aucun intérêt à planter des arbres. C'est l'illégalité, la « précarité »,

l'« insécurité » et la vulnérabilité foncières qui caractérisent la tenure informelle des terres.

Ces facteurs contribuent à démotiver les cultivateurs et inhiber toute volonté de protéger les

forêts, de reboiser et de maintenir la qualité des sols. « La précarité dans laquelle se trouve un

grand nombre d'exploitants n'incite guère les agriculteurs à réaliser des investissements

destinés au maintien et à l'amélioration de la fertilité (aménagement anti-érosifs, fertilisations

organique et minérale...) » [Dufumier, 1993, p.308]. « Plus l'insécurité est grande, moins le

paysan est disposé à planter des arbres » [Victor, 1993, p.323].

C. Le primat du bois dans la consommation énergétique du pays

Durant la période du bois-énergie, les flux énergétiques de l'économie haïtienne sont

caractérisés par la domination de la biomasse dans la consommation totale et l'absence

d'exportation d'énergie. La quantité d'énergie consommée en 1999, en provenance des

combustibles fossiles importés, de la biomasse et de l'énergie hydraulique produites sur place,

est estimée à 2067000 tonnes équivalent pétrole [World Resources Institute, 2003]. La part de

la biomasse est de 75% de la consommation nationale d'énergie, soit environ 12 millions

d'arbres [BME1, 2000], tandis que les combustibles fossiles (charbon, gaz propane) ne

dépassent pas 24%.

L'énergie que fournit la biomasse s'obtient par la bagasse, le charbon de bois et le bois

de feu. La consommation de l'énergéie issue de la bagasse s'élève en 1985 à 86000 tonnes

équivalent pétrole [ESMAP, 1991]. La bagasse est à la fois produite et consommée par la

filiale de la canne à sucre. Elle est avec le bois la source énergétique la plus utilisée par les

usines sucrières, les moulins qui font du sirop de canne et les guildives qui produisent l'alcool

du pays appelé « clairin ». Saint-Dick [1999] note un net rétrécissement de la superficie de la

canne à sucre de 1,5% entre 1975 et 1995, passant de 85000 à 6200 hectares. Cette régression

qui s'accompagne d'une diminution de la production de la bagasse est le fait de la disparition

des centrales sucrières au profit d'autres activités agricoles plus rentables telles les cultures de

banane, maïs, sorgho, haricot, etc.

Alors qu'à l'échelle départementale, les industries de la canne à sucre et la

consommation de la bagasse sont bien réparties sur le territoire national, la consommation du

bois se différencie géographiquement et sectoriellement suivant qu'il est utilisé sous forme de

charbon de bois ou de bois de feu.

1. BME : Bureau des Mines est de l'Énergie.

198

Page 209: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Au regard de la figure 4.16, le secteur des ménages est de loin le plus grand

consommateur d'énergie d'origine ligneuse devant le secteur industriel, qu'il s'agisse du

charbon de bois ou du bois de feu. Dans un cas, la part des ménages dans la consommation

totale atteint 80,36% ; le reste est attribué à des secteurs informels non identifiés. Dans l'autre,

elle avoisine 91,42% ; les entreprises, ne consommant pas de charbon de bois, se répartissent

la part restante entre 1,28% pour les producteurs d'huiles essentielles, 5,58% pour les

guildives et 1,72% pour les boulangeries et blanchisseries.

Environ 96% de la population couvrent leurs besoins énergétiques à l'aide du bois-

énergie. En particulier, 80% des ménages utilisent le charbon de bois, soit comme

combustible principal soit comme combustible d'appoint. La part de charbon consommée est

d'autant plus grande que le revenu du ménage est faible. Victor [2000] note que « l'usage du

charbon de bois [...] est en voie de d'abandon dans les classes les plus riches ».

199

Figure 4.16. Répartition de la consommation du charbon de bois et du bois de feu par secteur, 1990

Charbon de bois Bois de feu

1,29% 5,58%

Industries d'huiles essentielles

Guildives Ménages

Boulangeries, blanchisseries

Secteurs informels, autres

Source : graphique réalisé par l'auteur à partir d'ESMAP [1991]

80,36%

19,64%

91,42%

1,72%

Page 210: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Prises ensemble, les figures 4.16 et 4.17 précisent qu'en 1991 le charbon de bois est

l'affaire des ménages urbains tandis que le bois de feu est celle des ménages ruraux. En 2000,

la production de charbon représente 95% de l'énergie domestique utilisée dans les villes

[PNUD, 2002c]. Le charbon de bois presqu'exclusivement consommé en zone urbaine est

absent du panier de consommation des ruraux : « l'utilisation du charbon de bois dans ce

milieu [la zone rurale], expliquent Young et Pierre [2001], est rare et le charbon est considéré

comme un combustible de luxe et utilisé dans certaines occasions comme par exemple pour la

préparation du thé, du café ou des repas chauds pour des invités venus d'ailleurs » ; la

capitale, Port-au-Prince, où vit près de 1/10e de la population totale, en consomme à elle seule,

en 1990, près de 22,22%. (figure 4.17). Le reste est réparti entre les villes de province. En

revanche, le bois de feu est en grande majorité utilisé dans les zones rurales qui bénéficient

76,35% de la consommation totale. La part réservée à Port-au-Prince n'est que de 6,76% et les

autres villes 16,89%. Cette répartition tient vraisemblablement aux différences de propriétés

entre le bois de feu et le charbon de bois et de revenu entre les zones rurales et les zones

urbaines.

Les ménages utilisent le bois pour faire la cuisson. Porté à incandescence, il alimente un

foyer constitué de trois pierres sur lesquelles est monté le récipient contenant les aliments à

cuire. La combustion du bois a le désavantage de dégager de la fumée noircissant

l'environnement de son utilisateur et laissant une odeur âcre. Cette pollution est moins

incommodante à la campagne où la cuisson faite hors de la maison, sous une tonnelle, dans

une cuisine en paille bien aérée ou tout simplement en plein air.

200

Figure 4.17. Répartition de la consommation du charbon de bois et du bois de feu par zone, 1990

Charbon de bois Bois de feu

Port-au-Prince Autres villes Zones rurales

Source : Graphique réalisé par l'auteurs à partir d'ESMAP [1991]

22,22%

77,78%

6,76%76,35%16,89%

Page 211: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Tableau 4.5. Rendement énergétique et consommation de bois par type de foyer pourune production de chaleur utile de 800 kcal

Catégorie de foyer

Foyer au bois (troispierres)

Utilisation indirecte du bois par le charbon

Réchaud au charbonde bois (sansprotection)

Réchaud au charbonde bois (avecprotection)

Rendement énergétiquemoyen (en %)

17 21 25

Consommation de bois1

(en kg)1,57 4,9 4,2

Source : réalisé à partir de Sain-Jean [2001]

Au vu du tableau 4.5, les foyer au bois (trois pierres) en usage dans le milieu rural est

énergétiquement moins rentable que les réchauds au charbon couramment employés en ville.

Cependant, pour la même quantité de chaleur utile produite, le foyer au bois est plus

économique, consommant moins de bois : mieux vaut la combustion directe du bois au lieu de

le transformer en charbon. On comprend alors le choix du paysan qui préfère utiliser le bois

de feu et qui a l'avantage d'être localisé à proximité des espaces forestiers. Cependant,

l'utilisation massive du charbon en ville semble s'expliquer par l'importance du coût du

transport qui est fonction de de la masse à véhiculer et par le fait que le charbon a un pouvoir

calorifique (26750 kJ/kg) double de celui (13400 kJ/kg) du bois de feu [Rossier et Micuta,

2004]. Les ménages ruraux se réservent le bois de feu et offrent en zone urbaine le charbon de

bois dont la vente permet de compenser son revenu.

Dans les zones urbaines où le revenu des résidents est plus important, les ménages

peuvent et préfèrent acheter un réchaud au charbon de bois pour la cuisson des aliments.

Lorsqu'il est suffisamment sec, le charbon est beaucoup moins fumant que le bois de feu. Il

est beaucoup plus propre et convient mieux au cadre urbain où les maisons sont souvent

limitrophes et l'espace culinaire réduit, pas nécessairement bien aéré.

3.2. Quelques éléments pour lutter contre la déforestation

La reforestation est la condition sine qua non si la société haïtienne veut assurer un

avenir meilleur aux générations futures. Entre temps, elle doit juguler la crise sociale et

environnementale qui la met dans un véritable dilemme : celui d'un pays pauvre et

1. La consommation de bois est calculé à partir du constat que pour produire 1 kg de charbon de bois avec lestechniques de carbonisation traditionnelles, il faut 10 kg de bois.

201

Page 212: 2. Thèse_Doctorat_YJJ_Duplan.pdf

écologiquement dévasté qui doit prôner à la fois la décroissance et la décroissance. Après que

nous aurons présenté des indications pour sortir de ce dilemme, nous proposerons quelques

indices d'évaluation qui pourraient servir d'aide à la décision dans le cadre de la lutte contre la

déforestation.

A. Le dilemme de la croissance et de la décroissance

Dans un pays où plus de 60% de la superficie présentent des pentes supérieures à 20%,

la déforestation jointe aux précipitations successives conduisent irrémédiablement à l'érosion,

sans compter les glissements de terrain et les inondations. Par ce biais, elle enlève toute

protection aux bassins hydrologiques, affaiblit la capacité des sols à retenir les eaux de pluies

et entraîne l'assèchement des terres agricoles. Ainsi empêche-t-elle la reconstitution des

nappes phréatiques et concourt à la raréfaction des ressources en eau nécessaires à l'irrigation

et aux activités ménagères [Howard, 1998].

La masse totale de terres perdues chaque année est évaluée à 160 tonnes métriques/km2

(sachant que dans des conditions géographiques et climatiques similaires et pour des

écosystèmes stables, les pertes annuelles varient entre 0,001 et 0,1 tonne métrique/km2)

[PNUD, 2002c]. Il faut y compter la disparition de la couche de terres arables synonyme de la

baisse de la fertilité des sols et de la diminution de la productivité agricole.

A cela s'ajoute la réduction de la biodiversité : la dégradation des biotopes naturels

autrefois protégés par les forêts met en péril la diversité biologique des écosystèmes qui

comportent plus de 7000 espèces animales et végétales dont 47% sont endémiques [ONU1,

2000].

Avec la déforestation, Haïti participe à la dégradation environnementale globale. Ne

serait-ce qu'à une petite échelle, elle concourt à l'appauvrissement de la couche d'ozone et la

fragilisation des systèmes biogéochimiques. La disparition des forêts équivaut, en effet, à

l'absence de puits de carbone qui jouent un rôle central dans la régulation des cycles du

carbone et de l'oxygène. Par la combustion, la production et la consommation de charbon de

bois et de bois de feu augmentent la quantité de gaz à effet de serre. La masse relative à

l'énergie de monoxyde de carbone (CO) et de gaz carbonique (CO2) que Haïti émet en 1995

est de 626,2 kg par habitant [MDE, 2001 et IHSI, 1996], soit 99,02% de la masse totale per

capita de gaz à effet de serre. « La quantité de GES [gaz à effet de serre] émis sur le territoire

haïtien se révèle, si on peut se permettre ce mot qui est à peine une exagération, infinitésimale

si on la compare aux émissions des pays dotés d'un tissu industriel important. » Par exemple,

la masse de CO2 par habitant rejeté par la France en 1995 est de 6647,74 kg, 67 fois plus que

1. ONU : Organisation des Nations Unies.

202

Page 213: 2. Thèse_Doctorat_YJJ_Duplan.pdf

celle d'Haïti et 11 fois plus que son émission totale par habitant de gaz à effet de serre !

Outre ses conséquences écologiques déplorables, la déforestation, la déforestation en

s'accouple récursivement à la pauvreté qui touche une grande majorité de la population. Haïti

dispose en l'an 2000 d'environ 1,73 millions de tonnes d'équivalent-céréale dont moins de

57% sont produits localement. La disponibilité totale répond à peine à la norme de la FAO1

qui fixe à 2260 calories/jour l'équivalent alimentaire normal d'une personne [PNUD, 2002c].

Ce faible écart entre la disponibilité alimentaire et la norme cache la gravité de la situation.

Ces valeurs globales gomment une forte inégalité expliquant qu'une partie de la population est

en proie à la sous-alimentation. En effet, le PNUD [2002c, p.69] affirme que « 40% des

ménages ont un membre qui a faim au moins une fois dans la semaine ». Citant la Banque

Mondiale, l'ONU [2000], « estime aujourd'hui que 80% des 2/3 de la population qui vivent en

zone rurale sont des pauvres. Les 2/3 de ceux-ci sont en réalité extrêmement pauvres. Par

ailleurs, 4% de la population possède 66% des ressources de tout le pays tandis qu'à l'autre

extrême 70% ne disposent que de 20% du revenu ». Elle rajoute : « environ 2/3 de la

population vit en-dessous du seuil de pauvreté et, pour la plupart, très en-dessous. La pauvreté

monétaire s'aggrave et la pauvreté humaine une préoccupation de premier plan ».

Face à la crise socio-écologique qui la ronge, la société haïtienne est dans un vrai

dilemme. D'une part, l'augmentation de la production de biens et services dans une

perspective de réduction de la pauvreté est nécessaire et économiquement soutenable. D'autre

part, est tout aussi nécessaire et écologiquement soutenable une baisse de la production en vue

d'amoindrir la pression exercée sur les ressources ligneuses. Foncièrement dépendante du

bois-énergie, la croissance économique ne peut être poursuivie sans aggraver la crise

environnementale et mettre en péril la reproductibilité de la société. En même temps, une

décroissance équivaut à l'aggravation de la pauvreté et de la misère. Tant que l'économie

haïtienne repose sur l'énergie ligneuse, ce dilemme est indépassable.

Plusieurs tentatives ont été menées dans les années 1990 en vue de rendre la

reproduction soco-économique indépendante de l'utilisation du bois, tout au mois de diminuer

la pression exercée sur la biomasse par les ménages et les entreprises. Il s'agit de rendre

possible une croissance soutenable et d'atteindre un niveau de production durable tout en

économisant et en conservant le bois-énergie. Les moyens envisagés sont la substitution du

bois par d'autres sources d'énergie et l'amélioration technologique.

L'utilisation du bois-énergie est marquée par une inefficience technologique entraînant

un gaspillage énergétique aussi bien de la part des ménages que du côté des entreprises. Les

pertes de chaleur lors de la cuisson peuvent s'élever jusqu'à 90% dans le cas du bois de feu et

1. FAO : Organisation des Nations Unies pour l'Alimentation et l'Agriculture.

203

Page 214: 2. Thèse_Doctorat_YJJ_Duplan.pdf

à 80% dans celui du charbon de bois. Comme nous l'avons présenté dans le tableau 4.5, le

rendement moyen du foyer au bois formé de trois pierres est de 17% tandis que celui du

réchaud traditionnel à trois pieds au charbon de bois ne dépasse pas 25%. A la place de ce

réchaud traditionnel utilisant le charbon de bois pour la cuisson, le Bureau des Mines et de

l'Énergie, financé par le Centre de Recherche et de Développement International, développe

dans les années 1980 un réchaud amélioré dit « réchaud Mirak» qui consomme 40 à 50% de

charbon de bois en moins [Terlinden et Saint-Jean, 1998 ; Jean-Gilles, Dolce et Potts, 1999].

Dans le cadre de la substitution d'énergie, Shell introduit dans les années 1990, un réchaud au

GPL (Gaz Propane Liquifié) nommé « Bip Tichéri » [Saint-Jean et Young, 1998]. Ce type de

foyer a un bon rendement énergétique qui en moyenne peut atteindre jusqu'à 50%. Les

énergies renouvelables ont été mises en valeur par les cuiseurs solaires comme le cuiseur

« panel » [Saint-Jean, 1999 ; Paul, 1999].

Du côté des entreprises, le rendement énergétique des fours au bois traditionnels à

l'usage des boulangeries varie de 3 à 10% [Moïse, 2003]. Celui des distilleries utilisant la

bagasse et le bois de feu oscille entre 10 et 25%. Ces faibles rendements font partie des

motivations qui ont poussé les entreprises (notamment les plus grandes) financièrement bien

loties à investir dans les fours au gaz. Ces derniers comme le four au Diesel élaboré par la

compagnie « Krisco » ont des rendements allant de 40 à 75% [Usinger, 1999].

Ces tentatives n'ont pas eu un écho répandu et durable dans la société. Outre les

problèmes techniques d'ordre ergonomique que connaissent les réchauds, en général ce sont

les prix à l'utilisateur ou la rentabilité monétaire qui font obstacle à la diffusion de nouvelles

technologies ou des technologies améliorées permettant une moindre utilisation du bois. Ainsi

les énergies solaire et éolienne demeurent-elles inaccessibles. Serait bienvenue une forte

implication de l'État en termes d'investissements, de crédit ou de subventions.

Malheureusement, l'État haïtien se préoccupe peu du sort de la population. Les actions

entreprises dans le domaine de l'environnement sont souvent des initiatives de la société civile

qui ne trouvent pas de relais dans la sphère publique. Par exemple, le Plan d'Action pour

l'Environnement évoqué dans la « déclaration de Montrouis » lors du Congrès National de

décembre 1998 comporte une batterie de recommandations politiques en termes de législation

forestière, de formation et d'éducation à l'environnement, d'incitation au reboisement. Adressé

au gouvernement de l'époque et adopté en 1999, ce plan n'a fait l'objet d'aucune application

concrète.

204

Page 215: 2. Thèse_Doctorat_YJJ_Duplan.pdf

B. Proposition d'une méthode d'évaluation de la filière de bois­énergie

Sachant que les propriétés énergétiques et physiques du charbon de bois dépendent de

sa composition chimique, celle-ci peut être utilisée pour dresser un indicateur d'évaluation de

sa qualité. Nous en déduisons deux indices qui évaluent respectivement la performance du

processus de fabrication de charbon et l'efficacité de l'utilisation du bois.

a. L'utilisation de l'arbre comme bois­énergie

Souvent mélangé à d'autres substances, le bois est constitué de trois éléments principaux

: la lignine (C10H12O3), la cellulose (C6H10O5) et l'eau (H2O). Comme source d'énergie, le bois

est utilisé pour son la quantité de chaleur qu'on peut en tirer. Il sert de combustible dans les

ménages et les entreprises, dans le but de chauffer, de cuisiner ou de créer de l'énergie

mécanique.

205

Page 216: 2. Thèse_Doctorat_YJJ_Duplan.pdf

L'utilisation du bois-énergie nécessite un certain nombre d'étapes exécuté dans un ordre

déterminé (figure 4.18). Résultant de la coupe des arbres, le bois est récolté dans les forêts,

puis stocké, séché et transporté. Le bois fraîchement coupé contient de l'eau liquide; ce qui

revient à un taux d'humidité de 40 à 100%. Le bois séché à l'air libre comporte entre 12 et

18% d'eau absorbée. On tire avantage du contenu énergétique du bois directement par sa

combustion ou indirectement par la combustion du charbon qui en dérive.

Le processus de carbonisation qu'on appelle encore pyrolyse est celui de la fabrication

du charbon. Ce processus se réalise en l'absence de l'air. Enfermé dans une meule ou un four à

charbon, le bois est enflammé. Une partie du bois empilé est brûlée. La combustion partielle

du bois se fait par les réactions chimiques [Rossier et Micuta, 2004] :

C O2 CO2 94 kcal (4.34)

C 1 /2 O2 CO 26 kcal (4.35)

206

Figure 4.18. Les étapes du processus d'utilisation du bois-énergie

Arbres (forêts)

Récolte de bois

Séchage à l'air libre

Carbonisation

Stockage, emballage, transport

Combustion du charbon Combustion du bois

Production de chaleur utile

Page 217: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Sous l'effet de l'augmentation de la température, la cellulose et la lignine se

décomposent par une réaction du type : C n H 2 O m nC mH 2 O

(cellulose) (carbone pur) (vapeur)(4.36)

De même les substances volatiles dont l'eau qui sont liées au bois se vaporisent. Il en

résulte une émanation de gaz oxygénés comme l'oxygène, le monoxyde de carbone, le

dioxyde de carbone et des hydrocarbures tels le méthane, l'éthane, l'éthylène. Parallèlement se

co-produisent le méthanol, l'acide acétique, l'acétone et d'autres composés chimiques plus

complexes formant des résidus goudronneux. Au bout de ce processus, le bois se transforme

en charbon d'une teneur en carbone avoisinant les 80% du poids total. Si l'on poursuit

l'augmentation de la température, davantage de matières volatiles s'échappent, ce qui entraîne

un accroissement de la teneur en carbone.

Figure 4.6. Influence de la température de carbonisation sur le rendement en charbonde bois et sur sa composition

Température decarbonisation (en °C)

Composition chimique

Teneur en carbonepur (en %)

Teneur en matièresvolatiles (en %)

Rendement en

charbon de bois par

rapport au poids de

bois anhydre (en %)

300 68 31 42

500 86 13 33

700 92 7 30

Source : FAO [1983]

La température de carbonisation détermine non seulement la composition du charbon

obtenu à la fin de l'opération mais aussi le rendement en charbon par rapport au poids de bois

anhydre. Comme l'illustre le tableau 4.6, la teneur en carbone augmente avec la température

de carbonisation, tandis que la teneur en matières volatiles et le rendement diminuent.

On note également que la valeur de ces paramètres dépend du type d'arbre utilisé. Un

arbre à forte teneur en lignine donne un rendement élevé, un charbon dense et dur.

b. L'évaluation de la qualité du charbon de bois

Utilisé pour son pouvoir calorifique, le charbon de bois est apprécié en fonction de ses

teneurs en humidité, en matières volatiles autres que l'eau, en carbone pur et en cendres.

A la sortie immédiate du processus de carbonisation, le charbon de bois recèle une très

207

Page 218: 2. Thèse_Doctorat_YJJ_Duplan.pdf

faible quantité d'humidité, généralement d'une teneur inférieure à 1%. Au contact de

l'atmosphère, il absorbe rapidement de l'humidité dont la teneur peut s'élever jusqu'à 15%.

L'exposition du charbon à l'humidité dépend de sa température de carbonisation. A une

température faible le charbon renferme davantage de résidus goudronneux. Ces derniers

correspondent à un niveau élevé d'hygroscopicité c'est-à-dire de la capacité à absorber de

l'humidité.

L'humidité modifie la qualité du charbon, faisant baisser son pouvoir calorifique. En

effet, lors de la combustion, une partie de l'énergie du charbon, au lieu de servir à la cuisson

ou au chauffage, est employée à l'évaporation de l'eau retenue par le charbon. Ce qui constitue

une perte nette de pouvoir calorifique1. De même, lorsque le charbon est mouillé, son poids

augmente, ce qui est susceptible de renchérir son coût de transport en termes énergétiques et

monétaires. Un charbon de bonne qualité a une teneur en humidité qui varie entre 5 et 15%.

Une teneur trop élevée fragilise le charbon qui se fragmente facilement.

Tout comme l'humidité, les matières volatiles ont un effet négatif sur la qualité du

charbon de bois. Un charbon à teneur élevée en matières volatiles est peu friable, mais

s'enflamme facilement. Un bon charbon de bois a une teneur nette (calculée sans tenir compte

de l'humidité) en matières volatiles de l'ordre de 30%.

Les cendres sont les résidus non volatilisés à la fin de la combustion du charbon. Ce

sont des matières minérales telles que l'argile, la silices, les oxydes de calcium, de

magnésium, etc. que renferme le bois à l'origine ou qui forment les impuretés importées lors

de la production du charbon. La teneur en cendres dépend du type de bois utilisé et des

apports extérieurs au bois carbonisé. Un charbon de bonne qualité a une teneur inférieure à

3%.

La composante principale du charbon est le carbone pur. C'est ce dernier qui, mélangé à

l'air, est responsable de la combustion du charbon et de la production de chaleur nécessaire à

la cuisson et au chauffage. Le pouvoir calorifique du charbon croît avec sa teneur en carbone

pur. Mais celle-ci, quand elle est trop importante, augmente la friabilité du charbon.

Généralement, la teneur en carbone pur varie de 50 à 95%.

Une évaluation de la qualité du charbon par rapport à son pouvoir calorifique doit tenir

compte de sa composition chimique, c'est-à-dire de ses teneurs en carbone pur, en matières

volatiles (dont l'eau) et en cendres. Comme l'indique l'argumentation précédente, la qualité du

charbon est fonction croissante de sa teneur en carbone pur, mais décroît avec les autres

paramètres tels ses teneurs en humidité, en matières volatiles (autres que l'eau) et en cendres.

Cela revient à dire que c'est le rapport du carbone pur aux autres composants du charbon qui

1. Le pouvoir calorifique d'une quantité de charbon est le rapport de son contenu calorifique à sa masse.

208

Page 219: 2. Thèse_Doctorat_YJJ_Duplan.pdf

détermine sa qualité. Plus ce rapport est grand meilleure est la qualité du charbon du point de

vue de son pouvoir calorifique. L'indicateur d'évaluation de la qualité d'une quantité donnée

de charbon doit être une fonction croissante du rapport de son contenu en carbone pur à son

contenu en matières volatiles (dont l'eau) et en cendres. Or l'élévation de ce rapport accroît la

friabilité du charbon et sa diminution peut correspondre à une hausse de son hygroscopicité

ou de son inflammabilité, ce qui est susceptible d'augmenter le coût de conservation du

charbon. Ainsi l'amélioration de la qualité calorifique du charbon est-elle atténuée par la

baisse de sa qualité de conservation. Sur ce, on peut admettre que l'indice d'évaluation de la

qualité d'une quantité donnée de charbon une fonction concave du rapport de son contenu en

carbone pur à son contenu en matières volatiles (dont l'eau) et en cendres. Les hypothèses de

croissance et de concavité sont des caractéristiques de la fonction logarithmique. L'indicateur

d'évaluation de la qualité du charbon s'écrit donc :

I=log cs (4.34)

où c est la masse de carbone et s la masse totale des autres composés. Si m est la masse du

charbon, on a : s = m – c tel que

I=log cm−c (4.35)

Cet indicateur évalue la globalité de la qualité du charbon en termes de son pouvoir

calorifique et de sa conservation.

c. L'évaluation de la performance du processus de production decharbon de bois et de l'efficacité de l'utilisation du bois­énergie

Quand le bois est consommé sous forme de charbon, on peut distinguer, au vu des

arguments précédents, deux grandes étapes dans le processus d'utilisation du bois : la

carbonisation et la combustion du charbon. Généralement, on évalue la performance du

processus de carbonisation par son rendement qui met en rapport la masse de charbon

produite à la masse de bois carbonisé. Or la masse de charbon ne donne aucune information

sur ses qualités encore moins sur sa capacité à fournir de la chaleur, ce pourquoi il est

fabriqué. Un indice d'évaluation utile à la lutte contre la déforestation doit tenir compte de

toutes ces informations.

Nous appelons V la valeur physico-chimique d'une quantité de charbon de masse m,

dont une masse c de carbone :

V=m I=log cm−c

m

(4.36)

C'est le produit de la quantité par la qualité du charbon.

209

Page 220: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Dans ce contexte, la performance du processus de production de charbon est donné par

le rapport :

P= VM

=log cm−c

mM (4.37)

où M est la masse de bois carbonisé.

Lors de la combustion du charbon, une partie de la chaleur produite est perdue sous

forme entropique ou en raison de l'inefficience de l'utilisation du charbon. Soit Q la partie qui

sert strictement à la cuisson des aliments ou au chauffage des chaudières des entreprises.

L'efficacité de la combustion est évaluée par :

E c=QV= Q

log cm−c

m (4.38)

L'indicateur d'évaluation de l'efficacité de tout tout le processus d'utilisation du bois est :

Eu=P E c=QM

(4.39)

Il est valable à la fois dans le cas de la combustion directe du bois et dans le cas où il est

transformé en charbon avant d'être brûlé. Il permet de comparer tous les processus

d'utilisation du bois aussi bien dans l'espace que dans le temps. Il a toute son importance dans

une politique qui vise à améliorer les techniques de production et d'utilisation du charbon de

bois en vue d'abaisser la pression exercée sur les ressources ligneuses.

210

Page 221: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Conclusion de la deuxième partie

La connaissance est toujours une computation d'un objet, un projet abouti ou à réaliser.

Basée sur l'observation, elle est une production des activités cérébrales. Sa formulation dans

un langage l'expose aux idées reçues de la société, à l'indétermination et à l'incohérence de la

logique. En projetant de connaître l'objet, le sujet scientifique s'invite dans la connaissance.

L'objectivité de la connaissance est indissociable de sa subjectivité, elle-même reliée à sa

projectivité.

La soutenabilité épistémique fait du scientifique une personne rationnelle et raisonnable

qui utilise les principes du paradigme chaosmique, à bon escient et en toute conscience. Ainsi

confronte-t-il les différentiations de la réalité pour les exprimer dans une logique complexe

qui distingue et relie à la fois. Il appréhende les relations et les interactions par le système

qu'il perçoit comme finalisé, fonctionnant et se transformant dans un environnement. Quant à

l'organisation du système, il y voit un processus irréversible dont la forme évolue dans le

temps et dans l'espace. Respectant le principe systèmescopique, il relativise et relationne les

niveaux d'intelligibilité des phénomènes étudiés.

La mise en interface des systèmes économiques et environnementaux témoigne de

l'attachement de l'éco-thermo-énergétique à une vision globale qui la met sur la voie de la

complexité. Elle se montre capable d'appréhender la dimension biophysique des systèmes du

Chaosmos quitte à faire usage des méthodes d'analyse traditionnelles de l'économie pour

comptabiliser les ressources, évaluer les quantités et qualités énergétiques des flux physiques.

Cependant, l'éco-thermo-énergétique quitte le train de la complexité quand, sous l'influence

de l'énergétisme, elle s'enferme dans une sorte d'« impérialisme écologique » [Daly, 1984 et

1992a]. En effet, sous prétexte de la corrélation entre la monnaie et de l'énergie, elle établit

leur équivalence en vue d'évaluer la dimension monétaire des systèmes socio-économiques à

l'aune du valorimètre énergétique. La bioéconomie la dévie de ce réductionnisme en l'ouvrant

à la multidimensionnalité, distinguant et joignant les aspects énergétiques, matériels et

informationnels des système vivants. Bien mieux, la bioéconomie met en évidence le

caractère vivant de l'Économie, la bio-dépendance des systèmes sociaux vis-à-vis de leurs

environnements. Elle montre l'importance des ressources naturelles et des fonctions

211

Page 222: 2. Thèse_Doctorat_YJJ_Duplan.pdf

écologiques pour la survie de l'organisation socio-économique. De là, elle fonde la

soutenabilité écologique qui se définit le respect des normes de rejets et de prélèvements qui

assurent l'équité intergénérationnelle c'est-à-dire la capacité des systèmes socio-économiques

à se reproduire.

Au travers du questionnement des modes d'évolution de la production qu'impose la

soutenabilité écologique apparaissent deux visions controversées du processus socio-

économique : une vision linéaire correspondant à l'hypothèse de l'irrévocabilité de la

dégradation de toute forme matérielle et énergétique et une vision semi-circulaire reposant sur

le postulat de l'irréversibilité de la dissipation de l'énergie et de la recyclabilité complète de la

matière. Dans un cas, la matière et l'énergie de basse entropie sont des éléments critiques ; et

une organisation socio-économique est écologiquement soutenable si elle est essentiellement

axée sur le flux direct de l'énergie solaire ; dans l'autre cas, seule l'énergie disponible est

considérée comme un facteurs limitant ; la soutenabilité écologique est assurée par le respect

de la capacité des écosystèmes à recycler la matière dégradée.

Confronté à la réalité écologique et sociale d'Haïti sous le regard de la soutenabilité, le

questionnement de l'évolution de la production amène à une réponse paradoxale : la

décroissance de la production vis-à-vis des ressources forestières et la nécessité de la

croissance pour satisfaire les besoins de base.

212

Page 223: 2. Thèse_Doctorat_YJJ_Duplan.pdf

CONCLUSION

Page 224: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Pour faire émerger les dimensions socio-économique, écologique et épistémique de la

soutenabilité, il était nécessaire de relever les insuffisances et surmonter les obstacles du

paradigme cosmique dont les principes régissent le corpus théorique de l'économie de la

soutenabilité. Simplisme et réductionnisme sont les caractères essentiels de ce paradigme.

Or, la réduction et la multidimensionnalité ne font pas bon ménage. Il a fallu faire appel à

d'autres principes d'intelligibilité qui favorisent l'appréhension de la complexité de la

soutenabilité. Tels sont les principes du paradigme chaosmique.

Après avoir exposé le bilan de notre argumentation, nous indiquerons quelques pistes

de recherches qui pourront être poursuivies.

I. La soutenabilité de l'économisme

Le paradigme cosmique génère une conception analytique, non contradictoire, qui

corrobore la vision d'un univers discret, à la fois simplifiable et réductible. Par le principe du

tiers exclus, il rejette toute connexion et toute relation entre les différentes entités. Ainsi

conforte-t-il le paradoxe du mécanisme : la causalité n'est pas une relation entre la cause et

l'effet mais un ordre de succession déterminé dans une direction donnée. Il légitime l'idée

que tous les phénomènes peuvent se prêter à la quantification et à la mesure.

Le caractère discret du paradigme cosmique justifie la gnoséologie positiviste

cartésienne selon laquelle la production de la connaissance doit être objective et

indépendante du sujet connaissant. Ce dualisme concourt à promouvoir une épistémologie

sans sujet, une science sans conscience.

Échafaudée au sein du paradigme cosmique, l'économie néoclassique génère une

économie de la soutenabilité et la place sous la tutelle de son réductionnisme et de son

simplisme. La soutenabilité apparaît alors au cœur d'une conceptualisation et d'une

modélisation étriquées de l'équité intergénérationnelle. Peu de cas est fait de l'importance de

Page 225: 2. Thèse_Doctorat_YJJ_Duplan.pdf

l'équité intragénérationnelle. La soutenabilité est identifiée à la poursuite du développement, à

la non-décroissance du bien-être ou de la consommation. Les conditions de sa réalisation sont

la capitalisation, la privatisation et la marchandisation des actifs environnementaux. En

parfaite conformité au cadre marchand de l'analyse néoclassique, l'économie de la

soutenabilité les évalue systématiquement en termes monétaires et nie leurs dimensions

physiques. L'école de Londres n'a pu esquiver ces impératifs méthodologiques quand elle

tentait d'intégrer les contraintes écologiques dans le modèle néoclassique. Basant le critère de

soutenabilité sur l'analyse coût-avantage, elle a dû se résoudre à une évaluation monétaire de

l'environnement. Au final, l'économie de la soutenabilité donne lieu à une économicisation de

la nature qui prive l'économie de son environnement naturel.

Sous l'emprise du fétichisme de la monnaie, les tenants de l'économie néoclassique de la

soutenabilité déclinent l'idée que la pollution est une production et supposent la substitution

parfaite du capital naturel et du capital produit. Ces hypothèses sont infondées du point de vue

empirique. La science économique, dans l'étude du processus de production, doit admettre

l'évidence physique que le capital produit est toujours le résultat de la transformation du

capital naturel. Même la technologie ne saura contrer cette nécessité. Toute politique

économique, telle la promotion de la croissance indéfinie, menée sur la base des hypothèses

de substitution des formes de capital et de l'absence de pollution, met en péril les générations

futures qui pourraient ne pas se reproduire faute de ressource ou en raison d'une pollution

insupportable. Autant dire que la soutenabilité prométhéenne qui prône l'augmentation de la

production en dehors de toute contrainte est éthiquement insoutenable. Les contraintes de

l'école de Londres telles la complémentarité du capital naturel et du capital produit et les

normes de conservation des équilibres écologique qui conditionnent la soutenabilité

préservative témoignent d'une certaine prise de conscience. Malheureusement, ces hypothèses

sont dévaluées à l'intérieur du cadre réducteur de l'analyse néoclassique qui fait peu de place à

la dimension non monétaire de l'économie.

II. La soutenabilité complexe

Critiquant le paradigme cosmique, nous nous sommes porté à mettre en évidence les

principes du paradigme chaosmique que sont : les principes de modélisation des systèmes, le

principe systèmescopique, les principes de la logique de la complexité et le principe de

suprobjectivité. Les principes de modélisation invitent le modélisateur à percevoir les

phénomènes complexes à l'intérieur de leur environnement, à étudier leurs propriétés en

termes d'émergences et à comprendre leurs transformations par des processus. Le principe

systèmescopique nous enjoint non seulement d'appréhender le phénomène étudié suivant de

215

Page 226: 2. Thèse_Doctorat_YJJ_Duplan.pdf

multiples points de vue et à diverses échelles, mais aussi de joindre ces différents angles

d'intelligibilité. A la différence de l'analytique qui prône la distinction discrète, la logique de

la complexité différencie et conjoint à la fois ; il légitime la compréhension dialectique et les

relations systémiques dès lors que le phénomène étudié s'y prête. Le principe de

suprobjectivité est la reconnaissance du caractère à la fois objectif, subjectif et projectif de la

connaissance scientifique. C'est le circuit d'où émerge la soutenabilité épistémique qui

constate de facto la construction subjective de la connaissance et qui considère de jure le sujet

scientifique comme une personne rationnelle et raisonnable, responsable et conscient des

effets probables de ses recherches.

L'utilisation du paradigme chaosmique par l'éco-thermo-énergétique et notamment par

la bioéconomie a permis de mettre en évidence les dimensions biophysiques de l'économie et

l'importance de l'environnement naturel pour les sociétés humaines. Il s'est révélé que la vie

sociale dépend de la disponibilité des ressources prélevées de l'environnement et de la

capacité de se dernier à assimiler les rejets. D'où la question fondamentale de la recyclabilité

c'est-à-dire de la transformation des déchets en ressources. La thermodynamique nous

apprend que l'énergie dégradée n'est pas recyclable. En ce qui concerne la matière, il nous

semble qu'il n'y avait pas de consensus scientifique confirmant l'hypothèse roegenienne de la

recyclabilité parfaite. Cependant, on peut penser que certaines formes matérielles ne sont pas

humainement reproductibles et ne sont pas recyclées par les systèmes naturels. C'est le cas du

pétrole. D'autres types de matière comme le bois semblent se régénérer par les systèmes

vivants.

La durée de la vie humaine est limitée par l'épuisement des ressources non renouvelées,

mais elle peut être pérennisée en utilisant les ressources renouvelables. D'où, dans la

perspective éthique de l'équité intergénérationnelle, la nécessité d'utiliser les ressources

renouvelables et de nous soumettre aux exigences biophysiques de la reproductibilité des

sociétés. La soutenabilité écologique exige, de ce fait, que soit respectée la capacité de notre

environnement naturel à assimiler nos déchets et à nous fournir les ressources utiles à notre

survie c'est-à-dire qu'il convient de maintenir nos rejets et nos prélèvements à des niveaux

supportables par les écosystèmes naturels.

A cet égard la déforestation en Haïti est insoutenable. S'écroulant sous le poids de sa

démographie et en proie à la pauvreté, le pays est dans l'incapacité de subvenir aux besoins de

ses habitants. La situation est d'autant plus grave que le délabrement des institutions publiques

rend impossible l'application des lois de protection des forêts et la mise en place de mesures

de reboisement.

A l'instar d'Haïti, la plupart des sociétés ne respectent nullement les normes de la

216

Page 227: 2. Thèse_Doctorat_YJJ_Duplan.pdf

soutenabilité écologique et sont, en plus minées par des inégalités internes. Or, l'acceptation

collective d'une diminution globale des richesses en vue de l'équité intergénérationnelle est a

priori plus plausible dans une société juste que dans une société inique surtout si les

conditions matérielles d'une vie décente ne sont pas satisfaites pour une partie de la

population. La réalisation hic et nunc de l'équité intragénérationnelle dans un souci de

solidarité permettrait l'effectivité de la soutenabilité écologique. Ainsi celle-ci est-elle étayée

par la soutenabilité socio-économique qui se définit par le respect des conditions d'une justice

sociale. Il s'agit de répartir équitablement au sein des générations présentes les moyens et les

possibilités de vivre. Alors nous proposons de fonder l'équité de la répartition du revenu de

l'entreprise sur le travail et la solidarité.

Écrire que la soutenabilité est soutenable, pourrait paraître insensée pour l'esprit

enchaîné dans les habitudes du raisonnement mécano-analytique. Dès lors que l'esprit se

libère du carcan du paradigme cosmique pour s'actualiser dans la logique de la complexité,

l'expression « soutenabilité de la soutenabilité » prend tout son sens. Et l'on parvient à

s'apercevoir que c'est la soutenabilité complexe. En effet, c'est un macro-concept

multidimensionnel constitué de trois formes de soutenabilité différenciées : la soutenabilité

épistémique, la soutenabilité socio-économique et la soutenabilité écologique. A la fois

distincte et reliées entre elles, elles sont les trois pôles interférants du triangle de la figure 3 où

chacun est nécessaire et insuffisant pour concevoir la soutenabilité complexe. Chaque forme

de soutenabilité est indissociable des deux autres. Alimentée par un esprit-cerveau qui lui

donne du sens, la soutenabilité complexe est auto-productive. La soutenabilité épistémique

d'où émerge la conscience des problèmes environnementaux et des injustices sociales génère

la soutenabilité écologique qui, à son tour produit la soutenabilité socio-économique pour

engendrer récursivement la soutenabilité épistémique.

La soutenabilité complexe invite le décideur à faire de la joie de vivre l'unique point de

217

Soutenabilité épistémique

Soutenabilité écologique

Soutenabilité socio-économique

• •

Figure 3. La soutenabilité complexe

Page 228: 2. Thèse_Doctorat_YJJ_Duplan.pdf

mire de sa politique. La réussite d'une telle politique doit concorder avec une solidarité inter et

intra-générationnelle. Quand on regarde les menaces globales environnementales telles le

réchauffement climatique, les risques nucléaires, les problèmes qui surgissent de la mise en

pratique de la soutenabilité et auxquels le politique doit faire face dépassent l'échelle

régionale voire nationale. C'est toute l'humanité qui est concernée. Il importe, dans ce cas, de

mettre en place des institutions supranationales démocratiques qui, au-delà des formes de

coopération traditionnelles, sont chargés de gérer les interactions internationales et qui

œvrent pour le bien commun.

Sous les auspices du paradigme chaosmique, la soutenabilité complexe est un concept

ouvert à la critique et se veut autocritique. Elle doit être précisée et corrigée au gré de

l'acquisition de nouvelles connaissances. L'esprit qui anime la soutenabilité complexe n'est

pas celui du réductionnisme économique ou de l'économisme qui refuse toute forme de

critique et de remise en cause mais celui qui reconnaît la multidimensionnalité de l'Économie,

de son caractère vivant, des flux énergétiques, matériels et informatiels qui lient les

personnes, les hommes et les femmes, qui la composent.

III. Possibilités de recherches futures

La problématique de la soutenabilité laisse des portes ouvertes à des recherches

ultérieures. Il serait possible :

— d'établir une méthode qui permette d'évaluer le degré de soutenabilité socio-économique

des entreprises en mesurant l'écart entre la répartition réelle de leur revenu et le critère de

laborité que nous avons proposé ;

— de préciser les normes de la soutenabilité écologique dans le cas d'écosystèmes

spécifiques ;

— de recueillir des données pour évaluer dans le cas d'Haïti les processus de carbonisation et

d'utilisation du bois ;

— d'étudier la problématique de l'échange économique sur la base des principes du paradigme

chaosmique ;

— de fonder une statistique utilisant les principes de la logique floue, etc.

218

Page 229: 2. Thèse_Doctorat_YJJ_Duplan.pdf

BIBLIOGRAPHIE

Page 230: 2. Thèse_Doctorat_YJJ_Duplan.pdf

ABDELMAKI Lahsen et MUNDLER Patrick, Économie de l'environnement, Hachette, Paris,

1997.

ANDREFF Wladimir, « Firme et système économique : les non-lieux de la théorie des droits

de propriété », in ANDREFF Wladimir et al., L'économie-fiction : contre les nouveaux

économistes, Maspero, Paris, 1982, p 55-104.

AMSELEK Paul, Science et déterminisme, éthique et liberté : essai sur une fausse antinomie,

Presses Universitaires de France, Questions, Paris, 1988.

ANAND Sudhir et SEN Amartya, « Human development and economic sustainability »,

World Development, 28, 12, 2000, p.2029-2049.

ARISTOTE, Ethique à Nicomaque, Flammarion, Paris, 2004.

ARROW Kenneth J., Choix collectifs et préférences individuelles, Diderot Editeur, Pergame,

1997.

ARROW Kenneth J. et FISCHER Anthony V., « Environmental Preservation, Uncertainty

and Irreversibility », Quaterly Journal of Economics, vol. 88, 1974, p. 312-319.

AYRES R. U., « The second Law, the fourth law, recycling and limits to growth », Working

Paper Series, 98/38/EPS, Centre for the Management of Environmental Resources,

INSEAD, Fontainebleau, France, 1998.

AYRES R. U., AYRES L. W. et MARTINAS K., « Eco-thermodynamics : exergy and life

cycle analysis », Working Papers Series, 96/19/EPS, Centre for the Management of

Environmental Resources, INSEAD, Fontainebleau, France, 1996.

AYRES R. U. et KNEESE A. V., « Externalities: economic and thermodynamics », in

ARCHIBUGI Franco et NIJKAMP Peter (ed.), Economy and Ecology: Towards

Sustainable Development, Kluwer, Boston, 1989, p. 89-118.

AYRES R. U. et MARTINAS K., « Waste potential entropy : the ultimate ecotoxic »,

Économie Appliquée, XLWIII, 2, 1995, p. 95-120.

BACHELARD Gaston, Le nouvel esprit scientifique (4e éd.), Presses Universitaires de

France, Paris, 1991.

— La formation de l'esprit scientifique : contribution à une psychanalyse de la connaissance

objective (8e éd.), Librairie Philosophique J. Vrin, Paris, 1972.

— La philosophie du non : essai d'une philosophie du nouvel esprit scientifique (3e éd.),

Presses Universitaires de France, Paris, 1988.

BACON Francis, Novum organum (livre I), Presses Universitaires de France, Épiméthée,

1986.

220

Page 231: 2. Thèse_Doctorat_YJJ_Duplan.pdf

BARBIER Edward et MARKANDYA Anil, « The condition for achieving environmentally

sustainable growth » European Economic Review, 34, 1990, p. 659-669.

BARNETT Harold J. et MORSE Chandler, Scarcity and growth : the economics of natural

ressource availability, Johns Hopkins University Press, Baltimore, 1963.

BARTELMUS Peter, LUTZ Ernst et SCHWEINFEST Stefan, « Integrated environmental and

economic accounting : a case study for Papua New Guinea », Environment Working Paper,

54, Environment Department, The World Bank, Washington D. C., 1992.

BARTOLI Henri, L'économie multidimensionnelle, Economica, Paris, 1991.

— Repenser le développement : en finir avec la pauvreté, Economica, Paris, 1999.

BECKERMAN Wilfred, « Economic growth and the environment : whose growth ? Whose

environment », World development, 20, 4, 1992, p. 481-496.

BENTON Ted, « Marxisme et limites naturelles : critique et reconstruction écologiques », in

HARRIBEY Jean-Marie et LÖWY Michael, Capital contre nature, Actuel Marx, Presses

Universitaires de France, Paris, 2003, p. 23-66.

BERGSON Henri, L'évolution créatrice, Presses Universitaires de France, Paris, 1994.

BERREBI Edmond et ABRAHAM-FROIS Gilbert, « A la recherche de l'étalon invariable des

valeurs », Revue d'économie politique, 1, 1989, p.123-140.

— « L'ambiguïté de l'étalon », in ARENA Richard et RAVIX Jacques-Laurent, Sraffa :

Trente ans après, Presses Universitaires de France, Paris, 1990, p. 215-220.

BERTIN Alexandre, « Quelle perspective pour l'approche par les capacités ? », Document de travail,

92, Centre d'Économie du Développement, Université Montesquieu Bordeaux IV, 2004.

BIANCIARDI C., DONATI A. et Ulgiati S., « On the relation between the economic process,

the Carnot cycle and the entropy law », Ecological Economics, 8, 1993, p. 7-10.

— « The 'recycle of matter' debate : physical principles versus practical impossibility »,

Ecological Economics, 8, 1996, p. 195-196.

BME, Énergie et environnement en Haïti, http://www.rehred-haiti.net/membres/bme/energie/

enetenv.html#CONTEXTE, 2000

BOLTZMANN Ludwig, Leçons sur la théorie des gaz, Jacques Gabay, Les grands classiques

Gauthier-Villars, Paris, 1987 (1902 et 1905).

BONTEMS Philippe et ROTILLON Gilles, Economie de l'environnement, La Découverte,

Repères, Paris, 1998.

BOUCHON-MEUNIER Bernadette, La logique floue (3e éd.), Presses Universitaires de

France, Paris, 1999.

221

Page 232: 2. Thèse_Doctorat_YJJ_Duplan.pdf

BOUDON R., « Les relations causales : problèmes de définition et de vérification », Revue

Française de Sociologie, 1967, 8, p. 389-402.

BOURG Dominique, Du progrès à la précaution, in ZACCAÏ Edwin et MISSA Jean Noel,

Le principe de précaution : significations et conséquences, Université de Bruxelles,

Belgique, 2000, p. 223-227.

BRIOUILLIN, La science et la théorie de l'information, Masson, Paris, 1959.

BROWN Gardner M. et Field Barry C., « Implications of alternative measures of natural

resource scarcity », Journal of Political Economy, janvier 1978, p. 86-229.

BRUGGINK Jos J. C., « The theory of economic growth and thermodynamical laws », in Van

GOOL Willem, et al. (ed.) Energy and time in the economy and physical sciences, Elsevier

Science Publishers, Amsterdam, 1985, p. 135-145.

BRUNHES Bernard, La dégradation de l'énergie, Flammarion, Champs, Paris, 1991.

BÜRGENMEIER Beat, La socio-économie, Economica, Paris, 1994.

CARNOT Sadi, Réflexions sur la puissance motrice du feu et sur les machines propres à

développer cette puissance, Jacques Gabay, Paris, 1990.

CLAUSIUS Rudolf, Théorie mécanique de la chaleur, Jacques Gabay, Blong, Paris, 1991.

CLEVELAND Cutler J., KAUFMANN Robert K. et STERN David I., « Agregation and the

rôle of energy in the economy », Ecological Economics, 32, 2000, p. 301-317.

COASE Ronald H., « The problem of social costs », The Journal of Law of Economics, 3,

1960, p. 1-44.

COMELIAU Christian, « Pour un renouveau de la pensée sur le développement », Revue

Tiers Monde, 135, juillet-septembre 1993, p. 687-701.

— « Développement du développement durable ou blocages conceptuels ? », Revue Tiers

Monde, 137, p. 61-76, janvier-mars 1994.

COMMISSION MONDIALE SUR L'ENVIRONNEMENT ET LE DEVELOPPEEMENT,

Notre avenir à tous, Rapport Brundtland, Montréal, Fleuve, 1987.

COMOLET Arnaud, L'évaluation et la comptabilisation : définitions, méthodes et pratiques,

L'Harmattan, Paris, 1994.

CONVERSE A. O., « On complete recycling », Ecological Economics, 19, 1996, p. 193-194.

COSTANZA Robert, « Embodied energy and economic valuation », Science, 210, 1980, p.

1219-1224.

DALES John H., Pollution, property, and prices : an essay in policy making and economics,

University of Toronto Press, Toronto, 1968.

222

Page 233: 2. Thèse_Doctorat_YJJ_Duplan.pdf

DALY Herman E., « On economics as a life science », Journal of Political Economics, 76,

1968, p. 392-406.

— « The economics of the steady state », American Economic Review, 22, 1974, p. 15-21.

— Beyond growth : the economics of sustainable development, Beacon Press, Boston, 1996.

— « Alternative strategies for intergrating economics and ecology », in JANSSON Ann-Mari

(ed.), Integration of Economy and Ecology : an outlook for the eighties, University of

Stockholm Press, Stockholm, 1984, p. 19-29.

— « Toward some operational principles of sustainable development ». Ecological

Economics, 2, 1, 1990, p. 1-6.

— Steady-state economics (2e ed.), Earthscan, London, 1992a.

— « Is the entropy law relevant to the economics of natural resource scarcity ? – Yes, of

course it is », Journal of Environmental Economics and Management, 23, 1, 1992c, p. 91-

95.

— « Allocation, distribution, and scale : towards an economic that is sufficient, just, and

sustainable », Ecological Economics, 6, 3, 1992b, p. 185-193.

— « Georgescu-Roegen versus Solow/Stiglitz », Ecological Economics, 22, 1997, p. 261-266.

DASGUPTA Partha S. et HEAL Geoffrey, Economic theory of exhaustible ressources, James

Nisbet-Cambridge University Press, Cambridge, 1979.

DE BEAUREGARD O. Costa, Le second principe de la science du temps : entropie,

information, irréversibilité, Seuil, Paris, 1963.

DELORME Robert, « Théorie de la complexité et institutions en économie », Colloque :

Organisations et institutions : règles coordinations, évolution, Amiens, mai 2000.

DE ROSNAY Joël, Le macroscope : vers une vision globale, Seuil, Paris, 1975.

— L'homme symbiotique, Seuil, Paris, 1995.

DESCARTES René, Discours de la méthode ; les passions de l'âme, Bookking International,

Paris, 1995.

— Règles pour la direction de l'esprit, Librairie philosophique J. Vrin, Paris, 1996a.

— « Les principes de la philosophie », Librairie philosophique J. Vrin, Paris, 1996b ; in

Oeuvres de Descartes : Méditations et principes (tome IX).

DESSAIGUES Brigitte et POINT Patrick, Économie du Patrimoine naturel la valorisation

des bénéfices de protection de l'environnement, Paris, Economica, 1993.

DUFUMIER Marc, « Les conditions économiques et sociales de la production agricole », in

223

Page 234: 2. Thèse_Doctorat_YJJ_Duplan.pdf

BARHÉLÉMY Gérard et GIRAULT Christian (dir.), La République haïtienne : état des

lieux et perspectives, Karthala, Paris, 1993, p. 303-317.

DUPLAN Yves J.J., « La soutenabilité : vers la bioéconomie », Document de travail, 61,

Centre d'Économie du Développement, Université Montesquieu Bordeaux IV, 2002.

— « Éléments d'épistémologie pour une soutenabilité complexe », Document de travail, 95,

Centre d'Économie du Développement, Université Montesquieu Bordeaux IV, 2004.

DUPRÉ Jacques-Philippe, Théorie des valeurs : théorie économique et politique, Ed. GAP,

La Ravoire, 1994.

EDGERTON Robert H., Available Energy and Environmental Economics, Lexington Books,

Lexington, 1982.

ESMAP, Haïti : household energy strategy, Rapport 143/191, décembre 1991.

FABER Malte, « A biophysical approach to the economy entropy, environment and

resources », in Van GOOL Willem, et al. (ed.) Energy and time in the economy and

physical sciences, Elsevier Science Publishers, Amsterdam, 1985, p. 315-337.

FABER Malte, NIEMES Horst et STEPHAN Gunter, Entropy, Environment and Resources:

an essay in physico-economics, Spinger-Verlag, Berlin, 1995.

FAO, « Reboisement et lutte contre l'érosion à Haïtid », Rapport technique, DP/HAI/72/072,

FOA, Rome, 1976.

— Techniques simples de carbonisation, Étude FAO : Forêts 41, Rome, 1983.

FAUCHEUX Sylvie, MUIR Eliot et O'CONNOR Martin, « La contribution de la théorie du

capital naturel en matière d'indicateur de Développement Durable : une appréciation

critique », Cahier du C3ED, Université de Versailles Saint-Quentin, novembre 1996.

FAUCHEUX Sylvie et NOËL Jean-François, Les menaces globales sur l'environnement, La

Découverte, Paris, 1990.

— « Plaidoyer pour une écoénergétique », La Recherche, 243, 1992, p. 626-629.

— Économie des ressources naturelles et de l'environnement, Armand Collin, Paris, 1995.

FAUCHEUX Sylvie et O'CONNOR Martin, « Un concept controversé : le capital naturel »,

Cahier du C3ED, Université de Versailles Saint-Quentin, février 1999.

FAUCHEUX Sylvie et PASSET René, « Introduction », Économie Appliquée, XLWIII, 2,

1995, p. 5-24.

FER Francis, L'irréversibilité, fondement de la stabilité du monde physique, Bordas, Gauthier-

Villars, 1977.

FORSTER Nancy R., « Tenure systems and ressource conservation in Central America,

224

Page 235: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Mexico, Haiti, and the Dominican Republic », in LUTZ Ernst, PAGIOLA Stefano, et

REICHE Carlos (ed.) Eeconomic and institutional analyses of soil conservation projects in

Central America and the Carribean, World Bank Environnement Paper, 8, 1994, p. 98-

106.

FORTIN Robin, Comprendre la complexité : introduction à la méthode d'Edgar Morin,

L'Harmattan, Paris, 2000.

FOULQUIÉ Paul, La dialectique (7e éd.), Presses Universitaires de France, Paris, 1969.

FREGE Gottlob, Ecrits logiques et philosophiques, Seuil, Paris, 1971.

FRONTIER Serge et PICHOD-VIALE Denise, Écosystèmes : structure, fonctionnement et

évolution (2e éd.), Dunod, Paris, 1998.

GACÔGNE Louis, Éléments de logique floue, Hermès, Paris, 1997.

GARBER Daniel, La physique métaphysique de Descartes, Presses Universitaires de France,

Paris, 1999.

GEORGESCU-ROEGEN Nicholas, La science économique : ses problèmes et ses difficultés,

Dunod, Paris, 1970.

— The entropy law and the economic process, Harvard University Press, Cambridge,

Massachusetts, 1971.

— « De la science économique à la bioéconomie », Revue d'économie politique, 88, 3, mai-

juin 1978.

— « Energie analysis and economic valuation », Southern Economic Journal, vol. 45, avril

1979, p. 1023-1058.

— « Feasible recipes and viable technologies », Atlantic Econmic Journal, 12, 1984, p. 21-30.

— La décroissance : Entropie, Écologie, Économie, Sang de la terre, Paris, 1995.

GEX Maurice, La logique formelle (3e éd.), Le Griffon, Neuchâtel, 1956.

GILLILAND Martha W., « Energy analysis and public policy », Science, 189, 1975, p. 1051-

1056.

GLANSDORFF Paul et PRIGOGINE Ilya, Structure, stabilité et fluctuations, Masson, Paris,

1971.

GODARD Olivier, « De la nature du principe de précaution », in ZACCAÏ Edwin et MISSA

Jean Noel, Le principe de précaution : significations et conséquences, Université de

Bruxelles, Belgique, 2000, p. 19-38.

GRANGER Clive William, « Investigating causal relations by econometrics models and cross

spectral models », Econometrics, 37, 1969, p. 424-438.

225

Page 236: 2. Thèse_Doctorat_YJJ_Duplan.pdf

GRAY Lewis C., « Rent under asumption of exhaustibility », Quaterly Journal of Economics,

28, 1914, p.466-489.

GRINEVALD Jacques, « La révolution carnotienne : thermodynamique, économie et

écologie », Revue européenne de sciences sociales et Cahiers Vilfredo-Pareto, 14, 36,

1976, p.39-79.

GROSSMAN Gene et KRUEGER Alan, « Economic growth and the environment »,

Quaterly Journal of Economics, mai 1995, p. 352-377.

GUINIER André, « Les états de la matière. L'ordre et le désordre » in COLLONGUES Robert

et al., La matière aujourd'hui, Seuil, 1981.

— La structure de la matière : du ciel bleu à la matière plastique, Hachette, 1980.

GUITON Henri, Entropie et gaspillage, Cujas, 1975.

GUTSATZ Michel, « Loi et Causalité », in STENGERS Isabelle (dir.), D'une science à

l'autre : des concepts nomades, Seuil, Paris, 1987, p. 28-33.

HALL Charles A. S., CLEVELAND Cutler J. et KAUFMANN Robert, « Time series analysis

of energy and the U.S. economy », in JANSSON Ann-Mari (ed.), Integration of Economy and

Ecology : an outlook for the eighties, Wallenberg Foundation, Stockholm, 1984, p. 185-189.

— Energy and Resource Quality: The Ecology of the Economic Process, Wiley-Interscience,

New York, 1986, 577p.

HARRIBEY Jean-Marie, Développement soutenable et réduction du temps de travail :

analyse critique appliquée au cas de la France, Thèse de doctorat, Université de Paris I-

Panthéon-Sorbonne, 1996.

— L'économie économe : Le développement soutenable par la réduction du temps de travail,

L'Harmattan, Paris, 1997a.

— « Éléments pour une théorie marxienne de l'égalité économique : théorie de la valeur

travail et répartition de revenus », Marx aujourd'hui : fondements et critique de l'économie

politique, Colloque de l'Université Paris-X, CAESAR-FORUM, URA-CNRS 1700, Actuel

Marx, ERS-CNRS 196, 1997b, http://harribey.u-bordeaux4.fr/travaux/valeur/egalite.pdf.

— Le développement soutenable, Economica, Paris, 1998.

— « La soutenabilité : une question de valeur(s) », Document de Travail, n°34, Centre

d'Economie du Développement, Université Montesquieu-Bordeaux IV, France, 1999.

— « La financiarisation du capitalisme et la captation de la valeur », in Delaunay Jean-Claude

(coord.), Le capitalisme contemporain : une question de fonds, Paris, L'Harmattan, 2001,

p. 67-111.

226

Page 237: 2. Thèse_Doctorat_YJJ_Duplan.pdf

— La démence sénile du capital : fragment d'économie critique (1ère éd.), Passant, Bègles,

2002.

— La démence sénile du capital : fragment d'économie critique (2ème éd.), Passant, Bègles,

2004a.

— Le développement a-t-il un avenir : pour une société économe et solidaire, Mille et une

Nuits, 2004b.

HARTWICK John M., « Intergenerational Equity and the Investing of Rents of Exhaustible

Resources », American Economic Review, 67, 5, 1977, p. 972-974.

HATEM Fabrice., « Le concept de ''développement soutenable'' », Économie Prospective

Internationale, La Documentation Française, n° 44, 4e trimestre, 1990, p. 101-117.

HERENDEEN R. A. et BULLARD C. W., « Energy costs of goods and services : 1963 et

1967 », Energy Policy, 3, 268, 1975.

HENRY Claude, « Option values in the economics of irreplaceable resources », Review of

Economic Studies, 41, 1974, p.88-93.

HOTELLING Harold, « The economics of exhaustible resources », Journal of Political

Economy, 39, 2, 1931, p. 137-175.

HOWARD Philip, Environmental scarcities and conflict in Haiti : ecology and grievances in

Haiti's troubled past and uncertain future, Canadian International Development Agency,

juin 1998.

HUETING Roefie et LUCAS Reijnders, « Sustainability is an objective concept, Ecological

Economics, 27, 1998, p. 139-147.

HUETTNER David A., « Net energy analysis: an economic assessment », Science, 192, 1976,

p. 101-104.

IHSI, Indicateurs socio-démographiques, Port-au-Prince, juillet 1996.

JEAN-GILLES Emile, DALCE Kissinger et POTTS Kate, « L'expérience pilote de diffusion

des réchauds améliorés à charbon de bois baptisés Mirak », Synergies, 3, mai 1999.

JEVONS W. Stanley, The Principles of Science (2e éd.), London, Macmillan, 1905.

— La théorie de l'économie politique, V. Giard et E. Brière, Paris, 1909.

JONAS Hans, Le principe de responsabilité : une éthique pour la civilisation technologique,

Cerf, Paris, 1990.

KÄBERGER Tomas, « Measuring instrumental value in energy terms », in FOLKE Carl et

KÄBERGER Tomas, Linking the natural environment and the economy: essays from the

Eco-Eco Group, Kluwer Academic Publishers, Dordrecht, 1991.

227

Page 238: 2. Thèse_Doctorat_YJJ_Duplan.pdf

KHALIL Elias L., « Entropy law and exhaustion of natural ressources : is Nicholas

Georgescu-Roegen's paradigm defensible ? », Ecological Economics, 2, 1990, p. 163-178.

— « Entropy law and Nicholas Georgescu-Roegen's paradigm : a reply ? », Ecological

Economics, 3, 1991, p. 161-163.

KHAN Sadruddin Agha, « Le développement durable, une notion pervertie », Le Monde

Diplomatique, décembre 2002, p. 16-17.

KNEESE Allen V. et SWEENEY James L., Handbook of Natural ressource and Energy

Economics (volume 3), Elsevier-North Holland, Amsterdam, 1993.

KNEESE Allen. V., AYRES Robert U. et d'ARGE R.C., Economics and the Environment: a

materials balance approach, Johns Hopkins University Press, Baltimore, 1970.

KORZYBSKI Alfred, Une carte n'est pas le territoire : prolégomènes aux systèmes non-

aristotéliciens et à la sémantique générale, Éditions de l'Éclat, Paris, 1998.

KOYRÉ Alexandre, Études newtoniennes, Gallimard, Paris, 1991a.

KOYRÉ Alexandre, Introduction à la lecture de Platon suivi de Entretien sur Descartes, Gallimard,

Paris, 1991b.

KEYNES John Maynard, Théorie générale de l'emploi, de l'intérêt et de la monnaie, Payot,

1969.

— Essais sur la monnaie et l'conomie, Payot, 1971..

KRUTILLA John, « Conservation reconsidered », American Economic Review, 57, p. 777-

786.

KÜMMEL R. « Energy as a factor of production and entropy as a pollution indicator in

macroeconomic modelling », Ecological Economics, 1, 1989, p. 161-181.

KÜMMEL R. et SCHÜSSLER U., « Heat equivalents of noxious substances: a pollution

indication for environmental accounting », Ecological Economics, 3, 1991, p. 139-156.

LACHAUD Jean-Pierre, DUBOIS Jean-Luc, « Dépenses des ménages, développement

humain et pauvreté au Burkina Faso : substitution ou complémentarité ? Le cas de

l'éducation » in DUBOIS Jean-Luc et al., Pauvreté et développement socialement durable,

Presses Universitaies de Bordeaux, Bordeaux, 2003, p. 71-98.

LAPORTE Jean, Le rationalisme de Descartes (4e éd.), Presses Universitaires France, Paris,

2000.

LATOUCHE Serge, Faut-il refuser le développement ?, Presses Universitaires de France,

Paris, 1986.

— « Développement durable : un concept alibi, main invisible et mainmise sur la nature »,

228

Page 239: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Revue Tiers Monde, 137, p. 77-94, janvier-mars 1994.

— « Les mirages de l'occidentalisation du monde : en finir une fois pour toutes avec le

développement », Le Monde Diplomatique, mai 2001, p. 6-7.

LE BLOND J. M., « Logique et méthode chez Aristote : étude sur la recherche des principes

dans la physique aristotélicienne (2e éd.), Librairie Philosophique J. Vrin, 1970.

LEFEBVRE Henri, Logique formelle, logique dialectique, Anthropos, Paris, 1969.

LE MASNE Pierre, « Développement durable et relations entre les hommes et la nature : une

présentation des différentes approches économiques », Document de Travail, 5, Groupe

d'Etudes sur le Développement Économique et Social, Université de Poitiers, France, 2000.

LE MOIGNE JEAN-LOUIS, La théorie du système général : théorie de la modélisation (3e

éd.), Presses Universitaires de France, Paris, 1977.

— « Qu'est-ce qu'un modèle ? », 1985, http://www.mcxapc.org/ateliers/10/lemoign2.pdf.

— « « ... voir la nature avec les yeux de l'art » : les nouvelles sciences de l'artificiel et le

renouvellement épistémologique des sciences de la nature », in TINLAND Franck (dir.),

Systèmes naturels, systèmes artificiels, Champ Vallon, milieux, Seyssel, 1991, p. 123-139.

— Le constructivisme : des fondements (t.1), ESF, Communications et complexité, Paris,

1994.

— Le constructivisme : des épistémologies (t.1), ESF, Communications et complexité, Paris,

1995.

— Les épistémologies constructivistes (2e éd.), Presses Universitaires de France, Paris, 1999a.

— La modélisation des systèmes complexes, Dunod, Paris, 1999b.

— « Pourquoi je suis un constructiviste non repentant », 2002, http://www.mcxapc.org/

ateliers/10/lemoign3.pdf.

LESOURNE Jacques, « Une science balkanisée », Le Monde, 16 octobre 1990.

— Economie de l'ordre et du désordre, Economica, Paris, 1991.

LOTKA Alfred J., Elements of physical biology, Williams an Wilkins, Baltimore, MD, 1925.

LÖWY Michael, « Progrès destructif : Marx, Engels et l'écologie », in HARRIBEY Jean-

Marie, et LÖWY Michael Capital contre nature, Actuel Marx, Presses Universitaires de

France, Paris, 2003, p. 11-22.

LOZADA Gabriel A., « A defense of Nicholas Georgescu-Roegen's paradigm », Ecological

Economics, 3, 1991, p. 157-160.

— « Georgescu-Roegen's defense of classical thermodynamics revisited », Ecological

Economics, 14, 1995, p. 31-44.

229

Page 240: 2. Thèse_Doctorat_YJJ_Duplan.pdf

LUNDAHL Mats, Peasants and poverty : a study of Haiti, Groom Helm, Londres, 1979.

LUPASCO Stéphane, L'Expérience microphysique et la Pensée humaine, Éditions Du

Rocher, Monaco, 1989.

McKELVEY Vincent E., « Mineral resource estimates and public policy », American

Scientist, 60, 1972, p. 32-40.

MALTHUS Thomas-Robert, Principes d'économie politique considérés sous le rapport de

leur application pratique, Calmann-Lévy, 1969.

MAMOU-MANI Alain, « Aspects quantitatifs du développement durable », in CENTRE DE

MUNICH, Rapport sur les statistiques pour la politique environmentale, K-50, 1997, p. 9-

20.

MARÉCHAL Jean-Paul, Le rationnel et le raisonnable : l'économie, l'emploi et

l'environnement, Presses Universitaires de Rennes, Des Sociétés, Rennes, 1997.

— Humaniser l'économie, Desclée de Brouwer, Sociologie Économique, Paris, 2000.

MARX Karl, Critique des programmes de Gotha et d'Erfurt, Socailes, Paris, 1950.

— Le capital (livre I), Garnier-Flammarion, Paris, 1969.

MARX Karl et ENGELS, Dialectique de la Nature, Sociales, 1973.

McLAIN Rebecca J. et et STIENBARGER Douglas M., « Land tenure and land use in

outhern Haiti : case studies of the Les Anglais and Grande Ravine du Sud Watersheds »,

Land Tenure Center Research Paper, University of Wiscousin-Madison, Madison, 1988.

MAYUMI Kozo, « Information, pseudo measures and entropy : an elaboration on Nicholas

Georgescu-Roegen's critique », Ecological Economics, 22, 3, 1997, p. 249-259.

MAYUMI Kozo, GIAMPIETRO Mario et GOWDY John M., « Georgescu-Roegen/Daly

versus Solow/Stiglitz revisited », Ecological Economics, 27, 1998, p. 115-117.

MEADOWS Dennis L., Halte à la croissance, Fayard, Paris, 1972.

MDE, Première communication nationale sur les changements climatiques, Haïti, août 2001.

MERAL Philippe, « L'équité intergénérationnelle en économie de l'environnement : réflexion

critique autour de l'utilisation de la théorie de la justice de Rawls par l'analyse standard »,

Economie Appliquée, 48, 2, 1995, p. 305-333.

MEUNIÉ André, « Controverses autour de la courbe environmentale de Kuznets, Document

de travail, Centre d'Économie du Développement, Université Montesquieu Bordeaux IV,

2004.

MIROWSKI Philip, Plus de chaleur que lumière : l'économie comme physique sociale, la

physique comme économie de la nature, Économica, Paris, 2001.

230

Page 241: 2. Thèse_Doctorat_YJJ_Duplan.pdf

MOÏSE Robinson, « Nouvelles du projet SEPE, foire de l'énergie alternative », Synergies, 14,

août 2003, p. 8.

MORAL Paul, Le paysan haïtien : essai sur la vie rurale en Haïti, Fardin, Port-au-Prince,

1978.

MORIN Edgar, La méthode (t. 1) : la nature de la nature, Seuil, Paris, 1977.

— La méthode (t. 2) : la vie de la vie, Seuil, Paris, 1980.

— La méthode (t. 3) : la connaissance de la connaissance, Seuil, Paris, 1986.

— Introduction à la pensé complexe, ESF, Paris, 1990.

— La méthode (t. 4) : les Idées. Leur habitat, leur vie, leurs mœurs, leur organisation, Seuil,

Points, n° 175, Paris, 1991.

— « L'épistémologie de la complexité », in Morin Edgar et LE MOIGNE Jean-Louis,

L'intelligence de la complexité, L'Harmattan, 1999, p. 43-169.

— La méthode (t. 5) : l'humanité de l'humanité, l'identité humaine, Seuil, Paris, 2001.

— « Computo ergo sum », 2002, http://www.revue-chimeres.org/pdf/08chi06.pdf.

MUNN R. E., « Towards Sustainable Development : an Environmental Perspective », in

ARCHIBUGI F. et Nijkamp P., Economy and Ecology : towards Sustainable

Developpement, Kluwer Academic Publsher, Dordrecht, 1989, p. 49-72.

NATIONS UNIES, Manuel de comptabilité nationale : comptabilité environmentale et

économique intégrée, manuel des opérations, New York, 2001.

NORGAARD Richard B., « Sustainable development : a coevolutionary view », Futures, 20,

6, 1988, p. 606-620.

— « Economic indicators of resource scarcity : a critical essay », , Ecological Economics, 19,

1990, p. 19-25.

ODUM Eugène P., Écologie : un lien entre les sciences naturelles et les sciences humaines,

HRW Ltée, Montréal, Québec, 1975.

ODUM Howard T., Environment, Power and Society, Wiley-Interscience, New York, 1971.

— « Energy, ecology, and economics », Ambio, 2, 6, 1973, p. 220-227.

— « Embodied energy, foreign trade, and welfare nations », dans JANSSON A.-M. (ed.),

Integration of Economy and Ecology, Wallenberg Foundation, Stockholm, 1984, p. 185-

189.

ONU, Bilan commun de pays, Henri Deschamps, Port-au-Prince, 2000.

PARETO Vilfredo, Manuel d'économie politique, Librairie Droz, Genève, 1966.

231

Page 242: 2. Thèse_Doctorat_YJJ_Duplan.pdf

PASSET René, « Unes science tronquée », Le Monde, 12 janvier 1971.

— « La thermodynamique d'un monde vivant ; des structures dissipatives à l'économie »,

Futuribles, décembre 1980, p. 3-25.

— « La pensée marxienne sous les feux de la thermodynamique », in Croissance, échanges et

monnaie en économie internationale : mélanges en l'honneur de M. le Prof. Jean Weiller,

Economica, Paris, 1985, p. 119-127.

— « La « crise » économique dans le courant de l'évolution » (Conférence prononcée à

l'Université de Pau et des Pays de l'Adour, février 1986), in SALOMON Jean-Jacques et

REEVES Hubert, Du cosmos à l'homme : comprendre la complexité, L'Harmattan, Paris,

1990, p. 46-75.

— Passet René, L'économique et le vivant (2nd édition), Economica, Paris, 1996.

— « Le développement durable : de la transdisciplinarité à la responsabilité », Congrès de

Locarno, avril-mai 1997.

— L'illusion néo-libérale, Fayard, 2000.

— Eloge du mondialisme par un « anti » présumé, Fayard, 2001.

PASCAL Blaise, Pensées, Mercure de France, 1976.

PAUL Normil Hubert, « L'énergie solaire et la cuisson », Synergies, 5, décembre 1999, p. 4-5.

PAULRÉ Bernard, La causalité en économie : signification et portée de la modélisation

structurelle, Presses Universitaires de Lyon, Lyon, 1985.

PEARCE David et ATKINSON, « Capital theory and the measurement of sustainable

development : an indicator of ''weak'' sustainability'' », Ecological Economics, 8, 1993,

p. 103-108.

PEARCE David, BARBIER Edward et MARKANDYA Anil, Sustainable development :

economics and environment in the third world, Edward Elgar, Hants, 1990.

PERCEBOIS Jacques (dir.), Energie et théorie économique, Cujas, Paris, 1997.

PERDIJON Jean, La mesure : science et philosophie, Flammarion, Dominos, 1998.

PERRINGS Charles, « Ecological Resilience in the sustainability of economic development »

in FAUCHEUX Sylvie, PEARCE David et PROOPS John (ed.), Models of Sustainable

Development, Edward Elgar, Cheltenham, 1996, p. 231-252.

PERROT Pierre, Dictionnaire de thermodynamique : de l'Absolu au Zéro absolu,

InterEditions, Paris, 1994.

PERROUX, François, Unités actives et mathématiques nouvelles : révision de la théorie de

l'équilibre économique général, Dunod, Paris, 1975.

232

Page 243: 2. Thèse_Doctorat_YJJ_Duplan.pdf

PETTY William, The Economic Writings, Cambridge University Press, Cambridge, 1899.

PEZZEY John, « Sustainable development concepts : an economic analysis », World Bank

Environment Paper, 2, The World Bank, Washington D.C., 1992.

PIAGET Jean, Le structuralisme (11e éd.), Presses Universitaires de France, Paris, 1996.

PIGOU Arthur Cecil, The Economics of Welfare, Macmillon, Londres, 1920.

PILLET Gonzague, « Prix non payés en écologie en économie de l'environnement », Revue

Economique, 41, 2, mars 1990, p. 321-333.

— Economie écologique, Georg, Genève, 1993.

PILLET Gonzague et ODUM Howard T., E3 : Énergie, écologie et économie, Georg,

Genève, 1987.

PNUD, Rapport mondial sur le développement humain 2002 : approfondir la démocratie

dans un monde fragmenté, De Boeck Université, Bruxelles, 2002a.

— Situation économique et sociale d'Haïti, 2002b, http://www.ht.undp.org/bes2002.

— Rapport national sur le développement humain. La bonne gouvernance : un défi majeur

pour le développement humain durable en Haïti, Port-au-Prince, Haïti, 2002c.

— Rapport mondial sur le développement humain 2003, les Objectifs du Millénaire pour le

développement : un pacte entre les pays pour vaincre la pauvreté humaine, Economica,

Paris, 2003a.

— Bilan économique et social d'Haïti en 2002, 2003b, http://www.ht.undp.org/bes2002.

POPELARD Marie-Dominique et VERNANT Denis, Eléments de logique, Seuil, Paris, 1998.

PRIGOGINE Ilya, Entre le temps et l'éternité, Flammarion, Champs, 1992.

— Introduction à la thermodynamique des processus irréversibles, Jacques Gabay, Blong,

Paris, 1996.

PRIGOGINE Ilya et KONDEPUDI Dilip, Thermodynamique : des moteurs thermiques aux

structures dissipatives, Odile Jacob, Paris, 1999.

PRIGOGINE Ilya et STENGERS Isabelle, La nouvelle alliance : métamorphose de la

science, Gallimard, folio/essais, 1993.

PROOPS John L. R., « Thermodynamics and economics : from analogy to physical

functioning », in Van GOOL Willem, et al. (ed.) Energy and time in the economy and

physical sciences, Elsevier Science Publishers, Amsterdam, 1985, p. 155-174.

QESNAY François, Physiocratie : droit naturel, tableau économique et autres textes,

Flammarion, Paris, 1991.

RAWLS John, Libéralisme politique, Presses Universitaires de France, Paris, 1995.

233

Page 244: 2. Thèse_Doctorat_YJJ_Duplan.pdf

— Théorie de la justice, Seuil, Paris, 1997.

RICARDO David Des principes de l'économie politique et de l'impôt, Flammarion, Champs,

1977.

RIST Gilbert, Le développement : histoire d'une croyance occidentale (2e éd.), Presses de

Sciences Po, Paris, 2001.

ROOSEVELT Saint Dick, « Petites agro-industries de la canne à sucre en Haïti : quelle

alternative énergétique ? », Synergies, 2, février 1999, p. 3-5.

ROSSIER G., et MICUTA W., Le charbon de bois est-il un combustible satisfait ?,

Renewable Energy Development Institute, http://www.codeart.org/technique/energie.

ROSTOW Walt W., Les étapes de la croissance économique : un manifeste non communiste,

Economica, Paris, 1997.

RUSSELL Bertrand, L'analyse de la matière, Payot, Paris, 1965.

— La méthode scientifique en philosophie, Petite Bibliothèque, Paris, 2002.

SACHS Ignacy, L'écodéveloppement; Stratégies pour le XXIe siècle, Syros, Paris, 1997.

SAINT-DICK Roosevelt, « Petites agro-industries de la canne à sucre en Haïti : quelle

alternative énergétique ? », Synergies, 2, février 1999, p. 3-5.

SAINT-JEAN Wilfrid, « Résumé de la législation haïtienne réglementant l'utilisation du bois

énergie », Synergies, 2, février 1999a, p. 8.

— « Les Cuiseurs solaires et les besoins énergétiques des résidences en Haïti », Synergies, 5,

décembre 1999b, p. 3-4.

— « La pression exercée par l'économie haïtienne sur les arbres et les moyens d'y faire face »,

Synergies, 9, avril 2001.

SAINT-JEAN Wilfrid et YOUNG Peter, « Dossier : situation de l'énergie domestique en

Haïti », Synergies, 1, novembre 1998, p. 3-5.

SAY Jean-Baptiste, Cours d'économie politique et autres essais, Flammarion, Paris, 1996.

SCHRÖDINGER Erwin, Qu'est-ce que la vie ? De la physique à la biologie, Seuil, Paris,

1986.

SCHUBERT Paul et ZAGAMÉ Katheline, L'environnement : une nouvelle dimension de

l'analyse économique, Vuibert, Paris, 1998.

SEN Amartya, Ethique et économie, Presses Universitaires de France, Paris, 1993.

— « Rationality and social choice », American Economic Review, 85, 1995, p. 1-24.

— L'économie est une science morale, La Découverte, Paris, 1999.

— Un nouveau modèle économique : développement, justice, liberté, Odile Jacob, Paris,

234

Page 245: 2. Thèse_Doctorat_YJJ_Duplan.pdf

2000a.

— The ends and means of sustainability, note présentée à la conférence internationale :

Transtition to sustainability, mai 2000b.

SIMON Herbert A., La science des systèmes, science de l'artificiel, Epi, Paris, 1974.

— « De la rationalité substantive à la rationalité procédurale », trad. de : « From substantive

to procedural rationality », in SIMON Herbert, Models of Bounded Rationality, vol. 2,

M.I.T. Press, 1982, p. 424-443, http://www.mcxapc.org/ conseil/simon5.pdf.

— Models of Discovery and Other Topics in the Methods of Science, D. Reidel Publishing

Company, Dordrecht, Holland, 1977.

SIMON Yvan, Energie et entropie, Armand Colin, Paris, 1979.

SMITH Adam, Enquête sur la nature et les causes de la richesse des nations, Presses

Universitaires de France, Paris, 1995.

SMOUTS Marie-Claude, Forêts tropicales, jungle internationale : les revers de

l'écopolitique mondiale, Presses de Sciences Po, Paris, 2001.

SOLOW Robert M., « Intergenerational equity and exhaustible resources », The Review of

Economic Studies, 41, Symposium on the economics of exhaustible ressources, 1974a,

p. 29-45.

— « The economics of resources or the resources of economics », American Economic

Review, 64, 2, 1974b, p. 1-14.

— « On the intergenerational allocation of natural resources », Scandinavian Journal of

Economics, 88, 1, 1986, p.141-149.

SRAFFA Piero, Production de marchandises par des marchandises : prélude à une critique

de la théorie économique, Dunod, Paris, 1999.

STIGLITZ Joseph, « Growth with exhaustible natural resources : efficient and optimal growth

paths », The Review of Economic Studies, 41, Symposium on the economics of exhaustible

ressources, 1974, p. 123-131.

STROTZ Robert H. et WOLD Herman O. A., « Recursive vs. Nonrecursive systems: an

Attempt at Synthesis », Econometrica, 28, 2, avril 1960, p. 417-427.

SZILARD L., « On the decrease of entropy in a thermodynamic system by the intervention of

intelligent beings », Behaviour Science, 9, 1964, p. 301-310.

TERLINDEN Jean-Yves, « Historique des tentatives menées en Haïti sur les réchauds à

charbon améliorés », Synergies, vol. 1, novembre 1998, p. 6.

THORESEN Per E., « Impact of energy price rises on costs : a thermodynamic analysis »,

235

Page 246: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Energy Policy, 9, 1981, p. 145-152.

— « The relationship between standard of living, production and energy consumption », in

Van GOOL Willem, et al. (ed.) Energy and time in the economy and physical sciences,

Elsevier Science Publishers, Amsterdam, 1985, p. 103-118.

TONNELAT Jacques, Thermodynamique probabiliste : un refus des dogmes, Masson, Paris,

1991.

TRIBUS Myron, Thermostatics and Thermodynamics, Van Nostrand, New York, 1961.

USINGER Juergen, « Les boulangeries et les blanchisseries (dry-cleanings) en Haïti sont de

grands consommateurs de bois de feu », Synergies, 2, février 1999, p. 6-7.

VARIAN Hal R., Analyse microéconomique (4e éd.), De Boeck, Bruxelles, 1998.

VEYSSIÉ Madeleine « Les états de la matière. Les états intermédiaires », in COLLONGUES

Robert et al., La matière aujourd'hui, 1981.

VICTOR Jean-André, « La réforme agraire à l'envers », in BARHÉLÉMY Gérard et

GIRAULT Christian (dir.), La République haïtienne : état des lieux et perspectives,

Karthala, Paris, 1993, p. 317-330.

— « Le charbon de bois : mythes et réalités », Synergies, 8, juillet 2000.

VICTOR Peter A., « Indicators of sustainable development: some lessons from capital

theory », Ecological Economics, 4, 1991, p. 191-213.

VIVIEN Franck-Dominique, Sadi Carnot économiste. Enquête sur un paradigme perdu :

économie, thermodynamique, écologie, thèse de doctorat ès sciences économiques,

Université Paris I Panthon-Sorbonne.

Economie et écologie, La Découverte, Paris, 1994.

WALRAS Léon, Éléments d'économie politique pure ou théorie de la richesse sociale,

Economica, Paris, 1988.

WEAVER Warren, « Contributions récentes à la théorie de l'information, in SHANNON

Claude E. et WEAVER Warren, Théorie mathématique de la communication, Retz, Paris,

1975.

WEISBROD Burton, « Collecive consumption services of individual consumption goods »,

Quaterly Journal of Economics, 78, 1964, p. 471-477.

WEISSKOPF Victor, La révolution des quanta, Hachette, Paris, 1989.

WHITE Thomas A. et JICKLING Jon L., « An economic and institutional analysis of soil

conservation in Haiti », in LUTZ Ernst, PAGIOLA Stefano, et REICHE Carlos (ed.)

Economic and institutional analyses of soil conservation projects in Central America and

236

Page 247: 2. Thèse_Doctorat_YJJ_Duplan.pdf

the Carribean, World Bank Environnement Paper, 8, 1994, pp. 98-106.

WIENER Norbert, Cybernétique et société : l'usage humain des êtres humains, Union

Générale d'Editions, 1971.

WITTGENSTEIN Ludwig, Tractatus logico-philosophicus, Gallimard, 1993.

WOLD H. O., « On the definition and meaning of causal concepts », in La technique des

modèles dans les sciences humaines, Union Européenne d'Édition, Monaco, 1966.

WORLD RESOURCES INSTITUTE, Earth trends 2003, http://earthtrends.wri.org.

WUNENBURGER Jean-Jacques, La raison contradictoire, science et philosophie moderne :

la pensée du complexe, Albin Michel, Paris, 1990.

YOUNG Jeffrey T., « Is the entropy law relevant to the economics of natural resource

scarcity ? », Journal of Environmental Economics and Management, vol. 21, 1991, p. 169-

179.

YOUNG Peter et PIERRE Bétonus, « L'énergie de cuisson en Haïti : considérations d'ordre

sociologique, économique et écologique », Synergies, 11, décembre 2001.

ZADEH Lotfi, « Fuzzy sets », Information and Control, 8, 1965, p. 338-353.

YAKIRA Elhanan, La causalité : de Galilée à Kant, Presses Universitaires de France, Paris,

1994.

ZUINDEAU Bertrand (éd.), Développement durable et territoire, Presses Universitaires du

Septentrion, Villeneuve d'Asc, 2000.

237

Page 248: 2. Thèse_Doctorat_YJJ_Duplan.pdf

ANNEXE

Page 249: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Tableau A-1. L'intégration de l'environnement dans la comptabilité nationale

Tableau des ressources et des emplois

Bilans d'actifs par type d'actifs

Actifs produits Actifs non produits

CITI Actifs économiques

CUTIActifs

environnementaux

Stocks d'ouverture Stocks d'ouverture Stocks d'ouverture

Production d'actifs autresque ceux de protection de

l'environnement

Importations d'actifs autresque ceux de protection de

l'environnement

Consommationintermédiaire de produits

autres que ceux deprotection de

l'environnement

Exportations de produitsautres que ceux de

protection del'environnement

Consommation finale deproduits autres que ceux

de protection del'environnement

Consommationintermédiaire de produits

de protection del'environnement

Exportations de produitsde protection del'environnement

Consommation finale deproduits de protection de

l'environnement

Formation brute decapital autre que celuipour la protection de

l'environnement

Formation brute decapital (uniquement pour

les terres)

Valeur ajoutée brute

Consommation de capitalfixe autre que celui pour

la protection del'environnement

Consommation de capitalfixe autre que celui pour

la protection del'environnement

Consommation de capitalfixe autre que celui pour

la protection del'environnement

(uniquement pour lesterres)

Consommation de capitalfixe utilisé pour la

protection del'environnement

Consommation de capitalfixe utilisé pour la

protection del'environnement

Consommation de capitalfixe utilisé pour la

protection del'environnement (pour

l'amélioration destermes)

Valeur ajoutée nette

Rémunération des salariés

Impôts sur la productionmoins subventions ne

concernant pas lesactivités de protection de

l'environnement

Impôts sur la productionmoins subventions pour

les activités de protectionde l'environnement

Coûts d'épuisementd'actifs non produits

Épuisement d'actifs nonproduits (sauf pour les

terres)

Coûts de dégradation(émissions) d'actifs non

produits

Dégradation (émissions)d'actifs économiques nonproduits (pour les terres)

É<onvaleur ajoutée

Revenus des facteurs ettransferts courants versésmoins transferts reçus de

l'étranger

Autres accumulations

Revenu net disponibleAutres changements de

volume

Autres changements devolume d'actifs non

produits de clôture desactifs économiques non

produits

Changements de volume

Utilisation externe d'actifsnaturels moins utilisationnationale d'actifs naturels

externes

Réévaluation Réévaluation

Écorevenu disponible net Stocks de clôture Stocks de clôture Stocks de clôture

239

Page 250: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Tableau A-2. Abondance crustale de certainesressources minières

ÉlémentPourcentage du poidsde la croûte terrestre

Éléments abondants

Oxygène 46,60

Silicate 27,72

Aluminium 8,73

Fer 5,00

Calcium 3,63

Sodium 2.83

Potassium 2.59

Magnésium 2,09

Titane 0,44

Hydrogène 0,14

Total 99,17

Éléments rares

Cuivre 0,007

Zinc 0,008

Plomb 0,0016

Argent 0,00001

Or 0,0000005

240

Page 251: 2. Thèse_Doctorat_YJJ_Duplan.pdf

Figure A-1. Carte d'Haïti

241