Scénarios Économiques de Long-Terme: Hypothèses Et Mécanismes Déterminants Pour Les Trajectoires D'émissions Futures

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 200

Programme GICC 2005

Scénarios économiques de long-terme :


hypothèses et mécanismes déterminants
pour les trajectoires d'émissions futures

Rapport Final

Organisme bénéficiaire :
CNRS, Délégation A

Unité effectuant les travaux :


CIRED, UMR 8568
45bis avenue de la Belle Gabrielle
94736 Nogent-Sur-Marne cedex

Responsables des travaux : Renaud CRASSOUS


E-mail : [email protected]
Téléphone : 01 43 94 73 20
RESUME POUR LES DECIDEURS

A. Etat de l’art des scénarios et des modèles

1. Depuis deux décennies, la demande croissante d’études prospectives et d’évaluation des politiques
climatiques et énergétiques à long terme a débouché sur une production exponentielle de scénarios
quantitatifs, débouchant sur des projections d’émissions mondiales, sans politiques climatiques
dédiées, allant de 4,3 à 36,8 gigatonnes (GtC) de carbone (à comparer aux émissions de 1990 de 6,0
GtC).

2. Ces écarts de projections sont généralement interprétés comme des indicateurs de l’incertitude sur
les trajectoires futures, mais cette interprétation se heurte au déficit de cohérence interne des
projections : lorsque la population, la croissance économique, le progrès technique et la
décarbonisation du système énergétique sont projetés de manière indépendante, les corrélations et les
effets de système ne sont pas pris en compte, ce qui conduit à une multiplication combinatoire
« impropre à la consommation » par les décideurs.

3. L’analyse des nombreux outils existants pour produire ces scénarios montre qu’ils relèvent presque
tous de 4 à 5 « paradigmes » de modélisation, dans la lignée des outils mis en place dans les années
80 : les modèles Edmonds Reilly Barnes (ERB), Global 2100, DICE, EFOM-MARKAL et GREEN.

4. La coexistence continue de ces différents types d’outils pour la représentation du système


énergétique au sein de l’économie globale est entretenue par un certain nombre de controverses et de
problèmes non résolues pour la description du monde réel et l’évaluation des politiques publiques.
Nous présentons ces problèmes non résolus à travers trois insatisfactions transversales :
(i) la représentation de la croissance économique ;
(ii) la représentation des technologies et du progrès technique ;
(iii) la représentation des anticipations et le rôle de l’optimalité dans les modèles.

5. Le modèle mondial Imaclim-R a été conçu au CIRED pour répondre à ces insatisfactions. Il s’agit
d’un modèle hybride, associant la cohérence macroéconomique de l’équilibre général walrasien à la
cohérence matérielle d’une représentation physique de l’économie, incluant des technologies discrètes
dans le système énergétique. Le modèle est récursif, avec un pas de temps annuel, pour permettre la
représentation des déséquilibres de court terme, notamment en incluant des sous-optimalités
dynamiques et des anticipations imparfaites.

B. Scénarios d’émissions et tests de sensibilité

6. Paramétré avec des hypothèses médianes pour la croissance démographique, la croissance


économique, le progrès technique et les réserves de ressources fossiles, le modèle Imaclim-R produit
un scénario d’émissions élevé, atteignant 17 GtC en 2050 et 39 GtC en 2100. L’hypothèse critique
d’un tel scénario est la grande disponibilité du charbon, notamment pour la production de carburants
liquides. Au-delà de cela, ce scénario montre que les puissants gains d’efficacité énergétique supposés

-3-
dans le modèle ne sont pas suffisants pour empêcher une forte croissance des émissions, notamment à
cause de nombreuses « forces de rappel » qui soutiennent les émissions à la hausse.

7. Afin de tester la robustesse de cette projection et sa sensibilité au jeu d’hypothèses retenues, trois
variantes sont réalisées en faisant varier les hypothèses sur le progrès technique dans le système
énergétique et/ou sur les schémas de développement impactant la demande finale de services
énergétiques. Le cumul de toutes les hypothèses plus optimistes du point de vue de l’efficacité
énergétique et de la décarbonisation conduisent à 30% d’émissions en moins en 2100. Mais, avec 30
GtC en 2100, ce scénario supposé « optimiste » reste dans la fourchette haute des scénarios du GIEC
(SRES, 2000)

8. L’analyse détaillée des variantes montre qu’il existe de nombreux effets de rappel à la hausse des
émissions qui limitent l’impact a priori des hypothèses optimistes :
(i) des interactions négatives entre les hypothèses optimistes (par ex. un style de développement plus
sobre en services énergétiques finaux limite les incitations aux progrès d’efficacité énergétique et le
renouvellement des équipements)
(ii) les forces de rappels via l’équilibre offre/demande sur les marchés de l’énergie
(iii) les effets rebonds sectoriels et macroéconomiques.

9. Une autre série de tests de sensibilité a été effectuée par ailleurs pour étudier spécifiquement le rôle
de deux jeux d’hypothèses rarement examinées : les hypothèses de rattrapage de croissance des pays
en développement et les hypothèses d’évolution des préférences des ménages. Ces deux tests
montrent que, même à l’horizon 2050 :
(i) les variantes contrastées d’hypothèses de rattrapage des productivités montrent des écarts
d’émissions du simple au double, réaffirmant que la croissance économique est le premier « moteur »
des émissions ;
(ii) les choix de représentations de la formation de la demande finale peuvent être responsables de
variations significatives d’émissions, liées à une projection différente du changement structurel de
l’économie, en particulier dans les pays émergents et en développement.

C. Pistes pour l’action et pour la recherche

10. Ce projet de recherche dégage des messages clés pour la formation des politiques climatiques et
énergétiques :
(i) il est nécessaire d’encadrer les possibles effets rebonds liés au progrès technique et aux économies
d’énergie, en maintenant une pression croissante sur les émissions, et en ciblant simultanément par des
instruments adaptés la baisse des besoins de services énergétiques finaux et le changement technique
permettant de décarboniser la fourniture de ces services ;
(ii) il est souhaitable de mettre en place des instruments ajustables à la démographie, la croissance
économique et à l’évolution des marchés de l’énergie, car ce sont des déterminants forts de la
dynamique des émissions qu’il faut réduire ;
(iii) au sein du système énergétique et à long terme, le retour du charbon reste la menace principale
pour le climat, qui, quelles que soient les hypothèses de changement technique et de croissance,
poussera les émissions vers des niveaux insoutenables pour l’évolution du climat.

-4-
11. Les travaux réalisés fournissent par ailleurs des indications méthodologiques sur l’état de l’art et
les futurs besoins de recherche :
(i) Les exercices classiques de production de scénarios quantitatifs sont généralement réalisés avec des
modèles qui sont défaillants du point de vue de la cohérence interne des scénarios et qui conduisent
donc à une mauvaise représentation des incertitudes ;
(ii) La formation des préférences et des choix d’équipement constituent un objet de recherche en soi
trop peu intégré dans les scénarios de long terme, ce qui induit logiquement une importante faiblesse
des modèles sur ce point et très peu d’évaluation des instruments permettant d’orienter la demande
finale de services énergétiques ;
(iii) Il apparaît indispensable de développer des méthodes de traitement systématique de l’incertitude
dans l’évaluation des politiques publiques, car il existe des incertitudes chroniques peu susceptibles
d’être résolues avant la mise en place des politiques. Ces méthodes devront être adaptées à la taille et
la complexité des modèles.

-5-
COMPTE-RENDU DU PROJET DE RECHERCHE

Le projet de recherche « Scénarios économiques de long terme : hypothèses et mécanismes


déterminants pour les trajectoires d’émissions futures » a débuté en janvier 2007 pour une durée de 2
ans. Il avait pour objectif de fournir un certain nombre d’éléments nouveaux sur la sensibilité des
futures trajectoires d’émissions de gaz à effet de serre à divers mécanismes ou hypothèses des modèles
de prospective, en utilisant le modèle hybride Imaclim-R développé au CIRED.
Ce rapport final fournit l’ensemble des travaux effectués durant ces deux ans dans le cadre du
projet de recherche :
- un diagnostic complet sur l’état de l’art des scénarios d’émissions et des modèles ayant
servi à les produire ;
- la poursuite du développement du modèle Imaclim-R pour permettre le traitement des
questions devant être traitées dans le cadre du projet1;
- un certain nombre de tests de sensibilité réalisés avec le modèle Imaclim-R ainsi
développé.

Par rapport au programme de travail prévu, des modifications ont été nécessaires au cours de la
deuxième année de recherche pour conduire au présent rapport.

Premièrement, le développement du modèle n’a pu conduire à des représentations satisfaisantes pour


étudier les régimes de flux de capitaux internationaux, les rétroactions climatiques ;

Deuxièmement, il n’a pas été possible d’explorer de manière aboutie et dans les deux ans du projet la
question des chocs géopolitiques sur les marchés de l’énergie (axe 2). Les tests effectués dans ce sens
semble montrer que la trajectoire des émissions à long terme est faiblement impactée par le choc lui
même mais sera impactée par les hypothèses de ressources fossiles disponibles, qui peuvent justement
provoquer, lorsqu’elles sont sujettes à des variations d’estimation, des chocs énergétiques durables.
Dans ce cas nous sommes ramenés à la sensibilité des scénarios aux hypothèses de long terme sur les
réserves énergétiques, hypothèse qui est intégrée dans les tests de sensibilité détaillés dans ce rapport.

Les résultats fournis dans ce rapport sont novateurs et à ce titre ils devraient faire l’objet de
plusieurs propositions de publications dans des revues internationales à comité de lecture.
Le diagnostic critique présenté ici à propos des modèles et des scénarios existants a motivé
l’organisation d’un atelier international réunissant des modélisateurs et des décideurs le 25 mars 2009
au CIRED, intitulé « How can climate policy models shape real decisions? ». Le diagnostic présenté
dans la première partie du présent rapport et certains résultats présentés dans la seconde partie ont été
présentés lors de deux présentations respectives de R. Crassous et O. Sassi.

1
La description complète du modèle n’a pas été ajoutée à ce rapport pour ne pas l’alourdir mais elle est
disponible sur le site de l’équipe IMACLIM : http://www.imaclim.centre-cired.fr/spip.php?article99

-7-
SOMMAIRE

RESUME POUR LES DECIDEURS .................................................................................................................. 3


COMPTE-RENDU DU PROJET DE RECHERCHE ....................................................................................... 7
INTRODUCTION .................................................................................................................................................. 11

PARTIE 1. ETAT DE L’ART DE LA MODELISATION PROSPECTIVE DE LONG TERME ...... 15


1 ETAT DE L’ART DES SCENARIOS DE LONG TERME ...................................................................................... 17
1.1 Dans la jungle des scénarios........................................................................................................... 17
1.2 Un panel de trajectoires difficile à exploiter................................................................................... 18
1.3 Les SRES : retour sur un essai à perfectionner............................................................................... 23
2 DES SCENARIOS AUX MODELES ................................................................................................................. 28
2.1 Un regard historique sur le développement de la « boîte à outils »................................................ 29
2.1.1 A la recherche d’une alternative aux approches prévisionnistes en échec................................................... 29
2.1.2 La question des coûts : un déclencheur de la mobilisation de l’équilibre général ....................................... 33
2.1.3 Une mise en opposition Bottom-up / Top-Down entretenue mais de moins en moins éclairante................ 34
2.1.4 Le développement récent des modèles hybrides.......................................................................................... 36
2.2 Typologie : le jeu répétitif de 5 familles.......................................................................................... 38
3 MODELES EN CONCURRENCE : REPRESENTATIONS ALTERNATIVES DU MONDE REEL OU INSUFFISANCES
THEORIQUES ? ................................................................................................................................................... 42
3.1 La représentation de la croissance économique globale ................................................................ 44
3.1.1 Analyse des modèles existants .................................................................................................................... 44
3.1.2 L’idée du rattrapage au cœur de la croissance à long terme ........................................................................ 48
3.1.3 Déséquilibres temporaires ou chroniques : la grande lacune des modèles ? ................................................ 55
3.2 La représentation des systèmes techniques ..................................................................................... 60
3.2.1 Les enjeux du clivage historique « bottom-up » vs. « top-down » .............................................................. 61
3.2.2 Changement technique induit : un progrès inachevé ................................................................................... 70
3.3 L’articulation du Normatif et du Positif : quel statut donner à l’Optimalité ? ............................... 75
3.3.1 L’agent représentatif ou « les fondements micro des modèles macro » ...................................................... 76
3.3.2 Anticipations parfaites : la mauvaise compréhension de la théorie des anticipations rationnelles .............. 79
3.3.3 La résistance de l’hypothèse d’optimalité : une question « d’ancrage » ou un abus de mathématiques ? ... 83
4 CONCLUSION ............................................................................................................................................ 85
5 RÉFÉRENCES ............................................................................................................................................. 87

PARTIE 2. EXPLORATION DES DETERMINANTS DES FUTURES TRAJECTOIRES


D’EMISSIONS .................................................................................................................................................... 99
1 IDENTIFICATION DES RISQUES D’UNE TRAJECTOIRE INTENSE EN CARBONE ............................................. 101
1.1 Description d’un scénario central................................................................................................. 101
1.1.1 Une vision agrégée de la richesse mondiale .............................................................................................. 101
1.1.2 Une traduction en termes de contenu matériel et de changement structurel .............................................. 104
1.1.3 Consommation d’énergie et prix relatifs ................................................................................................... 110
1.1.4 Contraintes sur la mise à disposition des ressources pétrolières, de leurs substituts et prix des énergies
fossiles 113
1.1.5 L’évolution du système électrique............................................................................................................. 119
1.1.6 Des émissions en forte croissance ............................................................................................................. 121
1.1.7 Une interprétation en termes d’identité de Kaya ....................................................................................... 124
1.2 Tests paramétriques pour évaluer la robustesse d’un scénario de référence ............................... 129
1.2.1 Variantes testées........................................................................................................................................ 129
1.2.2 Les conditions d’obtention d’un scénario de référence à basses émissions ............................................... 131
1.2.3 Identification de mécanismes « tirant » la trajectoire d’émission vers le haut........................................... 134

-9-
1.2.4 Un développement sobre en énergie ralentit le rythme des gains d’efficacité énergétique........................ 135
1.2.5 Effet de masque du prix de l’énergie et risque de « lock-in » dans des trajectoires intensives en transport
137
1.2.6 Effets rebonds et réductions d’intensité énergétique ................................................................................. 140
1.2.7 Conclusions intermédiaires ....................................................................................................................... 144
2 ANALYSES DE SENSIBILITE DES TRAJECTOIRES D’EMISSIONS A QUELQUES DETERMINANTS PEU ETUDIES 145
2.1 Moteur de la croissance : Rôle des hypothèses de rattrapage de productivité ............................. 145
2.1.1 Spécifications retenues et calibrage du modèle ......................................................................................... 145
2.1.2 Tests de sensibilité .................................................................................................................................... 148
2.2 Formation de la demande finale : impact sur le changement structurel puis sur les émissions ... 156
2.2.1 Spécifications retenues dans le modèle ..................................................................................................... 156
2.2.2 Tests de sensibilité sur l’évolution des préférences hors énergie............................................................... 157
3 CONCLUSION .......................................................................................................................................... 159
4 REFERENCES ........................................................................................................................................... 160

- 10 -
Introduction

Les scénarios économiques de long terme, décrivant le futur contenu énergétique et matériel de
la croissance et les émissions de gaz à effet de serre qu’elle générera, sont indispensables à la mesure
des risques de changement climatique et à l’évaluation de l’efficacité des politiques destinées à en
limiter l’ampleur et les effets. Leur rôle charnière dans l’ensemble de la recherche scientifique autour
du climat a motivé depuis le début des années 90 un développement sans précédent des modèles de
prospective et une production exponentielle de scénarios. Si l’on peut se réjouir de la vitalité de la
recherche dans ce domaine, on ne peut que constater, en revanche, que l’abondance des outils de
modélisation et des résultats quantitatifs produits ne constitue pas un facteur d’augmentation de la
qualité des travaux – comme cela peut être le cas dans les sciences de l’univers lorsqu’on accumule
des observations dans le temps – mais provoque une dilution du contenu des scénarios et rend plus
difficile une perception claire des hypothèses et des mécanismes déterminants dans l’évolution future
de l’économie et des émissions de GES.
Au milieu de la multitude des trajectoires produites et publiées, le rapport spécial sur les
scénarios (SRES) encadré par le GIEC a permis dès 2000 de disposer d’un jeu de scénarios
harmonisés sans politiques climatiques, construits explicitement dans le but de représenter un large
spectre de futurs possibles. Jusqu’à ce jour, ces trajectoires (A1-A2-B1-B2) sont restées des références
reconnues par tous, systématiquement utilisées comme trajectoires de comparaison pour situer tel ou
tel nouveau scénario. Elles ont pourtant subi ces dernières années des critiques plus ou moins
virulentes et de natures diverses :
- en 2004, Castles et Henderson critiquent le fait que la projection du rattrapage de productivité des
pays en développement en utilisant les chiffres en parités de taux de change au lieu des parités de
pouvoir d’achat conduit à surestimer la croissance future des émissions ; un long débat a suivi sur
l’utilisation de ces deux métriques dans les scénarios, pour arriver à la conclusion que l’effet d’une
moindre croissance était susceptible d’être compensé par une moindre efficacité énergétique, avec
un effet final incertain sur les émissions ;
- en 2008, Raupach et al. ont souligné, sans critiquer directement le rapport SRES, que l’évolution
récente des émissions depuis 2000 a conduit l’économie mondiale sur une trajectoire à la limite
supérieure du spectre des scénarios SRES, ouvrant ainsi la voix à des critiques sur la plausibilité
des scénarios moins intenses en carbone. En guise de réponse, Van Vuuren et Riahi ont
récemment mis en garde, avec une série d’arguments qualitatifs et quantitatifs, qu’il était très
hasardeux d’extrapoler les évolutions de long terme à partir d’une tendance récente telle que celle
qu’ont souligné Raupach et al. ;
- en 2008 aussi, Pielke et al. ont plaidé pour le choix d’une approche « à technologies fixes » et un
abandon des scénarios SRES, en arguant qu’ils étaient tous trop optimistes sur les gains
d’efficacité énergétique futurs en l’absence de politiques dédiées.

Aucune de ces critiques n’apparaît aujourd’hui dénuée de sens ; au contraire, elles donnent
toujours lieu à des débats de fond sur le contenu des scénarios et leur interprétation. Mais la résolution
des controverses se heurte souvent à une divergence de croyances ou de jugement de valeur sur les
différentes hypothèses possibles sur le futur (par exemple des gains continuels d’efficacité énergétique
vs. une saturation de ces gains). Pour sortir de cette impasse, il faut tout d’abord replacer tous les
scénarios dans leur contexte de questionnement initial « Si je suppose que … que se passe-t-il

- 11 -
alors ? », un questionnement qui rend indissociable le contenu d’un scénario et le cortège des
hypothèses qui a servi à le produire et qui lie la légitimité d’un scénario à la crédibilité scientifique de
l’outil de modélisation qui a permis de le calculer. Dans un second temps, c’est précisément du côté
des outils de modélisation et de leur utilisation que des progrès sont possibles dans l’optique de
faciliter la résolution de ces controverses et l’amélioration du matériel critique que constituent les
scénarios de long terme.
En fait, les projections de scénarios futurs sont trop souvent réalisées comme un « calcul de coin
de table » tel que l’on pourrait le faire avec l’identité de Kaya, c’est-à-dire en combinant des
hypothèses indépendantes sur la population, la croissance économique, les gains d’efficacité
énergétiques et l’évolution du système de production d’énergie. Cette pratique comporte deux grandes
faiblesses : d’une part elle conduit à négliger en grande partie les interdépendances entre ces
différentes dynamiques (par exemple le progrès technique et le remplacement de l’outil productif
dépendant de la croissance économique), d’autre part elle nécessite la formulation d’hypothèses
agrégées sur le changement structurel ou l’efficacité énergétique du côté de la demande par exemple,
dont la plausibilité et la cohérence ne sont pas vérifiées. Ces deux « failles » sont au cœur des
différentes controverses citées ci-dessus, dans la mesure où elles nécessitent toutes, pour être résolues
au-delà des écarts de jugements de valeur sur la plausibilité des hypothèses, de faire appel à des
raisonnements ou à un modèle qui permettent de vérifier la cohérence des hypothèses entre elles.
Cela suppose aussi, la plupart du temps, une désagrégation suffisante pour revenir aux mécanismes
explicatifs des évolutions d’ensemble : par exemple, le rattrapage de productivité au niveau sectoriel,
le taux de renouvellement des équipements, l’évolution de la structure de la demande, les prix relatifs
des énergies, les coûts d’investissements, la disponibilité de l’épargne, etc.
Ce projet de recherche a été construit sur le constat de la faible cohérence interne de la majorité
des simulations et des outils disponibles et en s’appuyant sur le développement du modèle Imaclim-R
au CIRED. La dynamique de recherche engagée au CIRED autour du développement de l’outil
IMACLIM-R vise précisément à résoudre ces deux problèmes, en faisant de la cohérence interne des
scénarios une priorité. Dans cette optique, le modèle est fondé sur l’hybridation d’équilibres
macroéconomiques statiques et de modules technico-économiques sectoriels, permettant la mise en
cohérence de l’évolution du monde technologique et physique (technologies, capacités de production,
équipements, ressources naturelles) avec celle de la sphère économique (flux de capitaux, prix relatifs,
équilibre des budgets), à un niveau de désagrégation permettant le calcul des interactions entre les
mécanismes directeurs de l’évolution des émissions et dont l’estimation peut être plus robuste que
celle des tendances agrégées2. Le modèle permet ainsi d’apporter une réponse partielle aux
controverses citées plus haut et plus généralement à l’examen des incertitudes sur la demande future.
Cette réponse n’est que « partielle » d’une part parce que le modèle ne peut prétendre décrire la réalité
économique mieux que tout autre modèle, et qu’il reste donc une incertitude liée à l’outil lui-même, et
d’autre part parce que le modèle néglige encore, dans son état actuel de développement, certains
mécanismes qui pourraient se révéler cruciaux, comme par exemple les dettes/créances des états et les
grands déséquilibres macroéconomiques qu’elles induisent.
La première partie de ce rapport est consacrée à un diagnostic critique sur l’état de l’art de la
modélisation des futures trajectoires d’émissions. A grands traits, ce diagnostic débouche sur une
taxonomie relativement simple des modèles existants – constatant la coexistence de 5 familles de
modèles fondées sur les paradigmes historiques des années 80 et 90 - et un jeu de trois insatisfactions
transversales par rapport aux caractéristiques et à l’évolution des outils existants.

2
Une présentation détaillée du modèle est fournie en annexe de ce rapport.

- 12 -
La seconde partie explore le rôle relatif de différentes hypothèses ou mécanismes
macroéconomiques et/ou technologiques dans la hausse future des émissions en utilisant le modèle
IMACLIM-R. Plutôt que de réaliser des tests de sensibilité systématiques, dont la mise en œuvre est très
longue en temps de calcul et l’exploitation difficile avec un modèle de cette complexité, nous avons
privilégié une approche par simulations choisies, visant à illustrer l’importance relative des différentes
hypothèses et mécanismes. Une première sous-partie s’organise autour d’un unique scénario central,
prétexte à l’analyse complète des déterminants de la hausse future des émissions et à la robustesse des
simulations à des hypothèses alternatives sur les ressources fossiles, les technologies énergétiques et
les styles de développement. Une seconde sous-partie procède à quelques tests de sensibilité
complémentaires sur deux points habituellement négligés dans la littérature : les dynamiques de
rattrapage de productivité au niveau sectoriel d’une part et l’évolution des préférences des
ménages d’autre part.

Bien sûr, l’interprétation et la généralisation des résultats obtenus dans ce projet de recherche
doivent toujours être prudentes, car ceux-ci sont liés à un modèle, aux jeux d’hypothèses et aux
simulations que nous avons choisis. Chaque partie du rapport reprend de manière synthétique les
insuffisances constatées dans la littérature sur chaque point avant de présenter les simulations.

- 13 -
Partie 1.

Etat de l’art de la modélisation prospective de long terme

- 15 -
1 Etat de l’art des scénarios de long terme

L’ambition de cette première partie du rapport est d’analyser l’existant – scénarios et modèles –
pour tenter de répondre à cette question de la pertinence de la modélisation. Nous adoptons ici une
démarche phénoménologique, qui chemine « à rebours » en partant d’un examen des scénarios
disponibles – partie visible du travail d’énoncé des récits et de modélisation – pour remonter ensuite
jusqu’aux outils qui les ont générés. La première partie du chapitre se concentre ainsi sur l’examen des
scénarios existants pour préciser la question de la représentation de l’incertitude et de la cohérence
interne des scénarios. La seconde partie remonte au niveau des modèles, en portant d’abord un regard
historique sur le développement des outils, pour en déduire une taxinomie simple des outils en
quelques paradigmes fondateurs, grille de lecture qui permettra de s’y reconnaître dans l’ensemble
touffu des scénarios existants. Ce « dégrossissage » permettra d’apporter un regard renouvelé sur l’état
des scénarios existants et le niveau de développement des modèles, puis dans le chapitre suivant,
d’élaborer un diagnostic précis sur les déficiences de la boîte à outils aujourd’hui disponible.

1.1 Dans la jungle des scénarios

L’explosion de la demande de scénarios pour la recherche, l’expertise et l’aide à la décision,


ainsi que le développement exponentiel des moyens de calcul – ne serait-ce que par la diffusion rapide
d’ordinateurs portables suffisamment performants dès le début des années 90 – ont permis le
développement de nombreux modèles, conduisant en quelques années à des centaines de simulations.
Aujourd’hui, nous disposons d’une capacité d’observation privilégiée sur cette intense activité au
cours des 15 dernières années grâce à la base de collecte des scénarios quantitatifs initiée dès 1992 par
T. Morita et Y. Matsuoka, du National Institute for Environmental Studies (NIES, Japon), qui permet
de gérer l’abondance d’informations et de fournir une large base de travail aux travaux de recensement
des travaux scientifiques du GIEC.

- 17 -
1000 300
900
250
800

Cumul des publications


Cumul de scénarios

700 200
600
500 150
400
300 100
200
50
100
0 0
1990
1991
1992
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
Scénarios Publications
Figure 1 : Scénarios contenues dans la base de données IPCC-NIES et publications associées, par
date de création et de parution3
Sources : base de données version 3.0 avec mise à jour personnelle à partir des informations publiées dans Hanaoka
et al. (2006)

Cette base de données nous permet d’abord de donner une vue d’ensemble des scénarios
répertoriés par le GIEC. Parmi ces scénarios, il conviendra ensuite d'apporter une attention spécifique
aux scénarios du « SRES » (Special Report on Emission Scenarios, Nakicenovic et al., 2000), élaborés
spécifiquement sous l’égide du GIEC.

1.2 Un panel de trajectoires difficile à exploiter

Cette base de données a connu jusqu’à aujourd’hui trois grandes phases de développement
successives, précisément à l’occasion de publications majeures du GIEC :

 En 1998, la première version regroupait 428 scénarios, globaux ou régionaux, en majorité sans
politiques climatiques ; l’Energy Modelling Forum (EMF 14) et l’International Energy
Workshop (IEW 1995, 1996, 1997) étaient chacun source d’environ un tiers de la base de
données. Publiée dans le cadre du Rapport Spécial sur les Scénarios d’Émissions (Nakicenovic
et al., 2000), l’analyse de ces scénarios a notamment permis d’étayer l’argument selon lequel
les six scénarios SRES « marqueurs » pouvaient être considérés comme représentatifs à la fois
des 40 scénarios générés par les 6 équipes mobilisées par le rapport SRES, mais aussi de
l’ensemble du faisceau de trajectoires produites par l’ensemble de la communauté scientifique
à cette date.

3
On retrouve sur la Figure 1 le rôle catalyseur des publications scientifiques du GIEC, puisqu’à l’occasion de
chacun des trois rapports cités ci-dessus correspond une accélération de la production de scénarios et, dans une
moindre mesure, des publications correspondantes.

- 18 -
 En 2001, une version actualisée de la base comptait 519 scénarios, les nouveaux scénarios
étant essentiellement des scénarios avec politiques climatiques, générés à partir des scénarios
SRES pris comme trajectoires de référence. La méta-analyse de Rana et Morita (2000) fut
incluse dans le tome III ‘Mitigation’ du Troisième Rapport d’Evaluation (TAR) ; elle portait
sur un sous-ensemble restreint de 75 scénarios, en limitant son champ d’investigation aux
scénarios de réduction des émissions avec une couverture mondiale et un horizon temporel
supérieur ou égal à un siècle.

 En 2006, la base en accès public s’est élargie à 725 scénarios, notamment suite à un nouvel
effort de recension de données relancé en 2004 afin de préparer le quatrième rapport
d’évaluation du GIEC achevé en 2007 (GIEC, 2007). En fait, si l’on y ajoute les résultats des
derniers exercices internationaux de modélisation IMCP, EMF19 et EMF21, énumérés dans
(Hanaoka et al., 2006), la base de données s’étend à 909 scénarios. Plusieurs analyses déjà
publiées tiennent compte de la totalité pour alimenter la synthèse du GIEC avec les données
les plus récentes : Nakicenovic et al. (2006) analysent les modifications de distribution
statistique entre les scénarios antérieurs au troisième rapport du GIEC (TAR) et ceux générés
entre 1999 et 2006 ; Hanaoka et al. (2006) produisent une analyse portant surtout sur l’examen
des scénarios de réduction des émissions produits depuis le TAR, en précisant leur analyse au
niveau régional.

Les méta analyses successives citées ci-dessus sont élaborées selon une approche commune,
selon laquelle l’éventail de trajectoires est pris comme indicateur de la diversité des perceptions du
futur que la communauté scientifique formule en l’état de ses connaissances (Nakicenovic et al.,
2006). Le mode opératoire est le suivant : il s’agit d’analyser les intervalles balayés par les scénarios
d’émissions, éventuellement en restreignant l’analyse à une sous partie de la base de données. Au-delà
des volumes émissions à proprement parler, les auteurs ont recours à l’identité dite « de Kaya »4
(équation (1.1)), qui permet de décomposer l’évolution des émissions selon la population, l’activité
économique (PIB par tête) et la structure du système énergétique (intensité énergétique du PIB et
intensité carbone du panier énergétique). Les propriétés statistiques – valeur médiane, distribution – de
chacun des « déterminants » ainsi isolés sont ensuite examinées en détail, révélant ainsi une mesure
des incertitudes sur le monde futur telles qu’elles ressortent ex post de la diversité des exercices de
modélisation réalisés jusque là5.
Il convient de rappeler que les variables de cette identité ne sont jamais indépendantes, sans quoi
l’on laisse le champ libre à l’idée fausse que l’on peut générer une combinatoire libre à partir des
intervalles d’incertitude de chacune de ces variables. Nous reviendrons sur cet écueil au paragraphe
1.3.

PIB Energie Emissions


Emissions = Population × × × ((1.1))
Population PIB Energie

4
Identité plus généralement connue, dans la littérature environnementale, sous le sigle IPAT (Commoner, 1972,
Ehrlich et Holdren, 1972), pour signifier que les impacts environnementaux (I) dérivent de l’influence conjointe
du niveau de population (P), de son niveau d’activité (A) et de l’état des technologies (T).
5
On retrouve ici un des objectifs fondamentaux de la production de scénarios : ‘an appropriate tool with which
to analyze how driving forces may influence future emission outcomes and to assess the associated uncertainties’
(IPCC, 2000).

- 19 -
Il faut aussi rappeler que la densité de distribution des valeurs des variables agrégés dans la base
de données ne peut absolument pas être interprétée comme une mesure pertinente de la probabilité
d’occurrence de tel ou tel monde futur. Une telle lecture probabiliste serait antinomique avec le
principe non-probabiliste des approches exploratoires « par scénarios » qui constituent la majorité des
travaux répertoriés dans cette base de données. Plus précisément, un certain nombre de scénarios ont
une vocation de « prédiction raisonnable » – ils sont conçus pour « réduire l’incertitude » et permettre
à tel ou tel groupe de décideurs de se caler sur eux pour prendre leurs décisions – et d’autres ont une
vocation exploratoire - ils visent délibérément à explorer les futurs « extrêmes » ou bien à conduire
des tests numériques sur tel ou tel mécanisme (par ex. le progrès technique induit). A cela se rajoute la
non-indépendance des travaux regroupés dans la base de données : par exemple, les scénarios SRES
(Nakicenovic et al., 2000) ont été repris comme référence pour de nombreux scénarios de réduction
des émissions. Le travail statistique effectué dans les rapports successifs de l’IPCC est dès lors à
interpréter avec beaucoup de précaution, comme le soulignent leurs auteurs Nakicenovic et al. (2006) :
‘In fact, the scenarios are often not independent of each other and share many common traits.’ (p.
171).

Malgré cette limite forte, la contribution majeure de ces analyses est de révéler le spectre des
futurs possibles envisagés au travers d’un ensemble représentatif de la littérature6 et des principaux
ateliers internationaux de modélisation. Plus précisément, cela permet de révéler l’étendue de la
combinatoire des paramètres qui se dessinent derrière ces trajectoires futures et de dégager quelques
faits stylisés robustes au sein de la base de données. Les revues les plus récentes (Nakicenovic et al.,
2006 ; GIEC, 2007, ch. 3) soulignent les légères évolutions de cette combinatoire depuis quelques
années :

 Les projections de population ont été revues à la baisse entre les années 90 et aujourd’hui,
avec un écrêtement des scénarios les plus élevés : l’hypothèse la plus élevée pour la
population mondiale en 2100 est passée de 19 à 15 milliards d’habitants, l’hypothèse la plus
basse est passée de 6 à 5 milliards ;

 Les projections de PIB mondial en 2100 ont aussi subi une révision globale à la baisse : elles
couvraient auparavant un intervalle particulièrement large de 70 à 700 billions de dollars
(dollars constants US1990), qui correspond à une multiplication du PIB en un siècle allant de
2.5 à 25 ; la borne haute des scénarios plus récents est rabaissée à 550 billions de dollars.

 La quasi majorité des projections suppose à la fois une baisse de l’intensité énergétique du PIB
et une décarbonisation du système énergétique. Quelques scénarios sans politiques climatiques
incluent une certaine augmentation de l’intensité carbone, mais il est notable qu’ils datent tous
d’avant 2001 (scénarios de type SRES A1Fi, dans lesquels la croissance économique est
principalement alimentée par un recours aux énergies fossiles).

6
Etant donné que la base de données est enrichie sur la base de la bonne volonté des modélisateurs pour y
contribuer, elle ne saurait prétendre à l’exhaustivité, même si le travail considérable de l’équipe du NIES permet
de tendre aujourd’hui vers une revue systématique des travaux publiés.

- 20 -
En sus de cette analyse agrégée, on trouvera aussi des éléments de comparaison au niveau des
grandes régions SRES (OCDE, Pays de l’est en transition, Asie, Afrique et Amérique Latine), dans
Hanaoka et al. (2006), mais ils ne portent que sur des scénarios de réduction des émissions.

Figure 2 : Projection des émissions mondiales de CO2 issues des combustibles fossiles et de l’industrie
(Nakicenovic et al., 2000)

Finalement, malgré l’importance du travail de nomenclature, de classement et d’exploitation des


données réalisé en amont de ces analyses, les enseignements dégagés restent d’une portée très générale
et limitée. Ils ne conduisent pas véritablement à une clarification des conditions dans lesquelles il est
possible de penser le futur. L’ampleur des fourchettes d’incertitude qui se dégagent de ces graphes
« en spaghettis » (cf. Figure 2) est plutôt de nature à jeter le doute sur l’utilité de ces exercices de
projection à très long terme, et en particulier sur la nécessité du recours à des outils très perfectionnés
si ceux-ci ne permettent pas de restreindre l’incertitude plus que dans un simple calcul de coin de table
faisant varier de façon indépendante les diverses composantes de l’identité de Kaya. En l’absence d’un
éclaircissement sur les conditions de modélisation qui sous-tendent ces trajectoires, ce matériel
abondant est encore loin de fournir, sinon une base robuste de « prédiction du futur », au moins un
outil d’analyse permettant aux décideurs un progrès dans la compréhension du contenu des scénarios
et de la nature des défis à relever. Il existe plusieurs autres « bonnes raisons » d’être prudent sur
l’interprétation des résultats contenus dans la base de données :

1. Les incertitudes sur le monde futur qui prennent forme dans ce bouquet de scénarios relèvent
de deux réalités très différentes. Certes il s’agit en partie d’un problème cognitif irréductible :
nous ne pouvons affirmer avec certitude quels seront dans le futur les potentiels
technologiques, les déterminants démographiques, la structure de la société et des institutions,
le degré de dématérialisation des économies, etc. Mais cette méconnaissance, ainsi que
l’intervalle d’incertitude qui résulte de la combinaison des paramètres plausibles, encapsulent
aussi un espace de choix collectifs et individuels très large, concernant les orientations
économiques, politiques, institutionnelles, sociétales. C’est là toute l’ambiguïté du terme

- 21 -
« business as usual » : on définit ainsi tous les scénarios ne comprenant aucune politique
explicitement dédiée à la lutte contre le changement climatique, mais ils ne correspondent pas
pour autant à des trajectoires figées à l’avance, insensibles aux choix socio-économiques pris
en tout point du temps, dans lesquelles la démographie, le progrès technique, et l’évolution des
besoins énergétiques seraient des fatalités incertaines7.

2. Les scénarios regroupés dans la base de données relèvent en fait d’objectifs de recherche
précis et très variés, à un moment donné ; ceci rend fragile toute comparaison croisée des
scénarios à la fois dans le temps et parmi les différentes équipes. Par exemple, les chantiers
successifs de l’Energy Modeling Forum, ou le récent exercice IMCP – Innovation Comparison
Modeling Project – sont sources de plusieurs « paquets » importants de scénarios, et ils portent
chacun sur une problématique précise8, qui conditionne le choix d’un ou plusieurs scénario(s)
de référence, des hypothèses utilisées et finalement du jeu de scénarios créés. A part les
scénarios IS92 et SRES, aucun exercice ne visait explicitement à explorer les intervalles
d’incertitude en 2100. Il est donc très difficile de discerner les causes réelles d’une évolution
de la répartition statistique des scénarios : véritables changements de la vision des bornes
d’incertitude, progrès scientifique, utilisation de scénarios médians, affichage politique ? C’est
la raison pour laquelle, en conclusion de leur analyse récente, Nakicenovic et al. (2006)
soulignaient l’intérêt et l’actualité d’exercices de modélisation internationaux ciblés
spécifiquement sur l’exploration de l’incertitude (type SRES), ce qui permettrait d’aborder
cette question de manière spécifique et plus cohérente.

3. Les scénarios sont générés par des modèles de natures très variées, dont les capacités à
simuler des trajectoires de long terme cohérentes sont inégales. L’hétérogénéité des modèles
se traduit dans leur structure, leur niveau d’agrégation, le périmètre des mécanismes et des
variables qu’ils représentent ou encore leur paramétrage. Sur ce dernier point, en particulier, la
base de données fait ressortir un symptôme clair de l’hétérogénéité des modèles utilisés : les
valeurs prises par les grandes variables agrégés – PIB et énergie primaire notamment – pour
l’année 2000 sont très variables, à cause de différences de définitions, de périmètres de
mesure ou d’année de calibrage. Le PIB mondial varie du simple au double, entre 20 et 40
milliers de milliards de dollars (selon le FMI, le PIB était de 31400 milliards en taux de
change courants, 44 550 milliards en parité de pouvoirs d’achat (World Economic Outlook,
2001), et la production d’énergie primaire simulée prend des valeurs comprises entre 315 et
586 exajoules (EJ) alors que la production calculée par l’Agence Internationale de l’Energie a
été de 421 EJ en 2000. Si les modélisateurs corrigeaient tous leur paramétrage pour rétablir ex
post l’exactitude du point de passage en 2000, cela pourrait modifier les intervalles
d’incertitude apparents en 2100.

7
Certains débats récents au sein de la communauté scientifique soulignent une certaine remise en question de la
plausibilité de scénarios étiquetés « BAU » (SRES B1 par exemple) dont les émissions de GES déclineraient
suffisamment et assez tôt pour permettre une stabilisation des concentrations en deçà de 750 ppm CO2
équivalent.
8
Par exemple, EMF 21 portait sur les simulations multi-gas, EMF 22 sur les scénarios de stabilisation, avec un
point particulier sur la modélisation des émissions en provenance des changements d’usage des sols.

- 22 -
4. Le niveau d’agrégation des variables analysées reste très frustre sur la description du
monde futur ; en général celle-ci se cantonne à une décomposition « à la Kaya » des émissions
en grandes composantes. L’analyse des déterminants tangibles des émissions, tels que
l’évolution des techniques, des infrastructures, des styles de développement, du contenu
matériel de la croissance, en un mot du « contenu matériel du monde futur », reste absente de
ces analyses car elle exigerait d’approfondir la description des scénarios.

Ces observations soulignent combien le large spectre de trajectoires futures plausibles dont nous
disposons à ce jour est davantage à prendre comme un témoin quantitatif de l’intense activité de
modélisation qui sous-tend les recherches sur les politiques énergétiques et climatiques, que comme un
moyen d’appréhender directement l’état de l’art de la modélisation.

1.3 Les SRES : retour sur un essai à perfectionner

Les difficultés à exploiter une telle juxtaposition de scénarios expliquent en partie le rôle de
référence pérenne que conservent les scénarios élaborés dans le cadre du rapport SRES (GIEC, 2000),
tant pour nourrir les simulations des modèles climatiques que pour servir de base au calcul de
scénarios de réduction des émissions. Cette position de référence s’explique bien sûr par la légitimité
du GIEC à coordonner et valider les travaux scientifiques nécessaires à la production de ces scénarios ;
elle s’explique aussi par le fait que les scénarios SRES représentent un éventail très large de
trajectoires d’émissions, censé illustrer explicitement l’incertitude sur le monde futur, et qu’ils sont
définis plus clairement que tous les autres scénarios produits de par le monde.

Plus précisément, le processus de production des scénarios SRES visait à couvrir l’univers des
possibles en tenant compte non seulement des incertitudes techniques mais aussi de visions différentes
concernant l’avenir de la mondialisation économique et des types de développement. Cette approche
permet au passage de redire qu’à l’horizon de plusieurs décennies, il est illusoire de définir « le »
scénario de référence le plus probable par une extrapolation des tendances passées. Au contraire, la
méthode adoptée consistait à construire plusieurs familles de scénarios alternatifs comparables, sans se
prononcer sur leur probabilité d’occurrence. A partir de quatre récits (storylines) combinant des
pronostics différents sur la mondialisation (intégration et convergence vs fragmentation) et sur le type
de développement (productivisme vs croissance égalitaire et environnementale), chacune des six
équipes impliquées a produit une projection quantitative. Parmi l’ensemble de 40 scénarios ainsi
générés9, six scénarios marqueurs furent retenus par souci de clarté et d’économie de résultats.
Finalement, l’atout principal de ce jeu de scénarios était de s’appuyer sur une démarche qui se voulait
cohérente, clairement destinée à traduire des visions contrastées et explicites du monde futur et à
capter ainsi l’ampleur des incertitudes actuelles.

Malgré la rigueur et le déroulement remarquable de cette entreprise, les résultats fournis ont
suscité un certain scepticisme :

a. Sur l’ensemble des scénarios, les émissions de CO2 en 2100 s’échelonnent sur un intervalle
considérable entre 4,3 et 36,8 gigatonnes (GtC) de carbone (à comparer aux émissions de 1990

9
Pour certains scénarios, certaines équipes de modélisation ont produits des variantes, ce qui porte le nombre de
scénarios à 40. Par exemple le scénario A1 a été décliné en cinq versions de mix en énergie primaire : T
(technologies), C (Coal), G (pétrole et gaz), FI (tous fossiles), B (mixte).

- 23 -
de 6,0 GtC) : est-ce pensable que l’univers des possibles soit, au niveau des tendances
agrégées, aussi large que celui suggéré par de tels intervalles d’incertitude ? Est-ce crédible
d’afficher une limite basse à 4,3 GtC dans la mesure où tous les scénarios sont censés exclure
une politique climatique explicite ?

b. Pour chaque récit, les différences de « traduction » de scénarios qualitatifs identiques au


départ, combinées aux différences « techniques » des modèles utilisés, ont débouché sur des
fourchettes de scénarios d’émissions dont l’ampleur, mise en évidence par les barres
d’incertitude de la Figure 3, pose question sur la pertinence des travaux : en 2100 les
émissions des scénarios de type A2 s’échelonnent entre 17,6 et 33,4 GtC et celles des
scénarios de type B2 entre 9,3 et 23,1 GtC. Si les modèles, censés restreindre l’espace des
possibles en garantissant la cohérence des trajectoires macroéconomiques et de leur contenu
technique, ne fournissent, in fine, qu’un « plat de spaghettis » comme celui de la Figure 3, leur
utilité peut raisonnablement être mise en doute.

Figure 3 : Émissions de CO2 des scénarios « SRES »


(indice 1=1990)

Cette explosion de l’incertitude, même au sein d’un exercice coordonné comme celui des SRES,
peut s’expliquer par des difficultés de mise en cohérence à deux niveaux, difficultés bien connues des
auteurs du rapport (Nakicenovic, 2000, encadré 1-1 p. 63) :

 Une cohérence « apparente » entre les composants de l’identité de Kaya

Les difficultés de traduire de façon homogène des récits qualitatifs en paramétrage des modèles
peuvent être à l’origine de différences importantes à l’horizon 2100. En réalité, dans un tel exercice de
collaboration entre équipes de modélisation, on distingue deux types de paramètres : d’un côté, ceux

- 24 -
sur lesquels il est envisageable de procéder à une harmonisation complète au sein des scénarios
décrivant un même récit qualitatif, en forçant les modèles à suivre la même trajectoire exogène (par
exemple population, PIB, énergie finale), et de l’autre côté, ceux sur lesquels, pour des raisons de
faisabilité, chaque équipe de modélisation garde de toute façon une maîtrise indépendante, tout en
essayant de respecter fidèlement les récits qualitatifs.
Qu’en est-il dans le cadre de l’exercice SRES ? Une harmonisation partielle des trajectoires de
PIB, de population et d’énergie finale a été réalisée, mais, faut de temps, les itérations nécessaires pour
parvenir à une harmonisation totale entre les modèles n’ont pu avoir lieu avant la publication du
rapport. Si elle avait pu être réalisée, cette harmonisation des trois premiers composants de l’identité
de Kaya (1.1) n’aurait laissé comme lieu de divergence possible entre les modèles que le contenu
carbone de l’énergie primaire, ce qui aurait fortement limité les intervalles d’émissions en 2100 pour
un même « récit » en amont. Inversement, une faible harmonisation des composants de l’identité de
Kaya laisse des marges de manœuvre considérables. Il suffit de réaliser quelques calculs simples pour
s’en convaincre : nous avons combiné dans le Tableau 1 des variations raisonnables sur le taux de
croissance de la productivité globale (1% par an, ± 0.1% par an) et sur le taux de décarbonisation
agrégée de l’économie (2% par an, ± 0.1% par an). On observe immédiatement que les scénarios
extrêmes dessinent un intervalle d’émissions très large, même avec des écarts apparemment faibles sur
les hypothèses de taux de croissance : un scénario avec 0.9 % par an de croissance de la productivité
générale et 2.1% de taux de découplage entre émissions et PIB conduit, sur le siècle, à un cumul
d’émissions de CO2 de 1530 Gt contre 2229 Gt pour un scénario avec 1.1% et 1.9 % pour les mêmes
coefficients.

Taux de découplage CO2/PIB


1.9 % /an 2.0 % /an 2.1 % /an
0.9 % par an 1733 GtC 1628 GtC 1530 GtC
1.0 % par an 1992 GtC 1868 GtC 1753 GtC
Taux de croissance de
la productivité globale 1.1 % par an 2229 GtC 2152 GtC 2016 GtC

Tableau 1 : Budget carbone 2000-2100 à partir de différents paramétrages de l’identité de Kaya

Cet écueil peut sembler assez simple à corriger, en allant au bout de l’harmonisation des
modèles. Mais dès lors que cette harmonisation aurait lieu, et que les modèles seraient contraints de
respecter des projections exogènes pour 3 des 4 composants de l’identité de Kaya, les modèles eux-
mêmes deviendraient presque inutiles et une simple projection « de coin de table » pourrait
avantageusement les remplacer. La cohérence affichée devient alors une véritable illusion d’optique :
les modèles ne servent plus à garantir la cohérence interne des trajectoires et la plausibilité des
combinaisons d’hypothèses exogènes qu’on les force à respecter, alors qu’un de leurs objectifs
principaux est précisément d’invalider certains assemblages improbables. Les scénarios réalisés se
limitent alors à une juxtaposition d’hypothèses numériques traduisant tel ou tel élément des divers
récits sans validation de la plausibilité de ces récits en aval.

 Une cohérence « endogène » entre les véritables déterminants des émissions

Cette harmonisation « par le haut », qui consiste à forcer les modèles à respecter des tendances
agrégées sur la croissance économique et son contenu énergétique, ne permet en fait qu’un contrôle de
plausibilité très lâche. En effet un grand nombre de combinaisons est susceptible de survivre à ce test a

- 25 -
priori, comme nous l’avons illustré dans le Tableau 1. Pour éviter ce piège combinatoire, il
conviendrait de contrôler la cohérence interne des projections, au niveau des mécanismes sous-jacents
: gains de productivité, renouvellement du capital, pénétration des nouvelles technologies, évolution
de la mobilité, épuisement des ressources fossiles, etc.
En fait, les modélisateurs sont parfaitement conscients que les dynamiques représentées dans
l’identité de Kaya ne sont pas indépendantes : l’examen des interdépendances faisait explicitement
partie du cahier des charges de l’IPCC pour l’exercice SRES afin d’améliorer la méthodologie utilisée
pour les précédents scénarios IS92, et le chapitre 3 du rapport SRES contient par ailleurs une
énumération qualitative précise de ces interdépendances. Le problème de cohérence des scénarios
SRES ne vient donc pas d’une négligence plus ou moins volontaire des enjeux de cohérence ; il faut
plutôt l’attribuer au fait que les modèles disponibles ont des capacités limitées de représentation des
interdépendances entre les termes de l’identité de Kaya. Nous avons esquissé une cartographie
simplifiée des interdépendances entre indicateurs « à la Kaya » dans le Tableau 2. Le tableau doit être
lu en ligne : la première ligne décrit les effets des dynamiques démographiques sur les autres termes de
l’identité de Kaya, la deuxième décrit l’influence de la croissance économique, et ainsi de suite…
Certaines des causalités citées en exemple dans ce tableau ont fait l’objet de recherches
approfondies – comme l’effet de l’efficacité énergétique sur la croissance économique (1), ou encore
les liens au sein du système énergétique entre panier technologique et efficacité globale (2) – tandis
que d’autres restent mal intégrées dans les projections de long terme – comme c’est le cas du lien
entre croissance et démographie (3).

Intensité Intensité carbone


Démographie Croissance énergétique du de l’énergie
économique PIB primaire

Population active, Préférences par Urbanisation,


Démographie X ratio de génération, taille usage de biomasse
dépendance, des ménages traditionnelle
épargne
Vitesse de la
Progrès technique, Progrès technique,
transition
remplacement des Vitesse
Croissance démographique, X
installations, taux d’épuisement des
économique taux de fertilité,
d’équipement ressources fossiles
de mortalité (3)

Facture
Intensité Besoins en
énergétique,
énergétique du X capacités, parts des
sensibilité aux
PIB potentiels ENR (2)
chocs de prix (1)

Déséquilibre
Intensité carbone
Pollutions extérieur, Séquestration,
de l’énergie X
locales et santé vulnérabilité rendement total (2)
primaire
géopolitique

Tableau 2 : Liens d’interdépendance entre les termes de l'identité de Kaya

- 26 -
Les six modèles10 utilisés pour générer les scénarios SRES permettent une prise en compte plus
ou moins large de ces interrelations. Ils ont en commun une description détaillée du système
énergétique, une description agrégée du reste de l’économie et un couplage intégré avec des modules
climatiques. Ils se distinguent les uns des autres principalement par leur mode de résolution
(optimisation intertemporelle de la consommation agrégée, optimisation linéaire du système
énergétique avec module macroéconomique ou système dynamique en équilibre partiel des marchés
énergétiques), leur description des changements d’usage des sols, ou encore leur module climatique.
Ce ne sont pas tant les détails de leur structure qui nous intéressent ici que le périmètre qu’ils
recouvrent dans le Tableau 2. En réalité les six modèles couvrent, avec plus ou moins de détail et de
cohérence, les deux dernières colonnes du tableau, c’est-à-dire l’influence des hypothèses
démographiques et macroéconomiques sur le système énergétique et les rétroactions internes au
système énergétique. Au sein de ces colonnes, certaines dynamiques sont représentées de manière très
agrégée et peu explicite, comme le changement structurel des économies, les dynamiques
d’industrialisation ou de tertiarisation. Quant aux modules macroéconomiques (fonction de production
agrégée, simple élasticité du PIB aux prix de l’énergie), ils sont trop agrégés pour permettre une
représentation approfondie des rétroactions du système énergétique sur le reste de l’économie, telles
que l’effet des déséquilibres liés aux flux commerciaux d’énergie, l’effet d’une hausse des prix
internationaux de l’énergie sur les prix relatifs domestiques, ou les dynamiques de relocalisation
industrielle. Lorsque, par construction ou par manque de connaissances scientifiques, les modèles ne
permettent pas certaines mises en cohérence, leur mise en place est alors reportée en amont dans la
formulation de la description qualitative des scénarios.

L’histoire récente des débats scientifiques ou politiques autour des SRES fournit deux exemples
de l’importance de cette cohérence interne, qu’elle soit endogène aux modèles ou intégrée dans les
récits « faute de mieux ».
Le premier exemple se rapporte à l’interprétation erronée des scénarios SRES par Lomborg
(2001). Les récits qualitatifs formulés pour la production des scénarios SRES ont abouti à la
combinaison d’un style de vie plus « sobre » avec une croissance moins forte du PIB, avec des
hypothèses similaires sur la globalisation de l’économie mondiale (scénario A1 – forte croissance,
intensité carbone élevée – et B1 – croissance plus modérée et moins carbonée) ; Lomborg (2001) ne
manqua pas de le noter pour en déduire une mesure des « coûts » de protection de l’environnement
(Hourcade et Journé, 2003) et conclure qu’une société écologique était décidément très coûteuse. Au-
delà du manque de rigueur de l’argument de Lomborg, il y a ici un problème de robustesse et
d’explicitation des corrélations a priori dans les récits en amont des scénarios.
Le second exemple concerne la critique de Castles et Henderson (2003) sur l’usage de la mesure
en parités de taux de change pour la modélisation des dynamiques de croissance. Cette critique
consistait à souligner que la croissance des PED avait été surestimée dans les scénarios SRES, du fait
que le rattrapage des niveaux de productivité avait été exprimé en taux de change courants (MER)
plutôt qu’en parités de pouvoir d’achat (PPA). L’argument central est que cette erreur d’unité conduit
à surestimer l’écart de productivité entre les PED et les pays industrialisés et donc à surestimer la
croissance future de la productivité des PED dans leur phase de convergence. Castles et Henderson en
concluaient une surestimation certaine des émissions mécaniquement liées à une croissance réelle
jugée déraisonnable pour les PED. Dans leur réponse, les auteurs du rapport SRES (Grübler et al.,
2004) acceptent partiellement la critique en reconnaissant que seules les mesures en PPA sont

10
AIM, ASF, IMAGE, MARIA, MESSAGE, MiniCAM (Nakicenovic, 2000, Annexe IV)

- 27 -
pertinentes pour les considérations de rattrapage de productivité au niveau international. Dans le même
temps, ils soulignent qu’on ne peut conclure que les émissions aient été surévaluées, parce que tout
surplus de croissance peut aller de pair avec un incrément de progrès technique et de gains d’efficacité
énergétique, susceptibles d’annuler ou d’amoindrir l’effet de la croissance supplémentaire. En fait,
seul un modèle désagrégé et intégrant des gains d’efficacité endogènes permet de tester cette
affirmation numériquement. McKibbin et al. (2007) procèdent à cette vérification avec le modèle G-
Cubed ; ils concluent que l’erreur de « mesure » du rattrapage de productivité potentiel par les PED a
un effet incertain sur les émissions, qui dépend du contenu structurel de leur croissance, de
l’affectation des investissements et de la direction du progrès technique.

Ces deux exemples soulignent l’impératif de renforcement de la cohérence des scénarios qui
nous préoccupe. L’enjeu scientifique est double : d’une part, progresser dans l’observation et la
compréhension des interrelations entre les déterminants fondamentaux des émissions11 ; d’autre part,
recourir à des modèles les plus « complets » possibles en termes de périmètre et de représentation de
ces interrelations. Certes, les modélisateurs ont considérablement progressé sur ce deuxième axe de
recherche, notamment avec les nombreux développements de modèles hybrides : il est remarquable
que les dernières recommandations du Groupe de Travail sur les Nouveaux Scénarios d’Émissions
(WGNES, 2005) insistent sur cet impératif de renforcement de cohérence au sein des scénarios et entre
les modèles utilisés.

En résumé, il apparaît clairement que l’analyse des scénarios SRES, ou de la base de scénarios
du GIEC dans son ensemble, se heurte à des intervalles d’incertitudes très larges difficilement
compréhensibles de l’extérieur. La compréhension du contenu des projections requiert en fait une
« intuition » précise des éléments structurels, fonctionnels ou paramétriques des modèles qui sont les
plus sensibles. Il nous faut donc approfondir notre analyse de la base de scénarios plus en amont, en
revenant sur le contenu de la boîte à outils et la nature des modèles utilisés : c’est à ce niveau là que
nous dégagerons une vision précise sur l’état de l’art.

2 Des scénarios aux modèles

Pour tenter de décrypter le paysage des modèles et de comprendre les pratiques de modélisation
actuelles, nous ne pouvons faire l’économie d’un suivi de la chronologie du développement de la boîte
à outils depuis les années 70. Un tel suivi fait rapidement apparaître la possibilité de resituer les
modèles actuels par rapport aux principales « filiations » temporelles dont ils sont issus. Le paysage
actuel de la modélisation de long terme peut alors être lu comme héritage des trois dernières décennies
de recherche et d’expertise sur les dossiers « énergie » puis « climat ». Nous nous proposons ici de
retracer succinctement les développements des approches de modélisation sur le long terme, en
précisant, au fur et à mesure, la nature des outils utilisés et les progrès qu’ils ont représentés.

11
Nous reprendrons ce terme dans le chapitre 2 pour discuter le « bon » niveau de désagrégation des mécanismes
déterminant le changement structurel, qui lui-même sous-tend l’évolution des émissions à long-terme.

- 28 -
2.1 Un regard historique sur le développement de la « boîte à outils »

Nous l’avons évoqué en introduction de ce chapitre, le début des années 70 est marqué par le
passage de la question de l’énergie au premier plan de la scène politique et scientifique, avec deux
évènements majeurs :
 en 1972, le rapport du club de Rome «Limits to Growth » lance une alarme sur la finitude des
ressources naturelles et environnementales, ce qui marque le début d’une vague importante de
débats sur la durabilité de la croissance économique ;
 en 1973, le premier choc pétrolier fait apparaître dans l’actualité de court-terme le problème
tangible de la sécurité du système énergétique, point névralgique au cœur de nos économies
modernes.

Les questions soulevées concernant la finitude des ressources ou la vulnérabilité énergétique ne


sont pas inédites, puisqu’elles font déjà l’objet de nombreuses études et publications (notamment
celles de la Fondation Ford, initiées peu avant le début du premier choc pétrolier), mais le contexte
nouveau du début des années 70 met l’ensemble des décideurs et des experts de l’énergie face à deux
problématiques peu explorées jusque là : l’incertitude et le long terme. Premièrement, le choc
pétrolier vient rappeler avec force que trop d’éléments de contexte politique et de décisions multiples
interviennent dans l’évolution du monde futur pour que la prévision économétrique soit fiable, même à
court-terme. Deuxièmement, trois questionnements transversaux obligent à penser la planification
énergétique sur des horizons temporels de plus en plus lointains : la sécurité d’approvisionnement
énergétique, les risques liés à l’énergie nucléaire, et le changement climatique liés aux émissions de
gaz à effet de serre. La modélisation énergétique va alors connaître une rupture avec l’approche
« prévisionniste », en généralisant un positionnement de prospective fondé sur la production de
scénarios multiples. Ensuite, les évolutions de la modélisation énergétique des années 70 constitueront
la base méthodologique pour le traitement de la question des émissions de CO2.

2.1.1 A la recherche d’une alternative aux approches prévisionnistes en échec

Entre 1970 et 1990, les recherches sur le dossier climatique se développent selon trois
démarches complémentaires (Baron et Salles, 1991) :
(i) des approches exploratoires visant à identifier les risques,
(ii) des approches normatives proposant des visions alternatives du futur et démontrant la
possibilité de minimiser ces risques,
(iii) la recherche de stratégies optimales pour gérer le problème climatique à long terme.

2.1.1.1 Des approches exploratoires du style « et si… »

Logiquement, les premières recherches s’organisent autour de la nécessité d’explorer l’espace


des futurs possibles pour mettre en évidence les enjeux et quantifier l’ampleur des risques.
Les premiers essais sont de simples projections de « coin de table », fondées sur l’extrapolation
des taux de croissance des émissions et sur l’estimation de la quantité de carbone contenue dans les
réserves fossiles et susceptible d’être relarguée dans l’atmosphère tôt ou tard (Keeling et Bacastow,
1977 ; Siegenthaler et Oeschger, 1978 ; MacDonald et al., 1979 ; Hansen et al. 1981). Ces projections
ne prennent en compte aucun élément économique ou technologique, elles se contentent d’un bilan
massique sur le carbone enfoui et potentiellement libéré, avec ou sans contrainte de rythme

- 29 -
d’exploitation. Elles permettent simplement de générer une série de scénarios d’émissions présentant
un degré minimal de « plausibilité » pour tester les modèles climatiques.
Conjointement, le recours à des approches modélisées se développe et se généralise rapidement.
A ce stade, l’objectif de la modélisation est de fournir des scénarios exploratoires cohérents et
plausibles, pour comprendre comment tel ou tel jeu d’hypothèses sur le futur se traduit en termes de
trajectoires d’émissions. A cet effet, ce sont des outils préexistants qui sont mobilisés, préfigurant les
deux grandes familles de modélisation classiquement désignées « top-down » et « bottom-up ».

La première voie est celle que suit W. Nordhaus (1977a, 1980) : il fonde ses analyses
successives sur des modèles compacts, qui représentent une économie globale à un seul bien, dont la
production requiert de l’énergie primaire, composées de sources d’énergies d’origine fossile et non-
fossile, le recours aux premières induisant des émissions de CO2. Dans ces modèles, le prix de
l’énergie fossile est lié à l’épuisement des ressources, le prix de l’énergie non fossile varie en fonction
d’un progrès technique autonome, tandis que le moteur de la croissance, fondé sur les dynamiques de
population et de productivité du travail, suit une trajectoire exogène. Les scénarios ainsi générés
reposent sur des hypothèses économiques explicites et jugées plausibles ; elles restreignent les
possibles par rapport aux pures extrapolations physiques évoquées plus haut. La compacité de ce type
de modèle permet à Nordhaus de développer une approche probabiliste de la génération de scénarios
exploratoires (Nordhaus et Yohe, 1983), en partant de distributions a priori sur les paramètres
incertains du modèle. Cette approche aura peu d’échos par la suite, surtout parce qu’elle est difficile
voire impossible à étendre à des modèles plus complexes, dont le nombre de paramètres augmente très
rapidement12. Cependant, la notion de scénarios probabilistes revient aujourd’hui dans les discussions
autour des nouveaux scénarios (GIEC, WGNES, 2006), notamment en raison de l’embarras des
décideurs face à des fourchettes d’incertitude aussi larges que celles des SRES et non probabilisées.

La seconde voie est celle des « modèles d’ingénieurs » du système énergétique. Ces outils
reposent sur une représentation précise du système de production et de transformation de l’énergie,
avec des hypothèses exogènes sur la disponibilité des ressources naturelles, la croissance et la
demande finale de services énergétiques. On distingue des variantes sur l’architecture des modèles,
leur degré de précision et leurs limites :

− Lancé en 1973, le programme de modélisation de l’IIASA débouche sur la publication en


1981 du rapport « Energy in a Finite World » (Häfele, 1981). L’architecture de modélisation
est très détaillée pour la partie énergétique, il repose essentiellement sur le bouclage des
modèles de simulation MESSAGE et MEDEE, le premier représentant l’offre et la
conversion d’énergie et le second la demande de services finaux. L’architecture complète
comprend aussi le modèle IMPACT qui permet de calculer le lien entre les dynamiques
énergétiques et la croissance, et le modèle MACRO qui représente le partage entre
consommation et investissement. La conception de l’ensemble est censée assurer un
bouclage macroéconomique complet, bien qu’en réalité ce bouclage n’ait pas été effectif
dans le rapport publié en 1981, comme cela a été mis en évidence par Hourcade (1984).

12
Les études les plus proches de cette approche sont en fait les rares analyses de sensibilité effectuées sur les
modèles, telles que celle de Reilly et al. (1987) sur le modèle ORAU de l’AIE.

- 30 -
− Quelques années avant ce rapport, Nordhaus (1977b, 1979) avait déjà publié des simulations
effectuées à partir d’un modèle d’optimisation linéaire du système énergétique, dans la
filiation directe des développements importants d’après-guerre autour de l’analyse
d’activités (Koopmans, 1951 ; Manne et Markowitz, 1961). Le principe de ce type de
modèle est de minimiser le coût de fourniture des services énergétiques liés à un scénario de
croissance exogène, sous contraintes des technologies, des stocks de ressources naturelles,
des prix de production et de l’élasticité-prix de la demande de services énergétiques. Une
des premières architectures de ce type consacrée au système énergétique dans son ensemble
a été développée sous l’impulsion du Department of Energy américain, avec le modèle
BESOM – « Brookhaven Energy System Optimization Model » (Hoffman, 1973) couplé
ensuite au modèle économétrique de demande finale de Jorgenson (Bernanke et Jorgenson,
1975). Nordhaus et Ausubel (1983) ont cependant souligné la grande sensibilité des
simulations aux hypothèses exogènes de croissance et de prix futurs, pointant là un défaut
intrinsèque à ce type de modèles.

− Edmonds et Reilly (1983a,b) proposent une structure de modélisation proche de


l’architecture de l’IIASA dans son principe, mais conçue pour corriger l’écueil de la trop
grande complexité souvent reprochée à cette dernière. De fait, le modèle d’Edmonds et
Reilly repose sur des relations explicites et en nombre restreint et il est publié avec un effort
de transparence remarquable en termes de documentation (Edmonds et Reilly, 1982,
Edmonds et Reilly, 1983, Edmonds, 1983). Le système énergétique est simulé en équilibre
partiel, sous contrainte d’un ensemble de déterminants macroéconomiques exogènes, avec
une demande énergétique élastique aux prix des énergies. Le bouclage macroéconomique,
annoncé mais inachevé dans les travaux de l’IIASA cités ci-dessus, apparaît cette fois
réalisé avec succès, bien que très modeste dans ses prétentions – une simple élasticité du
PIB aux prix de l’énergie. Ce modèle restera une référence pendant une dizaine d’année,
largement exploité et amélioré par l’Agence Internationale de l’Énergie et le World
Resources Institute (Mintzer, 1987).

2.1.1.2 Des utopies normatives pour identifier les alternatives possibles

Parallèlement à ces approches positives qui visent à évaluer les futurs possibles et les risques
associés, certains auteurs prennent le parti de projections à caractère explicitement normatif pour
montrer les possibilités de trajectoires alternatives minimisant ces risques.
Dès 1977, Amory Lovins amorce la réflexion sur les ‘soft energy paths’, trajectoires de
découplage fort entre la croissance économique et les besoins en énergie primaire d’une part, et entre
les besoins en énergie primaire et le recours aux énergies fossiles d’autre part. A. Lovins critique
ouvertement les travaux de l’IIASA (Lovins et al., 1982) : en particulier, il argumente que la
complexité de l’approche modélisée masque des a priori déterminants sur les besoins futurs d’énergie,
surtout sur la croissance de la demande finale, lesquels a priori donnent aux projections un statut quasi
normatif. Pour étayer son discours, il propose des scénarios alternatifs (Lovins, 1977, Lovins et al.,
1981) fondés sur une frugalité énergétique extrême et une très large pénétration des énergies
renouvelables. Son approche n’est pas véritablement modélisée, elle repose sur un calcul de
comptabilité énergétique et des jeux d’hypothèses technologiques13 qui génèrent un découplage

13
Pour être plus convaincant et ne pas être taxé « d’utopiste technologue », A. Lovins raisonne même à
« technologies connues » pour réaliser son scénario volontariste.

- 31 -
important entre croissance et demande d’énergie. Ces estimations furent critiquées à divers titres, soit
parce que les hypothèses traduisaient une vision du monde jugée extrême et peu plausible (Hafele,
1981), soit pour des incohérences économiques, par exemple au sujet des besoins de financement des
PED (Hourcade, 1984).
Ce positionnement fut le point de départ de nombreux travaux visant à explorer des scénarios
alternatifs de frugalité énergétique ou d’abandon des énergies fossiles. La publication, quelques années
plus tard, de ‘Energy for a Sustainable World’ (Goldemberg et al., 1988) s’inscrit directement dans
cette tradition, mais en prenant cette fois appui sur le cadre quantitatif d’un modèle technico-
économique. Concrètement, ces auteurs élaborent des jeux d’hypothèses de gains d’efficacité à tous
les échelons du système énergétique ainsi que des hypothèses de cadrage macroéconomique, pour
projeter un bilan énergétique comptable en 2020. Cette méthode permet d’examiner l’effet résultant de
bifurcations importantes dans les choix d’équipements énergétiques futurs à tous les échelons. Sur le
plan de la modélisation proprement dite, l’approche ne présente pas d’innovation significative, si ce
n’est l’inclusion de l’énergie traditionnelle de la biomasse non-commerciale, négligée dans bon
nombre de simulations. En filigrane, ces travaux ont le mérite d’alimenter la réflexion sur le rôle
respectif des hypothèses exogènes et du modèle dans les projections : ces auteurs reconnaissent la
nature normative de leur travail, tout en soulignant que les autres travaux de projection tels que ceux
de l’IIASA par exemple ne sont pas exempts de prescription normative sur la façon dont « le monde
devrait fonctionner »14, à travers les hypothèses macroéconomiques et technologiques qu’ils adoptent.
Leur scénario volontariste leur permet de mieux cerner l’espace d’incertitude autour du monde
énergétique futur ; surtout, ces travaux mettent en exergue le fait que cette incertitude relève autant de
choix collectifs encore à faire que d’inconnus technologiques ou macroéconomiques.

Une approche différente des deux précédentes, et qui illustre le flou de cette frontière entre
« normatif » et « exploratoire » dans les projections de long terme, est celle de Frisch et al. (1989)
dans « Horizons Énergétiques Mondiaux », étude menée pour le Conseil Mondial de l’Energie. Ce
rapport contient deux scénarios énergétiques à 2020, réalisés uniquement à partir de consultations
itératives d’experts sur leur vision du futur énergétique mondial. Ici, la subjectivité des projections ne
fait aucun doute, et les scénarios obtenus ont une nature hybride : d’une part, ils restent exploratoires,
et répondent bien à une question du style « et si notre mode de croissance économique et son contenu
énergétique se poursuivent sans rupture, alors… », d’autre part, ils traduisent des probabilités
subjectives sur un futur « tendanciel ». Deux aspects sont intéressants dans cette approche :
(i) l’intégration d’avis d’experts et de décideurs dans la prospective puis la validation des futurs
projetés par ces mêmes experts, à la fois source de crédibilité et moyen de diffusion des
études de prospective ;
(ii) le rôle de « prophétie auto-négatrice » que ces scénarios sont censés jouer : mettant en
évidence les frictions qui pourraient provenir d’un futur énergétique construit autour des
mêmes tendances, ces scénarios peuvent convaincre de la nécessité de bifurquer vers
d’autres trajectoires.

2.1.1.3 La recherche de stratégies optimales

Au-delà du grand écart entre scénarios tendanciels risqués et scénarios volontaristes extrêmes, le
troisième temps logique est celui de la définition des politiques climatiques et/ou énergétiques

14
Goldemberg et al., 1988, p. 3, cité dans Baron et Salles, 1991, p. 65.

- 32 -
adaptées, voire optimales15. Nordhaus (1977a, 1979) est le premier à esquisser des simulations en
analyse coûts-efficacité pour différents niveaux de stabilisation des concentrations en CO2, avant
d’étendre son analyse à une analyse coûts-bénéfices globale (1980, 1992). Ses premiers travaux
préfigurent le succès ultérieur des modèles DICE16 (Nordhaus, 1993) et RICE, qui gardent une
position de modèles de référence sur la question du tempo optimal. La longue « descendance » de cette
approche s’explique d’une part par la nature du modèle, qui a l’avantage d’être compact, transparent et
reproductible, d’autre part par la rigueur avec laquelle Nordhaus présente et utilise son outil,
notamment en effectuant des tests systématiques d’analyse de sensibilité à chaque fois qu’il le juge
nécessaire. Cependant, du fait de sa compacité et des hypothèses simplificatrices sur lesquels il est
construit, la portée de ce modèle est principalement heuristique. Il ne contient qu’une description
frustre du changement technique et il présente le grave défaut de négliger l’inertie des efforts de
réduction (Gilotte, 2004).

2.1.2 La question des coûts : un déclencheur de la mobilisation de l’équilibre


général
Dans les travaux que nous avons évoqués jusqu’ici, on peut distinguer deux grandes catégories
d’outils : d’un côté, les modèles technico-économiques, fondés sur une description physique et
technologique détaillée du système énergétique et soumis à des hypothèses de cadrage
macroéconomique, de l’autre côté, les modèles macroéconomiques plus compacts, permettant de
soumettre le problème climatique à une analyse coûts-bénéfices globale. A la fin des années 80, les
termes du problème de long terme posé par les émissions du CO2 sont énoncés clairement et le dossier
prend de l’ampleur sur la scène politique internationale. La question des actions à entreprendre devient
prioritaire : l’enjeu principal devient la définition des modalités et du tempo des politiques à mettre en
œuvre et l’évaluation de leur coût potentiel. En fait, ce déplacement des préoccupations vers les coûts
de l’action va offrir une opportunité de « revanche » de la communauté des modélisateurs « top-
down » par rapport à celle des ingénieurs, qui avait largement dominé la scène depuis le quasi-
abandon des modèles économétriques dans les années 70 (Hourcade et Kalaydjian, 1987).

Manne et Richels (1990) sont les premiers à examiner spécifiquement cette question des coûts
d’une réduction des émissions. A cet effet, ils utilisent l’architecture Global 2100, constituée de deux
modules ETA et MACRO : ETA est un modèle technologique du système énergétique, prenant en
compte le renchérissement des ressources fossiles et la pénétration de technologies non carbonées
« backstop » au-delà d’un certain niveau de prix des énergies fossiles ; MACRO est un modèle
macroéconomique agrégé proche de celui de Nordhaus (1980), avec une unique fonction de
production et un équilibre global emploi-ressources. En incluant différents niveaux de taxes linéaires
sur les énergies fossiles, Manne et Richels évaluent les pertes de PIB correspondant en 2020 à un
objectif de -20% par rapport à 1990 pour les pays industrialisés et un doublement des émissions pour
le reste du monde. Les auteurs reconnaissent le caractère très limité de cette évaluation, étant donné
que tous les mécanismes macroéconomiques déterminants pour le coût net des politiques – commerce
international, mode de recyclage des recettes d’une taxe, interactions sectorielles, etc. – sont absents
du modèle ; il s’agit en fait du modèle d’équilibre général le plus sommaire possible, qui ne fait que
traduire une élasticité non nulle de la demande d’énergie.

15
Cf. Ausubel et Nordhaus (1983) pour un bilan des premières études de trajectoires de stabilisation.
16
Acronyme de Dynamic Integrated Climate Economy.

- 33 -
C’est pour tenter de répondre aux insatisfactions qui restent entières sur les mécanismes de
propagation des coûts liés à une politique climatique que les modèles d’équilibre général vont être
mobilisés et adaptés au champ des politiques climatiques, dès 1990, avec quelques variantes
méthodologiques :
- Jorgensen et Wilcoxen (1990) utilisent le modèle DGEM, qui a la double particularité
d’inclure des fonctions de production indirectes estimées économétriquement (translog) et de
représenter le progrès technique endogène.
- Perroni et Rutherford (1991) élaborent le modèle CRTM (Carbon Rights Trade Model),
modèle statique visant à simuler, à partir des résultats de Manne et Richels, un marché de quotas
échangeables, en tenant compte des variations des prix des commodités énergétiques, de l’équilibre
des positions extérieures des régions et d’éventuelles localisations industrielles. Ici, c’est donc le
développement de l’analyse des interactions sur les marchés internationaux qui fait l’objet d’un effort
particulier, les interactions intersectorielles au sein des régions n’étant pas représentées.
- Whalley et Wigle (1991), chercheurs spécialisés dans les modèles d’équilibre général,
apportent leur compétence dans le domaine de l’énergie et du climat pour rationaliser le débat sur les
modalités et les effets d’éventuelles taxes sur les émissions de CO2 : assiette des taxes, différenciation
des signaux selon les régions ou les secteurs, recyclage fiscal. Leur modèle est un modèle d’équilibre
général multi régions et multi secteurs, qui calcule un point d’équilibre de projection statique à un
horizon donné, 2005, 2030 ou 2100. Il permet donc d’analyser l’impact d’une taxe appliquée à la
marge d’un équilibre de référence pour un horizon donné.
- Burniaux et al. (1991) développent le modèle GREEN au sein de l’OCDE. Fondé sur la
maquette du modèle WALRAS préexistant à l’OCDE et destiné à étudier l’impact des mesures
concernant le commerce international, il est enrichi de développements importants sur la partie
énergétique, grâce à la collaboration de l’Agence Internationale de l’Energie. Il s’agit d’un modèle
dynamique récursif, incluant 8 régions et 8 secteurs, dont 5 concernant la production ou la
transformation d’énergie. Le modèle est fondé sur un emboîtement de fonctions CES permettant des
substitutions partielles ou complètes entre facteurs de production ; tous les secteurs de production sont
supposés en compétition parfaite, sauf le secteur pétrolier, pour lequel le prix est fixé de manière
exogène. Une part importante des modèles d’équilibre général encore utilisés aujourd’hui
appartiennent à la « filiation » de ce modèle GREEN.

2.1.3 Une mise en opposition Bottom-up / Top-Down entretenue mais de


moins en moins éclairante
Si seuls les modèles d’équilibre général permettent d’examiner précisément certaines questions
liées à la mise en œuvre des politiques de réduction des émissions et à leurs implications
macroéconomiques, ils ne peuvent prétendre à l’exclusivité de l’évaluation des coûts. Les
modélisations technico-économiques peuvent, eux, prétendre fournir une évaluation précise des coûts
techniques ou sectoriels, grâce à la représentation des potentiels technologiques et des contraintes
physiques pesant sur le système énergétique. Dans les exercices de modélisation mondiaux, comme
l’Energy Modeling Forum, on retrouve les deux catégories de modèles sans pouvoir établir de
frontière nette entre les deux catégories au regard de leurs résultats. Pourtant les limites des deux
approches sont clairement identifiables – nous y reviendrons en détail au chapitre 2 :
schématiquement, les modèles « top-down » sont critiqués pour leur représentation peu tangible et peu
maîtrisée des possibilités techniques, par leur caractère agrégé et purement monétaire, tandis que les
modèles « bottom-up » ignorent le rôle du système économique entier dans l’évolution des signaux-
prix et des contraintes de budget qui sont déterminantes dans la bifurcation des systèmes techniques.

- 34 -
Ces différences ont historiquement donné lieu à de nombreux débats, par exemple autour du nécessaire
bouclage macroéconomique, autour de la nature des coûts mesurés ou à propos de l’existence et de
l’ampleur des potentiels sans-regrets (GIEC, 1995).

La mise en opposition des approches « top-down » (TD) et « bottom-up » (BU) qui se dessine
ainsi dès le début des années 80 va ensuite constituer un véritable fil rouge des discussions autour de la
modélisation. Le second rapport d’évaluation du GIEC (1995, ch. 8) fait état de cette vision polaire
dans sa taxonomie des modèles existants, en incluant dans la catégorie top-down les trois types
d’outils évoqués plus haut : les modèles d’équilibre général multisectoriels, les modèles compacts
d’optimisation intertemporelle, et les modèles macro économétriques.
Cependant le rapport mentionne qu’il est à la fois difficile et peu éclairant de tracer des limites
aussi nettes entre les catégories, en raison d’efforts croissants de couplage ou d’hybridation des
approches pour pallier leurs défauts respectifs. Ce diagnostic est repris dans des termes similaires dans
le rapport d’évaluation suivant (GIEC, 2001), dans lequel le chapitre 7, consacré à l’évaluation des
coûts des politiques, inclut un classement en six catégories (cf. Tableau 3), mais insiste de nouveau sur
les limites de ce classement, d’une part à cause des modèles qui chevauchent plusieurs catégories,
d’autre part parce qu’il semble que les sorties des modèles dépendent au moins autant de leur
différences de paramétrage que de leur structure propre (Hourcade et Robinson, 1996). Finalement, le
paysage des modèles « mis en place » au milieu des années 90 n’a pas connu de « rupture »
significative (cf. Tableau 3) ; il a évolué lentement dans le sens d’un dialogue entre les différentes
approches. On retrouve les mêmes paradigmes de modélisation dans la synthèse récente de Edenhofer
et al. (2006), qui distingue quatre classes d’outils selon le principe de calcul de la trajectoire :
(i) les modèles de croissance optimale, construits sur un principe de maximisation
intertemporelle du bien-être social ;
(ii) les modèles du système énergétique, destinés à minimiser les coûts de fourniture des
services énergétiques ;
(iii) les modèles de simulations, notamment économétriques, et les systèmes dynamiques;
(iv) les modèles d’équilibre général, structurés autour d’équilibres offre-demande sur tous les
marchés et d’équilibres emplois-ressources pour tous les agents représentatifs.

Tableau 3 : Taxonomies successives des modèles de simulation de long terme


Top down
SAR,
Bottom up
1995 Équilibre Optimisation Macro
général intertemporelle économétriques

Input-
Optimisation Simulations Keynésiens de
TAR, Output ;
du système équilibre court terme ;
2001 Équilibre
énergétique partiel Économétriques
général

Edenhofer Modèles du Simulations,


Équilibre Croissance
et al., système Simulations ? systèmes
général Optimale
2006 énergétiques dynamiques

- 35 -
Comme les précédentes, cette dernière classification n’est pas suffisante pour rendre compte de
l’état de l’art. Elle n’est pas non plus exempte d’imprécisions, en particulier concernant la troisième
catégorie mentionnée ci-dessus, catégorie qui n’est pas clairement définie. Certes, elle a l’avantage
« d’étiqueter » les modèles à partir de l’information précise du « moteur » de recherche de la solution
du modèle. Revers de la médaille, il y a un risque de perception restreinte des possibilités de chaque
catégorie de modèle, comme c’est souvent le cas par exemple avec le terme « d’équilibre général »
(auquel on associe, à tort, des comportements supposés optimaux, des marchés parfaits ou encore une
égalisation de toutes les productivités marginales des facteurs).
En réalité, ces tentatives de taxonomie échouent à fournir des clés d’analyse claires du paysage
des modèles, notamment parce que les différences des modèles ne portent pas seulement sur leur
structure globale mais sur des subtilités complexes de spécification et de paramétrage. Un observateur
non expert restera perplexe quant à la transparence des outils utilisés ; il pourra même être inquiet
quant aux possibilités de compréhension des causalités entre la structure des modèles et leurs résultats.
Sans surprise, les modélisateurs reconnaissent explicitement que le comportement d’un modèle dépend
autant de la qualité des données numériques que de ses spécifications mathématiques (Weyant et Hill,
1999 ; MacCraken et al., 2000).

2.1.4 Le développement récent des modèles hybrides


Comme nous l’avons rappelé plus haut, les typologies de modèles sont devenues imprécises
avec le développement de modèles hybrides. Dès le début des années 1980, les modélisateurs
« bottom-up » ont cherché à ajouter un module macroéconomique global à leurs modèles sectoriels,
focalisés à l’origine sur la représentation détaillée des technologies d’un ou plusieurs secteurs. Cet
ajout visait à éviter d’être critiqué pour négligence des effets de rétroaction importants dans les
secteurs non énergétiques. L’architecture de l’IIASA, en 1981, le modèle Edmonds-Reilly, en 1983,
puis le modèle Global 2100 de Manne et Richels, en 1992, comportent ainsi tous les trois une forme
réduite de rétroaction macroéconomique. Dans ces modèles, la partie macroéconomique est réduite à
une expression agrégée, ce qui ne permet pas une évaluation de l’impact des politiques sur le système
complet des prix relatifs, le revenu des ménages, les flux internationaux, etc. Il s’agit simplement de
rendre la demande finale de services énergétiques élastique au prix de l’énergie, prix du carbone
inclus.
A l’inverse, c’est plus tard, vers la fin des années 1990, que les modélisateurs « top-down » ont
tenté de greffer dans leur représentation agrégée du changement technique des modules de choix
discret des technologies, directement inspirés des modèles technico-économiques. Ainsi apparaissent
des architectures dans lesquelles coexistent les équations de l’équilibre général et la description précise
des technologies, comme SGM (Edmonds et al., 1993, Fawcett et Sands, 2005) ou le modèle de
Böhringer (1998). Mais, en fait, ces efforts restent généralement cantonnés au système d’offre
énergétique, et c’est sur la représentation de la demande que l’opposition bottom-up / top-down reste
vive, avec une désagrégation fine des usages finaux d’un côté et des fonctions agrégés à facteurs
substituables de l’autre côté.

Le terme « hybride » reste aujourd’hui une étiquette mal définie, il désigne aujourd’hui au moins
trois pratiques distinctes :

 Pseudo-hybride : cette étiquette désigne les cas où le modèle dit « hybride » ne permet pas
réellement de combiner les apports respectifs des approches bottom-up et top-down. C’est le cas

- 36 -
par exemple des modèles « bottom-up » simplement dotés d’un module macroéconomique
compact, comme ETA-MACRO : cette adjonction ne change pas la nature technico-économique
des modèles et elle ne permet pas d’y résoudre l’absence de description des dynamiques
intersectorielles, internationales ou redistributives. C’est un « tout petit pas » vers la prise en
compte d’une rétroaction globale du prix de l’énergie sur la croissance économique ou la demande
finale de services énergétiques. De même, lorsque l’on calibre un modèle TD (resp. BU) avec des
élasticités estimées sur les résultats d’un modèle BU (resp. TD), on ne peut qualifier cette pratique
« d’hybridation des modèles », même si elle peut apporter une plus grande robustesse.

 ‘Soft link’ : c’est ainsi que Böhringer et Rutherford (2006) désignent le couplage de deux modèles
préexistants. Cette catégorie regroupe les cas où l’on met en place un échange de données ou de
paramètres entre deux modèles, en les résolvant en boucle, jusqu’à trouver un état ou une
trajectoire de convergence de leurs sorties. Par exemple, Manne et Rutherford (1994) ont ainsi
couplé un modèle d’équilibre général avec un modèle énergétique ; Drouet et al. (2004) ont couplé
le modèle d’équilibre général GEMINI-E3 avec un module de type MARKAL consacré au secteur
résidentiel ; Schäfer et Jacoby (2005) ont couplé le modèle d’équilibre général EPPA avec un
modèle de partage modal et un module de type MARKAL consacré au secteur transport. La
convergence numérique entre les modèles est un problème récurrent dans toutes ces tentatives
d’hybridation ; en général les modélisateurs reconnaissent les difficultés de produire une
trajectoire cohérente entre les deux modèles et renoncent au bouclage complet des deux modèles,
l’expérience se réduit alors à un couplage dans un seul sens (par exemple MARKAL  EPPA).

 ‘Hard link’ : il s’agit ici d’outils conçus comme hybrides dès l’origine et non par couplage de
modèles préexistants. C’est le cas du modèle de Böhringer et Löschel (2006), qui propose une
résolution simultanée des équations de l’équilibre général et de l’optimisation du panier
technologique. C’est aussi le cas de l’architecture flexible ObjECTS, développée par Kim et al.
(2006) à partir de l’expérience acquise avec les modèles SGM et MiniCAM : cette architecture
propose une hiérarchisation éclairante des niveaux d’agrégation des équations modélisées. On peut
aussi noter le modèle SIMS de Jaccard et al. (2000), qui élargit le paradigme BU vers une
meilleure prise en compte des comportements réels. Enfin, le modèle E3MG (Barker et al., 2006)
est à la fois l’unique modèle macro-économétrique appliqué à l’énergie et un modèle hybride
incorporant une représentation détaillée des technologies. Enfin, nous le détaillerons au chapitre 3,
l’architecture IMACLIM-R, développée dans le cadre de cette thèse, peut aussi être rangée dans
cette catégorie.

Globalement, on peut se demander si l’ancrage fort dans les paradigmes historiques n’a pas
constitué un frein à l’invention de nouveaux modèles. Au lieu de placer le caractère hybride au cœur
d’un cahier des charges en amont du développement des modèles, la majorité des cas d’hybridation
correspondent en fait à un couplage de modèles préexistants. Ce n’est que récemment que les travaux
« hard link » ont fait émerger des architectures innovantes intégrant à la fois les dynamiques
technologiques et les interactions macroéconomiques.

Ce retour historique sur le développement de la modélisation dans le champ énergie-climat ne


prétend pas à l’exhaustivité ; il contribue cependant à fournir des clés de compréhension des filiations
de méthode – qui s’apparentent aussi des filiations de pensée – qui sous-tendent l’état de l’art actuel.

- 37 -
Nous retrouverons l’omniprésence de ces filiations de pensée dans les analyses transversales du
second chapitre.

2.2 Typologie : le jeu répétitif de 5 familles

L’analyse des outils mobilisés en amont des scénarios est sensiblement plus complexe que
l’analyse des intervalles d’incertitude sur les grandes variables agrégées de l’identité de Kaya, parce
qu’il s’agit de traiter une information diffuse et parfois incomplète sur le contenu et la nature des
modèles. Ceci explique la raison pour laquelle ce type d’analyse systématique des outils est quasiment
absent de la littérature, mis à part les typologies très générales que nous avons déjà évoquées.

Le Tableau 4 contient la liste des modèles explicitement mentionnés dans la base de données du
17
GIEC , ainsi que le nombre de scénarios correspondant. Nous avons pu identifier 55 modèles utilisés
pour 698 scénarios sur un total de 959, ce qui correspond à 72% du nombre total des scénarios
recensés. Les scénarios pour lesquels il était impossible d’établir une correspondance avec un modèle
correspondent soit aux scénarios les plus anciens dans la base de données, soit à des scénarios
discursifs ou ne reposant sur aucun modèle publié dans la littérature. Dans le tableau ci-dessous,
chaque entrée correspond à la dénomination d’un modèle, avec parfois des évolutions importantes de
structure et de calibrage réalisées au cours des versions successives du modèle. Lorsque ces évolutions
représentent des variantes suffisamment importantes et explicitement mentionnées, nous les avons
reporté comme deux modèles distincts : c’est le cas en particulier de MARKAL et MARKAL-
MACRO, MESSAGE et MESSAGE-MACRO.

Cette liste suggère deux remarques :

- quantitativement, le nombre de modèles présents suggère une importante diversité d’outils ; la


majorité des modèles présents dans la littérature ou dans les colloques internationaux sur les
dossiers climat et énergie est mentionnée ici, avec des exceptions notables (par exemple POLES
et PRIMES, deux modèles très présents dans les projets de recherche européens, ou encore G-
Cubed (McKibbin et al., 1998), modèle australien reconnu et original par certaines de ses
spécifications, comme sa représentation endogène des marchés de capitaux18).

- Le nombre de scénarios publiés dans la base de données pour chaque modèle est très variable,
allant d’une contribution isolée à une soixantaine de trajectoires (MiniCAM). De ce fait, les
modèles bénéficient d’une lisibilité hétérogène, qui peut résulter de différences aussi bien dans
le dynamisme scientifique des équipes, variable selon les périodes entre 1990 et 2006, que dans
leur bonne volonté à mettre à disposition des scénarios complets pour alimenter la base de
données.

17
Il s’agit en fait de l’assemblage des informations contenues dans la version 3.0 rendue publique en janvier
2007 contenant des scénarios publiés jusqu’en 2002, et dans l’annexe 2 de (Hanaoka et al., 2006a) qui recense
les nouveaux scénarios publiés entre 2002 et 2006.
18
Le modèle GTEM présent dans la base de données est proche de G-Cubed dans son approche.

- 38 -
AIM 69 IPAC emission 2

AMIGA 2 KFA-STE 1

ASF 22 Khanna Chapman 1

CETA 19 LDNE 13

Climate Research and Policy Synthesis


10 LEAP 2
Model

COMBAT 6 MARIA 39

Connecticut Model 10 MARKAL 16

DEMETER 20 MARKAL MACRO 5

DICE 11 MERGE 36

DNE21 8 MESSAGE 39

E3MG 3 MESSAGE MACRO 5

EDGE 2 MIND 1.1 3

ENTICE BR 4 MiniCAM 58

EPPA 30 MIT 7

EURICES/PRO 1 New Earth 21 4

FEEM RICE 19 PAGE 8

FLAMES 4 PETRO 12

FUND 2.7 2 Policy Evaluation Framwork Model 1

GEMINI E3 2 RAND 2

GET 12 RICE 8

Global 2100 3 SGM 49

GRAPE 15 SIMA 1

GREEN 5 TARGETS 3

GTEM 2 TEESE 2

IEA – World Energy Model 6 UK-ECCO 1

IMACLIM-R 3 WIAGEM 3

IMAGE TIMER 46 WorldScan 28

ICAM 13

Tableau 4 : Modèles et Nombre des scénarios associés (698 scénarios)


Sources : base de données version 3.0 avec mise à jour personnelle à partir des informations publiées
dans Hanaoka et al. (2006)

- 39 -
Cette liste apparemment touffue de 55 modèles nous conduit à souligner qu’il existe des
filiations très étroites entre modèles, finalement révélatrices d’un ensemble beaucoup plus restreint de
types d’outils. A partir d’une analyse systématique des descriptions disponibles pour les modèles de
cette liste, nous avons identifié 5 familles principales et nous avons regroupé 41 des 55 modèles dans
ces cinq catégories, comme le montre la Figure 4.

Sur les 14 modèles restants, trois sont représentés en dehors de ces grandes familles en raison de
leur caractère hybride (SGM, Imaclim-R) ou de leur nature économétrique (E3MG) ; 11 modèles n’ont
pas été classés dans cette figure soit parce que nous n’avons trouvé aucune documentation claire
(KFA-STE, EDGE, EURICES/PRO, TARGETS, UK-ECCO), soit parce qu’ils ne sont pas capables
de générer des scénarios de manière endogène – c’est-à-dire qu’ils sont uniquement conçus pour
agréger des éléments de scénarios dans un cadre comptable (FUND, KAYA, Policy Evaluation
Framework Model, Climate Research and Policy Synthesis Model) – soit, enfin, parce qu’ils se
limitent à une sous partie du système énergétique trop limitée (FLAMES, SIMA).

Bottom-Up Hybride Top-Down

Edmonds Reilly SGM GREEN


AIM IMACLIM-R EPPA
MiniCam AMIGA
ASF GEMINI-E3
WEM WORLDSCAN
TIMER GTEM
IPAC EDGE
PETRO Equilibre général WIAGEM

Simulation équilibre partiel récursif


E3MG

Optimisation du système DICE


MARKAL énergétique RICE
MESSAGE RICE-FEEM
GET Global 2100 DEMETER
TEESE MARKAL MACRO ENTICE(-BR)
LDNE MESSAGE MACRO Connecticut Model
New Earth 21 MERGE COMBAT
CETA Khana Chapman
DNE21
MARIA
GRAPE

Figure 4 : Paysage des modèles mentionnés dans la base de données IPCC

Chacune des cinq familles de modèles est identifiée par le nom d’un modèle emblématique,
soit par son statut de modèle fondateur (e.g. DICE, Edmonds Reilly), soit en raison d’une diffusion
très large dans les travaux de modélisation (e.g. GREEN, MARKAL, Global 2100) :

- 40 -
 Famille Edmonds-Reilly (1983)
Cet ensemble regroupe les modèles de simulation du système énergétique en équilibre
partiel. Il n’y pas de parenté directe entre les modèles présentés ici, mis à part pour AIM et
MiniCam, qui sont explicitement décrits comme des modèles construits à partir de la maquette
d’Edmonds et Reilly. Ces modèles ont en commun de permettre des simulations « si…alors… »
à partir de routines de comportement de certaines catégories d’acteurs ou de grandes variables
économiques ou énergétiques. Leur niveau de complexité et leur système de résolution peuvent
cependant varier significativement. Ainsi, TIMER ou MiniCAM représentent les équilibres
simultanés des différents marchés énergétiques, avec une fixation endogène des prix, tandis que
WEM ne fait que simuler, avec des équations explicites successives, la demande puis l’offre
pour des prix énergétiques exogènes. Par ailleurs « l’esprit de parcimonie » d’Edmonds et Reilly
dans leur choix du niveau de complexité de leur modèle n’est pas partagé par tous les modèles
de la catégorie : AIM, ASF, TIMER sont beaucoup plus détaillés. Enfin, certains modèles
incorporent une boucle complète avec les indicateurs d’activités macroéconomiques (dont le
modèle original d’Edmonds et Reilly) et d’autres non (WEM par exemple).

 Famille MARKAL (Fishbone et al., 1983)


Cette catégorie recouvre tous les modèles d’optimisation du système énergétique. Nous
l’avons évoqué plus haut : cette approche s’inscrit dans la lignée des recherches sur l’analyse
d’activité, utilisées pour la planification et la gestion optimale de systèmes complexes (transport,
raffinage, etc.), avant la montée en puissance de la prospective énergétique dans les années 70.
Le modèle MARKAL n’a pas la « parenté » de cette catégorie, puisque d’autres outils de ce type
avaient été développés auparavant (Jorgenson et Houthakker, 1973; Finon, 1974 ; Nordhaus,
1977b), mais il en est devenu aujourd’hui l’outil le plus connu et le plus répandu. Ceci provient
notamment de l’organisation d’un réseau d’équipes de recherche travaillant sur cet outil et
mettant en partage ses multiples versions successives et régionales.

 Famille DICE (Nordhaus, 1993)


Cette famille rassemble les modèles macroéconomiques compacts d’optimisation
intertemporelle, au sein de laquelle le modèle DICE fait figure de « modèle source ». W.
Nordhaus (1980) fut en effet le premier à formaliser le problème du contrôle optimal des
émissions de gaz à effet de serre en utilisant un modèle intertemporel de croissance optimale,
directement issu du modèle de Ramsey. Son approche a ensuite été largement réutilisée et
adaptée : RICE est une version régionalisée par Nordhaus lui-même ; RICE-FEEM comporte en
plus une modélisation de la coordination des politiques climatiques par la théorie des jeux ;
DEMETER, ENTICE et MIND sont des adaptations plus perfectionnées de l’architecture de
départ pour la prise en compte et l’étude du progrès technique induit. Le succès de ce type
d’approche est en partie lié à la compacité du modèle et au soin apporté par Nordhaus à proposer
une complète transparence sur les paramètres de son modèle, et à fournir une étude rigoureuse
de la sensibilité du modèle à ces paramètres.

 Famille Global 2100 (Manne et Richels, 1990)


Les modèles de cette catégorie peuvent tous être rattachés au « bi-modèle » ETA-MACRO,
publié en 1977 par A. Manne et R. Richels. Nous l’avons mentionné plus haut, ceux-ci furent les
premiers à proposer le couplage d’un modèle détaillé du secteur énergétique (ETA) et d’un

- 41 -
modèle compact macroéconomique (MACRO). Les modèles Global 2100, CETA, MERGE,
MARIA sont des extensions de ETA-MACRO ; dans les modèles MESSAGE-MACRO et
MARKAL-MACRO, l’architecture est semblable à celle de ETA-MACRO, mais ETA est
remplacé par les modèles énergétiques MESSAGE ou MARKAL. Enfin, DNE21 et GRAPE
incluent des modules similaires dans des architectures intégrées énergie-économie-climat, même
s’ils ne comportent pas de référence explicite à cet héritage.

 Famille GREEN (Burniaux et al., 1991)


Cette dernière catégorie rassemble les modèles d’équilibre général multi-sectoriels. Le
modèle GREEN fait partie du peloton de tête des modèles de ce type ayant émergé dans le
champ de l’économie de l’énergie et du climat au début des années 90. Le modèle EPPA du
MIT s’inscrit directement dans la continuité de GREEN, il est à l’origine d’un nombre important
de travaux depuis une décennie. Le modèle GTAP-E, qui n’est pas présent dans la base de
données, est particulièrement proche dans ses spécifications ; les seules différences sont liées
aux bases de données qui ont servi au calibrage des modèles. Les modèles GEMINI-E3,
Worldscan et GTEM présentent des variantes sans changement significatif d’architecture. Au
sein de cette catégorie, on peut distinguer les modèles dont la résolution dynamique est fondée
sur un principe d’optimisation intertemporelle avec anticipations rationnelles, comme WIAGEM
et EDGE, et ceux qui sont résolus « pas à pas » (modèles dits « dynamiques récursifs »). SGM,
développé par Edmonds et al. (1993) et IMACLIM-R, le modèle élaboré dans le cadre de cette
thèse, reposent aussi sur une structure d’équilibre général dynamique récursif, mais ils
présentent de nombreuses innovations qui les distinguent de la filiation de GREEN et GTAP-E,
notamment en ce qui concerne la description des itinéraires techniques, pour laquelle ils se
rapprochent plus des modèles technico-économiques.

3 Modèles en concurrence : représentations alternatives du monde


réel ou insuffisances théoriques ?

L’analyse qui précède a permis de mettre en évidence que l’ensemble des modèles existants, à
l’exception de quelques modèles hybrides innovants, pouvait être décrit à travers 5 paradigmes de
modélisation. Si cette simplification est d’un intérêt certain pour rendre lisible le paysage de la
modélisation, il peut sembler curieux, d’un point de vue plus épistémologique, que ces différentes
familles de modèles continuent de coexister et d’évoluer en parallèle, alors qu’elles proposent des
représentations différentes d’un même objet : la croissance économique et son contenu énergétique. En
effet, il serait naturel de penser que l’une ou l’autre de ces représentations finisse par être reconnue
supérieure aux autres, notamment au regard de sa robustesse empirique, et que cette supériorité
débouche sur la réfutation et l’abandon des approches jugées moins acceptables19. En fait, plusieurs
facteurs peuvent expliquer la persistance de cette coexistence :

(i) L’absence de modèle idéal de l’économie globale.


La projection à long terme des trajectoires de croissance future et de leur contenu énergétique, ainsi
que l’évaluation des politiques visant à induire des bifurcations de grande ampleur, imposent à

19
On retrouve ici le particularisme épistémologique des sciences économiques clairement expliqué par Mouchot,
(2003), selon lequel les programmes de recherche en économie sont généralement irréfutables et ne conduisent
que rarement à l’abandon d’une théorie au profit d’une théorie supérieure.

- 42 -
l’économiste modélisateur un cahier des charges d’exhaustivité dans la représentation des variables et
des mécanismes clés de la croissance mondiale, du changement technique et structurel. Cette exigence
bute contre l’inexistence d’un unique modèle économique suffisamment général pour intégrer
ensemble les meilleures représentations des déterminants endogènes de la croissance globale, des
échanges financiers intertemporels et internationaux, des changements technologiques, des
réorganisations spatiales des activités, des évolutions de préférences, etc. La conception des différents
paradigmes de modélisation est le résultat de visions différentes – vision d’ingénieur ou vision
d’économiste – ou d’écoles de pensée au sein de l’économie, sans qu’aucune approche ne puisse être
admise comme « Pareto-supérieure » aux autres. Même l’hybridation des approches, conçue pour être
supérieure à ces approches considérées isolément, ne résout pas la totalité des controverses
méthodologiques et théoriques qui existent dans la représentation de l’économie globale et introduit,
en général, une complexité supplémentaire susceptible de rendre le modèle plus difficile à contrôler20.

(ii) Le masque des incertitudes paramétriques.


Il semble que l’étalement des scénarios de long terme provienne plus de l’incertitude sur les
paramètres des modèles que de leurs différences structurelles. Il est en effet impossible d’isoler, dans
le panel de scénarios de la base du GIEC par exemple, des paquets de scénarios disjoints à partir du
seul critère de la famille de modèles ayant servi à les produire. Dans ces conditions, l’incertitude sur
les paramètres des modèles rend impossible la réfutation d’une approche parmi d’autres à partir des
scénarios quantitatifs qu’elle a permis de générer jusque là.

(iii) L’absence de test de validité empirique sur les trajectoires historiques.


Mis à part les modèles macroéconométriques très peu représentés dans l’étude des trajectoires
économie-énergie à long terme (par ex. E3MG), les modèles que nous avons évoqués jusque là ne sont
jamais estimés ni validés sur des trajectoires historiques. Dans une proportion qui varie d’un modèle à
l’autre, la seule validité empirique vient de l’estimation externe de certains paramètres – élasticités,
asymptotes techniques, taux d’apprentissage, etc. – sur des séries temporelles, les autres paramètres
étant déterminés ad hoc lors du développement des modèles. Il faut reconnaître que c’est là une faille
majeure dans la rigueur scientifique de la majorité des travaux de modélisation actuels : la croissance
continue de la complexité des modèles n’est aucunement accompagnée par un renforcement pourtant
nécessaire de la robustesse des paramètres. Si les années 60-70 furent marquées par un engouement
pour les développements mathématiques formels, non sans éviter un éloignement progressif de la
réalité de l’économie, les quinze dernières années ont été caractérisées par un accès facilité au calcul
numérique de grande taille, qui masque une négligence généralisée pour la qualité des données et la
robustesse des simulations (comme en témoigne l’usage presque exclusif de la base de données GTAP
pour les modèles multisectoriels mondiaux).

(iv) La persistance de controverses sur certains choix de modélisation


Enfin, pour arbitrer en faveur d’un modèle parmi d’autres, il faudrait pouvoir s’appuyer sur la
supériorité avérée de certaines représentations pour décrire tel ou tel mécanisme. Or la science
économique toute entière héberge une coexistence persistante de théories ou de représentations
concurrentes (Mouchot, 2003), soit pour des raisons de niveau d’agrégation – la liaison des
représentations macroéconomiques et microéconomiques restant un éternel casse-tête théorique et

20
Ce fut par exemple la critique principale faite à l’encontre de l’architecture développée par l’IIASA dans les
années 70 en réalisant un couplage complexe des modèles MESSAGE, MEDEE, IMPACT et MACRO.

- 43 -
empirique –, soit parce qu’on ne peut les réfuter empiriquement (par ex. les travaux théoriques sur
l’équilibre général), soit parce que même une réfutation empirique en bonne et due forme ne suffit pas
à conduire à l’abandon d’une théorie (par ex. le théorème Heckscher-Ohlin-Samuelson sur le
commerce international). Nous retrouvons donc sans surprise, au niveau des modèles que nous
étudions ici, la variété des représentations « non discriminées » par les progrès de la science
économique en général, comme autant de solutions « théoriques » acceptées même si elles sont
déconnectées des données et observations du monde réel.

Le stade suivant de notre analyse consiste précisément de démêler, parmi les différentes
pratiques de modélisation que nous avons identifiées ci-dessus, les cas dans lesquels les différences de
représentations sont justifiées par des écarts dans les cahiers des charges à l’origine des modèles, de
ceux dans lesquels elles sont des échos de controverses persistantes en économie, ou bien relèvent en
fait de faiblesses scientifiques qu’il serait possible de corriger. Nous agrégerons ainsi les différentes
« briques » du diagnostic à l’origine du développement du modèle IMACLIM-R.
Ce diagnostic est rendu complexe par la globalité de représentation des modèles de prospective
énergie-économie. Ceux-ci intègrent en effet dans une architecture unique des pans de connaissance
économique parfois distants voire disjoints dans la littérature économique : commerce international,
dynamique des flux de capitaux, décisions d’investissements, changement technique, fonctionnement
des marchés de l’énergie, théorie du développement, dynamiques de relocalisation industrielle,
évolution des préférences, etc. Notre analyse des pratiques de modélisation et du corpus théorique qui
les supporte ne peut pas prétendre à l’examen systématique de tous ces « objets » de l’économie. Nous
structurons notre analyse autour des trois questions transversales identifiées au chapitre précédent :
(i) La représentation de la croissance économique globale ;
(ii) La représentation du contenu physique de la croissance, des univers techniques et de leur
évolution ;
(iii) La représentation des décisions des agents économiques et le statut de l’optimalité.

Sur ces trois questions transversales, la coexistence de visions différentes dans les modèles, ainsi
qu’un écart parfois significatif entre d’une part les connaissances théoriques et empiriques et d’autre
part les pratiques des modélisateurs, font émerger des insatisfactions chroniques que nous mettrons en
évidence au fur et à mesure de notre diagnostic.

3.1 La représentation de la croissance économique globale

3.1.1 Analyse des modèles existants


L’analyse de la modélisation de la croissance dans les outils recensés au chapitre précédent fait
apparaître une certaine pauvreté de représentation, contrastant avec l’abondance de matériaux
théoriques et empiriques dans la littérature économique sur la croissance. Parmi l’ensemble des
modèles connus et répertoriés au premier chapitre, nous avons identifié les représentations suivantes :

a. Aucun modèle de croissance


Historiquement, la majorité des modèles énergétiques sectoriels fonctionne avec des hypothèses
exogènes sur les trajectoires futures de croissance. C’est le cas des familles de modèle « Edmonds-
Reilly » et « MARKAL », au moins dans la conception originale des modèles précurseurs. De cette
croissance prescrite découle ensuite une demande de services énergétiques, que le modèle énergétique

- 44 -
se charge de satisfaire. Pour prendre en compte l’existence d’une rétroaction importante des prix de
l’énergie sur la croissance et répondre à une critique fréquente adressée aux modèles sectoriels, la
trajectoire de PIB exogène est assortie d’une élasticité du PIB aux prix de l’énergie dans le modèle
Edmonds-Reilly et ses dérivés, ou bien c’est au niveau de la demande finale qu’une élasticité aux prix
de l’énergie est ajoutée, comme dans les versions révisées de MARKAL nommées MARKAL-Micro
(Fonction d’utilité représentative) et MARKAL-ED (pour Elasticity of Demand).

b. Un modèle de croissance « exogène » récursif


Nous incluons dans cette catégorie les représentations dérivées du modèle néoclassique de Solow
(1956, 1957). Dans le modèle de Solow, les déterminants du taux de croissance de long terme sont
uniquement la population et le progrès technique général, prescrits de manière exogène, tandis que le
taux d’épargne n’a pas d’impact sur le taux de croissance à long terme et n’influe que sur la vitesse de
convergence vers l’équilibre de long terme et sur le niveau absolu du PIB par tête. La stabilité du
sentier de production à long terme est assurée par l’hypothèse de l’existence d’une fonction de
production agrégée à facteurs substituables (Cobb-Douglas dans le papier original mais ce n’est pas la
forme mathématique de la fonction de production qui est déterminante, c’est l’hypothèse de
substituabilité des facteurs en fonction des prix relatifs courants). Dans les modèles à plusieurs
secteurs inspirés de celui de Solow, comme celui d’Uzawa-Inada (Uzawa, 1961 ; Inada, 1963), la
stabilité de la trajectoire n’est plus systématique et l’on peut observer des comportements cycliques
qui dépendent des caractéristiques techniques des différents secteurs et des arbitrages
épargne/consommation.
On retrouve des représentations dérivées de ces modèles dans les modèles multisectoriels
récursifs comme GREEN, EPPA, GTAP-E, SGM, Linkage, etc. Dans ces modèles la production des
biens est décrite à travers des fonctions de production sectorielles21, qui jouent un rôle similaire à la
fonction de production agrégée dans le modèle de Solow, mais avec un niveau de désagrégation plus
élevé des facteurs de production. Ces fonctions incorporent en général des paramètres d’évolution
démographique et de progrès technique dont l’évolution est prescrite de manière exogène : pour le
progrès technique il s’agit soit d’un coefficient de conversion de la force de travail en « travail
effectif » (paramètre technique de productivité du travail ex ante), soit d’un paramètre de productivité
générale des facteurs (PGF). Enfin, le stock de capital suit une classique relation d’accumulation
récursive – soit avec un taux de dépréciation constant soit avec des générations de capital mises au
rebut en « fin de vie » – laquelle dépend de la règle d’allocation des investissements, d’un taux
d’épargne exogène et à des flux de capitaux généralement exogènes.

c. Un modèle de croissance « exogène » intertemporel (taux d’épargne endogène)


Nous regroupons dans cette catégorie les modèles inspirés du modèle de Ramsey-Cass-Koopmans
(Ramsey, 1928 ; Cass, 1965; Koopmans, 1965). Ce modèle est construit comme le modèle de Solow
mais avec un taux d’épargne qui devient endogène, déterminé par la maximisation intertemporelle du
bien-être ou du PIB. Il répond, au départ, au besoin d’une formulation mathématique tractable du
problème d’un hypothétique planificateur bienveillant qui chercherait à déterminer le meilleur
arbitrage épargne / consommation, au sens de la maximisation du niveau absolu de la consommation

21
Ces fonctions relèvent de formulations mathématiques standard en économie, de type Cobb-Douglas, CES -
Constant Elasticity of Substitution, ou Leontief, ou encore une composition hybride de CES et de Leontief.

- 45 -
par tête22. Dans les modèles qui reprennent cette représentation, la justification du recours à une
optimisation globale a progressivement évolué et nous discuterons la légitimité de cette approche dans
la partie 3.3.
Cette spécification intertemporelle se retrouve aujourd’hui dans de nombreux outils de
modélisation parmi les plus anciens dans le paysage de la modélisation des politiques climatiques :
tous les modèles dérivés du module MACRO (inclus dans MERGE, MESSAGE-MACRO,
MARKAL-MACRO), tous les modèles issus de DICE, ainsi que certains modèles d’équilibre général
calculable (WIAGEM, EDGE). Pour produire un scénario de croissance avec ces modèles, la
procédure de calibrage est généralement la suivante : (i) on suppose que l’économie se situe sur un
sentier de croissance optimale, (ii) on fournit des hypothèses exogènes de taux de croissance de la
population et du PIB, (iii) on calibre l’évolution de la productivité générale des facteurs « à l’envers »
pour obtenir de manière endogène la croissance économique voulue, en fonction d’autres hypothèses
sur les paramètres, notamment sur le taux d’actualisation.

d. Avec un modèle de croissance « endogène »


Les « nouvelles » théories de la croissance développées dans les années 80 et 90 (modèle AK de
Romer (1986) ; innovation schumpétérienne (Romer, 1990 ; Aghion et Howitt, 1992) ; capital humain
dans le modèle de Lucas (1988) ; investissements publics dans le modèle de Barro (1990)) n’ont eu
qu’un écho partiel dans les modèles utilisés pour la prospective énergétique :

- D’une part, une recherche intense pour incorporer les mécanismes d’induction du progrès
technique dans le domaine énergétique, avec représentation des mécanismes d’apprentissage
(learning-by-doing) et de R&D (learning-by-searching). Cette endogénéisation du progrès
technique dans le secteur énergétique peut se faire dans tous les modèles, car les mécanismes
concernés – baisse des coûts des énergies alternatives ou innovantes, gains d’efficacité
supplémentaires induits par la R&D, les investissements cumulés et les variations de prix relatifs
– sont en fait représentés dans tous les modèles conçus pour la prospective énergétique ou
climatique, de manière plus ou moins agrégée et plus ou moins complète. Mais cette démarche
se heurte à deux nouvelles difficultés méthodologiques : d’une part la pauvreté des données
permettant de calibrer les fonctions d’apprentissage, par nature inconnues à l’avance, d’autre
part la possibilité d’existence d’équilibres multiples dès lors que l’on introduit des rendements
croissants à travers les courbes d’apprentissage (Grübler et Messner, 1998) . Nous reviendrons
sur les apports et les insuffisances de ces développements au paragraphe 3.2.2.

- D’autre part, quelques rares tentatives d’endogénéiser le moteur de la croissance lui-même


et la croissance du progrès technique global (une version du modèle DEMETER 2R, non
publiée23; le modèle GEM-E3 (Fougeyrollas et al., 2005) ; le modèle IMACLIM-R, (Crassous et
al., 2006) ; une version du modèle WITCH, (Bosetti et al., 2006)), mais ces expériences n’ont
pas du tout retenu l’attention de la communauté scientifique jusque là, contrairement au
problème de l’induction du progrès technique dans le domaine énergétique. L’endogénéisation
du moteur de la croissance, dans la perspective originale des « nouvelles » théories de la
croissance citées ci-dessus, ne peut se faire que si le moteur global de la croissance est

22
Le modèle utilisé aujourd’hui est celui que Cass et Koopmans obtinrent en passant de la consommation par
tête à l’utilité par tête, et en introduisant le taux de préférence pure pour le présent dans cette utilité.
23
Projet européen Transust, http://www.transust.org/models/demeter/model_demeter.htm

- 46 -
représenté, soit de manière récursive (situation b, ex. GEM-E3) soit intertemporelle (situation c,
ex. DEMETER).

Le
Tableau 5 résume les combinaisons existantes entre les cinq familles de modèles identifiées au
chapitre 1 et les possibles représentations de la croissance que nous venons d’énumérer.

Modèle de
Pas de modèle Récursif Intertemporel
croissance
de croissance « à la Solow » « à la Ramsey »
endogène
Edmonds-Reilly
MARKAL
DICE
Global 2100
GREEN

Tableau 5 : Modes de représentation de la croissance économique globale selon les familles de modèles
Gris foncé : représentation dominante ; Gris clair : représentation occasionnelle

Ces distinctions ne sont pas anodines, parce que la représentation des mécanismes de croissance
revêt une importance particulière dans le champ de l’étude des politiques énergétiques climatiques,
avec trois questions principales24 :

- L’évaluation des incertitudes sur les trajectoires futures, qu’il s’agisse de fournir aux modèles
climatiques des trajectoires d’émissions de gaz à effet de serre pour l’évaluation des risques de
changement climatique ou de simuler les trajectoires de développement et de contenu énergétique
pour les risques géopolitiques et économiques liés à l’approvisionnement énergétique et à la
stabilité économique mondiale. Dans tous les cas, l’encadrement des incertitudes sera d’autant
plus pertinent que les choix de représentation des déterminants de la croissance future et de son
contenu potentiel permettront de garantir la plausibilité des simulations ;

- L’évaluation du coût de l’inaction, par exemple des coûts liés aux dommages climatiques, ce qui
exige de représenter les canaux par lesquels la croissance peut être modifiée par les modifications
de l’environnement ;

- L’évaluation du coût net des politiques : la mesure complète du chronogramme des pertes et des
gains associés à une mesure nécessite de représenter la chaîne des mécanismes et ajustements
qu’elle déclenche à court et moyen terme, y compris les rétroactions multiples et simultanées sur
les forces motrices ou les freins de la croissance – investissements, progrès technique, balance
extérieure, dette, etc.

24
Voir Alcamo et al. (1994) pour une taxonomie similaire des enjeux de la scénarisation de long terme.

- 47 -
La cohérence du discours sur les politiques énergétiques et climatiques, de leur pure
« justification » à l’évaluation de leur niveau, de leur contenu et de leur efficacité, exige de traiter les
enjeux ci-dessus avec les mêmes outils. Ceci implique le défi méthodologique majeur de parvenir à
représenter dans un modèle unique non seulement le moteur de la croissance à long terme, et les
incertitudes propres à sa vitesse et à sa direction, mais aussi les mécanismes qui régissent à court ou
moyen terme les transitions entre régimes de croissance et les ajustements, quels qu’ils soient, liés
aux politiques et mesures ou à des chocs exogènes géopolitiques ou climatiques. Derrière cet enjeu
apparemment méthodologique, il est surtout question de la pertinence des messages délivrés à la
communauté internationale en support des négociations et des décisions de politiques climatiques :
seule une description plausible de la croissance économique peut conduire à formuler des mesures
robustes à l’incertitude et crédibles pour des décideurs refusant tout risque de coût macroéconomique
élevé, surtout à court terme (Hourcade, 2007).
Ce cahier des charges dans la représentation de la croissance économique est cependant loin
d’être une entreprise triviale à cause d’un réel « compartimentage » des recherches sur la croissance en
fonction de l’horizon temporel considéré, une segmentation qui nous conduit à traiter séparément des
enjeux de représentation à long terme puis à court terme.

3.1.2 L’idée du rattrapage au cœur de la croissance à long terme


Dans la littérature économique, l’étude de la croissance de long terme est associée à deux
questions principales :
- Quelles sont les conditions d’une croissance pérenne et stabilisée25 ?
- Quels sont les déterminants du taux de croissance de cette croissance de long terme ?
C’est surtout cette seconde question, d’ordre positif, qui est présente dans la modélisation
énergie-climat, puisqu’il s’agit de projeter une croissance réaliste de l’économie sur plusieurs
décennies pour en dériver des projections de demande énergétique ou d’émissions de GES. Dans ce
domaine, la contribution la plus déterminante dans l’histoire de l’économie de la croissance fut
probablement celle de R. Solow (1956, 1957), comme le soulignait Joseph Stiglitz (1990) avec 35 ans
de recul :
‘For almost two decades, from the early 1950s through the late 1960s, growth theory dominated
economic theory, and Bob Solow dominated growth theory. Seldom, if ever, a single paradigm, a
particular set of questions and a particular approach to answering those questions, held such sway over a
discipline.’ (Stiglitz, 1990, p. 50)

A partir du modèle simple de Solow, un pan entier de la littérature, de Denison, (1962) jusqu’à
Maddison (2001), s’est consacré à la comptabilité de la croissance passée, pour tenter d’identifier de
manière robuste les déterminants de cette croissance. En fait, le champ des possibilités ouvert par
Solow a largement dépassé le contexte théorique de son article de 1956. A l’époque, son propos était
d’apporter une solution au malaise provoqué par les propriétés du modèle Harrod-Domar (Harrod,
1939, Domar, 1946) – selon lequel la croissance stabilisée est un situation instable et fortuite car régie
par une égalité dans laquelle quatre paramètres sont fixés de manière indépendante (Solow, 1988).
Son objectif était alors de démontrer, avec un modèle théorique compact, que la stabilité à long terme
des économies est possible, grâce à un ajustement progressif de l’appareil productif le long d’un
continuum de techniques à l’échelle macroéconomique et au cours du temps, incluant une possible

25
Ce qui se traduit, en termes techniques, par la recherche des équilibres stationnaires des modèles de croissance
et l’examen de leurs propriétés de stabilité, dans la longue lignée des travaux de Ramsey.

- 48 -
substitution des facteurs capital et travail. Ce modèle prédit que le taux d’épargne n’influence pas le
taux de croissance à long terme, et que le principal moteur de la croissance économique, hors
démographie, semble être le progrès technique. Ces publications ont amorcé le développement de la
théorie néoclassique de la croissance et ont donné lieu à de nombreux travaux pour tenter d’expliquer
quantitativement les déterminants de la croissance. Le modèle fit l’objet d’un nombre considérable de
travaux lui apportant divers éléments de complexité, mais le caractère paradigmatique du modèle
d’origine ne fut guère entamé par ces raffinements successifs, à l’égard desquels Solow lui-même
souligna ex post son scepticisme :

‘I am inclined to think that not much more than this can be extracted from the one-sector theory of
growth. (…) In fact, more general assumptions that any I have described can already be handled,
although not very transparently. That is a useful activity, but I am not now thinking of publishable
results but of usable insights in our real economies.’ (Solow, 1970, p. 105, cité par Stiglitz, 1990).

L’utilité du modèle pour les projections de long terme dérive de son usage pour faire la
comptabilité de la croissance : au lieu de l’employer comme cadre d’analyse des déterminants passés
de la croissance, on alimente ce modèle avec des projections pour chacun des déterminants –
population et productivité des facteurs – afin d’obtenir un scénario de croissance global.

Dans presque tous les cas, les projections de population sont réalisées par des modèles de
démographie complètement indépendants des modèles que nous traitons ici ; une majorité de
modélisateurs utilisent des projections issues de l’une des trois sources d’information internationales
qui font autorité en la matière, hors de la sphère purement économique : le département des affaires
économiques et sociales (DESA) des Nations Unies26, le Census Bureau des Etats-Unis d’Amérique27,
et l’IIASA28. Dans tous les cas elles reposent sur une projection des cohortes de population et des
transitions démographiques pour les PED. L’incertitude principale porte sur les futurs taux de
fécondité, et les intervalles d’incertitude sur ce paramètre ont un impact cumulé très important sur le
niveau et la structure de la population à long terme29. Malgré cela certaines dynamiques majeures sont
robustes aux différentes hypothèses possibles, comme le vieillissement de la population chinoise ou
l’inversion probable, hors migrations, du solde démographique de nombreux pays développés – Japon
et Europe en tête.
Paradoxalement, la démographie est un des déterminants principaux de la croissance future mais
l’attention qui y est consacrée reste très faible. La facilité d’accès aux projections « toutes faites » de
l’ONU masque une réelle pauvreté d’analyse chez la majorité des modélisateurs, mis à part les équipes
qui ont le concours de démographes en interne, comme l’IIASA ou le RIVM. Une des contributions
éclairantes sur les dynamiques importantes à long terme est le travail réalisé au sein de l’OCDE par
Oliveira Martins et al. (2005), qui montre l’intérêt de ne pas s’en tenir aux projections de population
totales et actives, mais encourage à expliciter précisément les dynamiques du taux de participation, du
vieillissement et de l’âge des retraites qui sous-tendent les trajectoires globales. Enfin, les liens entre
démographie et trajectoire économique ne sont que très rarement explicités, ou bien traités uniquement

26
Population Division, http://www.un.org/popin/wdtrends.htm
27
International Database, http://www.census.gov/ipc/www/idbnew.html
28
World Population Program, http://www.iiasa.ac.at/Research/POP/proj01
29
On pourra consulter Duncan et Wilson (2004) pour une analyse complète des hypothèses ONU sur les taux de
fertilité futurs.

- 49 -
via les récits en amont des scénarios (exemple des SRES). Il y a là une piste de progrès pour la
cohérence interne des scénarios, mais nous ne l’aborderons pas au cours de cette thèse.

Venons-en maintenant à la question de la croissance future de la productivité. Deux pratiques


coexistent pour prescrire cette évolution exogène : soit une trajectoire directe de croissance de la
productivité (soit productivité du travail soit PGF) dont découle ensuite la trajectoire de croissance, ou
bien au contraire un « calibrage inverse » réalisé de manière à reconstituer une trajectoire exogène de
PIB effectif. En fait, il semble – ce diagnostic mérite une mise au conditionnel parce que ces modalités
de calibrage des trajectoires de croissance ne sont pas toujours claires dans la présentation des modèles
dans la littérature – que la majorité des modélisateurs utilisant des modèles récursifs fixent la
croissance de PIB qu’ils veulent représenter et en déduisent par calibrage inverse les hypothèses de
productivité nécessaires pour obtenir la croissance voulue. Le défaut essentiel de cette méthode est que
le seul critère de validité des scénarios ainsi calculés est de ne pas être trop différent des projections
courantes déjà publiées, sans qu’il y ait à notre connaissance, de validation ex post des trajectoires de
productivité reconstituées par le calibrage inverse. Rares sont les auteurs ayant pris soin de revenir aux
fondamentaux de la théorie de la convergence pour reconsidérer leurs hypothèses de croissance à cette
occasion : nous n’avons trouvé que McKibbin et al. (2007) qui adoptent le raisonnement « dans le bon
sens », en choisissant de définir des hypothèses plausibles de croissance de la productivité au niveau
sectoriel et d’en déduire la croissance endogène au modèle G-Cubed.

Quelle que soit la méthode de calibrage, la seule ligne directrice des projections de long terme,
lorsqu’elles ne sont pas tout simplement arbitraires ou calées sur des projections exogènes, est l’idée
d’une convergence ou d’un rattrapage entre pays industrialisés et pays en voie de développement. La
récente controverse « ppp vs. mer » sur les trajectoires de croissance des scénarios SRES a renouvelé
l’attention portée par les modélisateurs sur ces hypothèses de convergence, mais la majeure partie des
débats s’est focalisée sur la question de la pertinence des indicateurs en parité de pouvoir d’achat ou
en taux de change du marché (Miketa, 2004 ; Nordhaus, 2007) et sur l’effet d’une réévaluation des
écarts de richesse actuels en PPP pour les projections des long-terme (Grubler et al., 2004 ; Holtsmark
et al., 2004 ; Tol, 2006 parmi de nombreuses contributions), sans revisiter les fondamentaux
théoriques et empiriques des concepts de convergence et divergence des économies. De fait, il y a une
grande différence persistante entre les connaissances théoriques et empiriques accumulées sur ce sujet,
notamment durant la dernière décennie, et leur transposition souvent très simplifiée dans les modèles
et les pratiques de projections de la croissance.

Tout d’abord, il faut bien noter que l’existence d’une règle de convergence générale représente
un enjeu scientifique de taille pour la représentation de la croissance économique sur le long terme.
Dans la réalité, la dynamique générale du « progrès technique » résulte de la combinaison de
mécanismes complexes et souvent difficiles à résumer par des relations microéconomiques au
paramétrage robuste : émergence et diffusion des innovations, changement d’organisation de la
production et de la distribution, économies d’échelle, mécanisation, changement structurel,
développement de réseaux de transport et de communication, hausse des compétences, division du
travail, etc. Cet ensemble de mécanismes est suffisamment vaste pour que les différentes théories de la
croissance continuent à coexister en apportant des éclairages différents sur l’analyse des tendances
passées et sur les forces motrices responsables de ces trajectoires. Bien sûr, pour la projection du
progrès technique futur, la posture idéale serait de projeter la combinaison des mécanismes ainsi
identifiés, de façon à renforcer au maximum la plausibilité des projections, dans les limites inévitables

- 50 -
que nous impose l’inconnu des innovations futures. Les potentiels de progrès technique devraient alors
être examinés avec soin au niveau de chaque pays ou région relativement homogène, en fonction du
degré d’ouverture des économies, des transferts de technologies, de la disponibilité des facteurs de
production, et des multiples facteurs de déploiement du changement technique (facteurs naturels,
institutions, éducation et formation, épargne, mode de développement). Mais cette ambition se heurte
à de très larges difficultés d’estimation quantitative des différentes dynamiques à l’œuvre dans le
changement technique à long terme. Du coup, la posture la plus efficace semble de renoncer à
l’agrégation de mécanismes microéconomiques (Malinvaud, 1993b) et de chercher une relation
empirique agrégée, robuste sur les tendances passées, et supposée encapsuler l’ensemble des
mécanismes en jeu. C’est précisément la position de Solow lorsqu’il propose sa fonction de production
agrégée, et c’est aussi, par filiation logique, le statut – et l’intérêt majeur – de l’hypothèse du
rattrapage (« catch-up ») des niveaux de productivité entre pays, utilisée très largement comme cadre
de pensée et de projection du progrès technique à un niveau agrégé.

La genèse du débat sur la convergence des économies30 remonte aux théories néoclassiques de
la croissance, et à l’interprétation des résultats des modèles de Solow-Swan (récursif) ou Ramsey-
Cass-Koopmans (intertemporel)31. Ceux-ci, en effet, prédisent que des économies ayant certaines
caractéristiques en commun devraient converger vers le même niveau absolu de revenu par tête et le
même taux de croissance à long terme. Par conséquent, dans la transition vers cet équilibre
stationnaire32, le taux de croissance instantané est d’autant plus élevé que l’écart à combler entre le
niveau initial de revenu par tête et le niveau de l’équilibre stationnaire est important. En termes plus
simples, les pays pauvres devraient croître plus rapidement que les pays riches. Les tests empiriques
de cette hypothèse sur des bases de données internationales et/ou nationales donnèrent des résultats
très mitigés : il y a bien convergence au niveau de sous-ensembles économiques relativement
cohérents (entre pays de l’OCDE, entre états des Etats-Unis, entre régions d’un même pays) mais pas
au niveau mondial (où l’écart entre les riches et les pauvres s’est accru). Ce résultat a donné lieu à trois
réactions :

 La distinction entre convergence absolue et convergence conditionnelle : il s’agit en fait d’une


mise au point sur une interprétation simpliste et erronée33 des résultats des modèles théoriques. Le
test de la validité empirique de l’hypothèse de convergence fut considéré dans la littérature comme
un test de validité du modèle néoclassique dans son ensemble, et certains détracteurs de ce modèle
lui reprochèrent de prédire une convergence absolue des économies qui ne se vérifie pas dans les
faits. Or le modèle néoclassique ne prévoit qu’une convergence conditionnelle, c’est-à-dire
seulement lorsque certaines caractéristiques des économies considérées sont identiques (taux de
croissance de la population pour la convergence en taux, taux d’épargne, technologies, etc. pour la
convergence en niveau), une hypothèse qui n’est clairement pas vérifiée sur l’ensemble des pays du
monde. En tenant compte de certaines spécificités des économies dans le test économétrique, Barro

30
(cf. ‘Controversy: On the convergence and Divergence of Growth Rates’, dossier paru dans The Economic
Journal, vol. 106, Juillet 1996)
31
Selon (Elmslie, 1995), qui offre une rétrospective fort intéressante sur l’histoire de ce débat, la controverse
remonte bien plus loin, avec la publication en 1942 par David Hume
32
On rappelle que dans ces modèles l’équilibre stationnaire est caractérisé par la constance du PIB par unité de
travail effectif (égal à la quantité de main d’œuvre multipliée par le progrès technique du capital humain).
33
‘The Absolute Convergence Fallacy’ selon (Sala-i-Martin, 1996)

- 51 -
et Sala-i-Martin (1992) puis Sala-i-Martin (1996) trouvent une convergence conditionnelle robuste
à travers plusieurs échantillons de pays ou de régions de pays.

 La recherche d’arguments théoriques expliquant une divergence des économies : c’est une des
raisons de l’émergence des nouvelles théories de la croissance, ou de la croissance endogène.
Romer (1986) démontre ainsi que l’existence de rendements croissants et d’externalités sur la
croissance conduisent à une divergence des économies : les pays riches disposent des moyens
d’entretenir continuellement leur croissance tandis que les pauvres ne peuvent jamais croître assez
vite pour diminuer l’écart. D’autres arguments se réfèrent à l’existence de trappes à pauvreté
(poverty traps) et de convergence « de clubs » lorsque la fonction de production n’est pas convexe
et conduit à des équilibres stables multiples (Galor, 1996). Dans ce cas, l’argument de rendements
croissants n’est finalement pas indispensable à la divergence des économies.

 La définition d’autres concepts de « convergence » pour tenter de cerner la meilleure


formulation d’une règle agrégée robuste : Sala-i-Martin (1996) distingue entre β-convergence34 (les
pays pauvres croissent plus vite que les pays riches) et σ-convergence (la dispersion entre pays se
réduit, notion discutée plus tôt par Quah (1993)), mais cette distinction ne semble pas apporter
d’enseignement supplémentaire ; Quah (1996) argumente pour une approche distributionnelle qui
va plus loin que l’analyse du comportement moyen par régression, et qui permet de mettre en
évidence la persistance d’une distribution à deux bosses (twin-peaks) compatible avec les concepts
de convergence de club ou de trappes à pauvreté, et le constat d’une non convergence absolue.

L’ensemble de ces recherches théoriques et empiriques reste largement trop complexe et sans
résultat robuste pour être exploité directement hors du champ des spécialistes, notamment dans les
projections de long terme utilisées dans le champ de l’énergie et du climat. Le seul fait stylisé qui
« percole » en dehors du débat de spécialistes est en fait la « trouvaille » de Barro et Sala-i-Martin
(1992), qui affirment que le taux de « rattrapage » de l’écart entre chaque entité et le leader dans les
ensembles considérés (régions, pays de l’OCDE, Monde) semble relativement constant et égal à 2%
par an, si bien que cette « règle » d’une convergence conditionnelle à 2% par an a un écho très
important dans les hypothèses retenues dans les projections de long terme (Ingenue, SRES). Comme la
conditionnalité reste difficile à traduire en pratique, on observe dans les faits un glissement silencieux
du résultat partiel de Barro et Sala-i-Martin vers un « axiome » de convergence absolue à 2% vers le
niveau des Etats-Unis35.

Pourtant, il existe une littérature très instructive – certainement trop peu exploitée dans les
projections de long terme – sur l’analyse des dynamiques de convergence à un niveau plus fin que
cette observation des 2% érigée en « règle ». Bernard et Jones (1996a, 1996b) font état du constat
décevant que les analyses empiriques des années 80 se sont focalisées sur des indices de productivité
agrégés, négligeant la question de la convergence technologique pour se concentrer uniquement sur

34
β étant le paramètre de vitesse de convergence vers l’équilibre stationnaire, dépendant de la fonction de
production agrégée, du taux de dépréciation, du taux de préférence pure pour le présent, de l’élasticité de l’utilité
marginale de la consommation et du taux de croissance de la productivité du travail.
35
Ces « pertes en ligne » sont un fait récurrent dans les pratiques des modélisateurs : les échos des recherches
fondamentales en économie se transforment et deviennent de plus en plus flous dans le processus de
transmission du théoricien jusqu’au modélisateur final.

- 52 -
l’accumulation du capital dans le modèle néoclassique, alors que la littérature d’après-guerre avait
identifié le rôle central du rattrapage technologique dans le phénomène de convergence
(Gerschenkron, 1952 ; Abramovitz, 1986) :
‘The debate over convergence has lost its way. From its initial concerns about the paths of output for
poorer nations, it has become mired down in a debate about 2% per year convergence rates and their
robustness or lack thereof. (…) both sides36 have remained fixated on the role of capital, either physical
or human, in determining long-run outcomes. (…) Almost completely forgotten by the empirical
literature is the role of technology. (…) To the extent that the adoption and accumulation of technologies
is important for convergence, the empirical convergence literature to date is misguided.’ (Bernard et
Jones, 1996b, p 1037)

De nombreuses études se consacrent à l’analyse de l’évolution de la productivité dans des secteurs


particuliers, notamment dans le secteur manufacturier (Bernard et Jones, 1996a ; Caree et al., 2000) et
le secteur énergétique (Miketa, 2001). Le regret de Bernard et Jones, que nous partageons, est que ces
études ne fertilisent pas la réflexion sur la convergence à un niveau global et les projections de long
terme des économies. Cho (1994) est un des rares exemples que nous avons pu trouver qui opère la
jonction, avec une analyse très intéressante du rôle de l’industrialisation dans le phénomène de
rattrapage. Le point de départ de cette analyse est l’identification du profil en « bosse » que l’on
observe sur les longues séries de taux de croissance de la productivité, notamment après-guerre pour
les pays de l’OCDE (Figure 5). A partir de ce fait stylisé, Cho montre que les facteurs usuels de
différenciation des régimes de croissance – démographie, taux d’éducation, ration investissement / PIB
– n’expliquent pas le profil d’accélération en bosse. Par contre, en intégrant dans la régression le taux
de croissance de la part de l’industrie dans la population active, Cho parvient à une estimation bien
plus précise et le rôle de l’industrialisation semble apparaître comme un facteur majeur de
convergence au sein des sous-ensembles de pays aujourd’hui développés.

9%

8%

7%
Japon
6%
France
5%
Allemagne
4% Royaume Uni

3% Australie

Canada
2%
Etats-Unis
1%

0%
1870-1913 1913-1929 1929-1938 1938-1950 1950-1973 1973-1992
-1%

-2%

Figure 5 : Taux moyens de productivité horaire

36
Fait allusion aux défenseurs de la « convergence » et à ceux de la « divergence ».

- 53 -
Source des données : Maddison, 2001

De manière très intéressante, cette dernière approche achève d’éclaircir le débat sur la
convergence et de relier plusieurs morceaux de pensée disjoints :
− L’observation d’une convergence au sein de l’OCDE mais d’une divergence globale lorsque l’on
inclut les PED ;
− L’idée d’une convergence en ‘clubs’ chère à Durlauf et Jonhson (1995) et Quah (1996) ;
− L’identification des mécanismes sous-jacents au phénomène de convergence/divergence globale :
rattrapage au niveau technologique et changement structurel des économies ;
− L’observation de périodes de une ou deux décennies d’accélération des gains de productivité du
travail dans les économies modernes,

La confrontation des pratiques usuelles des projections de long terme avec cet ensemble de
travaux théoriques et empiriques fait émerger des pistes d’amélioration des pratiques très claires :

a. Renoncer au « calibrage inverse » des trajectoires de référence pour mieux cerner les
incertitudes.
Une réévaluation des intervalles d’incertitudes sur la croissance future est nécessaire, pour pallier
à des pratiques qui négligent largement cette question. Cela suppose d’éviter le « calibrage
inverse » usuellement pratiqué, en partant des projections consolidées d’évolution des
productivités pour générer de manière endogène les trajectoires de croissance, sans postuler a
priori de fourchettes de trajectoires de PIB ad hoc. La croissance effective générée dans un tel
processus pourra ainsi incorporer les nombreux mécanismes qui interviennent entre le rattrapage
technologique en amont de la croissance et le rattrapage mesuré ex post sur la productivité réelle,
tel le commerce international, le changement structurel, les investissements cumulés, le degré
d’ouverture des secteurs, etc. S’il est effectué au niveau sectoriel, ce positionnement sera aussi un
moyen de reconstruire le lien entre les phénomènes macroéconomiques de convergence ou de
divergence et les mécanismes technologiques sectoriels qui génèrent ces phénomènes globaux, en
tenant compte des changements de composition des économies.

b. Approfondir la représentation des spécificités régionales et sectorielles


C’est le corollaire immédiat du point précédent : la formulation d’hypothèses ou la représentation
de mécanismes endogènes de rattrapage technologique et de changement structurel est un procédé
beaucoup plus complexe que la prescription d’une trajectoire de PIB de référence ad hoc. Un
apport d’information significatif est donc nécessaire : quels sont les niveaux de productivité
sectoriels actuels ? Quels secteurs sont exposés à la concurrence internationale ? Comment
évoluent les parts des biens dans la demande finale ? Quels sont les autres mécanismes de
changement structurel, comme la spécialisation indienne dans les services et chinoise dans les
produits manufacturés ? Quelles sont les externalités nationales liées à des dynamiques
transversales concernant l’éducation, la santé ou les infrastructures ? Un processus de construction
de scénarios au niveau international, tel que celui des SRES encadré par le GIEC, devrait
permettre de rassembler une telle expertise et d’affiner les projections.

c. Privilégier une représentation physique du monde économique et des technologies

- 54 -
L’ambition décrite ci-dessus a une contrepartie méthodologique qui concerne le design des
modèles. Les mesures usuelles de la productivité sont généralement effectuées en termes
monétaires, puisqu’à un niveau agrégé, la monnaie est le dénominateur commun permettant
d’agréger des secteurs ou des biens différents dans un seul indicateur. Pour pallier à l’écart entre
l’image monétaire et l’image physique de la technologie, on a habituellement recours à des indices
de prix, tels que l’indice des parités de pouvoir d’achat, qui permettent de se rapprocher de la vraie
taille des grandeurs physiques. Au niveau sectoriel, il est nécessaire et possible d’affiner les
variables des modèles censées représenter la productivité et les technologies en général, en
recourant le plus souvent possible à une représentation physique des biens produits. C’est à partir
de ces grandeurs physiques que la formulation d’hypothèses de convergence sera la plus
pertinente.

3.1.3 Déséquilibres temporaires ou chroniques : la grande lacune des modèles


?
Second volet de la représentation de la croissance économique, la prise en compte des
mécanismes de fluctuations de court terme est singulièrement absente des préoccupations des
économistes modélisateurs dans le champ de l’énergie et du climat. Les sentiers de croissance
économique représentés dans les scénarios de référence ou avec politiques climatiques ou énergétiques
sont toujours des sentiers équilibrés, pour deux raisons :

(i) Ce sont les modèles théoriques de la croissance de long terme (le modèle récursif de Solow-
Swan et le modèle intertemporel de Ramsey-Cass-Koopmans) qui ont été mobilisés et
incorporés dans les outils de prospective et ces modèles sont fondés sur une vision « équilibrée »
des sentiers de croissance, tant dans le dessein originel de leur créateur (Solow cherchait à
pallier les instabilités du modèle Harrod-Domar, Ramsey cherchait la trajectoire d’accumulation
optimale) que dans leur utilisation économétrique (les fluctuations étant intégrées soit dans le
résidu inexpliqué du changement technique soit dans un bruit blanc). Ces modèles n’incorporent
aucun déséquilibre, ni transitoire ni chronique, sur l’utilisation de la force de travail ou des
capacités installées.

(ii) Les modélisateurs du long terme ont l’habitude de fonder leurs simulations sur des hypothèses
régulières sans heurt, en argumentant que les fluctuations de court terme n’affectent pas les
tendances de long terme ; cela ne laisse aucune place aux possibles instabilités ou blocages
observés dans la réalité concernant les marchés énergétiques, les difficultés de développement
des pays les moins avancés, les déséquilibres extérieurs chroniques, ou encore le poids des
dettes nationales.

Cette approche est en général acceptable pour projeter les intervalles d’incertitude des émissions
à long terme, à partir des incertitudes en amont sur les déterminants économiques et techniques des
trajectoires futures. Mais elle nous semble par contre trop limitante pour l’évaluation des politiques
climatiques ou énergétiques, parce qu’elle conduit d’une part à négliger les effets de court terme des
chocs le long de la trajectoire, d’autre part à rester peu crédibles sur l’évaluation des coûts de
transition des politiques de réduction des émissions à court terme.

En ce qui concerne le premier point, nous pouvons citer deux types de chocs dont on conviendra
qu’ils ne sont pas anodins par les coûts qu’ils infligent à l’économie :

- 55 -
 Les chocs possibles sur les marchés de l’énergie, par une flambée directe des prix, ou par
une insuffisance de l’approvisionnement ; les exemples les plus évidents sont les chocs
pétroliers de 1973, 1979, et les phases de croissance rapide des prix comme en 1990 ou
entre 2004 et 2008.
 Des événements climatiques extrêmes – sécheresses, inondations, tornades – dont la taille
est suffisante pour déstabiliser une économie nationale ou régionale, comme les inondations
liées à l’ouragan Katrina à la Nouvelle Orléans en 2005 ou l’Ouragan Mitch au Honduras en
1998.

Il est crucial de pouvoir représenter ce type de chocs et les réactions d’ajustement qu’ils
provoquent dans l’économie, parce que les politiques énergétiques ou climatiques visent précisément
à minimiser les risques liés aux deux premiers types de chocs : recherche d’une plus grande
indépendance ou frugalité énergétique, réduction des émissions de GES pour limiter le changement
climatique, mesures d’adaptation préventive face aux événements climatiques. Du point de vue de
l’analyse coûts-bénéfices des politiques éventuelles, les bénéfices des chocs évités, ou dont la
propagation dans l’économie est atténuée grâce à ces politiques, peuvent représenter une part
significative des gains totaux. Les négliger conduit par exemple à conclure que le changement
climatique ne menace que quelques pourcents de PIB à un horizon de plusieurs décennies alors que de
nombreux chocs successifs peuvent entraîner une amplification des pertes de manière significative
(Ambrosi, 2004). Par ailleurs, politiquement, c’est une erreur de ne proposer comme aide à la décision
qu’une vision de long terme qui nivelle les fluctuations de court terme. Les cycles politiques courts et
l’existence plus ou moins explicite d’un mandat électoral pour une croissance stable sont des facteurs
importants pour le choix de politiques visant à rendre l’économie moins vulnérable aux chocs
externes.

Il est fréquent de rencontrer l’argument selon lequel on peut négliger les variations d’activité
entraînées par ces chocs autour de la croissance d’équilibre car elles n’affectent en principe qu’une
petite partie de l’activité économique et sont rapidement absorbées dans l’économie. La facture
pétrolière ou les secteurs vulnérables au changement climatique telle l’agriculture ne comptent en effet
que pour quelques pourcents du PIB, donc l’impact d’un choc, même important, sur ces faibles
portions de l’économie resterait négligeable37. Cet argument de comptabilité statique ne résiste guère à
l’observation des faits économiques réels, qui révèle au contraire de larges effets de propagation dans
tout le reste de l’activité économique.

Il existe par exemple une littérature très importante sur l’impact macroéconomique des chocs
pétroliers38, selon trois axes méthodologiques (Jones et Leiby, 1996) :

 L’estimation économétrique des effets durables d’un choc permanent sur le prix du pétrole, en
utilisant des modèles de croissance à un seul bien et avec plein emploi des facteurs de production ;
ces travaux négligent les mécanismes de propagation et d’ajustement de court terme et fournissent
en fait une borne inférieure du coût des chocs pétroliers, en représentant un déplacement sans
frictions d’un optimum à l’autre le long de la frontière de production.

37
Comme par exemple (Tobin, 1980), cité par (Jones et Leiby, 1996).
38
On trouvera trois revues complètes successives dans (Mork, 1994), (Jones et Laiby, 1996), (Jones et al., 2004)

- 56 -
 La simulation des ajustements de court et long terme à un choc pétrolier, grâce à des modèles
macroéconométriques adaptés pour intégrer le facteur énergie et permettant de décrire certains
mécanismes d’ajustements via le marché du travail par exemple : le groupe de travail EMF-7
(Energy Modelling Forum Study Group 7, Hickmans et al., 1987) conclut que la plus grosse partie
des pertes d’activité est liée à l’ajustement des marchés de l’emploi et des autres facteurs de
production, à cause du chômage supplémentaire et d’une moindre utilisation des capacités
installées :
“An important EMF study conclusion is that, of the GNP losses, the potential (full employment) losses
typically comprise only a small fraction, while the dominant losses appear to be the ‘cyclical’ losses
(…), where actual output is reduced more than potential output due to labor and other factors
unemployment” (EMF-7 Working Group, 1987, p. 21).39

 L’estimation économétrique de la contribution des variations de prix du pétrole aux cycles


économiques (real business cycles), pour tenter de dissocier la part des chocs pétroliers dans les
récessions des autres facteurs de récession éventuels (conditions préexistantes d’inflation,
politiques d’ajustement monétaires, etc.).

Il est notable que cette littérature abondante n’a eu que peu d’incidence sur la conception des
modèles de prospective à long terme et la représentation des effets d’ajustements de court terme. D’un
côté les quelques travaux traitant du sujet des chocs pétroliers à partir de modèles de prospective
tombent dans la première des trois situations ci-dessus : ils ne représentent pas les mécanismes
d’inertie et d’ajustement qui semblent être les principaux déterminants des pertes liées aux chocs
pétroliers, comme les paradigmes théoriques de représentation de la croissance de long terme sur
lesquels ils sont fondés, et dont le succès tient justement en partie à leurs propriétés de stabilité. De
l’autre côté, les deux autres méthodes d’investigation citées ci-dessus sont économétriques et se
prêtent mal à une extrapolation générale des mécanismes sous-jacents.

Pour la question des dommages climatiques, c’est à partir d’un diagnostic similaire sur
l’absence d’outils adaptés à l’analyse des effets de propagation des chocs que Hallegatte (2005) a
développé une approche originale avec le modèle NeDym, inspiré notamment des travaux de Kalecki
sur les délais d’investissements. Ce modèle dynamique compact réconcilie un comportement « à la
Solow » sur le long terme avec des effets d’ajustement de court terme sur les investissements et le
marché de l’emploi. Les travaux d’évaluation des conséquences dynamiques des événements extrêmes
sur une économie montre toute la richesse potentielle de cette approche (Hallegatte et al., 2007),
notamment en permettant de reconstituer des états de récession chronique au-delà d’un seuil de
dommages (situation semblable aux difficultés de reconstruction du Honduras) ou de résilience rapide,
en fonction des conditions économiques préexistantes.

Plus généralement, l’étude des cycles et des déséquilibres a généré un important corpus de
travaux sur lequel il serait possible de s’appuyer. Face à l’existence cyclique ou permanent de
chômage et de sous-emploi des capacités, certains économistes se sont concentrés sur les mécanismes
d’ajustement ou de non-ajustement qui peuvent les expliquer. C’est le cas de M. Kalecki (1939), J. M.
Keynes (1936), N. Kaldor (1940), ou encore Goodwin (1951), qui ont cherché à expliquer les cycles

39
Cité par (Jones et Leiby, 1996).

- 57 -
d’activité ou les crises observés dans l’économie réelle – la crise de 1929 étant à l’origine d’une partie
importante de ces questionnements – et à développer une expertise macroéconomique valable à court
ou moyen terme. Pour cela, ces économistes ont poussé leurs investigations vers des mécanismes
différents : des non-linéarités (Kaldor, Goodwin), le rôle de la monnaie et le crédit (Keynes), les délais
d’investissements (Kalecki) ou encore des anticipations imparfaites (Hicks, 1939).

Mais l’effort à réaliser pour améliorer la représentation du court terme dans les modèles de
prospective énergie-climat n’est pas seulement un alignement nécessaire sur les connaissances
théoriques ou empiriques accumulées dans d’autres spécialités de science économique, comme c’était
le cas pour la représentation du progrès technique ou du rattrapage. Ici, l’enjeu est très ambitieux
puisqu’il consiste à tenter ce rapprochement que Solow (2000) appelait de ces vœux entre croissance
néoclassique sur le long terme et mécanismes keynésiens à court terme. Les deux approches qu’il
s’agit d’intégrer sont à la fois complémentaires et difficilement réconciliables :

 D’une part, leur complémentarité vient clairement du fait qu’elles débouchent chacune sur une
représentation éclairante mais totalement différente sur la croissance économique : d’un côté le
fonctionnement pérenne des économies sur de longues périodes de plusieurs décennies, de l’autre
les variations et déséquilibres caractéristiques des dynamiques de croissance à plus court terme.
Très schématiquement, la Figure 6 illustre les deux points de vue : la question du fonctionnement
et de la pérennité de la croissance à long terme est l’étude du graphe supérieur (qu’il est possible
d’approcher par une courbe exponentielle régulière avec un coefficient de détermination de
0.9934 !) tandis que l’examen des déséquilibres de court terme vise plutôt la compréhension des
mécanismes à l’œuvre derrière le second graphe, qui montre une grande variabilité du taux de
croissance annuel. Il s’agit pourtant de la même réalité économique.

 D’autre part, la difficulté de réconcilier les deux approches vient de la formulation « opposée » de
leurs objectifs scientifiques : l’étude des trajectoires à long terme se focalise sur les régimes
stationnaires et les conditions de leur stabilité, tandis que les économistes keynésiens ont cherché à
comprendre les mécanismes de déséquilibre, d’ajustement ou de non ajustement qui expliquent les
cycles de l’activité économique sur des pas de temps plus courts, les crises économiques et le
sous-emploi des facteurs de production.

Solow (2000) nous fournit un exemple frappant des difficultés à faire dialoguer les deux approches :
“In a sharp review of James Tobin's Asset Accumulation and Economic Activity (1980) he insisted, as I
remember, that any attempt to be "Keynesian" in the short run and"neoclassical" in the long run is
simply illogical. I can see what he meant. How does someone who is being Keynesian from quarter to
quarter ever stop? How does someone who is being neoclassical ever find room for a fixed-price
interlude when markets do not clear?” (pp. 157-158)

Mais quelques lignes plus bas, il fournit sa propre vision imagée de cette dichotomie, proche de notre
illustration graphique ci-contre :

“When I walk around Boston or sail around Vineyard Sound I navigate without hesitation as if the
earth were flat, and I get there just fine. If I were flying to Timbuktu or sailing to Sydney, I would
surely navigate as if the earth were spherical. The analogy is not perfect. Here is a rather better one
that I understand less well: in everyday life, I am assured, Newtonian physics is perfectly

- 58 -
adequate, but over much longer distances and higher velocities it would be a bad mistake to omit
relativistic effects. Presumably there are intermediate velocities at which the choice might be
worth thinking about.” (p. 158)

9 000
8 000 R 2 = 0.9934
milliards de dollars GK 1990

7 000
6 000
5 000
4 000
3 000
2 000
1 000
0
1 87 0 1 880 1 890 1 900 1 91 0 1 920 1 930 1 940 1 950 1 960 1 97 0 1 980 1 990 2000

20%

1 5%

1 0%

5%

0%
1 87 0 1 880 1 890 1 900 1 91 0 1 920 1 930 1 940 1 950 1 960 1 97 0 1 980 1 990 2000
-5%

-1 0%

-1 5%

-20%

Figure 6 : Croissance économique de long-terme – deux points de vue différents


a. PIB réel des Etats-Unis, Dollars Geary-Khamis International 1990.
b. Taux de croissance du PIB réel des Etats-Unis, données identiques.
Données : (Maddison, 2003)

Il existe néanmoins un certain nombre de pistes pour disposer d’un cadre de pensée satisfaisant
pour envisager à la fois les tendances de long terme et les fluctuations possibles à court terme. Sans
être exhaustif, nous pouvons souligner par exemple les travaux de J. Hicks (utilisation de l’équilibre
général statique dans un processus séquentiel, Hicks, 1939 ; théorie de la traverse temporelle, Hicks,
1973 ; concepts flexprice et fixprice, Hicks, 1965), N. Kaldor (cycles endogènes, Kaldor, 1940), J.
Robinson (extension du modèle de Kalecki sur le long terme, Robinson, 1956), L. Johansen (fonction
de production putty-clay et inertie, Johansen, 1959) ou encore E. Malinvaud (sentiers de croissance
avec rigidité des salaires, Malinvaud, 1977). Tous ont en commun d’avoir mis l’accent sur une
représentation séquentielle des trajectoires de long terme comme succession d’équilibres parfois
partiels, de transitions ou de déséquilibres à court terme. Solow (2000) nous livre son verdict sur ces

- 59 -
développements en jugeant que la jonction théorique entre la macroéconomie de court terme et celle
du long terme n’est pas encore réalisée, tout en reconnaissant les progrès réalisés vers cet objectif,
notamment du côté de l’étude des fluctuations cycliques.
Il faut noter que, dans un certain nombre de ces tentatives, la représentation des fluctuations et
des ajustements de court terme passe par l’abandon de certaines d’hypothèses d’optimalité,
d’anticipations parfaites ou de mobilité instantanée des facteurs. En fait, c’est ici qu’affleurent les liens
étroits entre la représentation du phénomène de croissance et celle des univers techniques, comme
nous allons le voir dans la partie suivante.

3.2 La représentation des systèmes techniques

Le second volet de notre diagnostic sur l’état de l’art de la modélisation prospective se rapporte
à la description des techniques et à leur évolution le long des trajectoires de croissance. En traitant ce
sujet comme une partie disjointe du diagnostic sur les modes de représentation de la croissance que
nous venons de dresser dans la première partie de ce chapitre, nous prenons le risque de laisser
entendre au lecteur que ce sont là deux sujets indépendants. Or, on ne peut analyser indépendamment
la croissance quantitative des économies d’une part et leur contenu technique et matériel d’autre part.
En effet, comme nous l’avons montré dans le paragraphe 3.1.2 à propos de la formulation des
hypothèses de rattrapage, le traitement purement macroéconomique et monétaire du moteur de la
croissance n’est qu’un moyen d’encapsuler dans une forme compacte la dynamique globale résultant
des mécanismes multiples en jeu dans la croissance économique, notamment l’évolution simultanée
des systèmes techniques. Les pistes de recherche esquissées en conclusion du paragraphe 1.2 sont
d’ailleurs explicites : les méthodes économétriques appliquées à un niveau très agrégé ne permettent
pas de déterminer quelles sont les hypothèses les plus plausibles – convergence ou divergence – à
adopter pour les trajectoires futures. Il est souhaitable de descendre à un niveau d’agrégation plus
détaillé pour expliciter les mécanismes sectoriels pouvant justifier l’une ou l’autre des hypothèses
globales et cette désagrégation nous ramène au problème de la représentation des systèmes techniques
et de leur évolution.

En sus de cette observation générale – elle concerne toute projection de croissance sur le long
terme – il nous faut préciser que la nature même des préoccupations énergétiques, climatiques ou de
toute autre problématique de ressources et de développement durable (eau, biodiversité, sols, santé,
etc.) impose de représenter explicitement le monde physique sous-jacent à tout sentier de croissance
future. Le changement climatique est une question de tonnes de gaz à effet de serre, qui dépendent
elles-mêmes des tonnes d’acier ou de ciment produites, des voyageur-kilomètres parcourus, des tonnes
de charbon, de gaz et de pétrole brûlées, des hectares de forêts dévastés, etc. La contrepartie de ce
monde « physique » dans la sphère « monétaire » s’obtient via le jeu des prix relatifs et par la
médiation des monnaies (sauf dans le cas des externalités), dont les variations sont en général régies
par des mécanismes de marché et de régulation économique. Sans une explicitation simultanée du
monde physique et de son « image » monétaire, il est impossible de représenter les interactions des
changements de prix relatifs et de revenus d’un côté et de la base matérielle de la croissance –
technologies, demande finale – de l’autre, à un niveau suffisamment détaillé pour décrire la chaîne des
déterminants entre activité économique et émissions.
Cette représentation duale est précisément la ligne de fracture entre modèles technico-
économiques et modèles macroéconomiques, comme nous l’avons mis en évidence dans le précédent
chapitre en revenant sur la chronologie du développement des modèles. Le clivage entre les deux

- 60 -
approches va bien au-delà d’une simple difficulté de dialogue entre deux approches « disciplinaires »
opposées, il établit une jonction continue entre un dossier théorique encore irrésolu – la
représentation des possibilités techniques – avec une demande forte de résultats du côté de
l’expertise – dans la terminologie du GIEC, l’évaluation des potentiels de réduction dans les différents
secteurs de l’économie et l’analyse des barrières à la réalisation de ces potentiels. Dans l’état actuel
des diverses méthodes de modélisation, les décideurs sont confrontés à des intervalles d’incertitude
très larges et peu éclairants sur ces potentiels. Pour améliorer la qualité et l’utilité du diagnostic
scientifique, il faut franchir une étape supplémentaire de validation des potentiels « techniques » pré-
identifiés selon des approches « bottom-up » dans une représentation globale des économies réelles et
imparfaites. Pour cela, nous pensons utile d’effectuer un retour en amont sur les bases théoriques de la
ligne de fracture entre les modèles, afin de disposer d’éléments de clarification sur le cahier des
charges d’une modélisation hybride à même de nous faire franchir cette étape supplémentaire.

3.2.1 Les enjeux du clivage historique « bottom-up » vs. « top-down »


La persistance de ce clivage entre modèles est directement liée à l’existence historique de deux
« chapelles » de modélisation et à la difficulté d’harmoniser les credo de chaque approche. En réalité,
dès l’origine, les fondations de chacun des deux programmes scientifiques incarnent des visions
totalement différentes du monde économique et technique :

 L’approche technico-économique est fondée sur une vision partielle de l’économie, puisqu’elle
se focalise uniquement sur le système énergétique, de la production d’énergie primaire à la
fourniture de services énergétiques finaux, le reste de l’économie n’étant représenté qu’en tant que
consommateur final de ces services. La représentation du système énergétique consiste d’abord en
une énumération la plus exhaustive possible des technologies existantes et de leurs caractéristiques
(coûts, rendements, capacités installées), avec des degrés d’agrégation variables selon les modèles,
pouvant atteindre une grande précision (par exemple 280 technologies d’usage finaux dans
AIM/EndUse, Shukla et al., 2003). Il s’agit d’une information tangible, exprimée en unités
physiques, discutable et aisément vérifiable auprès des ingénieurs énergéticiens. A partir de la
description exhaustive des technologies disponibles ou potentiellement disponibles à un certain
horizon, les modèles technico-économiques représentent l’évolution du système énergétique et
éventuellement des marchés énergétiques. Cette évolution résulte soit d’une stratégie
d’optimisation (modèles de la famille MARKAL ou GLOBAL 2100) ou bien des règles de
comportement des agents intervenant dans le système énergétique (modèles de simulation de la
famille Edmonds-Reilly).

 L’approche macroéconomique est fondée sur une vision globale de l’économie, à un degré
d’agrégation élevé, pouvant aller d’un bien unique (modèle DICE) à plusieurs dizaines de secteurs
productifs (par exemple 16 secteurs dans EPPA v4, 12 dans G-Cubed, 14 dans GEMINI-E3, plus
de 200 dans AMIGA). Dans un modèle « top-down » (type GREEN ou DICE), l’activité
économique est décrite à chaque instant t par une fonction de production, globale ou pour chaque
secteur, reliant la production Y aux quantités de facteurs de production utilisées K (capital), L
(travail), E (énergie) et M (biens intermédiaires) :

Yt = ft ( K t , Lt , Et , M t ) (1.2)

- 61 -
Quelle que soit sa forme mathématique, une telle fonction est censée représenter l’ensemble des
combinaisons possibles de facteurs de production permettant de produire une unité du bien
considéré. Les technologies existantes dans chaque secteur ou dans l’économie toute entière sont
donc décrites d’une manière abstraite à travers cet ensemble de combinaisons possibles. Cette
approche peut être interprétée comme une dérive de l’utilisation par Solow (1988) d’une telle
fonction au niveau agrégé, alors qu’il mettait en garde lui-même sur l’interprétation « technique »
de sa fonction agrégée :

“This ‘Wrinkle’ is acceptable only at an aggregate level (for specific purposes) and implies to be
cautious about the interpretation of the macroeconomic production functions as referring to a
specific technical content.”

Dans les modèles « top-down » actuels, la forme mathématique et le paramétrage des fonctions de
production sont considérés comme des moyens de décrire différentes possibilités de substitutions entre
les facteurs. La complexité de ces fonctions est très variable :

- Dans le modèle compact DICE, l’économie est résumée par une fonction Cobb-Douglas :

Yt = Ωt ⋅ At ⋅ K t γ ⋅ Lt1−γ (1.3)

Les paramètres Ω(t) et A(t) correspondent respectivement à l’effet du changement climatique sur la
productivité et à la productivité générale des facteurs. L’utilisation d’une telle fonction pour décrire
l’ensemble des possibilités techniques d’une économie découle directement de l’approche adoptée par
Solow (1955, 1957) :
“It occurred to me very early, as a natural-born macroeconomist, that even if technology itself is not so
very flexible for each single good at a given time, aggregate factor intensity must be more variable
because the economy can choose to focus on capital-intensive or labor-intensive or land-intensive
goods.” (Solow, 1988, p. 308)

- Dans les modèles multisectoriels, de type GREEN, les fonctions de production peuvent être
beaucoup plus complexes. Les modélisateurs ont très largement adopté les fonctions CES (Constant
Elasticity of Substitution) imbriquées, comme le montre la Figure 7 relative au modèle EPPA. Dans
l’arbre de cette figure, on distingue :

(i) les nœuds « perpendiculaires » comme celui de l’étage supérieur, symbolisant une fonction
de type Leontief, autrement dit une combinaison de facteurs non-substituables en proportions
fixes pour chaque unité produite – dans ce cas précis ce sont les biens et services
intermédiaires hors énergie et l’agrégat capital-travail-énergie (KLE) ;

(ii) les nœuds « triangulaires » comme sous l’agrégat KLE, représentant une fonction CES
(avec une élasticité de substitution σ), autrement dit une combinaison de facteurs
substituables, ici l’agrégat énergie et la valeur ajoutée.

- 62 -
Figure 7 : structure de production des secteurs Industries et Services dans EPPA 4 (Paltsev. et al. 2005)

En théorie, les deux approches ne sont pas incompatibles, puisqu’elles se focalisent sur des
niveaux d’agrégation différents. Plusieurs auteurs ont tenté d’apporter des éclaircissements théoriques
sur une réconciliation générale des niveaux micro et macro (voir par exemple Lévy-Garboua et
Denizot, 1972 ; Malinvaud, 2002). Une des contributions les plus éclairantes concernant les fonctions
de production nous semble être celle de Leif Johansen (1972), parce qu’elle opère une jonction à la
fois théorique, empirique et opérationnelle des deux approches. Johansen (1972, ch. 2) distingue
quatre types de fonctions de production, d’abord selon le niveau d’agrégation concerné – micro ou
macro – et ensuite selon le point de vue temporel considéré – à court terme ou à long terme. En se
limitant tout d’abord à la dimension micro-macro, il démontre comment le procédé d’agrégation
d’unités de production multiples est susceptible d’opérer la transformation de fonctions de production
linéaires à coefficients constants en une fonction de production à facteurs substituables. Il analyse
ensuite la différence de flexibilité entre les fonctions à court terme et à long terme, posant les bases du
modèle « putty-clay » très utilisé depuis et répondant par là à un questionnement central de Solow sur
le caractère incorporé de la technologie et sur les insuffisances de son propre modèle en la matière.
Ces travaux théoriques et empiriques – Leif Johansen complète sa démonstration par un cas d’étude
sur le secteur du transport maritime en Norvège – fournissent une approche efficace pour réconcilier
les approches bottom-up et top-down, approche que nous avons essayé de reprendre à notre compte
dans la justification du modèle Imaclim-R dans les chapitres suivants.

Pour comprendre à quel point la coexistence des deux approches constitue l’un des obstacles
principaux à leur fertilisation réciproque, on peut revenir à l’exemple de la Figure 7 ci-dessus.
Supposons qu’il y ait, dans un secteur donné, une substitution de source énergétique du pétrole au gaz
suite à une hausse du prix du pétrole. Dans un modèle « bottom-up », cette substitution sera
représentée via un changement de technologie et le ratio de substitution pétrole-gaz (nombre d’unités
de gaz en plus pour remplacer une unité de pétrole qui n’est plus consommée) va dépendre
uniquement des rendements relatifs de transformation du pétrole et du gaz en service énergétique final.
Dans le modèle « top-down » schématisé ci-dessus, la substitution va s’opérer avec une élasticité de
substitution σEN constante, reliant les pourcentages d’augmentation du gaz consommé et de diminution
du pétrole consommé aux variations des prix relatifs, si bien que le ratio de substitution en quantité

- 63 -
dépendra des parts initiales de pétrole et de gaz dans le mix énergétique du secteur, ce qui semble
aberrant du point de vue des technologies censées sous-tendre une telle substitution. Nous nous
trouvons ici dans un cas où les deux types de représentation des technologies semblent
irréconciliables. Cet artefact a été pointé plus généralement par Frondel et Schmidt (2002) à partir
d’une revue systématique des évaluations d’élasticité capital-énergie pour le calibrage des fonctions de
production agrégées :

“inferences obtained from previous empirical analyses appear to be largely an artefact of cost
shares and have little to do with statistical inference about technology relationship” (Frondel and
Schmidt, 2002, p.72)

En fait, probablement plus préoccupés par la nécessité de produire des résultats avec les modèles
dont ils disposent, mais aussi marqués par leurs propres réflexes intellectuels, les protagonistes des
deux « modelling tribes » n’ont pas prêté beaucoup d’attention au fait que derrière la difficulté
d’établir un dialogue entre les deux modes de représentation des technologies, ressurgissaient des
éléments de la controverse théorique « des deux Cambridge ». Cette controverse, qui s’étendit du
milieu des années 50 au début des années 70, opposait les économistes de Cambridge, UK (notamment
Joan Robinson, Sraffa, Pasinetti, Garegnani, Champernowne,) et ceux de Cambridge, USA
(Samuelson, Solow, Hahn, Bliss), avec des débats « à tiroirs » sur la représentation des itinéraires
techniques et des choix de production. Cohen et Harcourt (2003) resituent le point de départ de cette
controverse à la publication de l’article « The Production Function and The Theory of Capital » de
Joan Robinson en 1954. Joan Robinson y attaque avec passion la vision néoclassique de la fonction de
production et de son utilisation « à l’optimum » avec l’argument qu’elle implique une vision erronée
de la réalité économique. Le malaise des Cambridgiens anglais se décline selon plusieurs axes :

- Le caractère abstrait et indéfini du concept de capital utilisé dans la fonction de production


néoclassique, et par conséquence les problèmes de mesure de ce capital ;

- Le lien automatique entre les propriétés techniques de l’appareil de production (représentées par
les ratios des facteurs de production) et la distribution du revenu entre capitalistes et travailleurs à
l’optimum ;

- L’impossibilité de rendre compte, avec une fonction de production néoclassique de type (1.3), de
phénomènes comme le retour des techniques40 (reswitching) ;

- A un niveau plus global, l’inadéquation du cadre de l’équilibre statique ou de l’équilibre


stationnaire pour décrire le processus de croissance et d’accumulation.

Malgré des débats animés pendant deux décennies, toutes ces questions n’ont pas trouvé de
solution consensuelle. Si une partie importante des critiques adressées à la théorie néoclassique par les
cambridgiens anglais a été reconnue comme pertinente et importante, on ne peut que constater que le
paradigme néoclassique a résisté à cette attaque intellectuelle et s’est maintenu comme paradigme

40
Le retour des techniques est la possibilité qu’il existe une technique plus profitable pour des taux d’intérêt
élevés ou faibles et une autre technique privilégiée entre les deux. Cela fait partie des « effets de Wicksell »
(Wicksell, 1911 ; Samuelson, 1966 ; cités dans Cohen et Harcourt, 2003).

- 64 -
dominant. La première raison de cette apparente « victoire » semble être l’absence de proposition
crédible et opérationnelle pour fournir une alternative à la fonction de production agrégée :
« Deux conclusions devraient être claires sur ce qu’il faut dire aujourd’hui de la querelle entre les deux
Cambridge, près de trente ans après. D’une part, les formes possibles des contraintes techniques et de
leurs répercussions sur le système des prix d’équilibre sont tellement variées que la grande majorité des
conjectures relatives à des propriétés générales de statique comparée se sont révélées trompeuses (…).
En particulier la déduction logique pure ne peut pas justifier à elle seule la liaison étroite entre agrégats
et indices que les fonctions de production agrégées expriment. D’autre part, la critique des fonctions de
production s’est avérée totalement inefficace, car elle n’a proposé aucune alternative aux démarches
actuelles (…). » (Malinvaud, 1993a)

La seconde raison de cette survie semble être l’effet du temps sur le fond théorique de la
controverse : après une période de « convalescence », la résilience du paradigme néoclassique a été
alimentée par le dynamisme des nouvelles théories de la croissance et par l’oubli relatif du contenu des
controverses passées :
« The Cambridge controversies, if remembered at all, are usually portrayed today as a tempest in a
teapot over anomalies involving the measurement of capital in aggregate production function models,
having a little significance for the neoclassical marginal productivity theory of distribution as do Giffen
good anomalies for the law of demand. When theories of endogenous growth and real business cycles
took off in the 1980s using aggregate production functions, contributors usually wrote as if the
controversies had never occurred and the Cambridge, England contributors had never existed (Robinson
and Sraffa obliged by dying in 1983). Since neoclassical theory has survived and the challengers have
largely disappeared, the usual conclusion is that the “English” Cantabrigians were clearly wrong or
wrong-headed.” (Cohen et Harcourt, 2003, p. 200)

En fait la difficulté que nous rencontrons dans le domaine énergétique de réconcilier l’approche
des fonctions de production agrégées avec la vision des ingénieurs qui disposent des connaissances
technologiques fait écho au malaise initial de Joan Robinson : ces fonctions agrégées, aux propriétés
mathématiques « arrangeantes » pour la résolution des modèles, forment des « boîtes noires » difficiles
à raccorder au contenu physique et technique de l’économie. C’est en particulier le cas de ce que l’on
appelle le « capital productif », à propos duquel Joan Robinson faisait remarquer qu’on ne pouvait pas
le mesurer sans disposer d’un système de prix relatifs, sauf s’il était homogène, « comme de la gelée ».
L’impossible réconciliation dont nous parlons ici devient un obstacle très concret à la projection
cohérente des économies et de leur contenu technique, matériel et énergétique. A cause de cela, les
différences de représentation des paradigmes « bottom-up » et « top-down » ne se cantonnent pas à un
débat méthodologique de spécialistes, mais elles impliquent des perceptions différentes des enjeux de
la réduction des émissions de GES, des stratégies d’action et des instruments à mobiliser.

Dans la vision « bottom-up », la nécessité de réduire des émissions de GES est directement
traduite en termes d’adoption des technologies plus efficaces et/ou non carbonées pour la satisfaction
des mêmes services énergétiques. Dans un cadre « top-down » l’enjeu dépasse le changement
technique « pur » car une stratégie de réduction comporte un mélange de changement technique, sous
forme de substitutions entre facteurs et de progrès d’efficacité énergétique, de changement structurel,
et de contingentement des activités émettrices.

- 65 -
Du point de vue des instruments de mise en œuvre de la stratégie de réduction, ces différences
modifient les préconisations dans les deux cas : dans la vision « bottom-up », il s’agit d’orienter les
investissements vers les technologies non carbonées et plus efficaces, via des taxes, des subventions,
ou des efforts de R&D qui vont modifier l’attractivité relative des options disponibles. Dans la vision
« top-down », il s’agit d’internaliser dans le système des prix relatifs la valeur d’une tonne de carbone
émise afin que l’ensemble de l’économie s’adapte au coût social de cette tonne émise en substituant,
du côté de la demande, les activités peu émettrices aux activités émettrices et, du côté de l’offre, les
différents intrants de la production, pour consommer en moindre quantités les biens dont les prix ont le
plus augmenté à cause du prix du carbone, à commencer par les énergies fossiles.
Du point de vue des coûts de réduction, l’effet d’un signal-prix du carbone est très différent
dans chacun des deux cas. Dans les modèles bottom-up, le coût de réduction est limité au différentiel
de coût complet de fourniture du service énergétique lié à la contrainte sur les émissions, en tenant
compte de la réduction des capacités de production nécessaires, grâce aux gains d’efficacité du côté de
la demande. En général, ce coût net purement « technique » est faible par rapport à l’activité
économique globale mesurée par le PIB. Dans les modèles top-down, la propagation de la valeur du
carbone dans tout le système des prix relatifs provoque des ajustements dans l’ensemble de
l’économie, ce qui laisserait penser que les coûts peuvent être plus élevés. Mais il faut aussi tenir
compte du possible bénéfice du recyclage des ressources de la taxe carbone, susceptible de diminuer
considérablement le coût net. Au final, les méta-analyses des résultats des modèles montrent que les
différences d’évaluations des coûts d’un objectif de réduction donné sont moins liées au type de
modèle qui sert à les générer qu’aux hypothèses et paramètres introduits dans le modèle (Hourcade et
Robinson, 1996).

Malgré cela, la littérature fait régulièrement allusion à « l’optimisme du paradigme des


ingénieurs » contre le « pessimisme des économistes » (GIEC, 1995, §8.4.1). Cette vision est
alimentée en particulier par la question de l’existence des potentiels sans regret. Un « potentiel sans
regret » est une opportunité de changement technologique dont les bénéfices nets sont positifs même
en dehors de tout changement climatique. Cela peut donc se décliner sous deux formes : en statique,
lorsqu’il existe un écart (« efficiency gap ») entre le panier technologique qui serait optimal compte
tenu des prix courants et le panier des technologies installées ; en dynamique, lorsqu’on se réfère à un
scénario qui ne correspond pas à un équilibre intertemporel et que la politique carbone est susceptible
de remédier à certaines inefficacités41. D’un point de vue théorique, ce débat n’est pas lié au clivage
bottom-up / top-down dans la description des technologies, mais aux hypothèses d’optimalité
incorporées dans les modèles. On peut en effet représenter des potentiels sans regret dans les deux
familles de modèle, à partir du moment où l’état initial ou le scénario de référence comportent des
sous optimalités. En fait, si l’on revient aux 5 familles de modèles identifiées dans le chapitre 1, il
apparaît que les potentiels sans-regrets ne sont représentés que dans la famille Edmonds-Reilly et une
partie des modèles de la famille GREEN42. Pourtant, dans les débats entre spécialistes, le débat des

41
Comme le soulignent Baron et Hourcade (1994), ce concept peut être étendu à une définition plus large de
l’écart entre situation présente et situation optimale, sous le vocable « optimality gap », en tenant compte aussi
(i) des bénéfices collatéraux de certaines décisions (sur la sécurité énergétique, la qualité de l’environnement
local, etc.), (ii) des bénéfices macroéconomiques en cas de réforme fiscale bien conduite.
42
En fait, l’introduction de rendements croissants dans les modèles d’optimisation, avec la représentation du
progrès technique induit, peut générer un nouveau type de « sans regrets », à cause de l’existence de plusieurs
optima locaux. Imaginons un cas où le scénario de référence corresponde à un de ces optima, mais pas à

- 66 -
sans regret s’est aligné sur la ligne de clivage bottom-up / top-down. Cela peut s’expliquer par les
visions sous-jacentes aux différents types de modèles : l’intuition d’ingénieur des modélisateurs
« bottom-up » est qu’il existe de tels potentiels dans la situation courante, l’exemple le plus souvent
cité étant les ampoules basse consommation. Au contraire, le réflexe intellectuel des économistes, pour
la plupart fidèles à une boîte à outils qui, par défaut, décrit un monde optimal en tous points du temps,
est que toute sous optimalité apparente est en fait liée à des imperfections de marché ou des coûts mal
identifiés : asymétrie d’information, coûts de transaction, coûts intangibles, préférences individuelles,
etc. De fait, l’analyse courante dans les approches bottom-up est qu’il existe des marges de manœuvre
techniques très larges et à des coûts raisonnables pour rendre plus efficace ou décarboniser le système
énergétique. A l’opposé, la tendance initiale des modèles top-down était vers des coûts plus élevés à
cause des mécanismes de rétroaction macroéconomique et de l’effet du fardeau d’une taxe carbone sur
les secteurs non-énergétiques (GIEC, 1995, §8.4.3). La modélisation plus fine du recyclage des
revenus de la taxe a ensuite conduit à des évaluations plus optimistes, mais le diagnostic initial sur
l’optimiste des ingénieurs et le pessimisme des économistes est devenu un cliché résistant.

Paradigme Bottom-up historique Paradigme Top-Down historique


 Représentation globale de la croissance
économique et des effets d’équilibre
 Représentation détaillée des technologies
général
et des contraintes techniques
 Représentation des comportements de
Forces  Respect des contraintes physiques
consommation et de production
 Permet une discussion des paramètres
 Prise en compte des effets
tangibles
macroéconomiques des politiques, effets
rebonds, recyclages des taxes, etc.
 Description optimale et agrégée des
comportements
 Représentations non tangibles des
 Vision limitée au secteur énergétique,
technologies
sans prise en compte des effets de
Faiblesses bouclage macroéconomique
 Contradiction entre les fonctions de
production flexibles et les contraintes
 Peu de prise en compte des préférences
techniques et thermodynamiques
et des comportements (coûts intangibles)
 Faiblesse empirique des valeurs utilisées
pour les paramètres d’élasticités
(ESUB43 par exemple)

Tableau 6 : Forces et faiblesses des paradigmes BU et TD

Le Tableau 6 résume les forces et faiblesses des deux types de modèles. On trouve encore
aujourd’hui, dans le paysage des outils utilisés, de nombreux modèles dont la seule évolution par
rapport aux paradigmes ci-dessus réside dans une désagrégation et une complexification plus grande.

l’optimum global. Alors des instruments faisant bifurquer la trajectoire vers l’optimum global peuvent faire
apparaître des coûts négatifs.
43
Le paramètre ESUB – Elasticity of Substitution – est le paramètre qui détermine la facilité des substitutions
entre différents facteurs de production (énergie, capital, travail, ou énergie carbonée vs. non carbonée). Une
valeur élevée de cette élasticité impliquera un coût modéré du changement technique.

- 67 -
Au contraire, comme nous l’avons mentionné dans le premier chapitre, l’identification claire des
insuffisances de part et d’autre a aussi conduit à des tentatives de couplage ou d’hybridation.

Mark Jaccard (2005) énonce de manière éclairante le défi posé aux modélisateurs dans ces
efforts d’hybridation : selon lui, l’utilité d’un modèle pour l’aide à la décision dépend de son aptitude à
décrire l’économie en tenant compte de trois composantes : (i) la représentation détaillée de
l’ensemble discret des technologies disponibles, (ii) les préférences individuelles et la formation des
arbitrages, (iii) la prise en compte des effets de système entre politiques énergétiques et le reste de
l’économie. La Figure 8, tirée de Hourcade, Jaccard et al. (2006), permet de resituer les paradigmes
historiques BU et TD dans cet espace tridimensionnel :

 Le paradigme bottom-up historique est surtout orienté selon l’axe de la représentation la plus
explicite possible des technologies. Sa capacité à décrire de manière satisfaisante le
comportement des agents est variable. Dans le modèle MARKAL, ce comportement est très
simple, puisqu’il revient à suivre les recommandations d’un planificateur bienveillant qui
minimiserait le coût global du système énergétique. Dans le cas de la famille Edmonds-
Reilly, nous disposons d’une description plus sophistiquée, comportant des fonctions de
comportement – fonctions de parts, coûts intangibles, etc.

 Le paradigme top-down historique est lui orienté vers la description des effets de système
entre secteur énergétique et le reste de l’économie. Par contre, il ne comporte qu’une
description très agrégée et peu tangible des technologies. Enfin, il n’offre en général qu’une
représentation agrégée des comportements dont le calibrage est souvent peu robuste et dont
les « fondations microéconomiques » ne sont que rarement étayées par des analyses
empiriques. En général, les modèles top-down existants représentent des agents représentatifs
qui optimisent à chaque instant du temps leur comportement, mais ne prennent pas en compte
certains signaux et contraintes auxquels les agents réels sont confrontés (prix de
l’immobilier, contraintes de budget, coûts d’information et de transaction, inertie des
équipements existants), ni la possibilité d’anticipations imparfaites dans certains cas44.

44
A cause de cela, nous apportons une correction à la figure originale de Hourcade, Jaccard et al. (2006), qui
jugent le modèle conventionnel TD bien placé dans l’axe de représentation des préférences.

- 68 -
Précision
technologique Modèle idéal

BU historique
Réalisme des
comportements

TD historique

Rétroactions
macroéconomiques

Figure 8 : Evaluation en trois dimensions des modèles énergie-économie

Cette figure laisse entrevoir très clairement les caractéristiques du modèle idéal, sorte
« d’attracteur » des démarches d’hybridation : ce modèle idéal est celui qui réunirait les trois
composantes au sein d’une unique architecture. Cette représentation illustre aussi les différentes
approches d’hybridation qui peuvent apparaître, en fonction du point de départ et des axes privilégiés
pour se rapprocher du modèle idéal :

 un modèle bottom-up amélioré pour inclure une meilleure description des préférences : c’est le
cas du modèle CIMS développé par l’équipe de Mark Jaccard (EMRG), dans lequel les
fonctions de choix technologiques sont calibrées sur des données d’enquête microéconomique
;

 un modèle bottom-up auquel on a ajouté un module macroéconomique compact pour


représenter les rétroactions macroéconomiques des changements techniques dans le secteur
énergétique : c’est le cas de MARKAL-MACRO ;

 un modèle top-down dans lequel certains secteurs sont décrits par un ensemble discret de
technologies concurrentes, comme SGM (Second Generation Model, (Fawcett et Sands,
2005), EPPA couplé avec MARKAL-Transport, GEMINI-E3 couplé avec MARKAL-
Résidentiel) ;

 un modèle top-down amélioré pour mieux représenter les comportements : cette démarche est
presque absente de la littérature. On pourrait citer ici le modèle macro économétrique E3MG,
qui est estimé sur des données historiques et qui peut donc prétendre à une plus grande
robustesse sur le court ou moyen terme.

Cette explicitation tridimensionnelle du cahier des charges des modèles est éclairante mais elle
peut donner lieu à une interprétation erronée, selon laquelle la représentation des univers techniques et
de leur évolution ne serait qu’une question de précision dans l’énoncé des technologies et de leurs

- 69 -
caractéristiques. En réalité, la dynamique des univers techniques est le résultat de l’interaction
permanente : (i) des possibilités technologiques existantes, et forcément de celles qui sont déjà
« installées » dans les équipements et infrastructures en place, (ii) des usages et des comportements
courants, responsables de l’évolution de la demande, (iii) du contexte économique générale, des prix
relatifs, qui conditionnent la profitabilité respective des différentes technologies, et du revenu
disponible, qui conditionne la capacité de financement des nouveaux équipements et des nouvelles
infrastructures.
En développant des modèles hybrides, certaines équipes de modélisation se sont attaquées, avec
un certain succès, à combiner représentation détaillée des technologies et fonctionnement global de
l’économie, mais, en négligeant généralement l’axe de représentation des préférences, à l’exception du
modèle CIMS dont l’originalité repose précisément sur ce point. Le quatrième rapport d’évaluation du
GIEC (2007) se fait l’écho de cette absence de prise en compte dans les modèles de prospective des
barrières à l’adoption des technologies de rupture :
“In general, there is a continued need for a better understanding of how rates of adoption of climate-
mitigation technologies are related to national and regional climate and non-climate policies, market
mechanisms (investments, changing consumer preferences), human behaviour and technology evolution,
change in production systems, trade and finance and institutional arrangements”. (Technical Summary,
p. 93)

De ce diagnostic devrait découler un programme de recherche à deux volets :


 Confirmer les progrès de l’hybridation ou du couplage entre modules de description détaillée
des technologies et modèle de représentation globale de l’économie ; abandonner tout modèle
n’ayant pas évolué vers cette double représentation.
 Faire évoluer les modèles vers une meilleure prise en compte des préférences individuelles,
des distributions de revenu à l’intérieur des régions, des barrières économiques et
socioculturelles à l’adoption de nouvelles technologies ou de nouveaux usages.

3.2.2 Changement technique induit : un progrès inachevé


L’examen de l’évolution des frontières techniques est étroitement lié à la représentation de la
croissance économique dans son ensemble, comme nous l’avons évoqué au paragraphe 3.1.1. Le
changement technique est un point névralgique des projections de long terme car ce sont la vitesse et
l’ampleur de son déploiement qui conditionne in fine la durabilité des trajectoires (cf. la réponse de
Nordhaus, 1973, en réponse à Meadows et al., 1972).
Lors de la construction de scénarios de référence, la projection du changement technique joue un
rôle central dans l’évaluation des intervalles d’incertitude sur les trajectoires futures ; elle repose
généralement sur trois types d’hypothèses :

- Une hypothèse exogène sur la trajectoire de productivité globale des facteurs (dans les modèles
macroéconomiques) ou de croissance du PIB par habitant (dans les modèles top-down).

- Une hypothèse exogène de croissance de l’efficacité énergétique au niveau agrégé ou sectoriel, à


travers un indicateur unique, nommé AEEI – Autonomous Energy Efficiency Improvement (Manne
et Richels, 1992). Cet indicateur fait décroître le poids du facteur énergie dans la fonction de
production, à un rythme prescrit et indépendant des autres variables du modèle ; il est donc censé
encapsuler toutes les évolutions techniques non liées aux prix des énergies, y compris le changement

- 70 -
structurel dans l’économie lorsqu’il est appliqué au niveau global. En général sa valeur est comprise
entre 0.5 et 1% par an de gains d’efficacité énergétique à prix constants.

- Des hypothèses exogènes sur les technologies « backstop » : celles-ci correspondent à des
technologies connues mais pas forcément encore disponibles, mais qui devraient être disponibles
sans limite de quantité à un coût donné dans le futur (Nordhaus et Boyer, 2000).

A ces hypothèses exogènes, il faut rajouter les substitutions endogènes entre énergies ou entre
l’énergie et les autres facteurs de production : ces substitutions répondent à des variations de prix
relatifs au cours de la trajectoire, dues notamment à la déplétion des ressources d’énergies fossiles ;
elles sont représentées soit par une fonction de production agrégée ou sectorielle dans les modèles
macroéconomiques, soit par une variation du portefeuille de technologies dans les modèles technico-
économiques.
Nous avons vu au premier chapitre que le caractère largement exogène des hypothèses de
progrès technique peut conduire, dans les scénarios de référence, à des fourchettes d’incertitude qui ne
sont en fait qu’un artefact combinatoire, parce que la mise cohérence discursive des hypothèses en
amont n’est pas suffisante. Cette faille est encore plus gênante du fait que les recommandations
politiques qui émergent des modèles peuvent elles aussi être très dépendantes des hypothèses de
scénarios, comme le soulignent Azar et Dowlatabadi (1999) :
‘By assigning a low value for AEEI, say zero, future energy demand and associated CO2 emissions will
grow rapidly and reach very high levels. Policy makers may erroneously conclude that it is impossible to
bring down emissions to safe levels. On the other hand, if rather high values are assumed (say 2-3% per
year) then business as usual emissions in the models will be so low that policy makers may think that the
problem will be solved almost automatically.’ (Azar et Dowlatabadi, 1999, §3.2)

Les grandes tendances agrégées encapsulées dans le coefficient AEEI recouvrent des phénomènes
d’innovation, de diffusion, des choix d’orientation des progrès technologiques dans différents secteurs
qui ne peuvent être supposés fixés une fois pour toutes lorsque l’on veut représenter des réorientations
énergétiques de grande ampleur sur plusieurs décennies, comme c’est le cas pour les trajectoires de
stabilisation des concentrations des GES.
Premièrement, à long terme, le changement technique ne peut être résumé à des substitutions
de facteurs le long d’une frontière de production connue dès le départ ou parmi un panier de
technologies déjà matures. Au fil du temps, de nouvelles technologies apparaissent, les substitutions
peuvent devenir plus faciles (élargissement de l’éventail de technologies disponibles, baisse du coût
des technologies alternatives), ou au contraire moins accessibles (blocage lié à l’existence ou
l’inexistence d’infrastructures, dépendance au sentier, cf. Arthur, 1987). En utilisant les résultats du
modèle bottom-up POLES, Ghersi et Hourcade (2006) ont ainsi mis en évidence des exemples dans
lesquels aucun paramétrage d’une fonction de production néoclassique usuelle ne permet de restituer
fidèlement les larges bifurcations du système énergétiques induites par une politique de réduction sur
plusieurs décennies.
Deuxièmement, les efforts d’innovation vers des techniques plus efficaces ou l’utilisation
d’énergies non carbonées répondent à des incitations parmi lesquelles les prix des énergies jouent un
rôle certain, en modifiant les anticipations de profitabilité des investissements (Popp, 2002 ;
Dowlatabadi et Oravetz, 2006).

- 71 -
Une première amélioration aujourd’hui considérée comme acquise dans une partie importante
des modèles est de représenter l’inertie de pénétration des progrès énergétiques à travers les
générations de capital successives (Solow, 1959). Cette modification permet de rendre compte du lien
entre l’évolution de l’efficacité énergétique globale et le taux de renouvellement du capital et donc des
investissements, même si l’évolution de la frontière technologique reste entièrement ad hoc (Löschel,
2002).
Pour pallier les lacunes évidentes d’une représentation exogène du changement technique, les
modèles ont été modifiés pour incorporer les effets possibles des politiques sur l’innovation et le
changement technique. Une simple comparaison entre le troisième rapport d’évaluation du groupe III
du GIEC (2001, §8.4.5, p. 550) et le quatrième (2007, §2.7.2, § 3.4.3, §11.5) permet de constater les
efforts importants pour évaluer numériquement les effets de l’induction du changement technique sur
les coûts de stabilisation et le contenu des politiques45. Ces efforts de représentation d’un progrès
technique endogène se focalisent sur trois mécanismes :

- L’induction du changement technique par la recherche (Learning by Searching) : dans la


filiation directe de certaines « nouvelles » théories de croissance (Romer, 1990 ; Lucas, 1988),
l’innovation est représentée par l’accumulation d’un stock de connaissances, dont l’évolution
dépend des investissements cumulés en R&D. Ce stock de connaissances a ensuite un impact
direct sur les paramètres d’efficacité énergétique (Bosetti et al., 2006 ; Popp, 2006). Ce type de
représentation peut aussi être incorporé dans une courbe d’apprentissage à deux facteurs (cf.
paragraphe suivant).

- Le progrès technique lié à l’apprentissage (Learning by Doing) : certaines technologies


aujourd’hui embryonnaires sont appelées à prendre une place significative dans les portefeuilles de
technologies futurs, en particulier sous l’effet d’une contrainte CO2 croissante. Cela pourra être le
cas par exemple des cellules photovoltaïques, du moteur à hydrogène, des véhicules électriques,
des agrocarburants ou des technologies nucléaires de nouvelle génération. Dans les modèles
énergétiques ou macroéconomiques, ces technologies ne peuvent entrer dans le choix de
portefeuille qu’à condition de devenir rentables par rapport aux technologies majoritaires, ce qui
peut arriver lors de la hausse progressive des coûts des technologies carbonées à cause de la
déplétion ou d’une taxe carbone. Mais l’observation de l’évolution des coûts réels des nouvelles
technologies émergentes a montré que ces coûts diminuent fortement au fur et à mesure de leur
déploiement (IEA, 2000 ; Grübler et Messner, 1998). La baisse de ces coûts peut ensuite jouer un
rôle majeur dans la pénétration des nouvelles technologies, en modifiant largement les termes de
la compétition entre technologies. Ce mécanisme est incorporé dans les modèles à travers des
courbes d’apprentissage, reliant la décroissance des coûts de chaque technologie au cumul des
capacités installées dans cette technologie. Arguant que l’apprentissage passe à la fois par la R&D
et l’usage, Kouvaritakis et al. (2000) ont proposé une courbe d’apprentissage à deux facteurs,
prenant en compte les efforts de R&D spécifiques et les capacités cumulées. Malgré le caractère
très attrayant de ces spécifications, l’estimation économétrique des paramètres de ces courbes pose
d’importantes difficultés quantitatives (Söderholm et Sundqvist, 2003).

45
‘A major development since the TAR has been the treatment of technological change in many models as
endogeneous, and therefore potentially induced by climate policy, compared to previous assumptions of
exogenous technological change that is unaffected by climate policies.’ (AR4, §11.5.1)

- 72 -
- La prise en compte des externalités technologiques positives (spillovers) : les développements
technologiques d’une région se diffusent en général dans les autres régions même sans effort
spécifique de leur part (Griliches, 1992) et malgré les protections de la propriété intellectuelle
censées préserver un niveau élevé de profitabilité pour les innovations. Pour prendre en compte
ces externalités technologiques positives, les modélisateurs intègrent dans les fonctions de coûts
de tous les secteurs une variable liée à l’ensemble des connaissance accumulées dans tous les
secteurs (Carraro et Siniscalco, 1997 ; Golombek et Hoel, 2005 ; Bosetti et al., 2006).

Les larges efforts pour représenter ces différents mécanismes ont contribué à faire évoluer un
certain nombre d’affirmations pour la décision publique – sur le tempo optimal de l’action, les
instruments à mettre en oeuvre, les coûts nets des politiques de réduction. Néanmoins ces avancées
butent encore sur des difficultés empiriques (estimation des courbes d’apprentissage, des stocks de
connaissance) et algorithmiques (grande sensibilité aux conditions initiales, optimisation avec des non-
convexités) (Messner, 1997). Le Tableau 7 tiré du dernier rapport d’évaluation du GIEC propose une
synthèse des conséquences de ces nouvelles représentations.

Changement technologique Changement technologique


exogène endogène
Trajectoire dépendante de réponses
comportementales concernant (i) les
Trajectoire autonome indépendante choix d’investissements de R&D, (ii)
Mécanismes
du contexte les choix d’investissement de
capacités et les effets d’apprentissage
qui en découlent
Implications pour la modélisation :
Terminologie Exogène Endogène / Induit
Externalités (spillovers), Taux
AEEI – Autonomous Energy
Paramètres usuels d’apprentissage (learning rate), coûts
Efficiency Index
de la R&D
Possibilités d’équilibres multiples ;
Implications pour le calcul Optimum unique avec algorithmes
difficultés d’identification de
optimal standard
l’optimum global
Conséquences économiques / pour la décision
Stabilisation en dessous de 550 ppmv Stabilisation ambitieuse possible,
Coûts de la stabilisation des CO2 très coûteuse en l’absence de coût modeste dépendant des
GES changement technique hypothèses de progrès technique
supplémentaire induit
Taxes, permis négociables,
Instruments des politiques
Taxes, permis négociables incitations à la R&D, subventions
pouvant être modélisés
technologies nouvelles
Efforts plus importants requis à court
Conséquences sur le tempo Coût marginal social du carbone
terme pour baisser les coûts à long
de l’action croissant au taux d’actualisation
terme
Bénéfices potentiels du leadership
Bilan pour les premiers à agir
Coûts nets, bénéfices faibles technologique, dépendant des règles
(‘first movers’)
de propriété de la connaissance
Externalités internationales, Externalités négatives à cause de la Idem mais externalités positives liées
fuite du carbone fuite du carbone à la diffusion du progrès technique

- 73 -
Tableau 7 : Implications des modes de représentation du changement technique
Source : IPCC, 2007, Table 11.13

Malgré ces progrès de représentation, les modélisateurs restent aujourd’hui « au milieu du gué »
en ce qui concerne la description du changement technique endogène. Premièrement, la transformation
des frontières de production sous l’effet de politiques climatiques est vue sous un angle très partiel,
puisque le progrès technique induit ne concerne que le coût des technologies énergétiques ou les gains
d’efficacité énergétiques. Deuxièmement, l’impact de cette transformation « induite » sur la
productivité générale de l’économie reste un mécanisme ignoré et/ou mal compris.

La transformation des frontières de production

Comme nous l’avons mentionné plus haut, l’utilisation d’une fonction de production dont les
paramètres sont exogènes tout au long d’une trajectoire de long terme pose problème, autant pour la
production d’un scénario de référence unique que pour la comparaison de deux trajectoires prenant des
« chemins de croissance » très différents dans leur contenu technique et matériel. La représentation de
l’innovation apporte une première modification allant dans le bon sens, puisque l’évolution du
coefficient de l’énergie dans la fonction de production devient endogène et liée aux choix
d’investissements faits tout au long du sentier de croissance. Néanmoins il est possible et probable que
les choix menant à une bifurcation importante vers des systèmes énergétiques différents, supposant des
changements drastiques dans les systèmes de transport, de logement ou d’organisation industrielle,
modifient aussi d’autres paramètres de la fonction de production, comme les élasticités de substitution
ou l’efficacité des autres facteurs. Par exemple, une rénovation énergétique massive de l’habitat
existant et la construction de nouveaux bâtiments à très faible consommation énergétique solliciterait
des modifications profondes des structures de production des secteurs de production des matériaux et
du bâtiment, pour répondre à une variation rapide de la demande de matériaux, à la fois dans leur
nature (par ex. du bois à la place de l’acier et du ciment) et leurs qualités physiques (matériaux
isolants, verre spécial pour les panneaux photovoltaïques, etc.).
Cette question reste encore peu traitée dans la littérature. Son traitement reste complexe dans les
structures de modélisation figées des paradigmes historiques. Seuls les efforts d’hybridation
conduisant à remettre en question certaines contraintes mathématiques des représentations
macroéconomiques (fonctions de production continues) et technico-économiques (fonctions des
demande estimées économétriquement) proposent des nouvelles pistes de progrès sur ce point. Nous
renvoyons le lecteur à l’évocation précédente des travaux de Ghersi (2003), Ghersi et Hourcade,
(2006) ou encore Jaccard et al., (2000) pour la description de ces travaux.

L’impact des politiques climatiques ou énergétiques sur la productivité générale des facteurs

La réorientation de la transformation des frontières de production passe par la mobilisation, au


moins transitoire, d’investissements sectoriels supplémentaires destinés à modifier le système
énergétique (tant du côté de l’offre que de celui des usages finaux). Se pose alors la question de l’effet
d’éviction potentiel des investissements supplémentaires consentis au titre des politiques énergétiques
ou climatiques : une hausse transitoire des investissements conduit-elle à une baisse des
investissements non énergétiques et à un ralentissement des gains de productivité dans tous les
secteurs ?

- 74 -
Goulder et Schneider (1996) soutiennent que les efforts de R&D dans le domaine énergétique
ont un effet d’éviction (crowding-out) sur les efforts de recherche dans le reste de l’économie, avec un
effet net négatif sur la croissance. Or, les observations ne permettent pas de déterminer si ces
investissements sont vraiment substituables et si les efforts supplémentaires ne viendront s’ajouter aux
effort préexistants, avec un effet final positif. Plus généralement, se pose la question de l’effet net de
l’interaction des externalités technologiques (spillovers) et des effets d’éviction (crowding-out) :
Nordhaus (1999) fournit des informations quantitatives qui laissent penser que la résultante est
négligeable et que l’effet d’éviction annule quasiment le bénéfice du progrès technique induit sur la
croissance (Nordhaus, 1999). Nordhaus (2002) va plus loin en affirmant que le rôle des substitutions
dans les politiques de réduction des émissions est très largement supérieur à l’effet du changement
technique induit et que, finalement, les modèles traditionnels sans progrès technique induit
encapsulent la majeure part des mécanismes sur lesquels les politiques doivent agir. Pourtant,
l’histoire économique est parsemée d’exemples d’innovations dont les effets globaux sur l’économie
mondiale ont largement dépassé les dépenses consenties (efforts de recherche militaire, internet, etc.)
Ce débat nous fait aussi remonter à « l’hypothèse Porter » (Porter et Van der Linde, 1995), selon
laquelle les régulations environnementales peuvent susciter une large refonte des procédés industriels,
conduisant in fine à une plus forte hausse de la productivité, notamment grâce à l’avantage commercial
du « premier innovateur ». Cette hypothèse très controversée nous renvoie précisément à la nécessité
d’aller plus loin dans les progrès de représentation en endogénéisant les trajectoires de productivité et
le changement technique non-énergétique, mais ces tentatives sont encore trop rares46.

La limite absolue de l’étude du changement technique endogène reste l’ignorance inévitable des
innovations futures aujourd’hui inexistantes et susceptibles de modifier la trajectoire énergétique et
économique. Mais la poursuite des efforts selon les deux pistes de travail mentionnées ci-dessus
devrait permettre d’obtenir un tableau plus complet du rôle des mécanismes endogènes de changement
technique.

3.3 L’articulation du Normatif et du Positif : quel statut donner à


l’Optimalité ?

Le troisième et dernier volet de notre diagnostic concerne le statut des hypothèses d’optimalité
dans les modèles. Ce sujet est au cœur de nombreuses controverses au sein des économistes (Kirman,
1992 ; Cohen et Harcourt, 2003) ou dans les travaux d’épistémologie sur les sciences économiques
(Mouchot, 2003). Notre motivation pour ouvrir ici la « boîte de Pandore » de ce sujet peut être
résumée par la question suivante : quelle est la légitimité des modèles pour informer la décision dans
un monde imparfait et en général sous optimal, s’ils décrivent un monde optimal et/ou « de premier
rang » ?
Pour répondre à cette question, il est utile d’effectuer de nouvelles incursions du côté de la
théorie économique. Cela nous permet de rappeler le sens et les limitations des concepts sous-jacents à
l’utilisation de l’optimalité dans les modèles. La pratique quotidienne des modèles économiques
conduit parfois à oublier qu’ils reposent sur des hypothèses « héroïques », issues de théories beaucoup
plus prudentes que leur usage courant pourraient le laisser croire. Deux de ces hypothèses occupent

46
On notera qu’il y a un réel problème sémantique dans la dénomination des modèles qui affichent une
« croissance endogène » mais dans lesquels le changement technique endogène ne concerne que l’efficacité
énergétique et le coût des technologies alternatives. Il s’agit principalement de modèles à « changement
technique induit ».

- 75 -
une place centrale dans les modèles économiques qui nous préoccupent : le paradigme de l’agent
représentatif et les anticipations « rationnelles ».

3.3.1 L’agent représentatif ou « les fondements micro des modèles macro »


Les modèles économiques sont tous fondés sur une représentation agrégée des nombreux agents
économiques réels et de leurs décisions. Pour décrire le comportement agrégé d’un grand nombre
d’agents économiques – qu’il s’agisse de consommation, de production, d’échanges internationaux, de
flux de capitaux, etc. – il existe fondamentalement deux types d’approches :

 Une démarche phénoménologique, qui consiste à modéliser un comportement ou un


mécanisme agrégé par une ou plusieurs équations dont la forme mathématique est inspirée de
l’observation des faits et qui relient entre elles les variables qui semblent jouer un rôle dans le
mécanisme considéré. Cette approche est adoptée par exemple dans les modèles
macroéconométriques, comme E3MG, ou bien de manière plus ponctuelle, dans la
représentation de fonctions de demande (par exemple dans POLES), ou de système de parts
(par exemple dans SGM).

 Une démarche par agent représentatif, qui consiste à supposer que le comportement agrégé
peut être correctement décrit par des équations de comportement « individuel », avec des
paramètres correspondant à l’agrégat économique représenté : un producteur représentatif par
secteur, un consommateur représentatif par région, etc. Cette approche est le fondement de tous
les modèles d’équilibre général et des modèles macroéconomiques compacts.

Le choix entre ces deux approches renvoie à deux problèmes méthodologiques bien distincts
mais entremêlés.
Le premier problème a trait à la préoccupation légitime de fonder l’analyse macroéconomique
sur la connaissance des comportements individuels, ce que la littérature nomme les fondements
microéconomiques de la macroéconomie. Cette question est au centre d’un débat épistémologique en
sciences sociales qui oppose holisme et individualisme méthodologique : le holisme « pur » consiste à
penser que les comportements individuels s’expliquent par la structure sociale dans laquelle ils se
situent, tandis que l’individualisme méthodologique affirme la primauté de la décision individuelle et
affirme que les évolutions de l’agrégat ne résultent que de la somme des actes individuels. Comme le
montre J.-P. Dupuy en proposant un « individualisme méthodologique complexe », le fonctionnement
de l’économie ne peut être réduit exclusivement à aucune de ces approches :
« Considérons […] les deux propositions : 1) ce sont les hommes qui font (ou plutôt « agissent ») leur
société ; 2) la société les dépasse en ce qu’elle est (infiniment) plus complexe qu’eux […]. On voit ici la
possibilité de penser l’irréductibilité du social par rapport aux individus sans pour autant faire de celui-ci
une substance ou un sujet. » (Dupuy, 1992, p. 222, cité dans Mouchot, 2003, p. 225)

Dans sa Théorie Générale (1969), J. M. Keynes affirme la nécessité d’une dose de holisme, en
réaction à l’hégémonie de l’individualisme méthodologique en économie ; il affirme bien que les
mécanismes globaux qu’il prétend analyser ne peuvent être réduits à l’analyse ou l’agrégation directe
des comportements individuels. A l’opposé, la théorie de l’équilibre général s’est développée de pair

- 76 -
avec un individualisme méthodologique pur, ce qui explique qu’elle échoue à expliquer certains
mécanismes systémiques comme le chômage involontaire. Pourtant, ce n’est pas le concept d’un
équilibre walrasien simultané sur tous les marchés de biens et services qui est contradictoire avec
l’existence d’effets de système dépassant les rationalités individuelles, mais en fait l’hypothèse que les
agents représentatifs sont parfaitement clairvoyants sur l’ensemble du système économique, et donc ne
peuvent jamais, avec cette hypothèse, prendre une décision qui soit déséquilibrée par rapport à
l’évolution du système économique. Aujourd’hui, les pratiques de modélisation que nous analysons
dans cette thèse sont très largement dominées par une posture d’individualisme méthodologique,
autrement dit d’un quasi-monopole de la microéconomie dans les représentations du monde réel. Une
des raisons de cette domination réside dans la recherche d’une forte cohérence logique entre l’analyse
microéconomique et la représentation globale de l’économie47. Le résultat est que les modèles sont en
général incapables de représenter les mécanismes de déséquilibre à court terme ou de trajectoires sous-
optimales, limite qui nous semble plus critique que la fidélité ou non à un concept d’ « agent
représentatif clairvoyant » largement sorti de son cadre théorique original.

Cela nous entraîne vers le second problème, concernant le concept théorique d’agent
représentatif, qui consiste à représenter le comportement d’un agrégat comme s’il s’agissait du
comportement d’un seul individu, et donc mû par une rationalité microéconomique propre. Ce choix
méthodologique est plus restrictif encore que l’adoption d’un individualisme méthodologique pur :
rien n’oblige, sous prétexte que l’on cherche à expliquer les phénomènes agrégés par la somme des
décisions individuelles, à représenter précisément les phénomènes agrégés de la même manière que les
décisions individuelles48. De nombreux travaux sur l’agrégation des comportements individuels
soulignent qu’une telle transposition des comportements microéconomiques à l’échelle
macroéconomique n’est possible qu’au prix d’hypothèses mathématiques très restrictives, portant soit
sur l’utilisation de fonctions de demandes ou de parts de budget linéaires (Muellbauer, 1976), soit sur
la stabilité de la distribution statistique des propriétés des agents microéconomiques (Malinvaud,
1993b, Hildenbrand et Kneip, 1999). Cependant, même si l’on renonce à cette agrégation dite
« parfaite », trop limitative pour être acceptable dans le cas général, le concept d’agent représentatif
peut rester pertinent s’il permet une description plausible de l’agrégat considéré. Dans cet esprit, John
Muellbauer précise que les « préférences collectives », que le consommateur représentatif est censé
représenter, ne sont qu’une abstraction utile pour représenter le réel :
“One might ask whether the assumption of community preferences in my sense has any ethical
connotations? Does it, for example, aid in finding out whether one social situation is better than another?
The answer to this is that it does not. What it does offer is an elegant and striking informational
economy.” (Muellbauer, 1976, p. 980)

De même la fonction de production utilisée par Solow (1956) ou la fonction « subrogée » de


Samuelson (1962) poursuivent-elles le même objectif, à mi-chemin entre un ancrage à la théorie
microéconomique et un certain pragmatisme empirique :

47
Mouchot (2003) complète l’explication de cette domination par deux autres raisons : d’une part la perte
d’efficacité des politiques keynésiennes dans les années 60 ; d’autre part, la lutte intellectuelle contre une
flambée des holistes au même moment, avec le marxisme et le structuralisme.
48
« The needs for microfundations and for a stable and unique equilibrium would not seem, by themselves, to
justify the use of such an artificial device as the representative agent » (Kirman, 1992, p. 121)

- 77 -
“It is the case, I believe, that Robert Solow and I have pretty much the same general views in this matter,
having arrived independently and together at the same general conclusions. […] One might almost say
that there are two Solows: the orthodox priest of the MIT school and the busman on a holiday who
operates brilliantly and without inhibitions in the rough-and-ready realm of empirical heuristics. […] I
shall use the new tools of the Surrogate Production Function and Surrogate Capital to show how we can
sometimes predict exactly how certain quite complicated heterogeneous capital models will behave by
treating them as if they had come from a simple generating production function (even when we know
they did not really come from such a function). (Samuelson, 1962, pp. 193-194)

Si l’on s’en tient à cette position, la motivation théorique de fonder toute représentation
macroéconomique sur des mécanismes microéconomiques, motivation fréquemment invoquée pour
justifier l’usage d’un agent représentatif, n’est plus le motif central du recours à l’agent représentatif.
Comme A. Kirman (1992) tente de le démontrer, l’usage du paradigme microéconomique de la
maximisation de l’utilité individuelle (ou du profit pour un producteur) au niveau global n’est alors
plus justifié et risque même de fournir une fausse représentation des mécanismes agrégés :
« There is no plausible formal justification for the assumption that the aggregate of individuals, even
maximizers, acts itself like an individual maximizer. Individual maximization does not engender
collective rationality […]. Trying to explain the behaviour of a group by that of one individual is
constraining. The sum of the behaviour of simple economically plausible individuals may generate
complicated dynamics, whereas constructing one individual whose behaviour has these dynamics may
lead to that individual having very unnatural characteristics. » (Kirman, 1992, p. 118)

Cette critique fait aussi écho aux débats sur la représentation des univers techniques que nous
avons traités plus haut : à travers les faiblesses de l’agent représentatif pointées par Kirman, de la
même manière que dans la critique de la théorie néoclassique par Joan Robinson, la représentation
simplifiée d’un agrégat économique par une entité représentative fictive dotée d’une rationalité
microéconomique est attaquée à la fois sur ses justifications théoriques et sur sa pertinence empirique.
Par ailleurs, de même qu’à l’issue des discussions ayant eu lieu au sein de la controverse des deux
Cambridges, cette critique a finalement eu un faible écho dans les pratiques de modélisation parce
qu’elle ne propose pas une alternative simple à mettre en œuvre. Nous sommes forcés de reconnaître
que ces solutions de représentation « stylisée » présentent l’avantage d’une simplicité technique réelle,
notamment en ce qui concerne le calibrage des fonctions de demande ou de production sur les parts de
budget ou de coûts instantanées, via le lemme de Shepard. A. Kirman (1992) mentionne aussi qu’il est
bien conscient de la persistance tenace du paradigme de l’agent représentatif, notamment pour sa
simplicité, mais il esquisse quand même les pistes de progrès qu’il faudrait envisager : d’une part
l’abandon de l’hypothèse de maximisation des « pseudo » préférences collectives pour décrire les
comportements agrégés, d’autre part la représentation de l’hétérogénéité des agents au sein des
agrégats représentés.

Les pratiques de modélisation dans le champ de l’énergie et du climat ne montrent pas ou très
peu d’évolutions dans ce sens. Au contraire, certains modélisateurs forcent le trait en ayant recours à
une hypothèse de maximisation intertemporelle d’une utilité collective, ce qui constitue certainement
la version la plus « héroïque » du paradigme de l’agent représentatif. C’est par exemple le cas des

- 78 -
modèles d’équilibre général WIAGEM et EDGE49, ou encore de tous les modèles de croissance
optimale de la famille DICE/RICE ou MACRO. Howarth (2000) réduit même le concept d’agent
représentatif à sa seule version intertemporelle, en l’opposant à une approche en générations
imbriquées. Nous avons déjà souligné plus haut que le recours à l’agent représentatif intertemporel
était difficile à justifier par le besoin de représentation de la croissance à long-terme ; elle n’est pas
plus justifiée par la théorie de l’agent représentatif. Dès lors, nous rejoignons la critique de R. Solow,
pour qui cette modélisation n’a aucun intérêt pour la représentation du monde réel :
« I cannot say the same about the use made of the intertemporally-optimizing representative agent.
Maybe I reveal myself merely as old-fashioned, but I see no remeeding social value in using this
construction, which Ramsey intended as a representation of the decision-making of an idealized policy-
maker, as if it were a descriptive model of an industrial capitalist economy. It adds little or nothing to the
story anyway, while encumbering it with unnecessary implausibilities and complexities.» (Solow, 1994)

Dans cette approche, il y a finalement un double tour de force. Le premier, que nous venons
d’analyser, consiste à oublier que l’agent représentatif n’est justifié que tant qu’il constitue une façon
élégante et efficace de décrire le comportement agrégé d’un ensemble d’agents économiques. Le
second tour de force est d’attribuer à cet agent représentatif une clairvoyance parfaite, qui coïncide
avec les états futurs de l’économie calculés par le modèle, une spécification qui tient largement à un
glissement de sens de la théorie des anticipations rationnelles.

3.3.2 Anticipations parfaites : la mauvaise compréhension de la théorie


des anticipations rationnelles
La maximisation intertemporelle de l’utilité va de pair avec une hypothèse d’anticipations
parfaites (perfect foresight). Cette hypothèse consiste à supposer, dans les modèles, que les
anticipations que les agents économiques formulent à une date t, sur l’état de l’économie à la date t+n,
sont toujours exactes, c’est-à-dire coïncident exactement avec l’état projeté de l’économie à la date
t+n. Pour tout observateur du monde réel, cette hypothèse est singulièrement héroïque et peu plausible.
Pour comprendre comment les modélisateurs en sont venus à l’adopter, il faut revenir à la théorie des
anticipations rationnelles. Cette théorie correspond à un cadre bien défini en économie, mais nous
nous trouvons une fois de plus face à un appauvrissement significatif entre la littérature d’origine de
cette théorie et son interprétation lors de sa diffusion plus large dans le reste des sciences
économiques.
Le corpus théorique servant de base au concept d’anticipations rationnelles nous fait remonter
jusqu’à l’article fondateur de J. Muth en 1961. Dans cet article, J. Muth avance l’hypothèse que les
agents économiques utilisent toute l’information disponible pour formuler leurs anticipations et qu’ils
ne commettent pas d’erreur persistante dans ces anticipations. Une de ses motivations est de répondre
à une grande insatisfaction vis-à-vis des formules d’anticipations adaptatives utilisées jusque là dans la
littérature50, car ces formules d’anticipations adaptatives, qui sont contraintes par le choix d’une forme
mathématique donnée, échouent à prendre en compte les raisonnements plus complexes dont sont

49
Certaines équipes de modélisation ayant développé des modèles récursifs affichent même leur intention de
passer à une version « intertemporelle » de leur modèle, comme l’équipe du MIT avec EPPA (Paltsev et al. ,
2005).
50
Les anticipations adaptatives étaient utilisées dans les discussions autour de la courbe de Philips, qui, dans sa
version statique, ne prenait pas en compte l’apprentissage des travailleurs sur l’anticipation de l’inflation lors de
la négociation de leurs salaires. (Kantor, 1979) fournit un rappel historique de ces débats théoriques.

- 79 -
capables les agents économiques pour affiner leurs anticipations au fur et à mesure de leurs
observations. Autrement dit, les anticipations des agents tendent à être identiques aux prévisions de la
théorie économique. Cette hypothèse a donné lieu à de nombreux tests économétriques, conduisant en
général à sa validation sur de nombreux marchés différents (Kantor, 1979). Cette hypothèse
microéconomique a eu un retentissement très significatif à la fois sur la macroéconomie et sur la
modélisation intertemporelle. En macroéconomie, c’est à propos des politiques de stabilisation de
l’inflation et du chômage que cette hypothèse eut un retentissement important : au cours des débats sur
l’inefficacité des politiques keynésiennes à la fin des années 60, R. Lucas (1972, 1973) puis T. Sargent
(Sargent et Wallace, 1975) démontrèrent que si cette hypothèse est vérifiée, alors les politiques
publiques de stabilisation de l’inflation ne peuvent avoir d’impact à long terme sur l’activité
économique, car l’effet recherché sera toujours annulé par l’anticipation sans biais des agents
économiques sur les conséquences de la politique. Cette analyse a alors soulevé la question de la
différence entre affichage et contenu réel des politiques publiques : selon Arrow (1978), l’effet d’une
annonce de politique peut être supérieur à celui de la politique lui-même, ce à quoi Kantor (1979)
réplique, dans une cohérence parfaite avec la théorie des anticipations rationnelles, que les agents
économiques auront vite fait d’adapter leurs anticipations au décalage entre annonce et contenu réel
des politiques si ce décalage est persistant. Nous pouvons aisément illustrer l’argument de Kantor avec
une politique de réduction des émissions de GES : une annonce de prix élevé du carbone ne conduira à
une décarbonisation significative et durable que si elle est suivie d’une politique visant à instaurer
effectivement ce prix élevé, sinon l’effet de l’annonce ne sera que temporaire. Il faut donc bien
comprendre la théorie des anticipations rationnelles comme une théorie statistique de convergence
vers un régime stabilisé.

Cette théorie donne lieu à une erreur d’interprétation majeure, qui consiste à passer des
anticipations rationnelles, telles que définies par J. Muth, à celle des anticipations exactes. Ce
glissement est très certainement lié au succès de la diffusion du cadre théorique de l’équilibre général
intertemporel posé par Arrow et Debreu dans les exercices de modélisation à visée plus empirique.
Dans ce cadre théorique, l’incertitude, qui était au centre de l’analyse de Muth, disparaît au profit de
l’équivalent-certain. Autrement dit, l’hypothèse originelle de l’apprentissage des agents et de la nullité
de l’espérance des erreurs d’anticipation est remplacée par une hypothèse d’exactitude permanente des
anticipations :
“…the rational expectations approach need not and should not assume that men apply reason to
"circumstances that are perfectly known." […] The implication that economic agents or economists are
omniscient cannot fairly be drawn from Muth's profound insights. It suggests rather that information is
costly and that it will be used efficiently” (Kantor, 1979)

Sous cette nouvelle hypothèse d’anticipations exactes, le rôle spécifique du temps dans la
dynamique économique disparaît : autrement dit, passé et futur sont identiquement connus avant toute
décision économique. Dans les modèles fondés sur cette hypothèse, toute trajectoire économique est
un équilibre intertemporel résolu d’un seul coup. Cette approche est critiquable, et critiquée, parce
qu’elle revient à supposer que les agents économiques peuvent à tout instant échanger sur les marchés
futurs comme sur les marchés présents. Or il est clair que les marchés futurs n’existent que pour une
petite partie des biens (commodités, produits financiers, etc.) et seulement à certains horizons, comme
le soulignait Kenneth Arrow :

- 80 -
“It is true that the rational expectations hypothesis implies that the outcomes on future markets are well
anticipated, but it is hard to see why this should be true. The very concept of the market and certainly
many of the arguments in favor of the market system are based on the idea that it greatly simplifies the
informational problems of economic agents, that they have limited powers of information acquisition,
and that prices are economic summaries of the information from the rest of the world. But in the rational
expectations hypothesis, economic agents are required to be superior statisticians, capable of analyzing
the future general equilibria of the economy.” (Arrow, 1978, p. 160)

Ce glissement de sens se répercute dans des termes similaires au niveau des modèles de
prospective énergie-climat, lorsqu’il s’agit de justifier telle ou telle hypothèse d’anticipations dans les
modèles. Par exemple, Manne et Rutherford (1994), auteurs du modèle intertemporel MERGE, et
acteurs reconnus des efforts de modélisation économie-énergie-climat depuis trois décennies,
reconnaissent le manque de plausibilité des anticipations parfaites :
« Intertemporal equilibrium involves the simultaneous determination of prices and quantities during a
sequence of time periods. This is a convenient fiction, but is a debatable idea. Aside from financial
instruments, there is no actual markets for purchases and sales in a distant future.” (Manne et Rutherford,
1994)

Pourtant, ce n’est pas pour condamner définitivement cette pratique que Manne et Rutherford
soulignent ce défaut majeur. Juste après, ils s’empressent d’éliminer ce qu’ils présentent comme
l’approche alternative, c’est-à-dire les modèles récursifs fondés sur des hypothèses d’anticipations
myopes :
« Rutherford (1993) reports, however, that his recursive trade model can be ill-behaved when it is based
upon an activity analysis description of production and there is a rapidly changing world. […] For
additional examples of these difficulties, see the numerical solutions obtained through “system
dynamics”, e.g. Meadows et al. (1972). Typically, such models have a tendency toward overshoot and
collapse. We have found that many of these inconsistencies can be overcome through an intertemporal
approach. Clairvoyance is an implausible assumption, but myopia seems even worse.” (Manne et
Rutherford, 1994)

Cet argumentaire présente au moins trois failles :

 Il n’envisage que deux solutions polaires pour la représentation des anticipations : anticipations
parfaites vs. myopes. Pourtant, toutes les hypothèses d’anticipations adaptatives, ainsi que les
anticipations rationnelles définies par J. Muth, se situent entre ces deux cas polaires et représentent
des solutions éventuellement préférables aux deux cas extrêmes envisagés par Manne et
Rutherford.

 Il assimile modèles « récursifs » et anticipations myopes, alors que ces deux spécifications sont
indépendantes, même si, dans la pratique, les modèles récursifs incluent souvent l’hypothèse
simpliste des anticipations myopes. Cette association systématique n’est pas justifiée, même si, à
l’inverse, le recours à une résolution intertemporelle n’est cohérent qu’avec une hypothèse
d’anticipations parfaites.

 Pour justifier l’adoption de l’hypothèse des anticipations parfaites, qui se rapporte au choix de
représentation des comportements, cet argumentaire compare les propriétés numériques des

- 81 -
différents types de modèles, récursifs vs. intertemporels. L’argument selon lequel il faudrait se
résigner à adopter une spécification peu plausible (anticipations parfaites) pour éviter des
difficultés de résolution numérique nous semble peu tenable.

Face à cet argumentaire, la théorie originale des anticipations rationnelles fournit des pistes de
travail pour améliorer les choix de représentation des modèles. Dans la réalité, les agents économiques
formulent des anticipations à partir de toute l’information dont ils disposent et révisent leurs
anticipations au fur et à mesure de l’arrivée de nouvelles informations. En conséquence nous posons
les principes suivants :
(i) L’hypothèse de myopie des agents est résolument fausse ;
(ii) Les hypothèses d’anticipations adaptatives sont plus plausibles mais il faut veiller à ce
qu’elles n’engendrent pas de biais systématique dans les erreurs, notamment à cause de
formes mathématiques trop contraignantes (par exemple une sous-estimation systématique
due à une équation linéaire pour un phénomène quadratique).
(iii) L’hypothèse d’anticipation parfaite n’est pas non plus plausible parce que l’évolution de
l’économie est conditionnée par des effets de système et des chocs ne pouvant pas être
anticipés avec les seules informations dont disposent les agents au moment de prendre
leurs décisions.

Dans la réalité des modèles de prospective énergie-climat, la majeure partie des modèles utilisés
repose soit sur une hypothèse de myopie, soit sur une hypothèse d’anticipations parfaites en équilibre
intertemporel. Quelques-uns se situent au stade intermédiaire en incluant des anticipations adaptatives
(par exemple, SGM, POLES, Imaclim-R). Mais aucune de ces spécifications pragmatiques ne satisfait
au diagnostic ci-dessus. Pour résumer, anticipations adaptatives et anticipations parfaites sont deux
manières de se rapprocher d’une réalité proche des anticipations rationnelles telle qu’elles sont
définies par J. Muth. Malheureusement la théorie des anticipations rationnelles ne fournit pas de
précision sur les modalités concrètes de représentation des décisions des agents. Pour la mettre en
œuvre, il faudrait déterminer avec précision quelles sont les informations dont disposent les agents au
moment de formuler leurs anticipations et de prendre leur décision, et quels sont les perturbations
fréquentes non anticipées qui sont responsables des déviations entre anticipations et réalisations. Sans
ces précisions, c’est une théorie qui reste hors du champ opérationnel, ce qui est le cas général. Dans
ce contexte, il semble que la coexistence de l’approche intertemporelle avec anticipations parfaites et
de l’approche des anticipations adaptatives (forcément dans des modèles récursifs) peut permettre
d’avoir deux bornes de comportement qui encadrent le réel.

Cette discussion ne peut s’achever sans une remarque plus large sur la traduction usuelle de
l’hypothèse de rationalité dans les modèles économiques : celle-ci est toujours limitée à la
maximisation du profit ou de la consommation des agents (via une fonction d’utilité dépendant
uniquement de la consommation de biens et services). Pourtant il est évident que les agents
économiques prennent en considération, dans leurs raisonnements et leurs décisions, de nombreux
éléments sociaux non couverts par l’objectif de profit ou de consommation. Il peut s’agir de normes
sociales ou de préférences individuelles. C’est sûr ce point en particulier que T. Koopmans concluait
son discours de Prix Nobel en 1975 :

“One final remark. The economist as such does not advocate criteria of optimality. He may invent them.
He will discuss their pros and cons, sometimes before but preferably after trying out their implications.

- 82 -
He may also draw attention to situations where all other objectives, such as productive efficiency, can be
served in a decentralized manner by particularized criteria, such as profit maximization. But the ultimate
choice is made, usually only implicitly and not always consistently, by the procedures of decision making
inherent in the institutions, laws and customs of society51.” (Koopmans, 1975)

Cette seule remarque suffit à justifier, dans certains cas, un écart par rapport au paradigme de
l’optimalité dans les modèles. Le recours à des routines de comportement, sous formes de fonction de
réaction explicites, peut être plus adapté pour décrire le réel que le recours systématique à une
maximisation de profit. Cela pose bien sûr un problème non trivial d’introduction d’hypothèses
« arbitraires » dans les modèles, problème que nous traitons dans le paragraphe suivant.

3.3.3 La résistance de l’hypothèse d’optimalité : une question « d’ancrage » ou


un abus de mathématiques ?
Nous avons examiné dans les deux sous parties précédentes les concepts théoriques sous-jacents
à l’utilisation de l’optimalité dans la représentation du monde futur. Il nous semble qu’en parallèle de
ces théories, qui servent à justifier leur transposition souvent « déformante » dans les modèles, il existe
deux raisons supplémentaires qui permettent d’expliquer le succès de l’optimalité comme paradigme
de représentation du monde et la difficulté de proposer des méthodes alternatives : d’une part
l’indétermination qui caractérise un monde « sous-optimal » et l’inconfort qui en résulte, d’autre part
l’attrait mathématique des problèmes de recherche d’optimum.

L’abandon d’un critère d’optimalité laisse en général le modélisateur sans critère de décision
général sur le mode de représentation le plus proche du réel. Pour pallier l’indétermination qui en
découle, le modélisateur doit définir des règles de comportements à travers d’autres critères de
décision, souvent considérés comme « ad hoc » :
“The rational expectations side of the argument has the considerable advantage of definiteness and
convenience. It also has the disadvantage that it is thought to be implausible by the very people whose
mental processes it is meant to describe. The other side of the argument has the disadvantage of
indefiniteness; it leaves a lot of options, with no good fact-based way of choosing how to represent
expectations.” (Solow, 2000)

Pourtant, l’introduction des critères de décision alternatifs à la maximisation du profit est un


enjeu majeur de la modélisation, puisqu’il s’agit de prendre en compte les normes sociales, les
routines de comportements des agents. Par exemple, pour la fixation des prix du pétrole, l’observation
des prix réels ne permet pas de vérifier, même sur le long terme, la loi de Hotelling, censée refléter une
optimisation intertemporelle du profit. Dans ce cas, il est indispensable, pour la représentation d’une
variable aussi déterminante pour l’orientation des choix énergétiques, d’incorporer les autres
mécanismes qui président à la fixation du niveau des prix, comme les limites de capacités pour les
fluctuations de court terme, l’évolution des réserves à long-terme, et le prix des substituts potentiels.
Le critère de maximisation du profit concerne normalement la représentation des décisions
microéconomiques, mais, du fait de l’utilisation généralisée du paradigme de l’agent représentatif, il
est directement transposé aux agrégats économiques – production ou consommation. Or, on sait que ce
critère d’optimisation n’est pas l’unique force motrice des décisions microéconomiques, ce qui devrait

51
Souligné par nous.

- 83 -
changer aussi le comportement agrégé. Akerlof (2007) montre ainsi que la majorité des « grandes
lois » de la macroéconomie néoclassique52 n’est plus valide lorsque l’on prend en compte le rôle des
normes sociales dans les décisions des agents. Par « normes », Akerlof désigne ce que la façon dont
les agents pensent « qu’ils doivent agir » pour être en conformité avec leur environnement
socioculturel.
“…this lecture will also question the generality of the preferences that lead to the five neutralities. There
is a sense in which those preferences are very narrowly defined. They have important missing motivation
— since they fail to incorporate the norms of the decision makers. Those norms reflect how the
respective decision makers think they and others should or should not behave, even in the absence of
frictions. Preferences reflecting such norms yield a macroeconomics with important remnants of the
early Keynesian thinking. They also yield a macroeconomics that, in important details, cannot be
obtained only with frictions.” (Arkelof, 2007, p. 6)

Ce constat n’est pas nouveau en soi : la majeure partie de la sociologie est consacrée à l’identification
des motivations et des raisons d’agir des individus, raisons qui dépassent largement le cadre de la
maximisation d’une utilité réduite à une fonction exclusive du profit ou de la consommation. La
première originalité de l’article d’Akerlof est de montrer que l’importance des normes sociales dans
les décisions est de nature à invalider la totalité des « lois » fondées sur des hypothèses de perfection
dans un monde purement optimisateur de profit ou de consommation. La seconde originalité de cet
article est d’identifier les failles méthodologiques qui sont à l’origine de l’ignorance persistante des
normes susceptibles de compter dans les processus de décision : d’une part l’impotence des tests
économétriques pour rejeter les modèles sans normes et la confiance systématique placée dans ces
tests en économie ; d’autre part le refus des économistes d’adopter une approche plus empirique que
théorique, approche qui ferait bénéficier l’économie des connaissances et méthodes de la sociologie et
de l’anthropologie :
« The omission of norms from macroeconomics, as well as from economics more generally, can be
explained by economists’ adherence to positive economics. […]In particular, he [Friedman] says that
economic theorists should strive for parsimonious modeling. According to Friedman, they should even
forsake realistic assumptions in pursuit of such parsimony. Maximization models with only objective
arguments of utility have been defined as more parsimonious than models where people, additionally,
lose utility insofar as they, or others, fail to live up to their standards. As a result, whatever the empirical
validity or relevance of such norms, positive economics has a methodological bias against their
consideration. It privileges models without norms. » (Akerlof, 2007, p. 28).

Finalement, le strict recours au critère d’optimisation du profit ou de l’optimisation permet d’éviter la


discussion ouverte des autres critères de décision, telles les normes mentionnées par G. Akerlof, et
d’ignorer les exigences empiriques fortes de cette discussion. Le statut inviolable du critère
d’optimalité est renforcé par le succès du formalisme mathématique dans l’enseignement et la
littérature économiques. Ce formalisme mathématique, accompagné de l’augmentation des facilités de
calcul numérique, s’est imposé aux dépends de la réflexion sur le sens économique des modèles53.

52
G. Akerlof désigne ces lois comme des règles de « neutralité » : (i) l’indépendance de la consommation et du
revenu instantané, ou hypothèse du cycle de vie ; (ii) l’indépendance entre décisions d’investissement et profits
courants, ou théorème de Modigliani-Miller ; (iii) l’indépendance à long terme de l’inflation et du chômage ; (iv)
l’incapacité des politiques monétaires à modifier la production, corollaire de l’hypothèse d’anticipations
rationnelles ; (v) l’indépendance de la consommation et des taxes, ou équivalence ricardienne.
53
Ce glissement vers le formalisme mathématique était déjà clairement identifié par W. Leontief dès 1974 : "Le
souci constant de travailler sur une réalité imaginaire, hypothétique, plutôt qu'observable, a conduit

- 84 -
Comme les démonstrations théoriques ne sont en général tractables qu’avec des hypothèses très
simplificatrices, la prise en compte de critères de décision alternatifs, de normes sociales,
d’imperfections, d’asymétries d’information, etc. ne peut être bien réalisée sous peine de rendre les
calculs infaisables. Du coup, les lois générales issues des démonstrations analytiques simplificatrices
sont érigées en « normes » au sein de l’économie et les modélisateurs se contentent de respecter ces
normes pour la représentation du monde réel.

4 Conclusion

Le diagnostic que nous présentons dans cette partie est à la fois sévère et enthousiasmant :

(i) Un diagnostic sévère parce qu’il constate, sur de nombreux points théoriques, un glissement
sémantique entre les théories économiques originelles et leur transposition opérationnelle dans des
modèles de représentation du monde réel. Ce problème ne concerne pas plus spécialement la
communauté de recherche sur le climat et l’énergie, comme le montre l’analyse globale de Mouchot
(2003). Il plaide pour une exégèse générale des normes de l’économie, telle que le consommateur
représentatif, la fonction de production agrégée, les anticipations rationnelles. Bien sûr il faut rajouter
à l’éventuel glissement sémantique des théories originales le fait que le modélisateur numérique n’a
guère le temps de contester ou de maîtriser les tenants et aboutissements de ces théories. De fait, il
pense pouvoir s’appuyer sur une auto-révision des sciences économiques qui n’a pas vraiment lieu, et
qui devrait maintenir une plus grande rigueur autour des limites intrinsèques à ces différents concepts
théoriques.

(ii) un diagnostic enthousiasmant parce qu’il dégage de nombreuses ouvertures possibles dans la
révision des pratiques de modélisation pour une meilleure évaluation des politiques et un appui à la
décision plus robuste. Parmi ces ouvertures, nous avons dégagé plusieurs chantiers majeurs :
 La nécessité d’une justification détaillée et sectorielle des hypothèses de rattrapage de
productivité utilisées pour générer les scénarios de croissance ;
 L’insuffisance du modèle néoclassique de croissance ou du modèle intertemporel de Ramsey
pour représenter la complexité des mécanismes de croissance économique et pour évaluer les
coûts des dommages climatiques, des chocs énergétiques et des politiques, parce qu’il néglige
les mécanismes d’ajustement ou de fluctuations à court et moyen terme ;
 L’inadaptation de la fonction de production néoclassique pour modéliser les potentiels
d’évolution techniques sur le long terme et proposer une représentation tangible des capacités
de production et de leurs caractéristiques technologiques, ainsi que des infrastructures.
 La nécessité de poursuivre les efforts d’endogénéisation du changement technique et
structurel, pour l’instant limités aux effets d’apprentissage sur les coûts des technologies
énergétiques futures ;
 La nécessité de dépasser les restrictions imposées (i) par un recours systématique au
paradigme d’optimisation de l’utilité du consommateur représentatif, avec des fonctions
d’utilité dépendant uniquement de la consommation, (ii) par un recours occasionnel à une

progressivement à une distorsion de l'échelle officieuse des valeurs qui est en usage dans notre milieu
universitaire pour évaluer et classer les travaux scientifiques de ses membres. Selon cette échelle, l'analyse
empirique est plus mal notée que le raisonnement mathématique formel." (Leontief, 1974, cité dans Mouchot,
2003, p.115)

- 85 -
hypothèse d’anticipations parfaites, dont la plausibilité est très discutable, et qui conduit à une
sous-estimation systématique des déséquilibres et des coûts de transition ;

Ces insatisfactions vis-à-vis des pratiques dominantes en modélisation nécessitent un certain


nombre d’innovations, ou au moins d’amendements des pratiques, en ligne avec les connaissances
théoriques et empiriques accumulées en économie. L’enjeu est ici d’assurer la progression continue
des outils de représentation du monde réel et d’évaluation des politiques, dans un contexte d’évolution
rapide des décisions politiques et d’exigences grandissantes quant à la plausibilité et la rigueur des
évaluations numériques. En effet, les politiques climatiques sont maintenant à l’ordre du jour des
décisions nationales et locales, et ne se limitent plus à la négociation d’une « grande architecture » de
régulation internationale. Chaque pays, chaque région, chaque zone urbaine se prépare à adopter dans
la décennie à venir des mesures de réduction des émissions, de sécurité énergétique ou d’adaptation au
changement climatique. L’amélioration des modèles pouvant fournir une aide à la décision est en voie
d’être dépassée par la rapide prise en charge politique du dossier climatique ; il devient urgent de
réviser les outils de modélisation pour éviter qu’ils ne deviennent trop obsolètes pour fournir une aide
à la décision dans la mise en œuvre concrète des divers instruments envisagés.

Enfin, nous avons souligné à deux reprises l’insatisfaction soulevée par l’usage de l’optimisation
intertemporelle pour décrire la croissance économique (§1.2) ou les dynamiques de demande agrégée
(§3.1). Cette insatisfaction suscite une remarque plus générale sur l’ambiguïté du statut de
l’optimisation intertemporelle dans les outils et dans les simulations. Il est certainement plausible de
représenter des agents économiques dont les décisions sont prises en fonction d’un calcul
intertemporel, surtout dans les secteurs très concentrés et intensifs en capital, comme le secteur
électrique54. Par contre, il n’est guère plausible de supposer que la dynamique économique dans son
ensemble correspond à la maximisation du bien-être collectif par un planificateur bienveillant
hypothétique. Le recours à l’optimisation intertemporelle devrait donc être limité :
(i) en tant que représentation du monde réel, aux secteurs dont le comportement agrégé relève
clairement d’une optimisation des investissements, en gardant à l’esprit que, dans le monde
réel, cette optimisation est réalisée dans un contexte d’anticipations adaptatives face à un futur
incertain ;
(ii) en tant que critère de décision collective, à la recherche des stratégies optimales de politiques
publiques en situation d’incertitude sur le futur.

54
Il n’est pas certain que la libéralisation de ce secteur, auparavant administré de manière centrale dans la
majorité des régions du monde, génère une situation idéale où les décisions d’investissements décentralisées
corresponde à une situation d’optimum collectif.

- 86 -
5 Références
Abramovitz, M., 1986, “Catching up, Forging Ahead, and Falling Behind”, Journal of Economic History, XLVI,
2, 385-406

Aghion, P., Howitt, P., 1992, “A Model of Growth through Creative Destruction”, Econometrica, 60(2), 323-51

Akerlof, G. A., 2007, “The Missing Motivation in Macroeconomics”, American Economic Review 97(1), 5-36

Alcamo, J., Kreileman, G.J.J., Krol, G.J.J., Zuidema, G., 1994, “Modeling the global society-biosphere-climate
system: Part 1: Model description and testing”, in Image 2.0: Integrated Modeling of Global Climate Change, J.
Alcamo (ed.), 1-35, Kluwer Academic Publishers.

Ambrosi, P., 2004, “Amplitude et calendrier des politiques de réduction des émissions face aux risques
climatiques : leçons des modèles intégrés”, Thèse de Doctorat, Sciences Économiques, Hourcade, J-C (dir.),
Paris, EHESS, 375 p.

Arthur, B., 1989, “Competing Technologies, Increasing Returns, and Lock-In by Historical Small Events”,
Economic Journal, 99, 116-131

Arrow, K. J., 1978, “The Future and the Present in Economic Life”, Economic Inquiry, 16(2), 157-69

Azar C., Dowlatabadi H., 1999, “A Review of Technical Change in Assessments of Climate Policy”, Annual
Review of Energy and the Environment, 24, 513–44

Barker, T., Pan, H., Köhler, J., Warren, R. and Winne, S., 2006, “Decarbonizing the Global Economy with
Induced Technological Change: Scenarios to 2100 using E3MG”, In Edenhofer, O., Lessmann, K., Kemfert, K.,
Grubb, M. and Köhler, J. (eds) Induced Technological Change: Exploring its Implications for the Economics of
Atmospheric Stabilization, Energy Journal Special Issue on the International Model Comparison Project

Baron, R., Salles, J. F., 1991, “Comparaison des travaux de prospective énergétique à long terme et évaluation
de différents scénarios relatifs au problème de l'effet de serre”, Rapport de recherche auprès du Ministère de
l’Environnement, 163 pp., INIST-CNRS

Baron, R., Hourcade, J.C., 1994, “The bottom-up versus top-down controversy, a useful provocation for
economic research on environment and technological change”, 50th Congress of the International Institute of
Public Finance "Public Finance, Environment and Natural Ressources", Harvard University, 22-25 août, 11 p.

Barro, R. J., 1990, “Government Spending in a Simple Model of Endogenous Growth”, Journal of Political
Economy, 98(5), 103-126

Barro R. J., Sala-i-Martin X., 1992, “Convergence”, Journal of Political Economy, 100(21), 223-251

Bernard, A.B., Jones, C.I., 1996a, “Comparing apples to oranges: productivity convergence and measurement
across industries and countries”, American Economic Review, 86, 1216–1252

Bernard, A.B., Jones, C.I., 1996b, “Technology and Convergence”, The Economic Journal, 106(437), 1037-1044

- 87 -
Bernanke, B., Jorgenson, D., 1975, “The Integration of Energy Policy Models”, Computers and Operations
Research , Vol. 2, No. 3, September 1975

Blaug, M., 2001, “No history of ideas, please, we’re economists”, Journal of Economic Perspectives, 15(1), 145-
164

Böhringer, C., 1998, “The Synthesis of Bottom-Up and Top-Down in Energy Policy Modeling”, Energy
Economics, 20 (3), 233-248

Böhringer, C., Löschel, A., 2006, “Promoting Renewable Energy in Europe: A Hybrid CGE Approach”, The
Energy Journal, Special Issue “The Hybrid Modelling: New Answers to Old Challenges”, 123-138

Böhringer, C., Rutherford, T. F., 2008, “Combining bottom-up and top-down”, Energy Economics, 30, 547-596

Bosetti, V., C. Carraro, M. Galeotti, E. Massetti, M. Tavoni, 2006, “WITCH: A World Induced Technical
Change Hybrid Model”, The Energy Journal, Special Issue “Hybrid Modelling of Energy Environment Policies:
Reconciling Bottom-up and Top-down”, 13-38

Boulding, 1971, “After Samuelson Who Needs Adam Smith?”, History of Political Economy, 3(2), 225-237

Burniaux J. M., Martin, J. P., Nicoletti, G., Oliveira Martins, J., 1991, “GREEN - A Multi-Region Dynamic
General Equilibrium Model for Quantifying the Costs of Curbing CO2 Emissions: A Technical Manual”, OECD
Economics Department Working Papers 104, OECD Economics Department

Castles, I., Henderson, D., 2003, “The IPCC Emission Scenarios: An Economic-Statistical Critique”, Energy and
Environment, Vol. 14, No. 2&3, pp. 159-185

Carraro, C., Siniscalco, D., 1997, “R&D cooperation and the stability of international environmental
agreements”, in: Carraro, C. (Eds.), International Environmental Negotiations: Strategic Policy Issues. Edward
Elgar, Cheltenham, pp. 71-96

Carree, M.A., Klomp, L., Thurik, A.R., 2000, “Productivity convergence in OECD manufacturing industries”,
Economic Letters, 66, 337–345

Cass, D., 1965, “Optimum growth in an aggregative model of capital accumulation”, Review of Economic
Studies, 32, 233–240

Cho, D., 1994, “Industrialization, Convergence and Patterns of Growth”, Southern Economic Journal, 61(2),
398-414

Cohen, A.J., Harcourt, G.C., 2003, “Whatever Happened to the Cambridge Capital Theory Controversies?”,
Journal of Economic Perspectives, 17(1), 199-214

Crassous, R., Hourcade, J.-C., Sassi, O., 2006, “Endogenous structural change and climate targets. Modelling
experiments with Imaclim-R”, The Energy Journal, Special Issue n° 1, 259-276

Denison, E.F., 1962, The Sources of Economic Growth in the US and the Alternatives Before Us. Committee for
Economic Development, New York

Domar, E. D., 1946, “Capital Expansion, Rate of Growth, and Employment”, Econometrica, 14, 137-147

- 88 -
Dowlatabadi, H., Oravetz, M., 2006, “Understanding Trends in Energy Intensity: a simple model of technical
change”, Energy Policy, 34(17)

Drouet, L., A. Haurie, M. Labriet, P. Thalmann, M. Vielle, and L. Viguier, 2005, “A coupled bottom-up / top-
down model for GHG abatement scenarios in the housing sector of Switzerland”, In Energy and Environment,
Mathematics of Decision Making, pages 27-61. Springer, New York, 2005

Duncan, R., Wilson, C., 2004, Global population projections – is the UN getting wrong?, RIRDC Publication No
04/041, Australian Government, Full report

Durlauf, S., Johnson, P., 1995, “Multiple regimes and cross-country growth behavior”, Journal of Applied
Econometrics, 10, 365-84

Edenhofer, O., Lessmann, K., Kemfert, C., Grubb M., Koehler J., 2006, “Technological Change: Exploring its
Implications for the Economics of Atmospheric Stabilization”, The Energy Journal Special Issue, “Endogenous
Technological Change and the Economics of Atmospheric Stabilization”, 93

Edmonds, J., Reilly, J., 1982, “The IEA/ORAU Long-Term Global Energy-CO2 Model: Personal Computer
Version A84PC”. Institute for Energy Analysis, Oak Ridge Associated Universities, Washington, D.C.

Edmonds, J.A., Reilly, J.M., 1983, “A long-term global energy-economic model of carbon dioxide release from
fossil fuel use”, Energy Economics 5(2): 74-88

Edmonds, J.A., H.M. Pitcher, D. Barns, R. Baron and M.A. Wise, 1993, “Modeling Future Greenhouse Gas
Emissions: The Second Generation Model Description”, in Modeling Global Change, Lawrence R. Klein and
Fu-chen Lo, eds. United Nations University Press, New York

Edmonds, J.A., 1983, “The Long-Term Global Energy-CO2 Model: Software description”, Institute for Energy
Analysis, Oak Ridge Associated Universities, Washington, D.C.

Ehrlich, P. R. , Holdren, J. P., 1972, Bull. At. Sci. 28, 16-27.

Elmslie, B.T., 1995, “Retrospectives: the convergence debate between David Hume and Josiah Tucker”, Journal
of Economic Perspectives, 9, 207-216

Fawcett, A., Sands R., 2005, “The Second Generation Model: Model Description and Theory”, working paper
PNNL-15432, http://www.epa.gov/oar/sgm_theory_final_1.pdf

Finon, D., 1974, “Optimization model for the French energy sector”, Energy Policy 2(2): 136-151

Fishbone, L.G., Giesen, G., Goldstein, G., Hymmen, H.A., Stocks, K.J., Vos, H., Wilde, D., Zelcher, R., BaIzer,
C., and Abilock, H., 1983, “User's Guide for MARKAL (BNLIKFA Version 2.0) A Multi-period Linear-
programming Model for Energy Systems Analysis”. Brookhaven National Laboratory, Long Island, USA, and
Kernforschungsanlage Jülich, Jülich, FRG, 1983.

Fougeyrollas, A., Le Mouël, P., Zagamé, P., 2005, “Les nouvelles théories de la croissance en application :
L’évaluation des politiques structurelles, le cas du protocole de Kyoto”, Revue économique, 56(5), 1089 -1105

- 89 -
Frisch, J.-R., Brendow, K., Saunders, R., 1989, Horizons énergétiques mondiaux: 2000-2020, Editions
TECHNIP, 378 pp., 1989

Frondel M., Schmidt M. C., 2002, “The Capital-Energy Controversy: An Artifact of Cost Shares?”, The Energy
Journal, 23(3), 53-79

Galor, O., 1996, “Convergence? Inference from theoretical models”, The Economic Journal, 106, 1056-1069

Gerschenkron, A., 1952, “Economic backwardness in historical perspective” in The Progress of Underdeveloped
Areas. (ed. B.-F. Hoselitz). Chicago: University of Chicago Press

Ghersi, F., 2003, Changement technique et double dividende d’écotaxes : un essai sur la confluence des
prospectives énergétique et macro-économique, Thèse de Doctorat, EHESS, Hourcade, J.-C. (dir.), Paris, 289 p.

Ghersi, F., Hourcade, J.-C., 2006, “Macroeconomic Consistency Issues in E3 Modeling: The Continued Fable of
the Elephant and the Rabbit”, The Energy Journal, numéro spécial Hybrid Modeling of Energy-Environment
Policies: reconciling Bottom-up and Top-down : 39-62

GIEC, 1995, Climate Change 1995: Economic and Social Dimensions of Climate Change, Contribution of
Working Group III to the Second Assessment of the Intergovernmental Panel on Climate Change, J.P.Bruce,
H.Lee, E.F.Haites (Eds), Cambridge University Press, UK, 448 pp

GIEC, 2001, Climate Change 2001: Mitigation, Contribution of Working Group III to the Third Assessment
Report of the Intergovernmental Panel on Climate Change (IPCC), Bert Metz, Ogunlade Davidson, Rob Swart
and Jiahua Pan (Eds.), Cambridge University Press, UK. 700 pp

GIEC, 2007, Climate Change 2007: Mitigation. Contribution of Working Group III to the Fourth Assessment
Report of the Intergovernmental Panel on Climate Change, B. Metz, O.R. Davidson, P.R. Bosch, R. Dave, L.A.
Meyer (eds), Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA., 851 pp

Gilotte, L., 2004, Incertitude, inertie et choix optimal. Modèles de contrôle optimal appliqués au choix de
politiques de réduction des émissions de gaz à effet de serre, Thèse de Doctorat : SCI. ECON. (Analyse et
Politique Économiques) : De Lara, M.(dir.) : Paris, ENPC (Ecole Nationale des Ponts et Chaussées), 175 p.

Goldemberg, J., Johansson, T.B., Reddy, A.K.N., and Williams, R.H., 1988, Energy for a Sustainable World,
Wiley-Eastern, New Delhi, 571 pp., January.

Golombek, R., Hoel, M., 2005, “Climate policy under technology spillovers”, Environmental and
Resource Economics, 31, 201-227

Goodwin, R. M., 1951, “The Nonlinear Accelerator and the Persistence of Business Cycles”, Econometrica, 19,
1-17

Goulder, L., Schneider, S., 1999, “Induced Technological Change and the Attractiveness of CO2 Abatement
Policies”, Energy Economics, 21, 211-253

Griliches, Z., 1992, “The Search for R&D Spillovers”, Scandinavian Journal of Economics, 94, 29-47

Grübler, A., Nakicenovic, N., Alcamo, J., Davis, G., Fenhann, J., Hare, B., Mori, S., Pepper, B., Pitcher, H.,
Riahi, K., Rogner, H.-H., La Rovere, E., Sankovski, A., Schlesinger, M., Shukla, R.P., Swart, R., Victor, N.,

- 90 -
Yong Jung, T., 2004, “Emissions Scenarios: A Final Response”, Energy and Environment, Vol. 15, No. 1, pp.
11-24

Grübler, A., Messner, S., 1998, “Technological change and the timing of mitigation measures”, Energy
Economics, 20(5-6), 495-512

Häfele, W., 1981, Energy in a Finite World, Ballinger Publishing Company, Cambridge, MA

Hallegatte, S., 2005, “Interactions d’échelles en économie : application à l’évaluation des dommages
économiques du changement climatique et des évènements extrêmes”, Thèse de Doctorat, Sciences Économiques
: Hourcade J-C (dir.) : Paris, EHESS, 298 p.

Hallegatte, S., Hourcade, J.-C., Dumas, P., 2007, “Why economic dynamics matter in assessing climate change
damages : illustration on extreme events”, Ecological Economics, 62(2), 330-340

Hanaoka, T., M. Kainuma, R. Kawase, and Y. Matsuoka, 2006, “Emissions Scenarios Database and Regional
Mitigation Analysis: A Review of Mitigation Scenarios since the IPCC Third Assessment Report”,
Environmental Economics and Policy Studies, Vol.7, No.3, pp.367-389

Hansen, J., D. Johnson, A. Lacis, S. Lebedeff, P. Lee, D. Rind, and G. Russell, 1981, “Climate impact of
increasing atmospheric carbon dioxide”, Science, 213, 957-966

Harrod, R. F., 1939, “An Essay on Dynamic Theory”, Economic Journal, 49, 14-33

Hickman, B. G., Huntington, H. G., Sweeney, J. L., 1987, Macroeconomic Impacts of Energy Shocks,
Amsterdam: North-Holland

Hicks, J. R., 1939, Value and Capital, New York and London: Oxford University Press

Hicks, J. R., 1965, Capital and Growth, New York and London: Oxford University Press

Hicks, J. R., 1973, Capital and Time: a Neo-Austrian Theory, New York and London: Oxford University Press

Hildenbrand, W., Kneip, A., 1999, “Demand aggregation under structural stability”, Journal of Mathematical
Economics, 31, 81-109

Hoffman, K.C., 1973, "A Unified Framework for Energy System Planning," in Searl, Energy Modeling,
Resources for the Future, Inc., Washington, D.C., pp. 110-143

Holtsmark B., Alfsen K, 2004, “The use of PPP or MER in the construction of emission scenarios is more than a
question of ‘metrics’”, Climate Policy, 4, 205-216

Hourcade, J.C., 1984, Prospective de l'énergie et stratégies de développement dans le tiers monde, Thèse de
Doctorat d'Etat en Sciences Economiques, Université Paris VIII Vincennes à Saint-Denis, octobre

Hourcade, J.C., Kalaydjian, R., 1987, “Macroéconométrie et choix technologiques structurants : bilan et
questions à partir du domaine de l'énergie”. XIXe colloque Structures économiques et économétrie, organisé par
l'ARAE (Association Rhodanienne pour l'avancement de l'économétrie), le LATAPSES CNRS et l'Equipe
Economie et économétrie de l'environnement, Sophia-Antipolis, 21-22 mars

- 91 -
Hourcade, J. C., Robinson, J., 1996, “Mitigating Factors: Assessing the Costs of Reducing GHG Emissions”,
Energy Policy, 24 (10/11), 863-873

Hourcade, J. C., Journé, V., 2003, “Monsieur Homais, les guides de montagne et le maître nageur - Variations
sur la négation des risques climatiques”, Critique Internationale, n°18, 2003/1, 65-79

Hourcade, J.C., Jaccard, M., Bataille, C., Ghersi, F., 2006, “Introduction to the Special Issue of the energy
journal”, The Energy Journal, Special Issue: Hybrid modelling of energy environment policies: reconciling
bottom-up and top-down

Hourcade, J.-C., 2007, “Les modèles dans les débats de politique climatique : entre le Capitole et la Roche
Tarpéienne ? » in Dahan-Dalmedico, A. (dir.). Les modèles du futur. Changement climatique et scénarios
économiques : enjeux politiques et économiques, A. Dahan-Dalmedico (dir.), 2007, Paris : La Découverte

Howarth, R., 2000, “Climate Change and the Representative Agent”, Environmental & Resource Economics,
European Association of Environmental and Resource Economists, vol. 15(2), 135-148

International Energy Agency, 2000, Experience Curves for Energy Technology Policy, IEA, Paris

Inada, K.-I., 1963. On a two-sector model of economic growth: comments and a generalization, Review of
Economic Studies, 30 (2), 119–127.

Jaccard, M., 2005, “Hybrid Energy-Economy Models and Endogenous Technological Change”, in eds. Loulou,
R., Waaub, J. P., Zaccour, G., Energy and Environment, Springer, 81-110

Jaccard, M.K., Nyboer, J., Bailie, A., Taylor, A., Sadownik, B., Laurin, A., Murphy, R., Bataille, C; Nanduri,
M., D'Abate, R. et C. Lai, 2000, Integration of GHG Emission. Reduction Options using CIMS. Rapport préparé
pour Analysis and Modelling Group Climate Change National Implementation Process

Johansen, L., 1959, “Substitution versus Fixed Production Coefficients in the Theory of Growth: A synthesis”,
Econometrica, 27, 157-176

Johansen, L., 1972, Production functions: An integration of micro and marco, short run and long run aspects,
North-Holland, Amsterdam, 274 pp.

Jones, D.W., Leiby, P.N., 1996, “The Macroeconomic Impacts of Oil Price Shocks: A Review of Literature and
Issues”, Oak Ridge, Ten.: Oak Ridge National Laboratory

Jones, D. W., Leiby, P. N., Paik, I. K., 2004, “Oil Price Shocks and the Macroeconomy: What Has Been Learned
Since 1996?”, The Energy Journal 25(2): 1-32

Jorgenson, D.W., Houthakker, H.S., 1973, US energy resources and economic growth (Series). Washington DC,
Energy Policy Project

Jorgenson, D.W., Wilcoxen, P.J., 1990, “The Cost of Controlling U.S. Carbon Dioxide Emissions”, In
Proceedings of the Workshop on Economic/Energy/Environmental Modeling for Climate Policy Analysis, D.O.
Wood and Y. Kaya. Center for Energy Policy Research and Sloan School of Management, Massachusetts
Institute of Technology, Cambridge, MA, and Department of Electrical Engineering, University of Tokyo Global
Environmental Study Laboratory, Tokyo

- 92 -
Kaldor, N., 1940 “A Model of the Trade Cycle”, Economic Journal, 50, 78-92

Kalecki, M., 1939, Essays in the Theory of Economic Fluctuation, 1972 edition, London: Allen and Unwin

Kantor, B., 1979, “Rational Expectations and Economic Thought”, Journal of Economic Literature, 17(4), 1422-
1441

Keeling, C.D., Bacastow, R.B., 1977, “Impact of industrial gases on climate”, in Energy & Climate. Studies in
Geophysics, National Academy of Sciences, Washington, D.C., 72-95

Keynes, J. M., 1936, The General Theory of Employment, Interest and Money, Macmillan Cambridge University
Press.

Kim, S.H., J. Edmonds, J. Lurz, S. J. Smith, M. Wise, 2006, “The ObjECTS Framework for Integrated
Assessment: Hybrid Modeling of Transportation ”, The Energy Journal, Hybrid Modeling, Special Issue #2,
2006

Kirman, A., P., 1992, “Whom or what does the representative individual represent?”, Journal of Economic
Perspectives, 6, 117-136

Koopmans, T., 1951, Activity Analysis of Production and Allocation, volume 13 of Cowles Commission
Monograph, pages 33--97. John Wiley & Sons, New York

Koopmans, T. C., 1965, “On the concept of optimal economic growth”, in Econometric Approach to
Development Planning, chap. 4, 225–87. North-Holland Publishing Co., Amsterdam.

Koopmans, T.C., 1975, “Concepts of optimality and their uses”, Nobel Prize Lecture, December, 11, 1975

Kouvaritakis, N., Soria, A., Isoard, S., 2000, “Endogenous Learning in World Post-Kyoto Scenarios: Application
of the POLES Model under Adaptive Expectations”, International Journal of Global Energy Issues, 14(1-4),
222-248

Leontief, W., 1974, Essais économiques, Paris, Calmann-Levy

Lévy-Garboua, V. , Denizot, F.-B., 1972, “Le problème de l'agrégation : un essai de synthèse”, Revue
économique, 23(1), 20-53

Lomborg, B., 2001, The Skeptical Environmentalist: Measuring the Real State of the World, Cambridge
University Press, 2001

Löschel, A., 2002, “Technological Change in Economic Models of Environmental Policy: a Survey”, Ecological
Economics, 43, 105-126

Lovins, A.B., 1977, Soft Energy Paths: Toward a Durable Peace, Penguin Books

Lovins, A.B., LH. Lovins, F. Krause, W. Bach, 1981, Energy Strategies for Low Climate Risk. Report for the
German Federal Environmental Agency, International Proiect for Soft-Energy Paths, San Francisco, CA, USA

Lucas, R., J., 1988, “On the mechanics of economic development”, Journal of Monetary Economics, Elsevier,
22(1), 3-42

- 93 -
Lucas, R. Jr., 1972, “Expectations and the Neutrality of Money”, Journal of Economic Theory, 4(2), 102-24

Lucas, R. Jr., 1973, “Some International Evidence on Output-Inflation Tradeoffs”, American Economic Review,
63(3), 326-34

MacCracken, C. N., Edmonds, J. A., Kim, S. H., Sands, R. D., 2000, “The Economics of the Kyoto Protocol”,
Energy Journal, Vol. 21, suppl., pp. 25-72

MacDonald, G.F., H.Abarbanel, P.Carruthers, J.Chamberlain, H.Foley, W.Munk, W. Nierenberg, O.Rothaus,


M.Ruderman, J.Vesecky, F.Zachariasen, 1979, “The long term impact of atmospheric carbon dioxide on
climate”, JASON Technical Report JSR-78-07, SRI International, Arlington, Virginia

Maddison, A., 2001, The World Economy: A Millennial Perspective. Paris: OECD, 2001, 384 pp.

Malinvaud, E., 2002, “Les problèmes d'agrégation en macroéconomie”, Colloque international du vingtième
anniversaire du GREQAM, Vieille charité, Marseille, 29 juin 2002

Malinvaud, E., 1993a, “Regard d’un ancien sur les nouvelles théories de la croissance”, Revue Economique, n° 2,
mars 1993, 171-188

Malinvaud, E., 1993b, “A Framework for Aggregation Theories”, Ricerche Economiche, 47:2,107-135

Malinvaud, E., 1977, The theory of unemployment reconsidered, Basil Blackwell.

Manne, A. S., Markowitz, H. M., 1961, “Studies in process analysis: economy-wide production capabilities”,
Proceedings of a Conference Sponsored by The Cowles Foundation for research in economics at Yale university,
April 24–26, 427 pp

Manne A.S., Richels, R.G., 1977, “ETA-MACRO: A Model of Energy-Economy Interactions”, in C. J. Hitch
(ed.), Modeling - Energy-Economy Interaction, Resources for the Future, Washington, D.C., 1977

Manne, A.S. , Richels, R.G., 1990, “CO2 emission reductions: an economic cost analysis for the USA”, The
Energy Journal, 11(2):51-75

Manne, A.S., Rutherford, T.F., 1994, “International trade, Capital Flows and Sectoral Analysis: formulation and
solution of intertemporal equilibrium models," in W.W. Cooper and A.B. Whinston, eds., New Directions in
Computational Economics, Springer, 1994, pp. 191-205

McKibbin, W. J., Wilcoxen, P. J., 1998, "The theoretical and empirical structure of the G-Cubed model”,
Economic Modelling, Elsevier, vol. 16(1), pages 123-148, January

McKibbin, W. J. , Pearce, D., Stegman, A., 2007, “Long term projections of carbon emissions”, International
Journal of Forecasting, Elsevier, vol. 23(4), pages 637-653

Meadows, D., Meadows, D., 1972, The Limits to Growth : A Report for the Club of Rome's Project on the
Predicament of Mankind, New York, USA, Universe Books

Messner, S., 1997, “Endogenised Technological Learning in an Energy System Model”, Journal of Evolutionary
Economics, 7, 291-313

- 94 -
Miketa, A., 2001, “Analysis of Energy Intensity Developments in Manufacturing Sectors in
Industrialized and Developing Countries”, Energy Policy, 29, 769-775

Miketa, A., 2004, “The Use of Purchasing Power Parities in Long-Term EconomicGrowth Scenarios”,
presentation at IIASA, International Institute for Applied System Analysis (IIASA), Laxenburg

Mintzer, I., 1987, “A Matter of Degrees: The Potential for Controlling the Greenhouse Effect”, Research Report
#5, World Resources Institute, Washington, D.C.

Mouchot, C., 2003, Méthodologie économique, Seuil, coll. Points Economie, 558 p.

Mork, K. A., “Business Cycles and the Oil Market”, The Energy Journal, Special Issue, 15, 15-38

Muellbauer, J., 1976, “Community Preferences and the Representative Consumer”, Econometrica, 44(5), 979-
999

Muth, J. F., 1961, “Rational Expectations and the Theory of Price Movements”, Econometrica, 29, 315-335

Nakicenovic, N., Alcamo, J., Davis, G., de Vries, B., Fenhann, J., Gaffin, S., Gregory, K., Grübler, A. et al.,
2000, Special Report on Emissions Scenarios, Intergovernmental Panel on Climate Change (IPCC), Cambridge
University Press, Cambridge

Nakicenovic N., P. Kolp, K. Riahi, M. Kainuma, T. Hanaoka, 2006, “Assessment of Emissions Scenarios
Revisited”, Environmental Economics and Policy Studies, 7(3):137-173

Nordhaus, W. D., 1973, “World Dynamics: Measurement Without Data”, The Economic
Journal, 83 (332), 1145-1183

Nordhaus, W., 1977a, “Economic Growth and Climate: The Carbon Dioxide Problem”, American Economic
Review, (February 1977), 67(1): 341-346 [Cowles Foundation Discussion Paper 435, 18pp]

Nordhaus, W., 1977b, “The Demand for Energy: An International Perspective,” in William Nordhaus, ed.,
Chapter 13, International Studies of the Demand for Energy, North-Holland Publishing Company, 1977

Nordhaus, W., 1979, The Efficient Use of Energy Resources, Yale University Press, 1979

Nordhaus, W., 1980, “Thinking about carbon dioxide: theoretical and empirical aspects of optimal control
strategies”, Cowles Fundation Discussion Paper No 565, Yale University, October 1980

Nordhaus, W., Ausubel, J., 1983, “A Review of Estimates of Future Carbon Dioxide Emissions,” National
Research Council-National Academy of Sciences, Changing Climate, National Academy Press, 1983

Nordhaus, W., Yohe, G., 1983, “Future Carbon Dioxide Emissions from Fossil Fuels”, in National Research
Council-National Academy of Sciences, Changing Climate, National Academy Press, 1983

Nordhaus, 1992, “An Optimal Transition Path for Controlling Greenhouse Gases”, Science, vol. 258, November
20, 1992, pp. 1315-1319

- 95 -
Nordhaus, W., 1993, “Optimal Greenhouse-Gas Reductions and Tax Policy in the ‘DICE’ Model”, American
Economic Review, May 1993, vol. 83, pp. 313-317

Nordhaus, W., 1999, “Modeling induced innovation in climate change policy”, Paper for the workshop Induced
Technological Change and the Environment, June 21-22, 1999, IIASA, Laxenburg

Nordhaus, W. D., Boyer, J., 2000, Warming the World : Economics Models of Global Warming. MIT press.

Nordhaus, W., 2007, “Alternative measures of output in global economic-environmental models: Purchasing
power parity or market exchange rates?”, Energy Economics, 29(3), 349-372

Oliveira Martins, J., Gonand F., Antolin P., de la Maisonneuve C., and Kwang-Y, 2005, “The impact of ageing
on demand, factor markets and growth”, OECD Economics Department Working Papers, #420, OECD
Economics Department

Paltsev, S., Reilly J., Jacoby H., Eckaux R., McFarland J., Sarofim M., Asasoorian M., Babiker M., 2005, “The
MIT Emissions Prediction and Policy Analysis (EPPA) Model: Version 4”, Report no. 125. Joint Program on
the Science and Policy of Global Change, MIT, Cambridge, MA

Perroni, C., Rutherford, T., 1991, “lnternational trade in carbon emissions rights and basic materials : general
equilibrium calculations for 2020”, OECD miméo

Popp, D., 2002, “Induced innovation and energy prices”, American Economic Review 92 (1), 160-180

Popp, D., 2006, “Comparison of Climate Policies in the ENTICE-BR Model”, in Grubb, M., Carraro, C.,
Schellnuber, J., eds. Endogenous Technological Change and the Economics of Atmospheric Stabilisation. The
Energy Journal, Special Issue, 163-174

Quah, D., 1996, “Empirics for economic growth and convergence”, European Economic Review, 40(6), 1353-
1375

Quah, D. T., 1993, “Galton.s Fallacy and the Convergence Hypothesis”, Scandinavian Journal of Economics, 95,
427-443

Ramsey, F., 1928, “A Mathematical Theory of Saving”, Economic Journal, 38(152), 543–559

Rana A., Morita, T., 2000, “Scenarios for Greenhouse Gas Emissions: A Review of Modeling of Strategies and
Policies in Integrated Assessment Models”, Environmental Economics and Policy Studies, 3, 2, 267-289

Reilly, J., Edmonds, J., Gardner, R., Brenkert, A., 1987, “Uncertainty analysis of the IEA/ORAU CO2 emissions
model”, The Energy Journal, Vol. 8 No.3, pp.1-29

Robinson, J., 1956, The Accumulation of Capital, Londres: Macmillan

Robinson, J., 1954, “The Production Function and the Theory of Capital”, Review of Economic Studies, 21(2),
81-106

Romer, P. M., 1986, “Increasing Returns and Long-run Growth”, Journal of Political Economy, University of
Chicago Press, 94(5), 1002-1037

- 96 -
Romer, P.M., 1990; “Endogenous Technological Change”, Journal of Political Economy, University of Chicago
Press, 98(5), 71-102

Sala-i-Martin, X., 1996, “Regional cohesion: Evidence and theories of regional growth and convergence”,
European Economic Review, 40(6), 1325-1352

Sala-i-Martin, X., 1990, On growth and states, Ph.D. Dissertation, Harvard University.

Samuelson, P. A., 1966, “A Summing Up”, Quarterly Journal of Economics, 80(4), 568-583

Samuelson, P. A., 1962, “Parable and Realism in Capital Theory: The Surrogate Production Function”, Review
of Economic Studies, 29(3)

Sargent, T. J., Wallace, N., 1975, “'Rational' Expectations, the Optimal Monetary Instrument and the Optimal
Money Supply Rule”, Journal of Political Economy, 83(2), 241-255

Schäfer A., Jacoby H.D., 2005, “Technology Detail in a Multi-Sector CGE Model: Transport under Climate
Policy”, Energy Economics, 27(1): 1-24

Shukla P.R., Ghosh, Debyani, Garg, Amit., 2003, “Future Energy Trends and GHG Emissions for India”, in M.
A. Toman, U. Charvaraty, S. Gupta (ed.) Global Climate Change: Perspectives on Economics and Policy from a
Developing Country, Resources for the Future, Washington DC, U.S.A. pp 11-35

Siegenthaler, U., Oeschger, H., 1978, “Predicting Future Carbon Dioxide Levels”, Science, vol. 199, pp. 188-195

Söderholm, P., Sundqvist, T., 2003, “Learning Curve Analysis for Energy Technologies: Theoretical and
Econometric Issues”, paper presented at the International Energy Workshop (IEW), Laxenburg, Austria, June
24-26.

Solow, R., 1956, “A Contribution to the Theory of Economic Growth”, Quarterly Journal of Economics, 70, 65-
94

Solow, R., 1957, “Technical Change and the Aggregate Production Function.”, Review of Economics and
Statistics, 39, 312-320

Solow, R., 1959, “Investment and Technological Progress”, in: Arrow, K., Karlin, S., Suppes, P. (Eds.),
Mathematical Methods in the Social Sciences, Stanford University Press, Stanford, CA, pp. 89-104

Solow, R., 1970, Growth Theory: An Exposition, Clarendon Press, Oxford, U.K.

Solow, R., 1988, “Growth theory and after”, The American Economic Review, 78(3), 307-317

Solow, R., 2000, “Toward a Macroeconomics of the Medium Run”, The Journal of Economic Perspectives,
14(1), 151-158

Sterman, J. D., 1991, “A Skeptic's Guide to Computer Models”, in Richardson, G. P. (Ed.) Modelling for
Management, Aldershot, UK, Dartmouth Publishing Company

- 97 -
Stiglitz, J., 1990, “Some Retrospective Views on Growth Theory presented on the occasion of the Celebration of
Robert Solow’s 65th Birthday”, in Growth/Productivity/Unemployment, P. Diamond (ed.), Cambridge, Mass.:
MIT Press, 1990a, 50–68

Tobin, J., 1980, “Stabilization Policy Ten Years After”, Brookings Papers on Economic Activity, 1, 19-71.

Tol, R., 2006, “Exchange Rates and Climate Change: An Application of Fund”, Climatic Change, 75(1-2), 59-80

Uzawa, H. 1961. “On a Two-Sector Model of Economic Growth.” Review of Economic Studies, 29, 40-47

Weyant, J.P., Hill, J.N., 1999, “Introduction and Overview”, The Energy Journal, SpecialIssue: The Costs of the
Kyoto Protocol: A Multi-Model Evaluation, pp. vii-xliv

Whalley, J., Wigle, R., 1991, "Cutting CO2 Emissions: The Effects of Alternative Policy Approaches", The
Energy Journal, 12(1) 1991, pp. 109-24

Wicksell, K., 1911, Lectures on Political Economy, Volume 1. London: Routledge & Sons

- 98 -
Partie 2.

Exploration des déterminants des futures trajectoires d’émissions

- 99 -
1 Identification des risques d’une trajectoire intense en carbone

Dans cette première sous-partie, nous avons choisi de présenter in extenso un scénario central,
afin de décrire au moins une fois l’ensemble du contenu d’un scénario produit avec le modèle
Imaclim-R. Les hypothèses centrales retenues pour la constitution de ce scénario sont détaillées en
annexe au fil de la description du modèle. La particularité de cette démonstration est de montrer
qu’avec des hypothèses médianes, nous générons un scénario d’émissions relativement élevé par
rapport aux intervalles d’incertitude présents dans la littérature (par ex. les scénarios SRES). Après la
présentation détaillée de ce scénario médian, nous examinons la robustesse de cette estimation
« haute » des émissions de référence, en mettant en évidence l’existence de nombreux effets rebonds
techniques et macroéconomiques.

1.1 Description d’un scénario central

Nous allons ici exposer nos résultats en prêtant attention principalement aux interactions entre
déterminants macro-économiques et déterminants techniques de ce scénario. Nous commençons par
une présentation agrégée de la croissance économique dont nous préciserons dans un second temps, le
contenu matériel, puis finalement la trajectoire d’émissions résultante.

1.1.1 Une vision agrégée de la richesse mondiale


Les croissances du PIB des différentes régions dans ce scénario sont présentées dans la Figure 9,
et la Figure 10 donne les taux de croissance annuels correspondants. Pour s’en tenir à ce seul exemple,
nous pouvons observer que le PIB chinois, qui vaut en début de période 13.1% du PIB des Etats-Unis,
représente en 2100 52.1% du PIB des Etats Unis. Mais bien sûr pour donner une meilleure
représentation de la taille « réelle » des économies sous-jacentes, il faut en même temps tenir compte
de l’évolution des richesses en parité de pouvoir d’achat (PPP). Avec cette mesure, la Chine représente
en 2100 211.6% de la richesse matérielle des USA contre 53.3% en 2001. Par tête, ce rattrapage est
très significatif mais l’écart entre le standard de vie des citoyens américains et chinois reste important
dans ce scénario de référence.
A un niveau agrégé, la valeur monétaire de la richesse mondiale exprimée en dollars 2001 est
multipliée par 8.31 entre 2001 et 2100 avec un PIB passant de 30100 à 257539 milliards de dollars
(taux de croissance annuel moyen (t.c.a.m.) de 2.16%). Le revenu moyen per capita est quant à lui
multiplié par 4.94, passant de 5070 $ en 2001 à 25050 $ en 2100. Replacée dans le paysage des
scénarios SRES, notre trajectoire de référence se situe du point de vue de la croissance économique
dans une position plutôt basse étant donné que le t.c.a.m. le plus faible pour le PIB mondial vaut 2.2%
et se retrouve dans le scénario B2. En terme de richesse per capita, notre scénario se retrouve en 2100
proche du scénario B2 (22600 $/habitant), un peu au dessus du scénario A2 (16100 $/ habitant) mais
loin derrière le scénario A1 (74900 $/ habitant). La spécificité de cette évolution agrégée est explicable
par un nombre limité de paramètres. Le niveau de la croissance du PIB est théoriquement lié
simultanément à la croissance de la population active et à la croissance de la productivité générale des
facteurs. Le traitement de ce dernier paramètre est ici central, puisqu’il renvoie à un débat important
sur la convergence des richesses par habitant. La littérature empirique ne permet pas en effet de
départager le débat entre (i) une convergence des niveaux absolus des productivités et des richesses et
(ii) une convergence en taux de croissance de ces deux paramètres. Lors des scénarios SRES, c’est
principalement le premier type de convergence qui a été largement exploré, mais le débat central sur

- 101 -
les facteurs conduisant à l’un ou l’autre type convergence a été largement éludé en particulier en
raison de la force des controverses PPP versus MER. Comme nous l’avons vu, ce dernier débat est en
quelque sorte dépassé dans la structure d’ IMACLIM-R en raison de la représentation duale quasi
systématique en quantité et en prix et des hypothèses de convergence exprimées par secteur. Il nous
restait donc à régler la question du rattrapage. Nous l’avons fait par le recours à un traitement qui
permet, en jouant sur un paramètre simple, de représenter des trajectoires où, à partir d’un certain
moment, la convergence en valeur absolue laisse place à une convergence en taux (étant bien entendu
que ce moment peut être celui de l’égalité des valeurs absolues, voire un scénario où la région
retardataire devient à son tour région leader). La solution fut de modéliser des phases rattrapage, entre
les régions, de la productivité du travail calibrées sur les tendances passées, en les faisant tendre, de
façon plus ou moins rapide vers un même taux de 1,65 % par an. C’est en définitive la longueur de
cette convergence des productivités vers ce taux de 1,65 % par an qui détermine l’ampleur du
rattrapage en valeur absolue. De plus, ces gains de productivité du travail ne sont qu’au fondement de
la croissance potentielle d’une économie et représentent des potentiels réels de rattrapage
technologiques ou organisationnels. La croissance effectivement obtenue ex-post dépendra du contexte
économique dans lequel se déploient les potentiels de croissance. Nous pouvons donc sur cette base,
comprendre pourquoi notre scénario de référence traduit une croissance économique globalement plus
faible que dans la plupart des scénarios SRES.
Une première source de différence réside dans les choix paramétriques concernant les
dynamiques démographiques et les durées de rattrapage des écarts de productivité du travail. Passons
rapidement sur les régions de l’OCDE : celles-ci se maintiennent en tête de la richesse mondiale par
habitant et leur croissance est soutenue par des gains de productivité égaux sur le long terme à 1.65 %
par an. Ce taux de long terme a l’avantage d’être cohérent avec l’expérience des deux derniers siècles
et fournit un point d’appui finalement assez robuste. Moins solidement étayées, sont évidemment les
hypothèses sur les durées des phases de rattrapage pour les autres régions. Nous aurions pu
légitimement les choisir de façon assez libre, mais nous avons finalement préféré calibrer le modèle
sur des données historiques et ceci revenait de facto à réduire le potentiel de rattrapage effectif en
termes de richesse par habitant.
Une deuxième source de différence est tout simplement due à un phénomène physique, celui de
la période de transition énergétique liée au phénomène de déplétion qui pèse sur la production de
pétrole. C’est essentiellement ce facteur qui explique pourquoi les taux de croissance régionaux du
PIB décrits connaissent tous une discontinuité sur la période 2028-2051. Le lecteur pourra se reporter
à la section 1.1.3 pour une description détaillée de la projection du secteur énergétique. Le profil de la
discontinuité est opposé selon que les régions sont importatrices ou exportatrices d’hydrocarbures.
Ainsi le Moyen Orient, la CEI, l’Amérique Latine hors Brésil et le Canada connaissent une
accélération de leur croissance sur cette période alors que les autres régions font plutôt face à un
ralentissement. Dans un monde fortement contraint par la mise à disposition des ressources pétrolières,
les potentiels de croissance régionaux sont logiquement limités dans leur réalisation.
Au final, la Chine et l’Inde sont les régions les plus dynamiques en début de période (2001-
2030), avec un taux de croissance annuel moyen du PIB de 6.4% pour le Chine et 6.5% pour l’Inde et
avec des taux de croissance annuels qui peuvent être au dessus de 7%. Cette croissance est fortement
ralentie au-delà de 2030, du fait de l’essoufflement des deux moteurs de la croissance que sont les
gains de productivité et la croissance démographique. A ce ralentissement s’ajoutent, en particulier en
Chine, des contraintes de financement liées à la baisse du taux d’épargne des ménages induite par le
vieillissement de la population. La CEI connaît sensiblement le même profil de croissance, avec des
marges de gains de productivité élevées, et malgré l’absence de dynamisme démographique. Le reste

- 102 -
des pays en développement connaissent des taux de croissance supérieurs à ceux de l’OCDE, avec un
rattrapage de productivité un peu plus échelonné dans le temps que pour la Chine et l’Inde, mais avec
une croissance démographique soutenue.

70000 40000

60000 35000

30000
Milliards de $ 2001

Milliards de $ 2001
50000
25000
40000
20000
30000
15000
20000
10000
10000 5000
0 0
2000 2025 2050 2075 2100 2000 2025 2050 2075 2100

Etats-Unis Canada Europe OCDE pacifique CEI Chine Inde


Brésil Moyen Orient
Afrique Reste de l'Asie
Reste de l'Amérique Latine

Figure 9 : Evolution des PIB régionaux (Parité de taux de change), scénario de référence

7% 9%
Taux de croissnce annuel du PIB
Taux de croissnce annuel du PIB

6% 8%
7%
5%
6%
4%
5%
3% 4%
2% 3%
1% 2%
1%
0%
0%
-1%2000 2025 2050 2075 2100
2000 2025 2050 2075 2100
Etats-Unis Canada Europe OCDE pacifique CEI
Chine Inde
Brésil Moyen Orient
Afrique Reste de l'Asie
Reste de l'Amérique Latine

Figure 10 : Taux de croissance des PIB régionaux

Les hypothèses du modèle sur le fonctionnement des marchés internationaux conduisent sans
surprise à une augmentation continue des échanges entre régions. Le commerce international croît, à
un taux plus élevé que le PIB mondial sur la période 2001-2030 (taux moyen de 3.79% par an contre
2.94% par an pour le PIB) puis ralentit à un taux de croissance moyen de 1.26% sur la période 2030-
2100. Ainsi, au cours de ce scénario, le phénomène de mondialisation s’accroît en début de période
pour ralentir ensuite. Ce ralentissement reflète un redéploiement progressif de la croissance vers les
marchés intérieurs dans les grands pays en développement dont la croissance repose de plus en plus
sur la demande finale de leurs ménages. Dans ce contexte, le volume mondial du commerce d’énergie
est en très forte progression en début de période (t.c.a.m de 5.67% entre 2001-2030) sous l’effet
conjugué de la croissance soutenue de la consommation mondiale d’énergie et de la hausse
substantielle des prix. Le taux de croissance du volume mondial du commerce d’énergie ralentit
ensuite du fait de la stabilisation des prix du pétrole et de l’évolution du système de production de
carburants liquides vers l’utilisation du charbon dont les grandes régions du modèle possèdent
d’importantes réserves domestiques (Etats-Unis, Chine, Inde…).

- 103 -
La contribution des différentes régions au volume des exportations mondiales évolue
substantiellement au cours de la trajectoire. L’Annexe 1 perd ainsi progressivement des parts de
marché sur la période 2001-2050 sous la pression des pays émergents et de la croissance de la valeur
du commerce de pétrole dont bénéficie principalement la région du Moyen Orient. Le phénomène
s’inverse ensuite quand le commerce du pétrole perd peu à peu de son importance sous l’effet de la
déplétion et que les pays émergents réorientent leur croissance vers leur marché intérieur, rééquilibrant
ainsi leur balance commerciale.

2001 2030 2050 2100

Annexe 1 61,6% 53,2% 51,9% 53,6%


Non Annexe 1
33,2% 37,6% 41,0% 42,4%
hors Moyen Orient
Moyen Orient 5,2% 9,3% 7,1% 4,0%
Tableau 8 : Parts des régions dans les exportations mondiales

1.1.2 Une traduction en termes de contenu matériel et de changement


structurel

Si l’analyse d’un scénario de croissance en terme monétaire permet de saisir l’évolution de la


richesse des régions étudiées et de leurs capacités de financement, le contenu en carbone de la
trajectoire dépendra in fine de son contenu énergétique. Il est indéniable que le lien entre croissance et
consommation d’énergie puis entre consommation d’énergie et émissions de CO2 dépend d’abord des
technologies utilisées pour satisfaire le vecteur des services énergétiques avec des énergies finales,
puis du système de transformation énergétique permettant de convertir les énergies primaires en
énergies finales. Mais la dynamique même d’évolution de la demande de services énergétiques reste
un élément déterminant dans le niveau final des émissions. Pour une économie donnée, l’évolution de
ce vecteur dépend des interactions entre modes de consommation, choix technologiques et décisions
de localisation des différents agents. Elle est la traduction du changement de structure et de contenu
matériel de la croissance économique. La composition structurelle et le contenu matériel d’une
trajectoire de croissance économique se révèlent en pratique tant par le poids des différents secteurs
productifs dans la composition du PIB que par l’évolution de la structure de la demande des ménages
et de leurs stocks d’équipements qui sont déterminants pour la consommation d’énergie tels que les
véhicules automobiles ou la surface de logement résidentiel.

Composition du PIB
L’évolution de la structure du PIB d’une région dépend simultanément de plusieurs facteurs :
l’évolution des prix relatifs, la structure de la demande finale et des consommations intermédiaires, le
positionnement vis-à-vis du commerce international. Il existe en réalité une course de vitesse entre
l’évolution de la consommation des ménages qui détermine le montant de la demande en quantité, et
les gains de productivité dans les secteurs qui conditionnent l’évolution des prix de production. Un
secteur qui bénéficie d’importants gains de productivité et dont la demande qui lui est adressé connaît
un phénomène de saturation verra ainsi sa contribution au PIB diminuer au cours d’une simulation.
Dans un modèle tel qu’IMACLIM-R, les possibilités d’échanges commerciaux entre régions
compliquent encore le problème dans la mesure où un secteur productif d’une région peut répondre à

- 104 -
l’augmentation de la demande finale des ménages d’une autre via le commerce international. Les
résultats obtenus doivent donc être analysés en tenant compte des interactions entre ces dynamiques,
chacune dépendant des paramétrages effectués lors du calibrage du modèle (degré de spécialisation
des régions pour la production, structure de la demande finale des ménages, contribution au commerce
mondial…).

Au cours de la trajectoire de référence, la composition du PIB change, sans surprise, assez


significativement comme l’illustre le Tableau 9. L’ensemble des régions connaît une tertiarisation de
l’économie tout au long de la trajectoire. Dans les régions de l’OCDE, cette dématérialisation se
réalise principalement aux dépends du secteur industriel tandis que la part du secteur agricole dans le
PIB, qui est déjà réduite en début de période, ne décroît que faiblement. Cette quasi stabilité
s’explique par une évolution limitée du cœfficient budgétaire des ménages associé à la consommation
de biens agroalimentaires. L’ensemble des PED et la CEI voient aussi la part des services augmenter
fortement dans la composition de leur PIB, ils restent cependant en fin de période en deçà du niveau de
dématérialisation des économies de l’OCDE en 2001. Cet accroissement de la part des services
s’effectue différemment en fonction des régions aux dépends des secteurs agricoles ou industriels.

- 105 -
2001 2050 2100
Agriculture 4% 4% 3%
USA Industrie 29% 25% 22%
Services 68% 71% 75%
Agriculture 6% 4% 4%
CAN Industrie 42% 39% 31%
Services 53% 57% 64%
Agriculture 6% 6% 5%
EUR Industrie 33% 29% 26%
Services 61% 65% 69%
Agriculture 5% 4% 4%
JAN Industrie 34% 29% 25%
Services 61% 67% 71%
Agriculture 15% 13% 13%
CEI Industrie 55% 50% 42%
Services 30% 37% 46%
Agriculture 21% 17% 15%
CHN Industrie 57% 52% 42%
Services 22% 32% 42%
Agriculture 27% 16% 12%
IND Industrie 36% 35% 32%
Services 37% 50% 56%
Agriculture 9% 9% 7%
BRE Industrie 34% 36% 32%
Services 57% 55% 61%
Agriculture 9% 7% 8%
MO Industrie 47% 49% 35%
Services 44% 44% 57%
Agriculture 23% 20% 15%
AFR Industrie 40% 42% 39%
Services 37% 38% 46%
Agriculture 13% 10% 8%
RAS Industrie 40% 37% 33%
Services 46% 53% 60%
Agriculture 14% 10% 9%
RAL Industrie 39% 39% 34%
Services 47% 50% 57%
Tableau 9 : PIB, composition par secteur

Modes de consommation des ménages


Nous avons choisi pour le scénario de référence une hypothèse de style de développement dit
« mimétique » qui se traduit pour les ménages par des choix d’équipement et de consommation qui
visent à imiter et poursuivre le modèle de développement occidental. De même, les politiques de
développement des infrastructures de transports suivent l’évolution de la demande de mobilité et
s’orientent fortement vers les modes routiers et aériens.

- 106 -
Concernant la structure de la consommation des ménages pour les biens finaux, nous ne nous
attarderons pas sur notre hypothèse de saturation à un niveau certes élevé, dans ce scénario mimétique,
de la consommation de biens industriels manufacturés. L’évolution de la structure du PIB que nous
obtenons traduit cette saturation, de même d’ailleurs que la saturation de la consommation par tête de
biens agroalimentaires, et tout se joue ici sur le niveau des asymptotes choisies. Un mode de
développement plus « frugal » se traduirait simplement par des asymptotes plus basses et par un taux
d’obsolescence plus lent des équipements.
Nous entrerons ici sur les rôles de la mobilité et de l’équipement résidentiel qui, outre qu’ils
représentent une part centrale du problème à résoudre, sont fondés sur des dynamiques dont la
représentation est plus complexes que la simple marche plus ou moins rapide vers une asymptote plus
ou moins élevée. Pour la mobilité en particulier se pose la question même de l’idée de saturation.
La première conséquence déterminante du choix d’un style de développement mimétique concerne
l’évolution de la mobilité motorisée. Au cours de la trajectoire de référence, le volume mondial de
mobilité motorisée (mesurée en passager.km) est multiplié par 8.7 mais ce nombre est ramené à 5.2
lorsque l’on considère la mobilité par habitant. Le Tableau 10 et la Figure 11 révèlent une disparité
importante entre les régions due à des dynamiques sous jacentes différentes :

• Les pays de l’OCDE ne connaissent pas de véritable saturation du besoin de mobilité. Avec un
mode de développement qui favorise l’étalement urbain et la construction d’infrastructures
routières, le transport automobile est privilégié pour les trajets à courte et moyenne distance.
La mobilité à longue distance avec le mode aérien connaît une forte croissance qui mène la
part modale des véhicules particuliers à décliner. Dans ce contexte, le développement des
transports publics reste limité à des marchés de niche et sa part modale décroît sensiblement
• Les pays émergents connaissent une démocratisation de l’accès à la mobilité motorisée. Ce
phénomène s’effectue dans un premier temps grâce à une augmentation de l’utilisation des
transports en commun qui est concomitante avec la mise en place d’un système de transport
fondé sur l’automobile de masse. Avec l’augmentation des revenus, les réseaux de transport en
commun, essentiellement routiers, cèdent la place à l’automobile. En fin de période, les
revenus continuant d’augmenter, ces régions connaissent un début de démocratisation de la
mobilité aérienne à longue distance.

Evolution de la Evolution du PIB


mobilité (période nominal (période Elasticité révélée
2001-2100) 2001-2100)
OCDE + 218% + 420% 0,52
CEI + 554% + 774% 0,72
PED + 1972% + 2046% 0,96
Monde + 767% + 731% 1,05
Tableau 10 : Croissance de la mobilité motorisée

- 107 -
PED OCDE

100% 100%

80% 80%
Public hors grande Public hors grande
vitesse vitesse
60% 60%
Aérien Aérien
40% 40%
Automobile Automobile
20% 20%

0% 0%
2000 2025 2050 2075 2100 2000 2025 2050 2075 2100

Figure 11 : Partage modal, sélection de régions

En plus d’un développement suffisant des infrastructures nécessaires, la démocratisation de la mobilité


automobile repose sur l’équipement des ménages en véhicules particuliers. Le taux d’équipement
continue à croître dans toutes les régions, à l’exception des USA déjà proches de la saturation. Pour les
pays émergents ou en développement, l’expansion du parc de véhicules est particulièrement
importante témoignant du choix que font les ménages de ces pays en l’absence d’une contrainte
véritable du trafic automobile (Tableau 11). Le taux de motorisation moyen mondial passe ainsi de
106 véhicules pour mille habitants en 2002 à 487 en 2100 et augmente dans toutes les régions du
globe. En 2050, les taux d’équipement sont compris entre 100 et 350 véhicules pour mille habitants
dans toutes les régions en développement sauf l’Amérique Latine (388 pour mille) qui a déjà
aujourd’hui un taux de motorisation plus élevé que les autres régions du même groupe. Ce taux est de
l’ordre de 550 véhicules pour mille habitants dans les pays industrialisés, sauf pour les pays
d’Amérique du Nord qui sont proches de leur niveau de saturation à 700 véhicules pour mille
habitants. Les écarts d’équipement continuent de diminuer tout au long de la projection pour obtenir
une distribution mondiale des véhicules assez uniforme en 2100, l’Afrique restant encore en retrait
(Figure 12). Le parc mondial d’automobiles passe de 659 millions de véhicules en 2002 à 2.71
milliards en 2050 et à 500 milliards en 2100. Mais en 2050, la structure de ce parc est déjà
profondément bouleversée : les pays de l’Annexe 1 ne comptent plus que pour 31 % du parc mondial
de véhicules, contre 82 % en 2002. En 2100, cette proportion atteint 18% pour l’Annexe 1, ce qui
correspond à une inversion de la situation de 2002.

2002 2030 2050 2100


OCDE Amérique du Nord 677 688 693 699
Europe élargie 372 503 569 665
OCDE Pacifique 369 490 549 658
CEI 101 401 508 614
Chine 14 187 347 551
Inde 11 87 254 533
Reste de l’Asie émergente 22 99 244 515
Amérique latine 82 258 388 565
Afrique et Moyen Orient 27 68 103 323
Monde 106 195 291 487
Tableau 11 : Equipements des ménages en véhicules particuliers (véhicules pour 1000 habitants)

- 108 -
Ces résultats peuvent paraître en contradiction avec un prix du pétrole qui augmente fortement, passant
de 25$ le baril en 2001 à un niveau proche de 100$ quand les contraintes de déplétion commencent à
peser sur les capacités de production du Moyen Orient. En fait, cette comparaison si fréquente entre
prix présent et prix futur du baril introduit un effet d’optique pour trois raisons. La première est que
l’impact du prix du pétrole sur les prix de l’essence est considérablement amorti par la fiscalité ; dans
le contexte fiscal européen par exemple, un doublement hypothétique du prix du pétrole de 60 $/bl. à
120 $/bl. n’entraîne qu’une augmentation de 34 % du prix de l’essence, de 1,28 à 1,71 €/l. La
deuxième tient au fait que le progrès technique effectué sur les véhicules amortit encore l’impact de la
hausse des prix de l’énergie primaire sur le prix du service final. La troisième revient simplement au
constat qu’il faut toujours comparer cette hausse des prix de l’énergie à celle du pouvoir d’achat des
ménages qui croit significativement dans notre scénario.

100%
% du stock total de véhicules

90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
0% 20% 40% 60% 80% 100%
% de la population totale

2002 2050 2100 2100 Equitable

Figure 12 : Courbe de Lorenz du stock de véhicules particuliers

Nous avons démontré précédemment qu’un tel développement de la mobilité automobile ne


pouvait s’opérer qu’au prix d’une politique d’infrastructure de transport qui soit fortement orientée
vers le mode routier. En fait, compte tenu des préférences des ménages prises en compte dans ce
scénario mimétique, la seule contrainte au développement de la mobilité automobile pourrait être une
politique d’infrastructures de transport qui, pour des raisons de qualité de l’environnement local, de
sécurité énergétique ou de politique urbaine limiterait le déploiement des infrastructures routières. Or,
dans ce scénario, ces infrastructures s’adaptent à la demande en prenant cependant en compte les
contraintes de financement. Une des conséquences directes de l’hypothèse mimétique pour les styles
de développement et de cette absence de contraintes sur les infrastructures routières est l’accélération
de l’étalement urbain. L’ampleur de ce phénomène dépend toutefois des spécificités régionales ; il est
ainsi beaucoup plus prononcé en Amérique du Nord que dans les autres régions du monde. Cette
tendance se traduit, dans toutes les régions, à la fois par une consommation importante de transport
automobile et par une augmentation des surfaces résidentielles par habitant (Tableau 12). Les surfaces
de logement par habitant croissent ainsi dans toutes les régions du monde. Cette croissance est
modérée mais significative dans les pays de l’OCDE dont les niveaux de départ sont déjà élevés :
parmi ces pays on différencie nettement le mode de développement de l’Amérique du Nord avec de
niveaux approchant 100 m2 par habitant et celui de l’Europe, du Japon et de la CEI, où les surfaces par

- 109 -
habitant sont deux fois moins élevées en 2100. Du côté des PED, une croissance plus forte s’applique
à des niveaux de départ plus faibles et il s’opère un quasi rattrapage des régions de l’Annexe 1 hors
Amérique du Nord à l’horizon 2100. Il faut noter ici que le doublement de la surface résidentielle per
capita sur la période 2000-2100 à l’échelle mondiale aura un impact important sur l’évolution de la
demande énergétique des ménages dans la mesure où cette croissance, concomitante à une forte
augmentation des revenus, est l’un des principaux déterminants de le demande de nombreux services
énergétiques résidentiels tels que le chauffage, la climatisation ou l’équipement en électroménager.

2001 2030 2050 2100


OCDE Amérique du Nord 59 64 75 99
Annexe1 hors OCDE Amérique du Nord 30 37 41 49
Chine 20 22 25 39
Inde 7 12 18 40
Reste du monde 14 19 24 35
Monde 19 22 27 40
2
Tableau 12 : Surface de logement (m par habitant)

Le point important ici est de remarquer, ce qui est d’ailleurs cohérent avec une hypothèse de
croissance économique modérée par rapport à l’éventail des scénarios SRES, que, si la richesse
matérielle du monde s’accroît, elle ne fait pas de façon exponentielle. Après tout, un doublement de la
surface résidentielle par tête à l’échelle du siècle correspond à une amélioration fort modeste du
confort moyen et un triplement de cette surface n’aurait pas été a priori déraisonnable. La croissance
de la mobilité automobile est certes plus impressionnante, mais après tout, elle traduit simplement le
fait que, à la fin du siècle, les pays en développement auront un standard de vie un peu supérieur à
celui de l’OCDE hors Amérique du Nord aujourd’hui. Quand nous discuterons des conséquences en
termes d’émissions de gaz à effet de serre, il faudra donc se rappeler qu’elles sont sous-tendues par
une vision du contenu matériel du développement, à la fin du siècle, que d’aucuns pourront trouver
trop conservatrice parce qu’impliquant la permanence de poches importantes de pauvreté matérielle et
un rattrapage de richesse encore incomplet.

1.1.3 Consommation d’énergie et prix relatifs


Le contenu macroéconomique et matériel de la trajectoire décrit en section Erreur ! Source du
renvoi introuvable. et résumé dans le Tableau 13 conduit à une multiplication par 4.4 de la
consommation finale d’énergie sur la période 2001-2100. Comparée à une multiplication simultanée
de la richesse par 8.3 sur la même période, ces résultats révèlent une élasticité implicite de la
consommation finale d’énergie au PIB proche de 0.46 qui peut être finalement considérée comme
basse à la vue des observations historiques. Ce découplage partiel de la consommation finale d’énergie
et de la croissance économique est simultanément dû à :
• des gains d’efficacité énergétiques autonomes,
• un changement structurel de l’activité vers des secteurs productifs moins intensifs en énergie,
• l’évolution des prix relatifs des énergies qui induisent des changements techniques.
Dans un modèle tel qu’IMACLIM-R, les résultats obtenus procèdent de l’interaction endogène de ces
trois éléments. Conscients de la difficulté de présenter des résultats aux dynamiques intrinsèquement
liées, nous mènerons dans ce qui suit une rédaction linéaire en commençant par décrire l’évolution de

- 110 -
la demande finale d’énergie puis les trajectoires de prix des énergies et enfin l’évolution du système de
transformation énergétique.

2001-2030 2030-2050 2050-2100 2001-2100


PIB Monde + 132% + 56% + 130% + 731%
Demande finale d’énergie Monde + 103% + 31% + 65% + 339%
Surface résidentielle Monde + 58% + 34% + 65% + 250%
Passagers.kilometres motorisés Monde + 197% + 58% + 85% + 767%
Stock de véhicules particuliers Monde + 147% + 67% + 84% + 659%
Tableau 13 : Croissance mondiale, sélection d’indicateurs et sélection de périodes

La structure de la demande finale change au cours du temps

Le détail sectoriel de l’évolution de la consommation finale d’énergie à l’échelle mondiale


(Figure 13) révèle un changement important de sa structure avec le secteur des transports qui devient
le secteur dominant alors que la part des secteurs industriels et agricoles passe de 42% en 2001 à 36%
en 2100 au niveau mondial. Cette croissance modérée de la consommation d’énergie du secteur
industriel s’explique simultanément par des gains substantiels d’efficacité énergétique et par une
tertiarisation de l’économie.
La croissance de la consommation énergétique du secteur agricole reste soutenue du fait de la mise en
place de filières de production de biocarburants à grande échelle (se reporter à la sous section suivante
pour plus de détails) et du dynamisme de la demande des secteurs agricoles des régions émergentes
(Tableau 14) qui connaissent simultanément une mécanisation et une augmentation de la demande liée
à l’évolution des besoins alimentaires de leurs populations. Partant cependant d’un niveau absolu
initial relativement faible, la demande d’énergie provenant du secteur agricole reste peu importante sur
l’ensemble de la trajectoire.
Par rapport aux autres secteurs productifs, le secteur des services connaît la croissance de la
consommation d’énergie la plus importante. La tertiarisation des activités économiques ajoutée à une
augmentation des besoins de climatisation et des puissances unitaires des équipements sont à l’origine
de cette croissance dynamique qui conduit la part du secteur des services dans la demande finale
d’énergie au niveau mondial de 10% en 2001 à 16% en 2100.
Même si sa part est déclinante à l’échelle mondiale (de 17% en 2001 à 13% en 2100), l’évolution de la
demande énergétique du secteur résidentiel reste centrale dans la mesure où, avec le secteur des
services, elle devient le principal déterminant de l’évolution de la demande d’énergie électrique.
Entre 2001 et 2100, le secteur des transports est responsable à lui seul de 37% de l’augmentation de la
demande finale d’énergie. Ce résultat est la conséquence directe de l’hypothèse de styles de
développements mimétiques décrits en section Erreur ! Source du renvoi introuvable.. La mobilité
individuelle augmente dans toutes les régions et le partage modal évolue vers des modes plus rapides
et plus intensifs en énergie. L’activité du transport de marchandise ne connaît pas, conformément aux
tendances récentes, de réel découplage de la croissance économique, conséquence de la continuation
du processus de mondialisation, de la dispersion des moyens de production et du développement d’une
organisation logistique fondée sur le « juste à temps ».

- 111 -
30

25

20 Transport
Résidentiel
Gtep

15 Services
Industrie
10 Agriculture

0
2001 2030 2050 2100

Figure 13 : Evolution de la consommation finale d’énergie (hors biomasse traditionnelle) par secteur à
l’échelle mondiale (Gtep)

t.c.a.m. t.c.a.m. t.c.a.m.


2001 2030 2050 2100
2001-2030 2030-2050 2050-2100
Annexe1 175 300 364 539 1,87% 0,97% 0,79%
Agriculture
Non Annexe 1 140 438 648 997 4,01% 1,97% 0,87%
Annexe1 1262 1921 1944 2541 1,46% 0,06% 0,54%
Industries
Non Annexe 1 852 2446 3336 5125 3,70% 1,57% 0,86%
Annexe1 458 872 1141 2114 2,24% 1,36% 1,24%
Services
Non Annexe 1 122 479 845 1813 4,82% 2,88% 1,54%
Annexe1 1254 1776 1959 3067 1,21% 0,49% 0,90%
Transports
Non Annexe 1 489 1830 3015 5800 4,66% 2,53% 1,32%
Annexe1 732 924 999 1172 0,80% 0,39% 0,32%
Résidentiel
Non Annexe 1 258 696 1020 2027 3,48% 1,93% 1,38%
Annexe1 3882 5792 6407 9431 1,39% 0,51% 0,78%
Total
Non Annexe 1 1861 5889 8864 15762 4,05% 2,07% 1,16%
Tableau 14 : Consommation finale d’énergie (hors biomasse traditionnelle) par secteur (Mtep), détail
régional

L’analyse rapide qui vient d’être menée permet d’isoler quatre points clés qui vont gouverner
l’évolution du système énergétique mondial et les changements techniques et structurels qui s’y
réfèrent :
• Des styles de développement et des préférences individuelles fortement orientés vers la
consommation de transport génèrent à court et moyen terme une croissance remarquable de la
consommation de carburants liquides qui sont aujourd’hui produits grâce au raffinage du
pétrole brut. Cette filière technologique se heurte à moyen terme à des contraintes de déplétion
qui s’appliquent sur la production de pétrole conventionnel. L’enjeu sous-jacent revient à
déterminer la forme et le coût du système technique, tant du côté offre que du côté demande,
qui pourra soutenir le développement d’une trajectoire intensive en transport.

- 112 -
• La croissance de la consommation d’énergie des secteurs résidentiels et tertiaires est soutenue
tout au long de la trajectoire mais est particulièrement vigoureuse dans les pays émergents sur
la période 2001-2030 qui connaissent à ce moment une phase de rattrapage intense et donc une
forte augmentation des revenus. L’évolution de la demande d’énergie issue de ces deux
secteurs est un des principaux déterminants de la croissance de la production électrique. Le
secteur de la production d’électricité, en particulier dans les économies émergentes, se trouve
donc face au défi de mettre en place les infrastructures nécessaires pour répondre à cette
augmentation de demande. Le changement technique dans les technologies de production
électrique sera donc particulièrement influencé par les caractéristiques des systèmes
électriques des économies émergentes.
• La répartition régionale de la consommation finale d’énergie change radicalement au cours de
la période considérée. La part des régions de l’Annexe 1 dans le total de la consommation
finale d’énergie passe de 68% en 2001 à 37% en 2100. Cette modification s’explique par le
phénomène de rattrapage qui s’applique aux économies émergentes qui ont de surcroît une
croissance démographique plus vigoureuse.
• La croissance de la consommation finale d’énergie dans l’Annexe 1 connaît un ralentissement
sur la période 2030-2050 puis elle ré-accélère modérément sur la période 2050-2100. Ce
phénomène est lié à la saturation des potentiels d’efficacité énergétiques dans certains secteurs
à un moment où les prix de l’énergie connaissent une stagnation et les revenus une
augmentation continue. Il est déterminant dans la mesure où ce type de situation démontre
qu’envisager une trajectoire de référence dans un cadre cohérent de changement structurel
endogène peut conduire à un ralentissement du progrès technique énergétique qui n’aurait pas
existé dans une représentation exogène des évolutions technologiques.

Au final, il est utile de remarquer que : concernant le phénomène de saturation du progrès


technique pour l’efficacité énergétique dans l’Annexe 1, ou concernant encore les différences de
dynamique dans les pays en développement, nous faisons apparaître dans notre scénario de référence,
des évolutions qui ne seraient pas matérialisées avec une représentation exogène des évolutions
technologiques.

1.1.4 Contraintes sur la mise à disposition des ressources pétrolières, de leurs


substituts et prix des énergies fossiles

Dans cette trajectoire de référence, les prix augmentent significativement pour les trois énergies
fossiles primaires (Figure 14). Cette augmentation des prix des énergies qui se fixent (comme tous les
autres prix) comme des prix de marché, reflète les tensions entre l’évolution de l’offre et de la
demande, et traduit ainsi que la demande croît plus vite que l’offre. Un prix élevé pour une énergie
finale donnée induit une modification des choix technologiques des agents économiques vers des
technologies plus efficaces ou qui utilisent d’autres sources d’énergies moins chères. Lorsque l’on est
dans le cadre d’une modélisation endogène du progrès technique (ce qui est le cas dans cette
trajectoire de référence), le changement des prix relatifs des énergies induit en plus une modification à
la baisse du coût en capital des différentes technologies disponibles dans le portfolio de chaque agent
via les courbes d’apprentissage55.

55
On notera simplement qu’il peut y avoir, dans bien des cas, des raisons à la croissance de coût en capital
comme par exemple l’augmentation du niveau de précaution en matière d’environnement local ou tout

- 113 -
5
Charbon
Pétrole brut
4
Gaz naturel
Index 1=2001

0
2000 2025 2050 2075 2100

Figure 14 : Evolution des prix mondiaux des énergies primaires fossiles.

A la suite des deux chocs pétroliers et des hausses de prix de ces dernières années, la
consommation de pétrole connaît un processus continu de repli vers ses usages captifs que sont le
transport et la pétrochimie. Sans surprise, cette tendance se poursuit dans le scénario de référence et la
part du transport dans la consommation des produits pétroliers passe de 58% en 2001 à 78% en 2030.
La croissance ininterrompue des besoins de mobilité décrite en section 1.1.2 garantit une croissance
soutenue des marchés pétroliers. Dans ce contexte, la formation des prix du pétrole en dehors des
fluctuations de très court terme dépend des contraintes et des potentiels de modération qui pèsent sur
la croissance de la demande de produits pétroliers. Tout l’enjeu est donc de comprendre le résultat de
l’interaction, dans un cadre cohérent de changement technique endogène, entre :
• les contraintes qui vont peser à divers horizons de temps sur le développement de l’offre de
pétrole,
• les potentiels d’innovations technologiques pouvant améliorer l’efficacité du moteur à
combustion interne,
• la compétitivité de carburants alternatifs,
• les potentiels de rupture technologique susceptibles de fournir une nouvelle filière
d’approvisionnement énergétique pour le transport,
• la réactivité des consommateurs à la hausse des prix et l’impact d’une hausse des prix du
pétrole sur l’activité économique en général.
Il est aujourd’hui admis que la production de pétrole conventionnel hors Moyen Orient va atteindre
d’ici 2020 un plafond de sa production qui déclinera ensuite sous l’effet de la déplétion de ses
réserves. La date de ce plateau peut être plus ou moins retardée grâce à l’amélioration des techniques
d’extraction qui permettent une augmentation du taux de récupération du pétrole disponible dans les
nappes. Dans la trajectoire de référence, compte tenu des hypothèses médianes qui ont été choisies
pour le niveau des réserves et d’une hypothèse assez pessimiste sur la survenue du processus de
déplétion à la moitié de l’exploitation des ressources initiales pour une nappe, ce plateau est atteint

simplement des difficultés de résolution de tel ou tel problème technique. Au total cependant c'est bien l'effet des
courbes d'apprentissage qui sera dominant.

- 114 -
assez rapidement, à savoir avant 2010. Ce phénomène de déplétion des ressources conventionnelles
peut être partiellement compensé par la mise en production de pétroles non conventionnels qui
rassemblent des forages ultra profonds, des pétroles bruts ultra lourds (majoritairement disponibles au
Venezuela) ou des sables bitumineux (disponibles au Canada). Cependant, l’inertie dans le
déploiement de ces nouvelles capacités de production ne permet pas de compenser la déplétion des
ressources conventionnelles et la production de pétroles non conventionnels atteint 16.3 Mbl par jour à
l’horizon 2030 pour une part de 15.1% de la production totale. Pendant cette période, le niveau de prix
du pétrole dépend du comportement des acteurs du secteur au Moyen Orient qui eux seuls ont un
niveau de ressource suffisant pour augmenter leurs capacités d’extraction. Nous partons de l’hypothèse
qu’avant d’être soumis à des contraintes de déplétion, ces acteurs visent un niveau de prix mondial du
pétrole de l’ordre de 70$/Bl. Le pouvoir de marché ainsi créé ne peut être modéré à cet horizon de
temps que par le niveau de réactivité de la demande finale (principalement dans le secteur des
transports). Du côté des véhicules particuliers, le moteur à combustion interne couplé à un niveau
d’hybridation plus ou moins important avec une propulsion auxiliaire électrique garde des réserves de
compétitivité assez importantes avec l’avantage de ne pas être soumis à la nécessité d’une rupture
technologique (AIE, 2006). Si les potentiels d’amélioration technologiques existent, la principale
incertitude réside dans le fait de savoir si (i) d’une part, ces améliorations ne seront pas compensées
par une augmentation de la taille des véhicules et de leur confort et (ii) d’autre part les ménages
modifieront leur stratégie de choix à l’achat des véhicules particuliers pour pondérer plus lourdement
la place de l’efficacité énergétique. Dans la trajectoire de référence les prix élevés du pétrole sur la
période 2001-2030 engendrent des gains d’efficacité énergétique substantiels pour les véhicules
particuliers (32%) et dans une moindre mesure pour le transport de fret routier (25%) où les marges de
progrès sont plus réduites.
Jusqu’à ce que le Moyen Orient atteigne son plateau de production (dans les années 2025) et soit
contraint par la déplétion de ses réserves, le prix du pétrole reste inférieur à 70$/bl56 et comme nous
l’avons vu précédemment, les gains d’efficacité énergétique amortissent l’impact de ces prix hauts sur
le système de transport et plus généralement sur le système productif. Pendant cette période et à ce
niveau de prix du baril, les carburants alternatifs et en particulier les biocarburants, pour lesquels les
filières de seconde génération n’ont pas encore atteint leur niveau de maturité, restent faiblement
représentés dans la production mondiale de carburants liquides.
La situation change après l’entrée du Moyen Orient en phase de déplétion dans les années 2027, car
les capacités de production conventionnelles ne peuvent plus répondre à l’augmentation de la
demande. Il s’en suit une augmentation rapide des prix (+1.5$/bl par an en moyenne sur la période
2027-2047). Cette hausse conduit à l’augmentation de la rentabilité des investissements dans les
capacités de production de pétroles non conventionnels qui connaissent alors une croissance soutenue.
De même, les filières de biocarburants dont les potentiels de production augmentent avec l’arrivée à
maturité des technologies de seconde génération voient leur part de marché dans les carburants
liquides augmenter rapidement (7.8% en 2035). La réaction technologique du côté de la demande est
limitée par l’inertie de renouvellement des parcs de véhicules et la croissance de la demande de
produits pétroliers reste assez peu impactée par l’augmentation des prix. Dans ce cadre, le
développement de capacités de production alternatives (biocarburants et pétroles non conventionnels)

56
Que ce chiffre soit d'ores et déjà dépassé n’est pas en soi inquiétant puisque ce type d'exercice de prospective
ne prétend pas reproduire les aléas de court terme des marchés. On notera simplement, pour éviter les erreurs de
perspective, il ne faut pas confondre les prix spot et les prix moyens d'achat sur une année (moyenne des
marchés spots sur l'année et des contrats de long terme).

- 115 -
du côté de l’offre n’arrive pas à compenser la déplétion des ressources conventionnelles face à
l’augmentation de la demande. Les prix continuent d’augmenter pour atteindre le niveau de 100$/bl
qui a été fixé dans ce scénario de référence comme le seuil de rentabilité de la production de
carburants de synthèse à partir de charbon (Coal to liquid, CTL). A partir de ce moment, le prix de
vente du pétrole se fixe au prix de production de ce substitut et l’abondance des réserves de charbon ne
fait pas craindre de contraintes de ressources sur l’horizon de temps de la simulation. Jusqu’à l’horizon
2050, la production de CTL reste limitée (moins de 1% de la production mondiale de carburants
liquides) dans la mesure où (i) la hausse des niveaux de production des pétroles non conventionnels
permet de compenser la déplétion des autres ressources pétrolières, la production mondiale de pétrole
connaissant ainsi un plateau entre 2030 et 2050, (ii) et où la production mondiale de biocarburants
augmente significativement pour atteindre son niveau de saturation à 1400 Mtep par an à l’horizon
2060. La production de CTL joue ainsi dans un premier temps le rôle d’un régulateur de
l’augmentation des prix du pétrole en tant que produit de substitution. Après la saturation des
potentiels de production de biocarburants qui coïncide avec le début de la diminution de la production
mondiale de pétrole, les carburants ex-CTL deviennent peu à peu majoritaires dans la production de
carburants liquides pour atteindre une part de 78% en 2100.

12000

Coal-to-liquid
10000 Biocarburants
Produit pétroliers
8000
Mtep

6000

4000

2000

0
2000 2025 2050 2075 2100

Figure 15 : Production mondiale de carburants liquides

En ce qui concerne l’évolution des prix des autres énergies fossiles primaires, le prix du gaz
reste partiellement indexé sur ceux du pétrole en début de période puis se désindexe à partir du
moment où celui-ci dépasse 80$/bl. Les prix du charbon connaissent quant à eux une hausse modérée
dans la mesure où cette ressource n’est pas menacée par la déplétion sur la période de la simulation et
où des investissements dans les infrastructures d’extraction et de transport sont effectués à temps tout
au long de la trajectoire pour permettre à ce secteur de répondre à la croissance de la demande.
En fait, l’ensemble de la dynamique du système est gouverné par trois paramètres centraux qui
guident l’évolution de la demande captive adressée au pétrole conventionnel :
• Le premier concerne les filières énergétiques alternatives au couple carburants liquides /
moteur à combustion interne pour le secteur des transports. Les études prospectives
technologiques récentes (AIE, 2006) en recensent deux principales : (i) la filière électrique
avec stockage de l’électricité en batteries et utilisation d’une motorisation électrique (ii) et la

- 116 -
filière hydrogène associé à une pile à combustible qui convertit ce vecteur énergétique en
électricité pour alimenter une motorisation électrique ou bien directement injecté dans un
moteur à combustion interne. Dans les deux cas, l’hydrogène est stocké à bord du véhicule ou
bien obtenu par réformage embarqué à partir d’hydrocarbures. Il est marquant de constater
qu’au cours de cette trajectoire de référence, aucune de ces deux filières alternatives n’est en
mesure d’atteindre un niveau de compétitivité pour pouvoir concurrencer la filière
traditionnelle. Pour mieux comprendre ce résultat, il parait utile de revenir ici un court instant
sur les contraintes intrinsèques associées aux besoins énergétiques du secteur des transports.
Plus qu’une source d’énergie, le secteur des transports requiert un vecteur énergétique qui soit
facilement stockable et transportable. Bauquis (in Bauquis, 2004) fournit une illustration
remarquable de la réserve de compétitivité des carburants liquides obtenus à partir
d’hydrocarbures par rapport aux filières alternatives (Figure 16). Si des progrès
technologiques dans le stockage de l’électricité ou de l’hydrogène sont attendus à long terme,
la forte montée des prix du pétrole associée aux contraintes pesant sur la mise à disposition
des ressources disponibles survient rapidement dans la trajectoire de référence. A cette
échéance, tant la filière hydrogène que la filière électrique n’ont la maturité nécessaire pour se
substituer à grande échelle et à un coût raisonnable, au système énergétique traditionnel du
secteur des transports. La montée des prix provoque ainsi une bifurcation vers un système de
transport alimenté par des carburants synthétiques issus du charbon.
Densité énergétique massique

Densité énergétique volumique

Figure 16 : Densité énergétique massique et volumique d’une sélection de vecteurs énergétiques (source
Bauquis, 2004)

• Le deuxième est l’ensemble des contraintes géologiques et techniques pesant sur le rythme de
mise à disposition des ressources pétrolières, que notre approche de modélisation permet
d’expliciter. Elle permet de confirmer l’apparition de fortes tensions sur le prix du pétrole à un
horizon de temps assez proche (avant 2030). Ces tensions ne sont pas nécessairement dues à
un phénomène de rareté puisqu’elles interviennent à une période où seulement 25% des
ressources restantes en 2001 ont été exploitées et où le ratio réserve sur production vaut 65
années. Elles sont en revanches dues à une contrainte sur le débit maximal de production
pétrolière sur lequel vient buter une demande en forte croissance.

- 117 -
• Le troisième est la faiblesse de la réaction sur la demande que provoque une augmentation
assez brutale des prix du pétrole et du gaz ; celle-ci s’infléchit faiblement et passe d’un taux de
croissance annuel de 1.5% par an en 2025 à 0.94% en 2040, pendant l’augmentation
importante des prix qui intervient sur cette période. L’explication de cette faible réactivité
réside simultanément dans : (i) des choix de développement et des politiques d’infrastructures
orientés vers le mode routier qui contraignent la marge de manœuvre du système économique
en général vis-à-vis d’une réduction éventuelle de la consommation de transport, (ii) un
impact macroéconomique de l’augmentation des prix qui reste faible chez les régions
fortement consommatrices (Figure 10) et qui garantit un poursuite de l’augmentation générale
du revenu des ménages, (iii) une mutation technologique lente mais non négligeable vers des
équipements plus efficaces et moins dépendants de la consommation de carburants pétroliers
qui permet de limiter l’augmentation du prix final des services énergétiques.

Ce type de dynamique, qui lie changement technique, vitesse d’apparition des contraintes
géologiques et rigidité de la demande, peut être inversée en cas d’apparition de frictions au moment de
la mise en production des carburants synthétiques. En effet, nous avons fait ici l’hypothèse que le
volume de production de carburants synthétiques n’était pas limité par des contraintes liées à la
disponibilité des capacités de production qui proviendraient d’erreurs d’anticipation sur leur rythme de
développement. Ceci déboucherait sur une sorte de scénario catastrophe puisque ces produits ne
joueraient plus le rôle de substitut et des périodes de prix très élevés pourraient apparaître. Il s’agirait
en fait d’un scénario extrême, intéressant d’ailleurs à étudier, mais que nous laisserons de côté dans la
suite de cette thèse. En dehors des frictions dans le développement de nouvelles capacités de
production, le niveau de prix d’équilibre à long terme reste toutefois assez robuste.

Au total, l’effet conjugué des variations des prix relatifs des énergies et de la composition de la
consommation de services énergétiques, fait que la structure de la demande finale d’énergie évolue de
façon modérée sur le siècle (Figure 17). Le principal trait marquant est la croissance permanente de la
part de l’électricité, principalement sous l’influence des consommations résidentielles, industrielles et
du secteur des services. Quant au carburant liquide, après net un tassement, il représente encore de
l’ordre de 40% de demande énergétique totale en 2100 en raison de la dynamique des besoins en
transport.

- 118 -
60%

50%

40% 2001
2030
30%
2050
20% 2100

10%

0%
Charbon Gaz Carburants Electricité
liquides

Figure 17 : Mix de la demande énergétique finale mondiale, sélection d’années

1.1.5 L’évolution du système électrique


Dans la trajectoire de référence, la demande d’électricité à l’échelle mondiale est multipliée par
6.8 sur la période 2001-2100. Cette augmentation est un peu amortie au niveau de la production grâce
aux progrès effectués sur la réduction des pertes en ligne mais correspond tout de même à la nécessité
de fournir annuellement 79225 TWh de plus en 2100 qu’en 2001 dont 67% dans les régions non
Annexe 1. Cette croissance de la production s’effectue dans le cadre d’une modification de la
géographie de la demande mondiale et d’une augmentation générale des prix des énergies fossiles que
nous avons décrit dans la sous section précédente, particulièrement marquée pour le pétrole et le gaz,
et qui change totalement les rapports de compétitivité des différentes technologies de production
d’électricité.
Nous partons ainsi d’une situation en début de période où le gaz représente la majorité des
investissements dans les nouvelles capacités de production. Ils représentent 70% des nouvelles
capacités en 2001 pour les régions de l’Annexe 1 et 40% dans les régions non Annexe 1. Ces
investissements concernent principalement des centrales à cycle combinés utilisées pour la génération
d’électricité en période de base. Les centrales à gaz à cycle simple sont construites pour répondre à la
demande de pointe ou pour la génération décentralisée (principalement dans les économies
émergentes). Progressivement, la forte augmentation des prix du gaz sur la période 2001-2030 modifie
cette répartition des investissements et dans toutes les régions du modèle, les technologies gaz sont
délaissées pour la production d’électricité en base mais restent compétitives pour la pointe. La part des
technologies gaz dans les nouvelles capacités construites se réduit ainsi à 10% environ après 2030
pour les régions Annexe 1 et non Annexe 1. Du fait de la diminution de la part des technologies gaz
dans les investissements, l’apprentissage lié aux nouvelles capacités construites conduit à une
décroissance plus lente du coût en capital des centrales à cycle combiné (le coût est réduit de 30% sur
la période). Concomitamment, le rendement de ces centrales est amélioré de 7% pour atteindre 62% en
fin de période.
L’ensemble du secteur connaît un retour important vers l’utilisation du charbon dans les technologies
de génération. La part de ces technologies dans la production d’électricité passe ainsi à l’échelle

- 119 -
mondiale de 38% en 2001 à 62% en 2030 puis 65% en 2100 (Figure 18). Les investissements sont
concentrés en début de période dans les régions non Annexe 1 où ils représentent dès le début de la
période 36% des nouvelles capacités installées. Avec la hausse importante des prix du gaz, la part des
technologies charbon dans les nouveaux investissements augmente dans toutes les régions, en
particulier dans les pays de l’Annexe 1 où elle atteint 48% en moyenne après 2030. Dans les régions
non Annexe 1 cette part vaut sur la même période 56%. Ce regain d’intérêt pour la génération
électrique à base de charbon induit d’importants progrès sur les technologies avancées telles que les
centrales super critiques ou à gazéification, leur coût en capital étant diminué de 18% sur toute la
période pour la première et de 27% à l’horizon 2040 pour la seconde au moment où l’asymptote est
atteinte. La pénétration importante de ces technologies avancées dans le parc de génération électrique
mondial permet d’améliorer significativement le rendement moyen des technologies à base de charbon
qui part au niveau mondial de 32% en 2001 pour se stabiliser à 45% en 2060. Il faut remarquer ici la
forte inertie du secteur dans la mesure où les technologies de génération avancées commencent à
représenter une part importante des nouveaux investissements à partir de 2025.
Le parc de production renouvelable (non hydraulique) connaît une croissance soutenue d’un taux
annuel moyen de 3.4% sur l’ensemble de la période et atteint finalement une part de 8.1% dans la
production mondiale d’électricité à l’horizon 2100. Le détail régional de la pénétration des
renouvelables reste contrasté dans la mesure où ces technologies sont plus facilement sélectionnées
dans les régions étant dotées de peu de ressources fossiles ; en Europe par exemple, la part de marché
de ces technologies dans la génération d’électricité atteint 22.5% en 2100. Ces investissements
induisent d’importantes réductions de coût en capital surtout pour les technologies éoliennes onshore
et offshore (respectivement -36% pour les premières et -44% pour les secondes) qui atteignent toutes
les deux leurs asymptotes avant 2060. Une hypothèse conservatrice sur ses potentiels de
développement conduit la génération hydraulique à perdre des parts de marché tout au long de la
trajectoire malgré une hausse des prix des énergies fossiles qui lui est a priori favorable.
La question de la technologie nucléaire est délicate. Son déploiement dans le parc de production ne
dépend que partiellement de ses caractéristiques technico-économiques et demeure fortement
influencée par un contexte politique à deux dimensions : la première est celle de l’acceptabilité des
nouvelles installations dans les pays de l’OCDE qui est limitée, soit en raison d’attitudes de
bannissement du nucléaire (Suède, Allemagne, Italie, etc.) soit, de façon plus indirecte en raison de
difficultés associées à l’implantation de nouveaux sites de production. La deuxième tient à la défiance
politique vis-à-vis de la prolifération de cette technologie en particulier dans les pays émergents. Cette
situation se traduit dans le modèle par la présence de coûts intangibles élevés associés à cette
technologie lors du calcul de la composition technologique des investissements du secteur électrique.
Au-delà d’un certain seuil d’augmentation des prix du charbon et du gaz nous faisons l’hypothèse que
ces verrous d’acceptabilité peuvent être levés puisque la disponibilité à payer pour le refus du
nucléaire devient inférieure à ses avantages, les coûts intangibles associés à cette technologie entrent
alors dans une dynamique de décroissance. Au final, cette formalisation n’interdit pas la pénétration
du nucléaire mais l’autorise, de façon décalée par rapport à l’expression d’une rationalité économique
pure.
Ceci explique que le nucléaire perde des parts de marché à moyen terme malgré une rentabilité avérée
dès les premières années de la simulation. Cette situation change partiellement avec l’arrivée de la
hausse brutale des prix du gaz et à partir de 2030, cette technologie reprend donc de l’importance pour
contribuer en 2100 à la hauteur de 19% de la production mondiale d’électricité.

- 120 -
100%
90%
80%
70% Autres renouvelables
60% Nucléaire
Hydro
50%
Gaz
40%
Pétrole rafiné
30% Charbon
20%
10%
0%
2001 2030 2050 2100

Figure 18 : Mix de production d’électricité, monde, sélection d’années

La présentation de ces résultats qui montre un net regain de compétitivité pour les technologies de
production d’électricité à partir de charbon et une quasi disparition des technologies à base de gaz
conduit à rappeler certaines hypothèses capitales pour leur compréhension. Tout d’abord, le prix du
carbone est nul et anticipé comme tel dans toutes les régions du modèle dans l’ensemble de la
trajectoire de référence. Vu le poids que peut avoir une valeur du carbone, même faible, sur le coût
d’utilisation de technologies de production à base de charbon il est légitime de voir le modèle
abandonner les technologies de génération gaz beaucoup plus rapidement que ce qui est observé
aujourd’hui en Europe par exemple, en période de prix du gaz élevés. Ensuite, les structures de marché
libéralisés pour l’électricité qui se généralisent aujourd’hui et qui ne sont pas représentées dans le
modèle peuvent conduire les acteurs de ces marchés à choisir plus facilement des technologies de
production gaz qui sont moins intensives en capital et plus rapidement construites que celles à base de
charbon.

1.1.6 Des émissions en forte croissance


Au cours de la trajectoire de référence, les émissions annuelles de carbone imputées à
l’utilisation des combustibles fossiles augmentent de 32.4 GtC par rapport à l’année 2001, pour
atteindre 38.8 GtC en 2100 (Figure 19), ce qui correspond à une multiplication par 6. Les régions non
Annexe 1 sont responsables de 68% de cette augmentation et à l’échelle mondiale, les émissions par
tête passent de 1.06 tC en 2001 à 3.78 tC en 2100. S’il s’opère au cours de la trajectoire un rattrapage
important des pays de l’Annexe 1 par les pays hors Annexe 1 en terme d’émissions per capita : un
habitant des régions Annexe 1 émet en moyenne 3.9 fois plus de carbone qu’un habitant des régions
non Annexe 1 en 2100 alors qu’il en émettait 5.9 fois plus en 2001, l’écart en fin de période reste tout
de même significatif. En revanche, la distribution géographique des émissions est radicalement
modifiée au cours de la simulation et les régions de l’Annexe 1 passent d’une part de 63% dans les
émissions mondiales en 2001 à 40% en 2050 et 37% en 2100.

- 121 -
45
40
35
30
25
GtC

20
15
10
5
0
2000 2025 2050 2075 2100

Figure 19 Emissions mondiales de carbone (GtC)

La répartition des émissions parmi les secteurs change aussi radicalement au cours de cette trajectoire
(Figure 20). Sous l’effet conjugué de l’importance croissante de l’électricité dans la demande finale,
de la pénétration massive du charbon dans le système de génération électrique et de la production à
grande échelle de carburants de synthèse pour les transports après 2050 (se reporter à la section 1.1.3
pour plus de détails), la part du dioxyde de carbone émis directement au niveau de la consommation
finale d’énergie diminue régulièrement (de 57% en 2002 à 36% en 2100) et c’est dans le système de
transformation d’énergie primaire en énergie secondaire que se situe progressivement, la principale
source d’émissions de CO2. En fait, cela se fait selon des périodes assez distinctes et dans un premier
temps, sur la période 2001-2050, c’est la part de la production d’électricité dans le total des émissions
qui augmente pour atteindre 45% en 2050. Ensuite la production de carburants synthétiques à partir de
charbon, très intensive en CO2, gagne de l’importance régulièrement jusqu’à une part de 27% en 2100.
Parmi les secteurs émetteurs à la consommation finale d’énergie, la part de l’industrie augmente
légèrement en début de période à cause de la substitution vers le charbon qui s’opère dans ce secteur,
puis décroît sensiblement pour atteindre 12% en 2100. La part du transport est faiblement décroissante
au cours de la trajectoire et se stabilise au voisinage de 17% en fin de période. Les autres secteurs de
consommation finale ont une part assez réduite dans les émissions directes de CO2 qui décroît tout au
long de la trajectoire.

- 122 -
100% Résidentiel

90%
Transports
80%
70% Services

60%
Industrie
50%
40% Agriculture

30%
Production d'électricité
20%
10% Process carburants
liquides
0%
Autre pertes
2002 2030 2050 2075 2100

Figure 20 : Répartition des émissions mondiales de CO2 par source.

Il est enfin intéressant, pour aider ensuite à la réduction des émissions, de réaffecter sur les
usages finaux les émissions issues du système transformation (Figure 21). Cette réaffectation fait
apparaître une dynamique en deux temps. Sur la première moitié de la simulation, la part des secteurs
de production (industrie, agriculture, service) augmente au détriment des secteurs de transport et du
logement passant de 57% en 2002 à 62% en 2050. Cette augmentation est principalement due au
secteur des services dont la part augmente de 12% en 2002 à 16% en 2050. Le secteur industriel reste
stable avec une contribution voisine de 39% sur cette période. Sur la seconde moitié de la simulation,
la part des transports augmente vigoureusement pour passer de 23% en 2050 à 44% en 2100. La
répartition des émissions allouées aux usages finaux change donc fortement au cours de la trajectoire
avec une part des secteurs de production qui atteint 45% en 2100 et le secteur des transports apparaît
clairement comme le responsable du dérapage des émissions sur le long terme.

100%

80%

Résidentiel
60% Transports
Services
40% Industrie
Agriculture

20%

0%
2002 2030 2050 2075 2100

Figure 21 : Répartition des émissions mondiales de CO2 par secteur de consommation finale.

- 123 -
1.1.7 Une interprétation en termes d’identité de Kaya
Avec un montant de 2100 GtC, les émissions cumulées sur la période 2001-2100 obtenues dans
notre trajectoire de référence se situent nettement dans le dernier quartile, mais ne dépassent pas la
borne supérieure se situant à 3078 GtC, de l’intervalle des scénarios étudiés par Nakicenovic et al.
(2006). Cet ensemble de scénario dépasse celui produit lors de l’exercice SRES présenté dans la
Figure 3, puisqu’il rassemble aussi les exercices de modélisation effectués jusqu’en 2001. Afin de
clarifier le positionnement de notre trajectoire d’émissions dans le paysage des scénarios disponibles
dans la littérature, nous allons utiliser la grille d’analyse proposée par Nakicenovic et al. (2006) qui
repose sur l’utilisation de l’identité de Kaya (Voir section Erreur ! Source du renvoi introuvable.)
pour une analyse ex-post des résultats obtenus dans les différents scénarios. Pour cela, les auteurs
proposent un exercice de pensée qui consiste à construire à partir de chaque scénario d’émissions deux
trajectoires hypothétiques : la première, notée par la suite C-PIB, garde tous les termes de l’identités
de Kaya constants et égaux à leur valeur initiale sauf pour la population et la richesse par habitant, la
seconde, notée par la suite C-ATEP, introduit en plus l’évolution de l’intensité énergétique du PIB, le
contenu carbone unitaire de l’énergie primaire restant constant. La Figure 22 compare les résultats
obtenus avec notre trajectoire de référence à ceux produits par Nakicenovic et al. (2006), dans leur
revue de la littérature des scénarios produits jusqu’en 2001, pour les émissions de carbone cumulées
sur la période 2001-2100 des deux scénarios hypothétiques présentés ci-dessus et du scénario en lui
même.
Avec un budget d’émission de carbone de 2705 GtC sur la période 2001-2100 pour la trajectoire C-
PIB, le scénario de référence ici présenté se situe proche de la médiane des scénarios étudiés par
Nakicenovic et al. (2006). Ceci traduit un positionnement central de notre scénario quant aux
évolutions de la démographie et de la richesse par habitant. La situation change lorsque l’on considère
de scénario C-ATEP. Nakicenovic et al. (2006) identifient des réductions de 41% à 49% du total des
émissions cumulées grâce aux gains d’intensité énergétique entre les variantes C-PIB et C-ATEP. La
trajectoire obtenue avec IMACLIM-R atteint quant à elle entre ces deux scénarios une réduction
d’émission de 28%. De même, la décarbonisation du système énergétique permet d’obtenir dans
l’étude de Nakicenovic et al. (2006) une réduction finale de 46% à 63% par rapport au scénario C-PIB
alors que le scénario ici présenté révèle une hausse de l’intensité carbone du secteur énergétique
conduisant à une augmentation de 8% des émissions cumulées par rapport à la trajectoire C-ATEP
correspondante.

- 124 -
3500
Imaclim-R
3000
75eme percentile
2500 Mediane
25eme percentile
2000
GtC

1500

1000

500

0
C-PIB C-ATEP Emissions
CO2
Figure 22 : Valeur médiane, du premier quartile et des trois premiers quartiles des émissions mondiales
cumulées sur la période 2001-2100 pour les 39 scénarios étudiés par Nakicenovic et al. (2006) plus le
scénario de référence proposé dans cette thèse. Le scénarios C-PIB corespond au premier scénario
hypothétique décrit ci-dessus et le scnéario C-ATEP au second.

Cette remise en perspective des résultats obtenus dans le paysage des trajectoires récemment produites
par la littérature permet d’ores et déjà d’isoler deux caractéristiques agrégées importantes de notre
scénario :
• les gains d’intensité énergétique de PIB obtenus ex-post dans notre simulation sont inférieurs
à ceux communément livrés,
• la trajectoire de l’intensité carbone du système énergétique suit une dynamique inverse de
celle majoritairement obtenue dans les autres scénarios.
Ces résultats appellent un approfondissement de l’analyse pour déterminer s’ils procèdent de
divergence quant à aux choix de paramétrage du modèle ou s’ils découlent de l’interaction endogène
entre différents mécanismes modélisés dans la structure IMACLIM-R et négligés dans d’autres modèles.
Avant cela, il convient de rappeler ici que ces résultats sont en concordance avec l’analyse empirique
récemment menée par Raupach et al. (2007) et dont les résultats sont reproduits en Figure 23. Cette
étude révèle en effet que l’accélération subite des émissions de CO2 sur la période 2000-2004 découle
d’une interruption simultanée des tendances de réduction de l’intensité énergétique des économies et
de décarbonisation des systèmes énergétiques couplée à une croissance continue de la population et de
la richesse par habitant. Détaillés à l’échelle régionale, ces résultats confirment un arrêt de la
décarbonisation progressive des secteurs énergétiques à la fois pour les économies avancées et les pays
en développement.

- 125 -
Figure 23 : Evolution en indice (1=1990) des composants de l’identité de Kaya pour les émissions
mondiales (source : Raupach et al., 2007). F=émissions de CO2 dues à l’utilisation des combustibles
fossiles, P=population, gM=richesse par habitants, EM=intensité énergétique du PIB, f=intensité carbone de
l’énergie primaire, hM=émissions par habitant.

L’analyse de l’évolution des composants de l’identité de Kaya pour notre scénario de référence
révèle l’importance de l’interaction entre la structure de la croissance économique, son contenu en
énergie et la composition technologique du secteur énergétique dans l’évolution des émissions
mondiales de CO2. Notre scénario a l’originalité de présenter ex-post des gains d’intensité énergétique
moins importants que les autres scénarios et une tendance à la carbonisation du système énergétique.
L’évolution de l’intensité énergétique du PIB au cours d’une trajectoire dépend à la fois du degré de
dématérialisation de l’économie, de l’évolution de l’efficacité énergétique des équipements de
demande finale et de l’efficacité globale du système de transformation énergétique qui convertit
l’énergie primaire en énergie finale. Dans notre scénario, le rapport entre la consommation finale
d’énergie et le PIB diminue de 47% sur l’ensemble de la trajectoire (Figure 24) ; si on exclut la
consommation d’énergie du secteur des transports, cette diminution s’élève à 51%. En revanche
l’efficacité agrégée du système de transformation énergétique perd 10% pour atteindre 55% en fin de
période. Au final, les gains d’efficacité énergétique touchant les équipements de consommation finale
d’énergie et le changement structurel de l’économie conduisant à sa dématérialisation sont
partiellement compensés par les dynamiques spécifiques du secteur des transports et les pertes
d’efficacité du système de transformation énergétique. Ces deux derniers facteurs sont les clés de
l’explication de la faible réduction de l’intensité énergétique du PIB et de la carbonisation du système
énergétique que l’on rencontre dans cette trajectoire.

- 126 -
DF totale/PIB (1=2001)
1
DF totale hors transport/PIB (1=2001)
0,9
0,8 DF totale/ATEP

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
2001 2030 2050 2075 2100

Figure 24 : Evolution du rapport entre la demande finale (DF) d’énergie et le PIB, du rapport entre la
demande finale d’énergie hors transport et le PIB, et du rendement du système de transformation
énergétique

La Figure 25 représente la trajectoire du scénario de référence dans l’espace intensité énergétique du


PIB mondial – intensité carbone du système énergétique mondial. Au cours de la période, l’intensité
carbone du système énergétique augmente de 16% et l’intensité énergétique du PIB diminue de 58%.
Dans cette dynamique nous pouvons isoler trois étapes caractéristiques :
• De 2001 à 2030, l’intensité carbone du système énergétique augmente de 6% par rapport au
début de la période sous l’effet dans un premier temps de la forte croissance des PED qui ont
un système électrique plus orienté vers l’utilisation du charbon. Le phénomène s’accélère
ensuite sur la période 2020-2030 avec la forte augmentation des prix du gaz qui engendre un
retour vers le charbon pour la génération électrique dans les régions de l’Annexe 1. La
dématérialisation des économies, les gains d’efficacité énergétique pour les équipements
d’usage final, et la pénétration de technologies avancées pour le charbon dans le secteur
électrique permettent une diminution de l’intensité énergétique du PIB de 32% sur l’ensemble
de la période.
• de 2030 à 2050, la forte augmentation des prix du gaz et du pétrole induit à la fois des gains
d’efficacité énergétique importants, une pénétration des biocarburants dans le secteur des
transports et des technologies nucléaires ou renouvelables dans le secteur électrique. Cette
orientation vers des énergies peu ou pas carbonées conduit à une diminution de l’intensité
carbone qui atteint un niveau supérieur de 3% à son point de départ en 2050. L’intensité
énergétique diminue encore sur la période de 16%.
• de 2050 à 2080, les potentiels de production des biocarburants sont atteints et la pénétration
des technologies non émettrices dans le secteur électrique est freinée par des prix du charbon
qui augmentent peu. La demande de carburants liquides émanant du secteur des transports
continue d’augmenter et la technologie de production de carburants de synthèse à partir de
charbon pénètre largement. En l’absence de séquestration du CO2, cette filière de production
induit 2.7 fois plus d’émissions par litre de carburant liquide en moyenne que la filière
classique à base de pétrole. De plus, les pertes liées à cette nouvelle technologie sont beaucoup

- 127 -
plus importantes que celles associées au raffinage du pétrole brut. La conjonction de ces deux
caractéristiques conduit à une augmentation de l’intensité carbone de 16% ainsi qu’à une quasi
compensation des gains d’efficacité énergétique des autres secteurs et du phénomène de
dématérialisation des économies.

1,18
1,16

CO2/ATEP (indice 1=2001)


1,14
1,12
1,1
2030 1,08
1,06
1,04
2050 1,02
1
0,4 0,5 0,6 0,7 0,8 0,9 1
ATEP/PIB (indice 1=2001) Point de départ, 2001

Figure 25 : Trajectoires du scénario de référence dans l’espace intensité énergétique du PIB mondial –
intensité carbone du système énergétique mondial
Chaque point correspond à une année, et les symboles de taille supérieure marquent les décennies.

Finalement, l’augmentation de l’intensité carbone du système énergétique et la diminution limitée de


l’intensité énergétique du PIB au cours de la trajectoire sont largement dus à la bifurcation
technologique vers une production de carburants liquides synthétiques à partir de charbon. A partir de
ce moment là, les gains d’efficacité énergétique ou liés à la dématérialisation des économies sont
compensés par le faible rendement de cette filière et sa forte intensité carbone. La survenue de cette
bifurcation résulte de l’interaction à court terme entre une demande de transport aux dynamiques
spécifiques et des contraintes s’exerçant sur le niveau de production de pétrole brut. Ce point est
suffisamment critique pour que nous en étudiions les déterminants et la robustesse de façon plus
systématique. C’est à ce point précis que nous allons consacrer la partie suivante. En effet, si on tient
compte du fait que notre scénario de croissance est relativement modéré tant en termes purement
économiques que par sa transcription matérielle, l’existence d’une telle bifurcation serait une mauvaise
nouvelle, puisqu’elle signifierait qu’il y a de grandes probabilités pour que des scénarios d’émission
nettement supérieurs à ceux aujourd’hui envisagés se réalisent. Et ce en particulier, si l’on envisage
des taux de croissance de l’économie mondiale et, surtout, des rattrapages de la consommation
matérielle des pays développés par les pays en développement un tant soit peu supérieurs à ceux qui
dérivent de nos simulations (phase de rattrapage de la productivité du travail légèrement plus longue,
asymptotes légèrement supérieures pour certains types de consommation).

- 128 -
1.2 Tests paramétriques pour évaluer la robustesse d’un scénario de
référence

L’objet de cette partie est maintenant de tester la robustesse des résultats ci-dessus. Pour cela,
nous nous appuyons principalement sur un jeu de tests de sensibilité que nous appliquons à des
paramètres clés du modèle. Ces tests nous permettent de mettre en lumière les effets de système
produits par les interactions endogènes entre paramètres et qui n’apparaissent pas toujours clairement
dans la littérature, et d’autre part, cette analyse nous donne la possibilité d’apprécier la robustesse des
résultats obtenus.

1.2.1 Variantes testées


Procéder à des tests numériques de sensibilité sur les résultats obtenus est une approche
répandue en modélisation lorsqu’il existe des intervalles d’incertitude importants sur les paramètres
qui conditionnent le fonctionnement du modèle et que ce dernier est trop complexe pour pouvoir être
résolu analytiquement. La démarche communément adoptée est de faire varier un ou plusieurs
paramètres d’entrée d’un ordre de grandeur comparable à la taille de l’intervalle d’incertitude dans
lequel ils peuvent être fixés. L’étude de sensibilité revient ensuite à comparer l’ordre de grandeur des
variations obtenues sur les résultats du modèle aux variations qui ont été appliquées aux paramètres
d’entrée.
Dans un modèle hybride d’équilibre général multi-régions et multi-secteurs, tel que le modèle
IMACLIM-R, le grand nombre de paramètres qui déterminent son fonctionnement et le temps
nécessaire pour procéder à une simulation interdisent de pratiquer une analyse de sensibilité
exhaustive des résultats obtenus aux hypothèses adoptées sur les paramètres d’entrée. En effet, si l’on
note P le nombre de paramètres qui déterminent le fonctionnement du modèle (et qui dans notre cas
est bien supérieur au millier), il faudrait mener 2P simulations pour tester les combinaisons
paramétriques possibles seulement associées à la possibilité de prendre une seule valeur alternative
pour chaque paramètre. Nous sommes donc conduits à ne sélectionner qu’un nombre réduit de
variantes au scénario référence qui correspondent à des combinaisons paramétriques alternatives dont
nous pressentons qu’elles sont déterminantes quant à la forme des résultats obtenus dans la partie
précédente.
Nous avons ainsi choisi, pour des raisons de simplicité de ne pas toucher au moteur de la
croissance dans l’exploration des variantes au scénario de référence. En revanche, nous avons mené
des analyses de sensibilité sur trois groupes de paramètres qui relèvent de l’univers matériel de la
trajectoire et qui déterminent :
• La disponibilité des ressources de pétrole ;
• les potentiels technologiques d’efficacité énergétique des équipements utilisateurs d’énergie,
en effectuant une distinction entre les équipements du secteur résidentiel, les véhicules
particuliers, les poids lourds et les bus, et enfin l’amélioration autonome de l’efficacité
énergétique dans les autres secteurs ;
• les choix relatifs aux styles de développement, avec une attention particulière aux questions
de mobilité et de transport.

Dans tous les cas, nous avons effectué des choix paramétriques traduisant des hypothèses plus
optimistes que celles que nous avions adoptées dans la trajectoire de référence. Le fait d’avoir choisi
de tester des hypothèses allant a priori vers un profil plus bas d’émission n’a d’autre justification que
le fait que nous soyons déjà sur une trajectoire haute des émissions par rapport à la majorité des

- 129 -
travaux existants. Nous signalons donc, sans nous y attarder, qu’il serait tout aussi légitime de tester
des hypothèses plus pessimistes. Mais cela n’apporterait rien à notre propos qui est essentiellement de
faire apparaître des effets de système. Un récapitulatif des combinaisons paramétriques alternatives
testées est fourni dans Tableau 15, à chacune de ces combinaison correspond une simulation
spécifique. Nous avons testé en plus trois trajectoires caractéristiques :
• une variante « optimisme technologique » qui résulte de la variation simultanée de tous les
paramètres technologiques,
• une variante « développement sobre en énergie » pour la variation de tous les paramètres de la
troisième catégorie,
• une variante « sobriété et optimisme technologique » pour la variation simultanée des
paramètres développement sobre et optimisme technologique.

- 130 -
Scénario Hypothèses
Optimisme sur

énergétique
La valeur initiale des ressources de
l’offre

Optimisme sur les ressources de pétrole pétrole vaut 30% de plus que dans le
scenario de référence

Les gains annuels d’amélioration


Optimisme sur l’amélioration autonome
autonome de l’efficacité énergétique
équipements de demande finale

de l’efficacité énergétique (AAEE)


Optimisme sur les potentiels
d’efficacité énergétique des

sont multipliés par 1.5


Optimisme sur l’évolution L’élasticité prix de l’intensité
technologique des poids lourds et des énergétique des véhicules est
bus augmentée d’un tiers
Optimisme sur les potentiels de gains
Le taux d’apprentissage associé à
technologiques pour les véhicules
chaque technologie est multiplié par 3
particuliers
Optimisme sur les progrès d’efficacité L’efficacité énergétique des
énergétique des équipements du secteur équipements gagne progressivement
résidentiel 50% par rapport à la référence
L’intensité en transport de fret de la
Des styles de développement

croissance décroît selon le scénario


Une croissance à faible contenu de fret
« sobres en énergie »

d’amélioration autonome de l’efficacité


énergétique
Le niveau de saturation de la demande
Une croissance à faible contenu
finale en bien industriels est diminué
matériel
d’un tiers
L’élasticité revenu du stock de
Une préférence des ménages pour
véhicules particuliers est diminuée d’un
l’équipement automobile plus faible
tiers
Tableau 15 : Caractéristiques des variantes testées

1.2.2 Les conditions d’obtention d’un scénario de référence à basses


émissions
Les variations de paramètres associées aux trois trajectoires caractéristiques (« optimisme
technologique », « développement sobre en énergie » et « sobriété et optimisme technologique »)
conduisent à des réductions non négligeables d’émission (Figure 26). L’ampleur de l’effet diffère
cependant selon la variante et la période temporelle considérées.
Les réductions sont plus importantes en début de période et s’effectuent de façon plus régulière
pour la variante « optimisme technologique ». Elles connaissent cependant après 2060 un phénomène
de saturation. Au contraire, dans la variante « développement sobre », l’essentiel des réductions
d’émissions par rapport à la référence ont lieu sur la période 2050-2075 ; la vitesse des gains se ralentit
ensuite sur le reste de la simulation. Ce décalage s’explique principalement par l’inertie des systèmes
concernés par les variations des paramètres. La variante « optimisme technologique » qui touche
l’efficacité des différents équipements consommateurs d’énergie est contrainte par la vitesse de

- 131 -
renouvellement de ces équipements qui est bien supérieure à la vitesse d’évolution des infrastructures
et des modes de localisation qui sont impactés par le déploiement de la variante « développement
sobre ». Les réductions de la variante « sobriété et optimisme technologique » sont plus graduelles
mais ralentissent aussi en fin de période.
Finalement, Les gains associés à la variante « optimisme technologique » se stabilisent à un
niveau un peu supérieur à 16.5% alors que ceux de la variante « développement sobre » terminent à
une valeur proche de 13.5% en 2100. Les variantes paramétriques testées ne conduisent donc pas à de
réels changements de trajectoire d’émission et les résultats du scénario central sont assez robustes à
des variations sur les hypothèses concernant les potentiels technologiques ou le contenu énergétique
du développement économique.
La variante « sobriété et optimisme technologique » présente très normalement des réductions
d’émissions beaucoup plus substantielles pour atteindre environ 30% de gain par rapport à la référence
en fin de période avec un niveau absolu égal à 29.9 GtC en 2100. Bien que ce niveau d’émission en fin
de période reste au voisinage de la valeur la plus haute que l’on retrouve dans l’ensemble des quatre
scénarios marqueurs de l’exercice SRES, cet exercice pousse à penser que ni l’optimisme
technologique, ni le choix de styles de développement plus sobres en énergie pris séparément ne
peuvent permettre, en l’absence de politiques climatiques, de dévier d’une trajectoire fortement
carbonée telle qu’elle a été présentée ci-dessus. La combinaison de ces deux variantes qui correspond
à un changement structurel de la croissance économique alliant progrès technologique sur les
équipements et sobriété énergétique des modes d’organisation de l’activité peuvent conduire à des
réductions substantielles d’émissions. Cependant, nous verrons dans la suite que la variante « sobriété
et optimisme technologique » ne permet pas de modifier les mécanismes qui se trouvent au fondement
de la production d’une trajectoire haute en émissions, elle conduit en fait à limiter l’ampleur de leur
réalisation.

2030 2050 2075 2100


0%

-5%

-10%

-15%

-20%
Développement sobre
-25%
Optimisme technologique
-30%
Sobriété et optimisme technologique
-35%
Figure 26 : Variation d’émission par rapport à la trajectoire de référence, sélection d’années et de
variantes

L’examen, à plusieurs points du temps, des termes énergétiques de l’identité de Kaya associés
aux variantes étudiées (Figure 27) montre que l’allure de ces courbes reste semblable à celle du
scénario de référence quelle que soit la variante envisagée. Ceci confirme la robustesse du

- 132 -
raisonnement que nous avons tenu dans la présentation du scénario central et qui nous a conduit à
identifier trois phases caractéristiques dans cette trajectoire.
1.18

1.16

1.14
Fin 1ere phase
1.12

CO2/ATEP
1.1

1.08

1.06

1.04

1.02
nde
Fin 2 phase
1
0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
ATEP/PIB
REF Développement sobre
Optimisme technologique Sobriété et optimisme technologique

Figure 27 : Trajectoires du scénario de référence et des trois variantes sélectionnées dans l’espace intensité
énergétique du PIB mondial – intensité carbone du système énergétique mondial
Les symboles marquent les décennies.

La première phase qui se termine avec la survenue des contraintes pesant sur la mise à
disposition des ressources pétrolières, a une durée qui n’est pas modifiée dans les trois variantes
testées. Dans les quatre scénarios, ces contraintes apparaissent en 2034. De même, l’intensité carbone
du système énergétique à la fin de cette phase, est identique dans les quatre scénarios et correspond à
augmentation de 6.5% du contenu carbone de l’énergie primaire par rapport au début de la période, en
2001. En revanche, l’intensité énergétique du PIB mondial varie en fonction des variantes à la fin de
cette phase et la variante « sobriété et optimisme technologique » présente les écarts les plus
importants par rapport à la référence qui sont de l’ordre de 15%. Les variantes testées ne sont donc pas
à même d’éviter ou de décaler l’apparition des contraintes de déplétion qui apparaissent à moyen
terme sur la production de pétrole. De même, l’intensification en carbone du système énergétique
mondial principalement, due à l’utilisation massive des technologies charbon pour la production
d’électricité, n’est pas remise en cause par nos tests paramétriques.
La seconde phase correspond à la période au cours de laquelle la hausse des prix du pétrole et
gaz induit des gains d’efficacité, une pénétration des biocarburants dans la production de carburants
liquide et une augmentation de la part du nucléaire et des énergies renouvelables dans la génération
d’électricité. Cette phase est caractérisée par une diminution simultanée de l’intensité énergétique du
PIB et de l’intensité carbone du système énergétique. L’ampleur des diminutions et la durée de cette
phase diffère en fonction des scénarios : elle dure en effet 18 ans dans le scénario de référence, 3 ans
de plus dans la variante « optimisme technologique », 8 ans de plus dans la variante « développement
sobre » et 12 ans de plus dans la variante « sobriété et optimisme technologique ». Au cours de cette
phase, l’exploitation des potentiels d’amélioration technique du côté de la demande, et l’augmentation
de la production de biocarburants du côté de l’offre, permettent de compenser la réduction de la
production pétrolière sans engendrer une augmentation des prix à même de rendre la technologie de
liquéfaction du charbon compétitive. Ainsi, moins une variante présente une demande de carburant

- 133 -
liquide en croissance vigoureuse, plus les potentiels technologiques du côté de l’offre et de la demande
ont le temps de se déployer pour compenser la déplétion pétrolière. Des préférences orientées vers un
développement sobre en énergie que l’on retrouve dans les variantes « développement sobre » et
« sobriété et optimisme technologique », produisent une croissance moins intensive en transport, ce
qui conduit finalement à une croissance de la consommation de carburants liquides moins vigoureuse
que dans la référence et permet un allongement significatif de la durée de la seconde phase. A la fin de
cette phase, la réduction de l’intensité carbone du système énergétique obtenue par rapport à la fin de
la phase précédente dépend de la structure de la demande finale d’énergie et diffère donc sensiblement
en fonction des variantes. En effet, moins la production de carburants liquides est importante, plus la
part des biocarburants dans celle-ci sera élevée lorsqu’ils arrivent à la limite de leurs potentiels de
production, c’est pourquoi les variantes « développement sobre » et « sobriété et optimisme
technologique » présentent les baisses d’intensité carbone les plus importantes au cours de cette phase.
Aucune des variantes étudiées n’évite la survenue de la troisième phase. Même l’optimisme sur
les potentiels technologiques et le choix d’un style de développement sobre en énergie ne permettent
pas d’éviter la bifurcation vers un système énergétique reposant principalement sur l’utilisation du
charbon qui confirme ainsi une importante réserve de compétitivité. En fonction du dynamisme de la
consommation d’énergie du secteur des transports dans les différentes variantes, cette troisième phase
est caractérisée par une augmentation plus ou moins importante de l’intensité carbone du système
énergétique. Nous retrouvons ainsi l’augmentation la plus forte dans la variante « optimisme
technologique » alors qu’elle reste plus modérée dans les deux autres variantes. En effet, les
paramètres alternatifs associés à la variante « développement sobre » sont seuls à même de réduire
l’intensité de la croissance économique en transport conduisant à une diminution, par rapport à la
référence, de la production de carburants synthétiques en fin de période et donc de l’importance du
charbon dans l’approvisionnement total en énergie primaire.

Au final, les variantes paramétriques testées ne modifient pas l’enchaînement des dynamiques
de système qui conduisent à l’obtention d’un scénario élevé en émission elles permettent tout au plus
de retarder leur survenue. En termes de niveau global d’émissions de CO2, les variantes « optimisme
technologique », « développement sobre » et « sobriété et optimisme technologique » correspondent
respectivement, en 2100, à un décalage de 13 ans, 11ans et 23 ans par rapport à la trajectoire de
référence.

1.2.3 Identification de mécanismes « tirant » la trajectoire d’émission vers le


haut

L’étude des trois variantes qui vient d’être menée permet de confirmer la robustesse des résultats
obtenus avec le modèle Imaclim-R. Cependant, il nous reste à identifier les mécanismes sous-jacents à
l’origine de la production d’une trajectoire de référence intensive en carbone. La question ici est bien
de déterminer si une trajectoire haute en émission est le produit d’une combinaison particulière de
choix de paramètres dans leur intervalle d’incertitude ou bien le résultat de l’exercice de mécanismes
endogènes agissant tels que des ressorts « tirant » la trajectoire d’émission vers le haut par le biais
d’interactions entre :
• les potentiels de progrès technologique,
• les potentiels de croissance économique,
• les contraintes pesant sur la production des ressources non renouvelables,
• les préférences de consommation,

- 134 -
• les choix de localisation des activités et de styles de développement.

Utiliser la terminologie de potentiel n’est pas anodin ici puisque la structure de modélisation
IMACLIM-R permet de formuler ex ante des hypothèses plus ou moins optimistes sur différents
potentiels d’amélioration technologique mais dont la réalisation à l’intérieur des scénarios n’est pas
automatique. Le résultat final obtenu dépend de l’interaction entre les potentiels ultimes
d’amélioration et les conditions économiques qui permettent leur déploiement ; ce dernier peut
s’avérer finalement partiel et les améliorations techniques observées ex post dans un scénario pourront
s’avérer inférieures aux potentiels ultimes.
Dans ce cadre, les mécanismes que nous pouvons identifier comme étant à l’origine de la
production d’une trajectoire haute en émission sont de deux types.
Les premiers correspondent à des interactions endogènes aux scénarios qui conduisent à limiter la
réalisation d’un potentiel sectoriel donné de réduction des émissions. C’est ce que l’on retrouve par
exemple dans le secteur des transports avec l’effet rebond : des gains accélérés d’efficacité sur les
véhicules sont partiellement compensés par une hausse des kilomètres parcourus.
Les seconds concernent des interactions négatives entre des hypothèses optimistes formulées pour
des secteurs différents qui mènent à obtenir une réduction d’émission associée à la somme des
mesures inférieure à la somme des réductions obtenues pour chaque mesure. Ce concept de « sous
additivité» des réductions d’émission renvoie à l’existence d’interactions endogènes entre les
différents potentiels de réduction d’émission, d’origine technologique ou pas, qui conduisent à limiter
leur réalisation respective.
Les paragraphes suivants poursuivent l’analyse en mettant en lumière certains de ces
mécanismes qui sont au fondement de la production d’une trajectoire de référence intensive en
émissions. Raisonner pour cela dans le cadre d’une close ceteris paribus serait la solution idéale mais
le nombre de mécanismes qu’il conviendrait de « neutraliser » pour tester leur importance est
tellement grand que nous nous heurterions aux limites des capacités calculatoires qui sont à notre
disposition. Nous allons cependant exploiter le grand nombre de variantes paramétriques que nous
avons exploré autour du scénario de référence et nous concentrer sur l’étude de quelques mécanismes
clés.

1.2.4 Un développement sobre en énergie ralentit le rythme des gains


d’efficacité énergétique
Nous avons adopté dans le modèle IMACLIM-R, une représentation endogène du progrès
technique qui utilise des courbes d’apprentissage pour les équipements du secteur énergétique et fait
dépendre la réalisation des potentiels d’amélioration de la production cumulée de chaque technologie.
Ce faisant, nous intégrons dans nos scénarios la possibilité d’un écart systématique entre le progrès
technique potentiel et le progrès technique réalisé (qui a ici le même statut logique que l’écart entre
croissance potentielle et croissance réelle en matière macro-économique). Pour chaque technologie,
l’ampleur de cet écart dépend in fine de l’expérience qui est accumulée au cours de la trajectoire pour
sa production. La réalisation du progrès technique potentiel pour une technologie dépend donc de deux
effets déterminants :
• Un effet de volume cumulé qui conditionne la quantité, consommée à l’échelle de
l’économie, du service énergétique que produit cette technologie. Cet effet détermine en fait la
taille du marché sur lequel la technologie est susceptible d’entrer en compétition.
• Un effet prix des énergies dont dépend la compétitivité de la technologie et qui définit la part
de marché qu’elle peut obtenir.

- 135 -
Dans ce cadre, un ralentissement du progrès technique, et donc un écart apparaissant entre progrès
technique potentiel et progrès technique réalisé, peut apparaître via l’un de ces deux canaux.
Cependant, la difficulté est que ces deux effets sont en partie liés dans la mesure où le niveau des prix
de l’énergie joue sur le volume de service énergétique consommé ; toutefois ce dernier reste
principalement déterminé par les dynamiques macroéconomiques qui fixent le niveau général de
l’activité.
L’effet prix est particulièrement important dans nos scénarios dans la mesure où nous intégrons
l’effet modérateur sur les prix des hydrocarbures qu’exerce le progrès technique lui-même. Dans ce
cas, l’ampleur de l’écart entre progrès technique potentiel et réalisé peut dépendre de plusieurs
paramètres. Par exemple, notre formalisation des mécanismes de formation des prix du pétrole prend
en compte, à côté des dynamiques de demande et des contraintes de rareté, l’ensemble des contraintes
géologiques pesant sur la vitesse d’extraction des ressources. Plus ces contraintes sont fortes, plus
rapidement la tension sur les prix va s’exercer et plus faible sera l’écart entre progrès technique
potentiel et progrès réalisé. Inversement si la demande de pétrole est réactive aux prix il eut s’opérer,
lorsque les contraintes de déplétion s’appliquent, une adaptation sans heurt ni choc brutal sur les prix
puisque le rythme de croissance de la demande redevient cohérent avec le rythme de la mise en
production des pétroles non conventionnels et des biocarburants pour compenser l’épuisement de la
production conventionnelle. Dans ce dernier cas, la hausse des prix de l’énergie est modérée et tend à
accroître l’écart entre progrès technique potentiel et progrès technique réalisé.
L’effet « volume cumulé » lié à la quantité de chaque service énergétique consommée au cours
d’une trajectoire conduit à des modifications de la vitesse du progrès technique en fonction des choix
de styles de développement. Ainsi, une économie qui développe un système de transport favorisant le
transport public aura une production de véhicules automobiles moins importante et donc des capacités
d’apprentissage technologique plus faible qu’une autre économie misant sur le développement du
mode routier et ayant donc des capacités d’innovation dans ce secteur plus importantes.
Ces deux effets apparaissent tout particulièrement dans la variante « sobriété et optimisme
technologique », qui constitue un cas typique de non réalisation endogène des potentiels
d’amélioration technique.
Prise séparément, chaque variation de paramètre testée dans une des quatre variantes de la catégorie
« optimisme sur les potentiels d’efficacité énergétique » (cf. Tableau 15), les autres paramètres restant
constants, a certes un impact sur les trajectoires de prix des énergies, mais trop faible pour que le
déploiement effectif de l’efficacité énergétique s’écarte notablement des potentiels.
En revanche, la variante « sobriété et optimisme technologique » combine une vision optimiste des
potentiels d’efficacité, avec celle d’une mutation significative des styles de développement. Et ceci se
traduit par un écart important en matière de réalisation effective des potentiels d’amélioration
technologique. Lorsque nous prenons l’exemple des véhicules particuliers, la Figure 28 illustre un
résultat paradoxal selon lequel, tout en ayant adopté des hypothèses identiques pour les potentiels
ultimes d’amélioration technique des véhicules dans les scénarios « sobriété et optimisme
technologique » et « optimisme technologique pour les véhicules particuliers », l’efficacité moyenne
de la flotte observée ex post est différente dans les deux scénarios. Nous retrouvons ici un cas typique
qui démontre les limitations d’une démarche combinatoire pure pour construire des scénarios. En effet,
les véhicules sont en moyenne moins efficaces dans la variante « sobriété et optimisme technologique
» qui combine plusieurs hypothèses favorables à la diminution de l’intensité énergétique de la
croissance, que dans celle « optimisme technologique pour les véhicules particuliers » où l’optimisme
technologique se limite aux véhicules automobiles. Cette situation trouve son origine dans deux
mécanismes principaux. Tout d’abord, malgré une courbe d’apprentissage associée aux véhicules

- 136 -
efficaces identique dans les deux scénarios, nous retrouvons un apprentissage effectif est plus lent
lorsque l’optimisme technologique est étendu aux autres secteurs de l’économie et que les trajectoires
de développement sont sobres en énergie. En effet, ces deux spécifications, en ralentissant la hausse
des prix du pétrole et des autres énergies, diminuent par là même la pression pour effectuer des
économies d’énergie et donc l’apprentissage concernant les véhicules les plus efficaces. De plus, les
préférences des ménages sont orientées dans le scénario « sobriété et optimisme technologique » vers
un système de transport moins dépendant à l’utilisation de l’automobile, ce qui conduit à une
production de véhicules plus faible que dans l’autre scénario et donc à un ralentissement du processus
d’apprentissage.
Au final, les véhicules sont globalement moins efficaces dans la variante « sobriété et optimisme
technologique » que dans celle « optimisme technologique pour les véhicules particuliers ». A
certaines dates, ils peuvent être 10% moins efficaces sur de longues périodes et aller, à certaines dates,
jusqu’à 18% En définitive, la sobriété énergétique devient elle-même un facteur de ralentissement du
progrès technique sur les technologies économes en énergie.

0%
2000 2025 2050 2075 2100

-5%

-10%

-15%

-20%

Figure 28 : Pertes d’efficacité moyenne pour la flotte mondiale de véhicules particuliers dans la variante
« sobriété et optimisme technologique » par rapport à la variante Optimisme sur les potentiels de gains
technologiques pour les véhicules particuliers

1.2.5 Effet de masque du prix de l’énergie et risque de « lock-in » dans des


trajectoires intensives en transport
La transition énergétique associée aux contraintes pesant sur l’exploitation des ressources
pétrolières apparaît comme un phénomène déterminant pour la bifurcation de la trajectoire vers un
scénario de référence haut en émissions car elle provoque un retour important du charbon dans
l’approvisionnement total en énergie primaire. Dans ce contexte, le montant des ressources mondiales
de pétrole brut disponibles en début de simulation prend une importance particulière car il va
fortement déterminer la date de la survenue des premières contraintes. L’incertitude associée à ce
montant a été largement soulignée dans la littérature (Rogner, 1997 ; Rherl et Friedrich, 2006). Les
tenants de la thèse d’un « peak oil » à date rapprochée (Laherrere, 2003) sont aujourd’hui confortés
aussi bien par les tensions actuelles sur les prix du pétrole que par les rumeurs de la révision à la baisse

- 137 -
des réserves dans le Moyen-Orient. Cependant, même si la tendance structurelle à la hausse des prix
du pétrole est indéniable, on ne saurait exclure une baisse des prix à moyen terme une fois relancé le
cycle d’exploration interrompu depuis la fin des années 80. La réapparition d’une période de
stabilisation sinon de hausse du ratio réserves sur production serait d’autant moins improbable qu’une
stabilisation politique relative au Moyen-Orient et dans d’autres régions du monde permettrait de
rééquilibrer géographiquement l’effort d’exploration en direction des zones où les chances de succès
sont réellement plus importantes.
La valeur des ressources pétrolières ultimement récupérables que nous avons choisie dans notre
scénario de référence correspond à la médiane des statistiques de l’USGS. Tester l’impact sur les
émissions d’une valeur supérieure pour cette hypothèse permet de comprendre ce qui l’emporte entre
les gains d’émission permis par la limitation du report technologique vers le charbon et en sens inverse
les émissions supplémentaires provenant de l’effet de prix plus bas des hydrocarbures sur la croissance
économique, sur la consommation de services énergétiques et sur la vitesse de pénétration de
technologies plus économes en énergie.
La variante « optimisme sur les ressources de pétrole » permet de quantifier l’impact sur le
scénario de référence d’une augmentation de 30% du montant des ressources de pétrole brut
disponibles en début de période. Par soucis de simplification, cette augmentation touche uniformément
les ressources de chaque région du modèle et les différentes catégories de pétrole disponibles
(conventionnel et non conventionnel). En termes d’émission, ce scénario ne diffère que faiblement de
la trajectoire de référence avec un écart pour le montant cumulé qui augmente d’abord pour atteindre
1.4% de plus par rapport à la référence à l’horizon 2050 et diminue ensuite pour se stabiliser à 0.9% en
dessous de la trajectoire de référence. L’impact de cette variante sur le profil temporel du prix du
pétrole brut est pourtant loin d’être négligeable (Figure 29) avec un décalage de 20 ans dans l’atteinte
du niveau des 90$ par baril, par exemple. En d’autres termes, les effets négatifs sur les émissions de ce
décalage dans la montée des prix du pétrole sont plus que compensés par le moindre recours au
charbon. Mais ce diagnostic, dans l’ensemble optimiste du point de vue strictement économique, doit
être fortement nuancé parce qu’il a un coût en matière de trajectoire d’émission dont l’origine
principale réside dans la dynamique du secteur des transports.

110
100
90
80
$ 2001 par baril

70
Optimisme ressources
60 pétrolières
50 Référence
40
30
20
10
0
2000 2025 2050 2075 2100

Figure 29 : Evolution du prix mondial du pétrole brut, sélection de variantes.

- 138 -
Lorsque l’on entre dans le détail sectoriel des émissions, on s’aperçoit que la modification, par
rapport à la trajectoire de référence, des prix du pétrole sur la période 2001-2055 n’influence que
faiblement le niveau d’émission des secteurs de l’agriculture, de l’industrie et des services (Figure 30).
En effet, la consommation de pétrole dans ces secteurs suit déjà une dynamique de repli vers les
usages captifs à des niveaux de prix proches de 70$ par baril et l’impact de la limitation de
l’augmentation du prix liée à des ressources plus abondantes reste limité. Le secteur électrique est plus
touché via l’impact du prix du gaz sur le choix des technologies de production qui limite
marginalement l’entrée des technologies charbon.
La principale conséquence d’une trajectoire de prix du pétrole plus basse concerne finalement le
secteur des transports et la production de carburants liquides. On assiste en effet à une augmentation
rapide des émissions de CO2 du secteur des transports par rapport à la trajectoire de référence, qui
culmine à +19% en 2040. Cette augmentation est due à des gains d’efficacité énergétique plus faibles
sur les véhicules mais aussi à l’intensification de la croissance en transport par rapport à la
référence, intensification qui est encouragée, tant pour les ménages que pour le système industriel, par
l’efficacité accrue des infrastructures routières.
L’importance de ce mécanisme apparaît à partir de 2055 lorsque les trajectoires de prix du pétrole dans
les deux scénarios ont atteint 100$ par baril, le niveau des émissions du transport dans la variante
« optimisme sur les ressources de pétrole » redescend certes progressivement par rapport à la
référence mais se stabilise à environ 5% au dessus de celle-ci. Cet effet d’hystérèse découle de
l’apparition d’un phénomène de dépendance accrue du système économique au transport routier, du
fait que, pendant cette période de 25 ans de blocage de la hausse des prix du pétrole, se mettent en
place des infrastructures, des systèmes urbains et des modes d’aménagement du territoire qui ensuite,
en raison de la longueur de leur temps caractéristique d’évolution vont introduire un effet de cliquet
sur la consommation de transport (lock-in). Au final, le recours plus tardif à la production de
carburants de synthèse à partir du charbon permet de contrebalancer, en termes d’émission cumulée,
une part importante des émissions supplémentaire engendrées par l’effet « prix bas du pétrole »
observé jusqu’en 2055. Cependant, nous aboutissons en fin de simulation à la création d’un système
de consommation marqué par d’importants besoins de mobilité et un recours plus systématique au
mode routier que dans la référence. Finalement, compte tenu des hypothèses technologiques adoptées
dans ce scénario, cette situation débouche sur un recours accru et quasi irréversible au charbon.

- 139 -
25

15
Variation d’émissions cumulées par

5
2030
2050
rapport à la référence, GtC

GtC

-5
2075
2100
-15

-25

-35
Process Production Services Agriculture Industrie Transport Résidentiel
carburants électrique
liquides

Figure 30 : Variations des émissions sectorielles cumulées entre le scénario optimisme sur les ressources de
pétrole et la référence, sélection de dates

1.2.6 Effets rebonds et réductions d’intensité énergétique

La quasi-totalité des variantes que nous avons testées mènent à évaluer les conséquences en
termes de niveau émission d’une amélioration de l’efficacité énergétique de certains équipements ou
d’une réduction de l’intensité de la croissance économique en certains services énergétiques. Au final,
les gains d’émission obtenus par rapport à la référence dépendent bien sûr de l’ampleur de
l’amélioration de l’efficacité énergétique ou de la décroissance de l’intensité énergétique mais aussi de
la réaction de la demande finale et du niveau général de l’activité. Les mécanismes de réaction de ces
deux dernières variables à des gains d’efficacité énergétique ou à des réductions de l’intensité
énergétique de l’activité sont généralement regroupés sous l’appellation d’effet rebond.
L’avantage de disposer d’une modélisation hybride de l’économie réside dans la possibilité
d’évaluer les rétroactions possibles entre l’évolution du secteur énergétique et l’activité économique
en général mais aussi entre des améliorations technologiques propre à la production d’un service
particulier et la formation de la demande pour celui-ci.
De plus, dans notre trajectoire de référence, les prix des énergies augmentent fortement. Dans un
contexte de modélisation où les agents économiques effectuent leurs choix d’équipement sans
anticiper parfaitement l’évolution future des prix, supposer des améliorations d’efficacité énergétique
et des choix de styles de développement plus sobres en énergie diminue la contrainte appliquée au
système économique par l’augmentation des prix des énergies qui est mal anticipée. L’ampleur des
effets rebonds risque d’être augmentée par cette situation particulière de contrainte.

Les différents types d’effet rebond

L’effet rebond correspond initialement à l’idée que des réductions de consommation énergétique
attendues suite à des gains d’efficacité énergétique peuvent être partiellement compensées par une
hausse de la demande des services énergétiques dont le prix est réduit grâce à ces améliorations.

- 140 -
Cependant Barker et al. (2007), reprenant les travaux de Greening et al. (2000), élargissent cette
conception et proposent la distinction entre trois types d’effet rebond :
• L’effet rebond direct : les gains d’efficacité énergétique pour un service énergétique donné
induisent une baisse du prix effectif de ce service, ce qui conduit à une augmentation de la
demande pour ce service.
• L’effet rebond indirect : des gains d’efficacité énergétique induisent une baisse des dépenses
énergétiques pour un consommateur donné. Cette baisse de dépense s’associe à une
augmentation de son niveau de consommation pour d’autres biens dont la production requiert
aussi des émissions de CO2.
• L’effet rebond global : la baisse du prix des services énergétiques modifie les prix des biens
intermédiaires et finaux dans l’ensemble de l’économie, ce qui conduit à un réajustement
général en prix et en quantité pouvant mener à une croissance économique plus élevée, source
de nouvelles émissions de CO2.
Barker et al. (2007) rassemblent les deux derniers types d’effet rebond sous le terme d’effet rebond
macroéconomique. Nous nous intéressons dans les deux sous sections suivantes à la mesure des effets
rebonds sectoriels directs et macroéconomiques dans les variantes que nous avons testées

Les effets rebonds sectoriels directs

A priori les effets rebonds sectoriels peuvent concerner tous les services énergétiques quel que
soit l’agent économique qui les consomme. On les retrouve ainsi dans les secteurs industriels,
résidentiels mais ils sont particulièrement puissants dans la consommation de transport des ménages.
Le mécanisme de base est très fortement lié à la spécification retenue dans IMACLIM-R pour la
modélisation des transports. En effet, comme pour les autres secteurs, le progrès technique induit sur
les véhicules conduit in fine à une hausse des coûts de transport inférieure à l'impact mécanique du
prix du carbone. Mais la dynamique des besoins de transport est encadrée non seulement par la
contrainte budgétaire classique mais par une contrainte en budget temps. Dès lors, une hausse de
l'efficacité des infrastructures permet de se déplacer davantage tout en respectant cette contrainte, et
ceci conduit à obtenir un effet rebond très significatif que l'on peut observer dans la variante
« optimisme sur les potentiels de gains technologiques pour les véhicules particuliers ».
Dans un scénario où les gains d’efficacité énergétique sur les véhicules particuliers sont plus
importants que dans la référence, nous pouvons effectuer une distinction entre les réductions
d’émission attendues et les réductions obtenues. Nous assimilons les réductions attendues aux gains
égaux à l’amélioration de l’efficacité énergétique par rapport à la référence. La Figure 30 illustre
l’importance de l’effet rebond qui efface, via une augmentation des kilomètres parcourus, environ 25%
des gains d’émissions techniquement permis par les améliorations technologiques. L’ordre de
grandeur que nous obtenons pour ce phénomène est comparable à ce qui est empiriquement mesuré
dans la littérature (Greening et al., 2000). Derrière ce chiffre agrégé apparaissent des différences
régionales et l’on retrouve une amplitude de l’effet rebond plus importante dans les régions non
Annexe 1 qui sont dans une dynamique vigoureuse d’accès à la mobilité automobile. Ce phénomène
est en revanche plus limité dans les régions économiquement les plus avancées puisque l’usage des
véhicules particuliers y atteint un niveau proche de la saturation.
Au final, la prise en compte de l’effet rebond apparaît indispensable pour simuler des
trajectoires de référence réalistes. Celui-ci contribue en effet à produire produire des trajectoires
élevées en émissions dans la mesure où il compense, par effet de volume, une partie des améliorations
technologiques qui peuvent être induites dans les scénarios. Cet effet est d’autant plus important dans

- 141 -
le secteur du transport que la compétitivité des différents modes interagit avec l’aménagement du
territoire et les décisions de localisation des agents économiques. Dans une période où les prix des
carburants augmentent, les améliorations technologiques forment un effet de masque en amortissant
cette hausse sur le prix final de la mobilité automobile. Cet effet de masque joue bien sûr, sur les
agents privés qui sont conduits à mal anticiper le signal de future déplétion de la production pétrolière
qui leur est transmis par les marchés et qui ne profitent pas complètement des améliorations
technologiques disponibles pour réduire leur consommation. Mais il est renforcé par les décisions des
pouvoirs publics et des gestionnaires d'infrastructures puisque la mobilité supplémentaire permise par
l’accélération du progrès technique mène à effectuer des choix d’aménagement de long terme qui ne
prennent pas suffisamment en compte les futures contraintes qui pèseront sur la production de pétrole.
Ces conséquences de l’effet rebond pour la mobilité automobile, ignorées dans la plupart des
structures de modélisation, sont ici prises en compte, et IMACLIM-R permet de montrer comment elles
conduisent à orienter les choix d’infrastructures de transport dont l’inertie d’évolution est très
importante. Ceci constitue un élément clé dans la compréhension des dynamiques qui conduisent à
obtenir des trajectoires d’émissions très élevées.

1.1

1.05

0.95

0.9

0.85
2000 2010 2020 2030 2040 2050 2060 2070 2080 2090

Effet rebond Passagers.kilometres (pkm)


Consommation/pkm Emissions des véhicules particuliers
Contenu carbone des carburants

Figure 31 : Rapport entre les résultats obtenus dans la variante « optimisme sur les potentiels de gains
technologiques pour les véhicules particuliers » et ceux obtenus dans la référence pour :
La consommation moyenne mondiale du parc de véhicules particulier,
les passagers.kilometres effectués avec le mode automobile à l’échelle mondiale,
le contenu carbone moyen des carburants liquides,
les émissions des véhicules particuliers.

Les effets rebond macroéconomiques

L’évaluation de l’importance de l’effet rebond macroéconomique diffère des effets rebond


sectoriel. En effet, dans le premier cas et contrairement au second, nous ne pouvons pas calculer, pour
certaines variations de paramètres, la réduction « attendue » d’émission pour la comparer à la
réduction obtenue. Cependant, pour les trois variantes testées, nous pouvons nous intéresser à la
variation d’activité que ces variantes présentent par rapport à la trajectoire de référence pour quantifier
l’ampleur de l’effet rebond macroéconomique. Nous pouvons ainsi observer, sur la Figure 32, que des

- 142 -
effets importants de rétroaction sur le PIB existent lorsque l’on teste des hypothèses d’augmentation
des potentiels d’efficacité énergétique ou d’orientation vers des styles de développement moins
intensifs en carbone. Ces effets de rétroactions sont positifs et compensent donc partiellement, par une
activité économique plus importante, les réductions d’émissions provenant des choix d’hypothèses
plus optimiste qui ont été effectués dans ces variantes.
Les variantes paramétriques qui sont testées mènent, par rapport à la trajectoire de référence, à
diminuer l’intensité énergétique de l’activité économique ou de la consommation des ménages. La part
de budget des ménages consacrée aux dépenses énergétiques se trouve diminuée dans ces scénarios, ce
qui permet d’augmenter la consommation des biens non énergétiques. Les secteurs de productifs
voient dans le même temps diminuer leurs coûts de production relatifs à l’énergie et au transport et
augmentent donc leur productivité. Une trajectoire de croissance qui présente une consommation
moindre d’énergie permet aussi d’éviter certains investissements dans les capacités productives des
secteurs énergétiques et libère donc du capital qui peut être investi dans les autres secteurs de
l’économie, améliorant ainsi leur productivité. Les effets vertueux d’une intensité énergétique
diminuée conduisent globalement à une croissance plus importante même si certaines régions sont
affectées négativement, comme celles qui sont exportatrices de ressources fossiles.
L’augmentation de l’activité par rapport à la référence peut ainsi atteindre, à l’échelle mondiale,
près de 4% en fin de période pour la variante « sobriété et optimisme technologique ». L’effet
d’accélération de la croissance est plus important dans la variante « développement sobre » (2.5% de
gain en 2100) que dans la variante « optimisme technologique » (1.5% de gain en 2100). C’est en fait
sur la période 2060-2100 que les gains d’activité deviennent plus importants dans la variante
« développement sobre » que dans la variante « optimisme technologique ». C’est en effet dans la
première variante que la dépendance des économies à la consommation de transport est la plus
fortement réduite, et c’est ce qui permet de lever, à long terme, une contrainte qui pèse sur le
déploiement de la croissance. Ceci constitue un bon exemple de possibilités de tuilage temporel entre
variables technologiques et actions sur les styles de développement.
Entre 2030 et 2060 chacune des trois variantes connait une accélération sensible de la croissance
par rapport à la trajectoire de référence qui est suivie par une période de rattrapage relatif. La longueur
de cette période caractéristique diffère en fonction des variantes mais dans tous les cas ces mécanismes
donnent aux courbes une allure « en cloche » sur cette période. Ce phénomène d’accélération
transitoire survient au moment où les premières contraintes s’appliquent sur la production pétrolière et
où s’amorce la transition énergétique vers un système énergétique qui n’est plus fondé sur l’utilisation
du pétrole. Les variantes testées rendent cette transition énergétique moins brutale que dans le scénario
de référence, en même temps que les économies deviennent plus résilientes à l’augmentation des prix
des énergies. La conjonction de ces deux faits induit finalement un ralentissement de la croissance, au
cours de cette période, beaucoup moins important que celui que l’on retrouve dans le scénario de
référence.
En définitive, ces résultats confirment la nécessité de ne pas raisonner à trajectoire économique
constante lorsque l’on veut tester les effets de telle ou telle amélioration technologique au voisinage
d’une trajectoire de référence donnée. De plus, ils soulignent l’importance des effets rebonds
macroéconomique et le rôle qu’ils peuvent avoir dans les mécanismes de production d’une trajectoire
haute en émissions dans la mesure où ils compensent partiellement, par effet de volume, les réductions
de l’intensité énergétique de la croissance. Et, dans notre cas, les émissions supplémentaires
provoquées par l’effet rebond macroéconomique atteignent, en cumulé sur tout la trajectoire, jusqu’à
42 GtC dans le scénario « sobriété et optimisme technologique ».

- 143 -
0.05

0.04

0.03

0.02

0.01

0
2000 2010 2020 2030 2040 2050 2060 2070 2080 2090
-0.01

Optimisme technologique Développement sobre Sobriété et optimisme technologique

Figure 32 : Variation du PIB mondial par rapport au scénario de référence, sélection de variantes.

1.2.7 Conclusions intermédiaires


La première conclusion que l’on peut tirer des résultats obtenus pour notre trajectoire de
référence est que des risques importants existent, en cas de non-action, de bifurquer vers des
trajectoires de croissance très intensives en carbone.
Ce résultat découle principalement de la prise en compte, dans notre structure de modélisation,
de mécanismes qui étaient jusqu’à présent généralement négligés. Ces mécanismes découlent
d’interactions endogènes, dans un cadre d’équilibre général, entre les styles de consommation des
agents, les potentiels d’amélioration technologique et les modes de localisation. Parmi ces
mécanismes, nous pouvons distinguer les effets de système qui visent à limiter, par interactions
négatives réciproques, la réalisation simultanée de plusieurs potentiels sectoriels de réduction
d’émission. Nous pouvons aussi identifier des dynamiques endogènes conduisant à limiter la
réalisation de certains potentiels de progrès technologiques.
Une trajectoire élevée en émission n’est donc pas, dans notre cas, le résultat d’une combinaison
d’hypothèses pessimistes mais le fruit d’interactions endogènes au fonctionnement du modèle.
Du point de vue de la décision politique, ces résultats concernent tout d’abord les analyses
coût/bénéfices menées pour décider de l’ampleur de l’action de réduction des émissions. En effet, nous
démontrons que des risques importants de bifurcation vers des trajectoires d’émissions très élevées
existent, trajectoires qui présenteraient des coûts très importants associés aux dommages du
changement climatiques.
Du côté des politiques de réductions cette fois, il y a fort à penser que les mécanismes
endogènes qui « tirent », dans la référence, la trajectoire d’émission vers le haut, continueront d’opérer
lorsque l’on envoie aux économies un signal de décarbonisation et ils peuvent mener à compliquer le
processus de diminution des émissions.

- 144 -
2 Analyses de sensibilité des trajectoires d’émissions à quelques
déterminants peu étudiés

2.1 Moteur de la croissance : Rôle des hypothèses de rattrapage de


productivité

Comme nous l’avons exposé aux paragraphes 3.1.2 de la première partie, la théorie économique et les
tests empiriques qui lui sont associés ne nous aident que très partiellement pour projeter la croissance
future des prochaines décennies. Le concept de rattrapage est séduisant et théoriquement satisfaisant
lorsqu’il est posé au niveau de secteurs économiques relativement homogènes, mais il y a aussi un
certain nombre de spécificités régionales qui peuvent empêcher le rattrapage d’être total en niveau
(territoire, biosphère, climat, productions régionales, spécialisation industrielle, etc.). Dans cette partie,
nous exposons le mode de représentation retenu dans le modèle Imaclim-R et nous détaillons les tests
de sensibilité effectués sur le niveau et la vitesse de convergence.

2.1.1 Spécifications retenues et calibrage du modèle


Dans Imaclim-R, la productivité du travail est un paramètre explicite apparaissant dans la
formation des coûts moyens de production de chaque secteur dans chaque région : la grandeur l donne
la quantité de travail nécessaire à la production d’une unité de chaque bien. La productivité du travail
évolue donc à l’inverse du paramètre l, c’est un paramètre de productivité « physique » sectorielle.
Les mécanismes qui induisent une évolution de ce paramètre sont multiples : amélioration des
pratiques, optimisation du management, amélioration de l’information, nouvelles technologies,
meilleure formation des travailleurs, amélioration des conditions de travail etc. Le niveau des
technologies ne constitue qu’un déterminant parmi d’autres de la productivité des secteurs intensifs en
travail (Baily et Solow, 2001). Certains de ces mécanismes peuvent concerner l’ensemble de l’appareil
productif d’un secteur, tandis que d’autres ne jouent un rôle qu’à condition de modifier ou de
renouveler les installations de production. Dans la majorité des études portant sur l’évolution de la
productivité, ces considérations sont masquées par le fait que l’on s’intéresse uniquement à la valeur
agrégée de la productivité. Nous disposons donc de peu d’informations sur la part des différents
mécanismes dans la dynamique d’ensemble de la productivité du travail. On raisonne donc, dans le
modèle IMACLIM-R comme dans la littérature économique, sur le paramètre l tout entier, sans
distinction des gains de productivité qui concernent seulement les nouvelles technologies encapsulées
dans le capital nouvellement installé de ceux qui s’étendent à l’ensemble du secteur.
Nous appliquons au paramètre l les principes de modélisation que nous avons dégagés dans le
paragraphe 3.1.2 de la première partie : d’une part, raisonner sur la productivité physique et non la
productivité monétaire, d’autre part, représenter les dynamiques de rattrapage et de convergence au
niveau sectoriel et non pas au niveau de l’économie toute entière. Les études portant sur l’évolution
des productivités sectorielles, majoritairement limitées aux pays de l’OCDE pour des questions de
disponibilité des données, mettent en évidence des dynamiques plus complexes que les faits stylisés
agrégés qui se dégagent des travaux sur la convergence (Abramovitz, 1986) :

 Sur la période 1970-199057, certains secteurs, comme les services, montrent un rattrapage
continu tandis que d’autres semblent caractérisés par l’absence de convergence (c’est le cas
de l’agriculture ou de la construction) voire une certaine divergence, comme dans les
industries manufacturières (Bernard et Jones, 1996). L’augmentation de la part des services

57
On retrouve les mêmes observations en élargissant la période jusqu’en 2005 (Jiang, 2008).

- 145 -
dans l’économie et la convergence effective de la productivité dans ce secteur en particulier
expliquent la convergence observée au niveau global par Barro et Sala-i-Martin (1992).

 Le degré d’ouverture des secteurs semble jouer un rôle important dans l’existence d’une
convergence : Bernard et Jones (1996) rejoignent Krugman (1987) dans leur distinction
entre « tradable goods » et « non-tradable goods » : selon eux, les secteurs peu concernés
par le commerce international font l’objet d’une convergence sous l’effet d’une diffusion
progressive de techniques identiques, tandis que les secteurs très exposés sont rapidement
restructurés par une spécialisation internationale qui maintient des écarts de productivité
importants.

 Le secteur manufacturier et celui des services se distinguent aussi sur deux points qui sont
liés à l’existence d’un rattrapage : la vitesse observée des gains de productivité et
l’ampleur des écarts de productivité entre pays. Dans le secteur manufacturier, un certain
rattrapage a bien eu lieu, mais sans permettre une convergence observable, du fait de gains
de productivité rapides chez les leaders et d’un faible écart de productivité absolue entre
régions. Du côté du secteur des services, les écarts de productivité étaient plus importants,
ce qui peut expliquer que les forces de convergence aient été plus dynamiques.

Ces nuances corroborent la nécessité déjà mentionnée plus haut de passer à une représentation
sectorielle des dynamiques de convergence de la productivité. Pour projeter l’évolution future des
productivités sectorielles, le point de départ est de contrôler le plus rigoureusement possible les
niveaux de productivité initiaux issus du calibrage de base du modèle. Ce calibrage est réalisé en
croisant les données de quantités physiques ou quasi-physiques issues de la matrice entrées-sorties
hybride, et les données d’emploi sectoriel fournies par le Bureau International du Travail (ILO).

Tableau 16 : Calibrage des niveaux de productivité du travail pour les secteurs 1 à 6


(index 1 pour les USA)

Charbon Pétrole Gaz Raffinage Electricité BTP

USA 1.00 1.00 1.00 1.00 1.00 1.00


Canada 0.37 0.60 0.98 0.90 1.82 1.02
Europe 0.16 0.38 0.19 0.84 0.44 0.53
OCDE Pacifique 0.74 0.45 0.43 0.58 1.13 0.53
CEI 0.13 0.10 0.33 0.08 0.14 0.38
Chine 0.07 0.08 0.35 0.05 0.22 0.25
Inde 0.19 0.04 0.05 0.33 0.16 0.11
Brésil 0.11 0.04 0.02 0.05 0.06 0.25
Moyen Orient 0.26 0.60 0.69 0.29 0.23 0.19
Afrique 0.07 0.05 0.19 0.11 0.07 0.12
Reste Asie 0.13 0.23 0.28 0.24 0.27 0.13
Reste Amérique 0.30 0.29 0.30 0.23 0.29 0.20

- 146 -
Tableau 17 : Calibrage des niveaux de productivité du travail pour les secteurs 7 à 12
(index 1 pour les USA)

Transport Transport Transport


Composite Agriculture Industrie
Air Mer Terrestre

USA 1.00 1.00 1.00 1.00 1.00 1.00


Canada 0.66 2.06 1.30 1.61 0.56 0.73
Europe 0.57 1.99 1.02 0.77 0.40 0.57
OCDE Pacifique 0.57 1.38 0.65 1.04 0.51 0.80
CEI 0.17 0.33 0.18 0.50 0.15 0.40
Chine 0.14 1.61 0.29 0.36 0.02 0.56
Inde 0.05 0.55 0.22 0.46 0.03 0.12
Brésil 0.15 0.41 0.27 0.31 0.27 0.33
Moyen Orient 0.13 0.40 0.23 0.64 0.07 0.21
Afrique 0.07 0.30 0.29 0.25 0.03 0.12
Reste Asie 0.08 0.66 0.51 0.55 0.06 0.13
Reste Amérique 0.17 0.91 0.52 0.56 0.13 0.31

A partir de ce calibrage pour l’année de référence en 2001, nous formulons des hypothèses
dynamiques sectorielles concernant l’étendue et la vitesse du rattrapage, pour calibrer les paramètres
des équations endogènes de rattrapage sectoriel. Certains secteurs sont supposés être exposés
uniquement à un rattrapage partiel, à cause de spécificités régionales (par ex. la productivité agricole
de la Chine n’est pas supposée rattraper celles des Etats-Unis, à la fois à cause de la nature des terres et
des cultures mais aussi pour des raisons politiques de maintien de l’emploi agricole en Chine) ou à
cause du degré d’exposition de chaque secteur à la concurrence internationale. Ces deux ensembles de
paramètres vont constituer à eux deux « un » scénario de croissance de la productivité des régions58.
L’évolution des productivités sectorielles est déterminée par la formule mathématique suivante,
inspirée de l’équation de rattrapage global contenue dans le modèle INGENUE (CEPII, 2006).

λ
Ak , j ,t A A ⋅ Lev j ,k 
= leader , j ,t ⋅  leader , j ,t −1  (1.1)
Ak , j ,t −1 Aleader , j ,t −1  Ak , j ,t −1 

Dans cette équation, la grandeur Ak,j,t correspond à la productivité du travail dans le secteur j de
la région k à la date t, c’est-à-dire à l’inverse du paramètre lk,j mentionné ci-dessus. Les deux
paramètres d’étendue et de vitesse du rattrapage sont :
 Le paramètre λ, taux annuel de rattrapage de l’écart entre la région leader dans ce secteur et
la région considérée. Il est en général compris entre 0.5% et 3% par an.
 Le paramètre Lev, niveau de rattrapage ultime entre chaque région et le leader, pour chaque
secteur. Il est pris égal à 0.5 pour les secteurs les moins concernés par la convergence et égal

58
L’évolution de la productivité du travail est ici exogène, elle fait partie des « ingrédients » des scénarios. Dans
d’autres travaux réalisés avec IMACLIM-R hors du cadre de ce projet, cette évolution a été rendue endogène, afin
de prendre en compte les effets de rétroaction des politiques énergétiques ou climatiques sur le changement
technique (Crassous et al., 2006, Sassi, 2008)

- 147 -
à 1 pour les secteurs censés converger totalement. Pour explorer les incertitudes sur la
croissance future, il est possible de faire varier ces valeurs « ad hoc » puis d’analyser les
intervalles d’incertitude sur la productivité globale et la croissance réelle qui découlent de
ces variations.

La croissance de la productivité du travail est associée à une phase d’intensification du capital


par travailleur (capital deepening). Mais le sens de ce mécanisme n’est pas le même dans le modèle
néoclassique (avec une fonction de production flexible incorporant un agrégat de capital monétaire) ou
dans notre modèle. Avec la définition du capital retenue ici comme capacité physique de production, il
est évident que si la quantité de travail par unité de production diminue, alors la quantité de travail par
unité physique de capacité de production diminue aussi, si l’on ne tient pas compte des fluctuations de
court terme qui peuvent être liées aux variations de taux d’utilisation. Ceci n’est que pure logique. Par
contre les gains de productivité peuvent être liés à une évolution radicale des équipements constituant
les capacités de production, évolution susceptible de modifier le prix d’une unité de capacité et donc le
ratio entre capital monétaire et capacité physique de production. Par exemple, dans une phase
d’intensification de l’agriculture, la croissance de la productivité du travail est liée à un équipement
massif en outils de production mécanisée. Il est difficile d’évaluer comment évolue le ratio entre
investissement monétaire et augmentation de capacité de production. Dans IMACLIM-R ce ratio est lié
aux prix relatifs courants des biens d’investissement et aux valeurs de la matrice β. Les prix sont
endogènes au modèle mais il reste une incertitude sur l’évolution des coefficients de la matrice β.
Faut-il acheter de plus en plus de biens pour construire une unité de production ? La littérature est
quasi silencieuse sur ce sujet, du fait que le capital n’est quasiment jamais mesuré en unités physiques.
Dans nos simulations, par défaut, nous maintenons constantes les valeurs de la matrice β.

Enfin, la hausse de la productivité du travail est en général accompagnée d’une hausse des
salaires. Cette évolution parallèle dépend énormément du contexte institutionnel, du partage des gains
entre travailleurs et capitalistes, des règles du marché du travail. Dans le modèle nous supposons, par
défaut, que cette évolution se réalise conjointement. Pour le représenter, nous supposons que la courbe
salaire-chômage (cf description du modèle en annexe) est translatée chaque année en fonction des
gains de productivité horaire, de manière à ce que le salaire moyen augmente comme la productivité
pour un chômage maintenu au même niveau.

2.1.2 Tests de sensibilité


De 2001 à 2007, nous disposons de données réelles sur la croissance du PIB des régions du
modèle. Pour ces années, nous n’utilisons pas les équations de rattrapage. Nous calibrons les taux de
croissance de la productivité de chaque région, tous secteurs confondus, pour reproduire les taux de
croissance réels tels qu’ils sont calculés à partie des données du FMI59.

Au-delà de 2007, nous avons effectué trois scénarios pour tester la sensibilité des émissions
mondiales aux valeurs retenues pour les paramètres de notre équation d’évolution des productivités du
travail :

59
Données du World Economic Outlook 2007, deuxième semestre, disponible en ligne :
http://www.imf.org/external/pubs/ft/weo/2007/02/weodata/index.aspx

- 148 -
a. un scénario médian dans lequel :

- Aux USA, la croissance de la productivité du travail est égale à 1.5 % par an dans tous les
secteurs ;
- les autres pays développés (régions CAN, JANZ, EUR) sont supposés converger vers le
niveau des USA à la vitesse de 2% par an (λ = 0.02 et Lev = 1) dans tous les secteurs
hormis les secteurs des transports et des services, pour lesquels la convergence est plus
lente, les écarts étant en général justifiés par des spécificités régionales infra-sectorielles
(par ex. étalement des réseaux de transport) ;
- Chine, Inde, Brésil et Russie sont supposés converger à une vitesse légèrement
supérieure, que l’on suppose égale à 3% par an. Sur un demi-siècle, cette hypothèse peut
sembler plutôt optimiste. En fait elle revient à supposer (i) que le rattrapage de ces pays,
particulièrement visible en Chine et en Inde, va pouvoir s’étendre à la majorité de leur
population, (ii) que le secteur informel, moins efficace, va progressivement se réduire au
cours des prochaines décennies, et enfin (iii) que les infrastructures et équipements
nécessaire à ce rattrapage de productivité seront construites à un rythme soutenu. Pour
tous les secteurs, le niveau ultime de rattrapage est maintenu égal à 0.7 pour illustrer le
maintien d’activités très intensives en travail avec un coût faible de la main d’œuvre. Le
niveau de rattrapage de l’agriculture en Chine, en Inde et au Brésil est abaissé à 0.5 au lieu
de 1 pour illustrer le maintien d’une population rurale qui peine à se moderniser.
- Le Moyen-Orient, l’Afrique, le Reste de l’Asie et le Reste de l’Amérique Latine sont
supposées converger au taux de 2% par an, mais pour illustrer les difficultés d’une partie
de ces régions à quitter les trappes de pauvreté et à initier un décollage économique
rapide, le niveau de rattrapage sur toute la période est maintenu égal à 0.5 pour l’Afrique
et à 0.7 pour les autres régions

b. Un scénario de croissance mondiale ralentie, dans lequel :

- Aux USA, la croissance de la productivité du travail décline et se stabilise à 1 % par an


dans tous les secteurs à partir de 2010 ;
- les autres pays développés (régions CAN, JANZ, EUR) sont supposés converger vers le
niveau des USA à la vitesse de 1% par an (λ = 0.01 et Lev = 1) dans tous les secteurs pour
illustrer un monde plus fragmenté dans lequel, par exemple, des mesures protectionnistes
nuiraient au rattrapage même au sein de l’OCDE ;
- Chine, Inde, Brésil et Russie ne convergent plus qu’à 1.5% par an, rencontrant des
problèmes sociaux et environnementaux importants en interne, et faisant face à de
nouvelles barrières au commerce international. Les niveaux absolus de rattrapage sont
maintenus comme dans le scénario médian.
- Le Moyen-Orient, l’Afrique, le Reste de l’Asie et le Reste de l’Amérique Latine sont
aussi supposées converger au taux de 1% par an, avec les mêmes niveaux absolus de
rattrapage.

c. Un scénario de forte croissance mondiale, dans lequel :

- Aux USA, la croissance de la productivité du travail se poursuit à 2.5 % par an dans tous
les secteurs à partir de 2010 ;

- 149 -
- les autres pays développés (régions CAN, JANZ, EUR) sont supposés converger vers le
niveau des USA à la vitesse de 2.5% par an (λ = 0.02 et Lev = 1) dans tous les secteurs
hormis les secteurs des transports et des services, pour lesquels la convergence est plus
lente, les écarts étant en général justifiés par des spécificités régionales infra-sectorielles
(par ex. étalement des réseaux de transport) ;
- Chine, Inde, Brésil et Russie sont supposés converger à la même vitesse que dans le
scénario central mais les niveaux ultimes de rattrapage sont rehaussés à 100% pour tous
les secteurs.
- Le Moyen-Orient, l’Afrique, le Reste de l’Asie et le Reste de l’Amérique Latine sont
supposés converger au taux de 2% par an avec des niveaux ultimes de rattrapage aussi
supposés égaux à 100%.

La sensibilité des trajectoires d’émissions n’est pas triviale. A priori, si on raisonne en partant d’une
équation « à la Kaya » dans laquelle la croissance économique par habitant est indépendante des autres
termes – gains d’efficacité énergétiques et évolution du panier énergétique – il devrait y avoir une
corrélation immédiate entre croissance de la productivité du travail, croissance économique et
croissance des émissions. Ce n’est pas le cas car de nombreux mécanismes endogènes à la croissance
économique rentrent en compte dans la « transmission » des gains de productivité à la croissance
économique effective, puis à la dynamique du système énergétique, et enfin à l’évolution des
émissions : prix des énergies, progrès technique, renouvellement du capital, évolution de la demande
finale, commerce international. Le Tableau 18 et la Figure 33 donnent les résultats de croissance
effective obtenus dans les trois scénarios ci-dessus.

Tableau 18 : taux de croissance moyens du PIB réel selon trois variantes d’hypothèses sur l’évolution de la
productivité du travail

croissance ralentie scénario central forte croissance


2010- 2030- 2010- 2030- 2010- 2030-
2030 2050 2030 2050 2030 2050
USA 1.5% 1.4% 2.3% 2.4% 2.7% 3.0%
Canada 2.0% 1.7% 3.1% 2.8% 3.6% 3.4%
Europe 1.5% 1.0% 2.7% 2.1% 3.2% 2.7%
OCDE Pacifique 1.3% 0.6% 2.4% 1.6% 2.9% 2.3%
CEI 2.3% 1.1% 3.4% 2.2% 4.4% 3.0%
Chine 3.3% 1.4% 5.0% 2.4% 6.0% 3.1%
Inde 5.5% 3.4% 7.7% 4.9% 8.7% 6.3%
Brésil 3.1% 2.3% 4.5% 3.4% 5.5% 4.8%
Moyen Orient 3.8% 2.1% 6.0% 2.8% 7.2% 3.0%
Afrique 4.4% 3.8% 6.2% 5.4% 7.5% 6.8%
Reste Asie 4.1% 2.8% 5.9% 4.4% 6.9% 5.6%
Reste Am. Lat. 3.4% 2.1% 4.9% 3.4% 5.9% 4.3%

- 150 -
USA Europe CEI

1 2 0000 1 2 0000 1 2 0000


1 00000 1 00000 1 00000
80000 80000 80000
60000 60000 60000
40000 40000 40000
2 0000 2 0000 2 0000
0 0 0
2 03 0 2 050 2 03 0 2 050 2 03 0 2 050 2 03 0 2 050 2 03 0 2 050 2 03 0 2 050 2 03 0 2 050 2 03 0 2 050 2 03 0 2 050

croissance scénario forte croissance scénario forte croissance scénario forte


ralentie scentral croissance ralentie scentral croissance ralentie scentral croissance

Chine Inde Brésil

1 2 0000 1 2 0000 1 2 0000

1 00000 1 00000 1 00000


80000 80000 80000

60000 60000 60000


40000 40000 40000
2 0000 2 0000 2 0000
0 0 0
2 03 0 2 050 2 03 0 2 050 2 03 0 2 050 2 03 0 2 050 2 03 0 2 050 2 03 0 2 050 2 03 0 2 050 2 03 0 2 050 2 03 0 2 050

croissance scénario forte croissance scénario forte croissance scénario forte


ralentie scentral croissance ralentie scentral croissance ralentie scentral croissance

Figure 33 : PIB réel par habitant ($2001, PPP) dans différentes régions, trois scénarios alternatifs

- 151 -
Il apparaît assez clairement que les trois scénarios balaient un très large espace des possibles, qu’un
certain nombre d’observateurs pourrait même juger trop large au regard des prévisions moyennes
actuelles les plus souvent adoptées60 : par exemple, la croissance chinoise moyenne est ici estimée
entre 3.3% et 6% par an entre 2010 et 2030.
Le premier cas – faible croissance – correspond à un cas de grippage sérieux de la croissance d’ici
2020, pour des raisons qui peuvent aller de la suite de la crise économique actuelle à un freinage
interne des grands pays émergents (tensions sociales, difficultés à mobiliser le marché interne,
rééquilibrage des taux de change, etc.). Dans ce scénario, la Chine et l’Inde rejoignent seulement en
2050 le niveau moyen actuel de PIB par habitant de l’Europe (22000 dollars par habitant en PPP).
Dans le scénario à forte croissance, ce seuil est dépassé dès 2025 pour la Chine et 2035 pour l’Inde, ce
qui représente un rattrapage socio-économique particulièrement rapide, compte tenu des masses
importantes d’habitants qui sont aujourd’hui soit dans une situation de pauvreté (Inde surtout) soit
encore dans une situation de sous-développement (Chine).
Mais ce qui nous intéresse ici est moins de donner une probabilité subjective à chacun de ces scénarios
que d’observer leur impact sur les émissions de GES mondiales. Les trois scénarios débouchent sur
des émissions de CO2 allant de 40 à 90 GtCO2 en 2050. Cet intervalle correspond peu ou prou à
l’intervalle balayé par les scénarios SRES en 2050 – de 40 GtCO2 pour le scénario marqueur B2 à 98
GtCO2 pour le scénario marqueur A1C. Par contre les déterminants de cet intervalle d’incertitude ne
sont pas les mêmes dans notre exercice et dans le rapport SRES, puisque nous n’avons fait varier ici
que les hypothèses de croissance de la productivité, laissant les relations endogènes au modèle gérer
l’évolution du progrès technique, des marchés énergétiques et des décisions d’investissement.

1 00
cr oissa n ce m édia n e
90 cr oissa n ce r a len tie
80 cr oissa n ce for t e
70
60
Gt CO2

50
40
30
20
10
0
2000 201 0 2020 2030 2040 2050

Figure 34 : Trajectoires d’émissions mondiales de CO2 pour trois scénarios de rattrapage de productivité

Globalement, ces résultats montrent que les hypothèses sur le rattrapage de productivité sont
déterminantes au premier ordre pour la trajectoire d’émissions, devant les nombreuses rétroactions

60
Il faut reconnaître une grande part des hypothèses macroéconomiques adoptées par les modélisateurs s’aligne
simplement par mimétisme sur une ou deux projections médianes des grands organismes internationaux, par
exemple de l’AIE, alors que cet organisme n’a que très peu de compétences en matière de projections
macroéconomiques. La moyenne des projections présentes dans la littérature est donc fortement « biaisée ».

- 152 -
endogènes possibles via le progrès technique, les prix des énergies, etc. Le Tableau 19 permet
précisément de saisir l’ampleur de ces rétroactions à partir de la décomposition de Kaya des
trajectoires macro-énergétiques.
Considérons d’abord le scénario de croissance ralentie, dans lequel la baisse du taux de croissance
moyen des émissions est de 0.96 points par rapport à la croissance des émissions dans le scénario
médian :
• Cette baisse est dominée au premier ordre par la révision à la baisse du moteur de la croissance,
qui est 1.11 points plus bas que dans le scénario médian.
• Une rétroaction négative de second ordre apparaît sur l’intensité énergétique, dont le taux moyen
d’amélioration est rectifié à la baisse de 0.18 points. Cette rétroaction vient amoindrir de 16%
l’effet direct de la croissance économique sur les émissions. Trois mécanismes sous-jacents
concourent à cette rétroaction : une moindre croissance génère à la fois (i) moins de
renouvellement de capital, (ii) moins de progrès technique et (iii) une dématérialisation
structurelle moins rapide des économies (la croissance additionnelle concerne majoritairement des
services).
• Une seconde rétroaction de troisième ordre, positive cette fois, apparaît sur l’intensité carbone du
panier énergétique, dont la baisse moyenne est plus élevée de 0.06 point. Cette rétroaction est la
résultante de l’effet de la croissance sur les marchés énergétiques. Avec les hypothèses actuelles
du modèle, une croissance économique plus élevée génère principalement une consommation plus
rapide de pétrole et de gaz, dont la raréfaction rend avantageux le recours massif au charbon pour
produire des carburants liquides (CTL), un effet qui domine l’incitation à ne plus recourir au
pétrole et au gaz.

Tableau 19 : Taux de croissance moyen des termes de l’identité de Kaya entre 2005 et 2050

Croissance ralentie Croissance médiane Croissance rapide

Emissions CO2 0.92 % (-0.96%) 1.88 % 2.64 % (+0.76%)

Population 0.75 % 0.75 % 0.75 %

PIB par tête 1.33 % (-1.11%) 2.44 % 3.13 % (+0.69%)

Intensité énergétique -0.79 % (+0.18%) -0.97 % -1.00 % (-0.03%)

Intensité carbone -0.33 % (-0.06%) -0.27 % -0.17 % (+0.10%)

Considérons maintenant la différence entre le scénario médian et le scénario de croissance élevée.


Dans ce cas, il apparaît que l’effet du retour au charbon domine cette fois les rétroactions systémiques
de la croissance sur les émissions, accentuant le bilan à la hausse des émissions. En effet le taux de
croissance du PIB par habitant gagne 0.69 points tandis que les émissions gagnent 0.76 points par
rapport au scénario médian. Il y a deux raisons à cela :
• D’une part l’effet du retour sur le charbon se fait ressentir « à plein régime » dans ce scénario, car
une plus grande partie de l’accroissement du besoin d’énergie primaire est transféré sur le charbon
(ce qui n’était que partiellement le cas, plus tard dans la période étudiée, dans le scénario médian
par rapport au scénario de croissance lente).
• D’autre part les gains d’efficacité énergétique atteignent des asymptotes techniques de vitesse
d’amélioration (renouvellement du capital, rendements décroissants du progrès technique) qui

- 153 -
réduisent fortement l’effet de second ordre sur l’efficacité énergétique qui n’est plus que de -0.03
points.

Ces chiffres ne donnent qu’un diagnostic moyen sur toute la trajectoire, mais qui traduit assez
fidèlement ce qui se passe tout au long de la trajectoire macro-énergétique mondiale, comme le montre
la Figure 35. En effet, pour chaque point dans le temps, il apparaît que le scénario à croissance plus
faible dispose d’un « avantage » en termes de décarbonisation mais est plus fortement désavantagé par
ses moindres gains d’efficacité énergétique. De même le scénario à forte croissance est quasiment
toujours sur la même droite horizontale que le scénario médian, illustrant le fait qu’une croissance plus
élevée ne peut pas continuellement augmenter les gains d’efficacité énergétique, supposés saturés par
le poids des investissements passés et des asymptotes de rythme du progrès technique.

Evolution de l'intensité carbone du mix énergétique

-15% -10% -5% 0% 5%


5%

0%
Evolution de l'intensité du PIB

-5%
en énergie primaire

croissance ralentie
2020
croissance médiane -10%
croissance forte -15%
2030
-20%

-25%
2040
-30%
2050
-35%

-40%
Figure 35 : diagramme de Kaya pour 3 scénarios contrastés de croissance de la productivité

Ce graphique illustre enfin très simplement le concept de dépendance au sentier (‘path-dependency’).


Cette notion traduit le fait que l’état des technologies à une date donnée n’est pas seulement fonction
des données économiques à cette date mais aussi de l’ensemble de décisions passées concernant les
choix d’investissements et d’innovation. Ce mécanisme – qui peut paraître évident à comprendre mais
qui est souvent peu (ou pas) incorporé dans les modèles de long terme – se traduit par la divergence
des trois trajectoires ci-dessus. Sans dépendance au sentier, les trajectoires se confondraient en une
seule trajectoire sur laquelle les scénarios ne se différencieraient que par la vitesse de parcours. Ici, il
apparaît clairement que les décisions d’investissements, motivés par le contexte énergétique courant,
les anticipations qu’il génère et les besoins de croissance de capacité de production font
progressivement bifurquer les trajectoires sur des sentiers macro-énergétiques différents. En
particulier, pour un niveau donné de PIB moyen par habitant, les situations énergétiques apparaissent
clairement différentes, comme le montre la Figure 36. Sur cette figure, les points verts et bleus
correspondent respectivement à une augmentation du PIB moyen par habitant de 50% et de 90% par
rapport au niveau de 2000. Il en ressort que pour un niveau de PIB donné l’intensité carbone et
l’intensité énergétique sont beaucoup plus élevées dans le cas d’une croissance rapide, car celle-ci

- 154 -
n’est pas accompagnée d’une innovation compensant complètement le surplus d’énergie et de carbone
requis pour nourrir la croissance.
Ev olution de l'intensité carbone du m ix énergétiqu e

-1 5% -1 0% -5% 0% 5%
5%

0%

croissance ralentie
Evolution de l'intensité du PIB

-5%
croissance médiane
en énergie primaire

-1 0%
croissance forte
-1 5%

-20%

-25%

-30%

-35%

-40%

Figure 36 : Comparaison des points de passage correspondants à des niveaux de PIB par tête équivalents

Enfin, pour finir l’analyse de l’impact des hypothèses de croissance économique sur les émissions, il
est intéressant de descendre au niveau régional. Compte tenu des hypothèses retenues dans ces
simulations – qui traduisent l’idée d’une croissance ralentie ou forte de manière relativement
homogène pour les 12 régions du modèle – la répartition mondiale des émissions n’est pas différente
d’un scénario à l’autre. Ceci n’est cependant pas un résultat robuste, puisque d’autres scénarios plus
complexes, traduisant par exemple un monde dont la croissance est « à deux vitesses », mettraient en
évidence une évolution différente de la répartition régionale des émissions mondiales.

Tableau 20 : Répartition régionale des émissions dans les trois scénarios de croissance

2020 2050
2005 croissance croissance croissance croissance croissance croissance
ralentie médiane forte ralentie médiane forte
USA 23% 18% 16% 16% 17% 15% 13%
Canada 2% 2% 2% 2% 2% 1% 1%
Europe 19% 15% 14% 14% 13% 11% 10%
OCDE Pacifique 9% 7% 7% 7% 6% 5% 5%
CEI 9% 9% 9% 9% 7% 6% 6%
Chine 15% 22% 22% 23% 16% 15% 15%
Inde 5% 7% 7% 8% 8% 10% 11%
Brésil 1% 1% 1% 2% 2% 2% 2%
Moyen-Orient 5% 5% 5% 5% 7% 7% 6%
Afrique 3% 4% 4% 5% 8% 9% 11%
Reste Asie 6% 7% 8% 8% 10% 13% 14%
Reste Am. Lat. 4% 4% 4% 4% 6% 6% 6%

- 155 -
2.2 Formation de la demande finale : impact sur le changement structurel
puis sur les émissions

Cette partie s’attarde maintenant sur un aspect généralement peu développé des scénarios d’émissions,
à savoir l’importance de l’évolution de la demande finale dans le changement de structure des
économies, source d’une importante part de l’évolution de l’intensité énergétique. Le changement
structurel est en effet la résultante de la dématérialisation du côté de la production et du côté de la
consommation. L’évolution du contenu énergétique et matériel de la demande finale est lié à
l’évolution des préférences individuelles et la saturation de certains besoins, des dynamiques suscitant
peu d’attention dans les modèles globaux. Ceux-ci intègrent en effet principalement un changement
structurel dû au progrès technique, avec beaucoup moins de prise en compte du rôle de la demande
dans les choix d’investissements et la composition sectorielle de l’économie qui en résulte.

Dans les modèles, la dynamique des préférences est soit exogène (modèles technico-économiques) soit
dictée par une fonction d’utilité d’un agent représentatif (modèles macroéconomiques). La
spécification la plus standard est celle d’une fonction d’utilité de type Linear Expenditure System pour
laquelle les parts de budget sont constantes. Pourtant les lois dites « d’Engel » montrent que la relation
entre le revenu et la structure de la consommation est plus complexe : par exemple, lorsque le revenu
augmente, la part des dépenses consacrées à la nourriture diminue, la part allouée aux services de santé
ou aux voyages augmente et celle des dépenses de logement reste à peu près constante.

Dans cette partie, nous avons choisi d’examiner l’impact de deux spécifications possibles pour
représenter l’évolution des préférences, en intégrant ces spécifications dans le modèle Imaclim-R et les
combinant avec les mécanismes de progrès technique endogène présents dans le modèle. Nous testons
la spécification LES avec des élasticités constantes, puis nous nous écartons de cette spécification en
modifiant de manière endogène les élasticités prix de chaque type bien en fonction de l’évolution des
revenus, pour traduire les faits stylisés des lois d’Engel.

2.2.1 Spécifications retenues dans le modèle


Dans le modèle Imaclim-R utilisé ici, la demande des ménages est calculée par maximisation de
l’utilité du consommateur représentatif sous une double contrainte de budget, et en tenant compte de
l’induction des besoins d’énergie liés aux équipements possédés par les ménages.

Le revenu des ménages est égal à la somme des salaires, des dividendes et des transferts sociaux,
tandis que l’épargne est une proportion fixe de ce revenu (1-ptc). Les arguments de la fonction
d’utilité U sont :
(i) les biens Ck,i produits par les secteurs de l’agriculture, l’industrie et les services,
(ii) le service de mobilité Sk,mobility (en kilomètres-passagers pkm)
(iii) les services d’habitat Sk,housing (m²).
Les besoins fondamentaux pour chaque bien et service sont notés bn.

( Ci -bni ) ⋅ ( Shousing − bnhousing ) ⋅ ( Smobility − bnmobility )


ξhousing ξmobility

ξi
U=
goods i
( agriculture,industry, services )

Les consommations d’énergies finales sont considérées comme des consommations induites par les
services énergétiques pour le résidentiel et de mobilité : elles ne contribuent pas directement à la

- 156 -
formation de l’utilité, mais modifient pèsent sur le budget des ménages à cause des dépenses qui leurs
sont associées. La consommation d’énergie résidentielle est ainsi déduite du stock physique de
logements et des coefficients unitaires de consommation d’énergie par m² qui traduisent à la fois le
niveau des services énergétiques résidentiels et l’efficacité énergétique des équipements utilisés pour
les obtenir. Ces coefficients évoluent chaque année, mais sont supposés fixe à l’intérieur de chaque
équilibre statique, pour traduire l’inertie à court terme des comportements et des équipements semi-
durables.

Le lien entre les services de mobilité et la consommation d’énergie est plus complexe : il prend en
compte non seulement l’efficacité énergétique des véhicules, mais aussi le degré d’accessibilité et
d’efficacité de quatre modes de transport, qui sont considérés des substituts imparfaits : le mode
terrestre public, le mode aérien, le mode automobile et les modes non-motorisés. Les passagers-
kilomètres, pkmmode, consommés par les ménages pour chaque mode sont agrégés dans un seul indice
de service de mobilité (CES) :
ηk −1
ηk ηk ηk ηk
  pkm   pkmk , public   pkmk ,cars   pkmk ,nonmotorized  
S k ,mobility =  k , air
 +   +   +   
  bk ,air   bk , public   bk ,cars   bk ,nonmotorized  
 

Enfin, pour prendre en compte les liens qui existent entre la formation de la demande finale, le type
d’infrastructures disponibles et le niveau d’équipement des ménages, les consommateurs représentatifs
maximisent leur utilité sous une double contrainte, de revenu et de temps :
• La contrainte de revenu disponible impose, classiquement, que la somme des achats de biens et
services non-énergétiques Ck,i et des dépenses d’énergie est égale au revenu disponible à la
consommation, pour un vecteur donné de prix au consommateur pCk,i :

ptck ⋅ Incomek = ∑ pCk ,i ⋅ Ck ,i + ∑ pCk , Ei ⋅ ( pkmk ,cars ⋅ α kcars


, Ei + S h , housing ⋅ α k , Ei )

i Energies Ei

• La contrainte de budget temps impose un plafond supérieur au temps moyen quotidien consacré
aux déplacements (Zahavi et Talvitie, 1980). Chaque mode de transport est caractérisé par une
efficacité en temps de déplacement spécifique τ qui décroît avec le taux d’utilisation des
infrastructures de ce mode de transport:
pkmk ,T j
 pkmk ,T j 
Tdispk = ∑ ∑τ k ,T j 
 Captransportk ,T


means of transport T j u =0
 j 

2.2.2 Tests de sensibilité sur l’évolution des préférences hors énergie


Dans un premier temps, nous avons réalisé deux simulations permettant de démontrer la sensibilité des
émissions aux spécifications de structure de la demande finale concernant les biens et services non
énergétiques :
 Dans la première simulation, les élasticités de substitution ξ sont maintenues constantes
pendant la simulations, ce qui génère des parts de budget quasiment constantes (l’ajout d’une
deuxième contrainte de budget sur le temps passé dans les transports modifie le résultat
classique de la fonction LES) ;
 Dans la seconde simulation, ces élasticités sont modifiées en fonction du revenu moyen par
habitant, pour traduire la saturation de la ration alimentaire individuelle, la saturation en biens

- 157 -
industriels et pour faire en sorte que les parts de budget des pays en développement se
rapprochent de la répartition actuelle dans les pays industrialisés quand les revenus
augmentent.

A grands traits, la seconde simulation incorpore donc une plus grande substitution de l’agriculture vers
l’industrie puis vers les services au cours de la trajectoire, de manière encore plus prononcée pour les
pays en développement dont la croissance et le changement structurel sont plus dynamiques. Le
Tableau 21 montre ainsi le surplus de production de biens énergétiques et de biens finaux en 2050 que
génère le maintien d’élasticités constante (simulation 1). La production agricole est surestimée de 20 à
100%. La production industrielle peut être surestimée de 20% (CEI), tandis que pour certains pays, le
changement structurel est principalement un transfert des biens agricoles vers les services, la
production de biens industriels restant soutenue par l’immense gisement de demande que représentent
plusieurs centaines de millions d’habitants aujourd’hui faiblement équipés. L’évolution de la demande
finale – en particulier de la demande industrielle, fait significativement baisser les besoins d’énergie,
la baisse se répercutant assez uniformément sur tous les producteurs.

Tableau 21 : Différences de projection du volume de production physique dans le cas de références


homothétiques
Charbon Pétrole Gaz Electricité Agriculture Industrie Composite
USA 10% 1% 1% 2% 23% 2% -2%
CAN 10% 4% 5% 5% 39% 17% -10%
EUR 11% 3% 4% 7% 36% 14% -9%
JAN 10% 3% 6% 0% 36% 8% -5%
CEI 10% 10% 8% 4% 54% 20% -30%
CHN 14% 5% 6% 2% 69% -1% -45%
IND 12% 5% 5% 10% 104% 11% -42%
BRE 12% 5% 5% 5% 44% 4% -7%
MO 11% 8% 7% 3% 74% 8% -17%
AFR 11% 6% 5% 5% 71% 5% -23%
RAS 12% 4% 7% 7% 64% 9% -15%
RAL 12% 4% 6% 4% 57% 5% -11%

La conséquence de ces modifications de changement structurel sur les émissions apparaît ensuite très
nettement. Au total, la première simulation génère des émissions plus élevées de 5.2 GtCO2 (soit 8%
du total et autant d’émissions que l’UE aujourd’hui !), dont 2.9 de plus dans l’agriculture, 1.6 dans
l’industrie, 1.6 dans la production et la transformation d’énergies fossiles, et 1.6 de moins dans le
secteur composite (Figure 37).
Il apparaît donc particulièrement important de prêter attention à l’évolution des préférences au cours
des décennies à venir, et pas seulement aux préférences concernant les services énergétiques directs
(chauffage, climatisation, appareils électroménagers) et indirects (via la mobilité).

- 158 -
6

Tot al
5
Erreurs d'Emissions (GtCO2)

3 Agricult ure

2
In du st r i e

Ca r bu r a n t s
1
fossi l es

0
2 005 2 01 0 2 01 5 2 02 0 2 02 5 2 03 0 2 03 5 2 04 0 2 04 5 2 05 0

-1
Composit e
-2

Figure 37 : Surplus d’émissions dans le scénario avec préférences homothétiques comparé au scénario de
référence standard

3 Conclusion

Les simulations réalisées dans cette seconde partie du rapport fournissent des éléments
nouveaux à la fois sur le fond et sur la méthode.

Sur le fond, à savoir l’évaluation des trajectoires futures d’émissions et du rôle des différents
déterminants, nous avons mis en évidence trois points importants :
(i) Calibré avec des hypothèses médianes concernant la croissance économique, les
technologies, les comportements et les ressources naturelles, et sans politiques climatiques dédiées, le
modèle Imaclim-R produit une trajectoire intense en émissions de CO2, dans la fourchette haute des
scénarios SRES.
(ii) Il existe de nombreux mécanismes technologiques, sectoriels ou macroéconomiques, qui
génèrent des effets rebonds qui renforcent la robustesse de la croissance forte des émissions. La
simulation de l’incertitude réelle sur les émissions passées doit impérativement passer par l’usage de
modèles représentant ces mécanismes, sous peine de tomber dans une combinatoire artificielle des
paramètres « à la Kaya » et des intervalles d’incertitude erronés.
(iii) Il faut apporter un soin particulier à l’évaluation de la robustesse des hypothèses sur les
« parties cachées » des modèles, comme par exemple les hypothèses de productivité sectorielle ou
encore la dynamique des préférences des ménages.

Sur la méthode, nos simulations soulignent les avancées permises par le développement du modèle
Imaclim-R, grâce au soin particulier accordé à la cohérence interne des simulations. Nos simulations
font apparaître aussi des questions non résolues (i) sur l’évaluation systématique de l’incertitude et (ii)
sur le rôle de certains mécanismes dont la représentation n’est pas encore aboutie dans le modèle.

- 159 -
En ce qui concerne la prise en compte systématique de l’incertitude, il devient crucial de définir une
méthode applicable à un outil aussi complexe qu’Imaclim-R avec un niveau intermédiaire d’analyse
entre l’approche retenue dans ce projet de recherche qui reste très partielle, avec un nombre de
scénarios volontairement restreint pour éviter une « cacophonie » de données à analyser, et une
analyse générale systématique de type Monte-Carlo, ingérable à cause du trop grand nombre de
paramètres distincts du modèle.

En ce qui concerne les mécanismes mal décrits dans le modèle, nous pouvons citer les problèmes de
représentation endogène des flux de capitaux, de formation des dettes nationales et des déséquilibres
macroéconomiques de long terme. La difficulté de parvenir à une représentation solide et stable dans
le modèle nous a empêché d’explorer cette dimension des scénarios de long terme dans ce projet de
recherche mais elle pourrait être importante, surtout pour l’évaluation des politiques publiques.

4 Références
AIE, 2006, “Energy Technology Perspectives: Scenarios and Strategies to 2050”, OECD/IEA , Paris, France.

Bauquis, R., 2004, « Quelles énergies pour les transports au XXIeme siècle ? », Revue de l’énergie, 561, pp. 569-
585.

Barker, T.S., Ekins, P., Foxon, T., 2007, “The macro-economic rebound effect and the UK economy”, Energy
Policy, 35, pp.4935-4946.

Castles I., Henderson D., 2003, “The IPCC Emission Scenarios: An Economic-Statistical Critique”, Energy &
Environment, vol. 14 (2-3), pp. 159-185.

Commoner, B., 1971, The Closing Circle, Knopf, New York.

GIEC, 2007, “Further work on scenarios, Report from the IPCC Expert meeting towards new scenarios”,
http://www.ipcc.ch/meetings/session28/doc8.pdf

Greening, L., Greene, D.L., Difiglio, C., 2000, “Energy efficiency and consumption the rebound effect—a
survey”. Energy Policy, 28, pp. 389-401.

Hourcade J.C., Journé V., 2002, « Monsieur Homais, les guides de montagne et le maître nageur : variations sur
la négation des risques climatiques », Critique Internationale, 26, pp. 65-79.

Laherrère, J.H., 2003, “Future of oil supplies”, http://www.oilcrisis.com/laherrere/zurich.pdf.

Leggett, J., W.J. Peppe, R.J. Swart, J.A. Edmonds, L.G. Meira Filho, I. Mintzer, M-X. Wang et J. Wasson, 1992
: Emissions Scenarios for IPCC: An Update. In Climate Change 1992. The Supplementary Report to the IPCC
Scientific Assessment, Houghton, J.T., B.A. Callander et S.K. Varney (eds.), Cambridge University Press,
Cambridge, Royaume-Uni, pp. 69-96.

Lomborg B., 2001, The Skeptical Environmentalist, Cambridge University Press, 515 p.

McKibbin, W., Pearce, D., Stegman, A., 2004, “Long Run Projections for Climate Change Scenarios”, Working
Papers in International Economics, Lowy Institute for International Policy, May 2004, No. 1.04, 71 pp.
http://www.oecd.org/dataoecd/7/32/35912503.pdf

- 160 -
Morita T., Lee, H-S, 1997, Emission scenario database prepared for IPCC Special Report on Emission
Scenarios. Disponible sur http://sres.ciesin.org/index.html.

Nakicenovic N., Alcamo J., Davis G., de Vries B., Fenhann J., Gaffin S., Gregory K., Grübler A., Jung T.Y.,
Kram T., La Rovere E.L., Michaelis L., Mori, S. Morita, T. Pepper, W. Pitcher, H. Price L., Riahi K., Roehrl A.,
Rogner H.-H., Sankovski A., Schlesinger M., Shukla P.R., Smith S., Swart R., van Rooijen S., Victor N., Dadi
Z., 2000, IPCC Special Report on Emissions Scenarios, Cambridge University Press, Cambridge, United
Kingdom and New York, NY, USA. 599p.

Nakicenovic, N., Grübler, A., Gaffin, S., Jung, T.-T., Kram, T., Morita, T., Pitcher, H., Riahi, K., Schlesinger,
M., Shukla, P.R., van Vuuren, D., Davis, G., Michaelis, L., Swart, R., Victor, N., 2003, “IPCC SRES revisited: a
response”, Energy & Environnment 14 (2–3), pp. 187–214.

Nakicenovic, N., Kolp, P., Riahi, K., Kainuma, M., Hanaoka, T., 2006, “Assessment of emissions scenarios
revisited”, Environmental Economics and Policy Studies 7 (3), pp. 137–173.

Raupach, M., Marland, G., Ciais, P., Le Quéré, C., Canadell, J., Klepper, G., Field, C., 2007, “Global and
regional drivers of accelerating CO2 emissions”, Proc. Natl. Acad. Sci. USA 104 (24), pp. 10288–10293.

Rehrl T., Friedrich R., 2006, Modelling long-term oil price and extraction with a Hubbert approach: The LOPEX
model, Energy Policy, 34(15) , pp. 2413-2428.

Roehrl, R.A., Riahi, K., 2000. “Technology dynamics amd greenhouse gas emissions mitigation—a cost
assessment.”, Technological Forecasting and Social Change 63 3, pp. 231–261.

Rogner, H., 1997, “An assessment of world hydrocarbon resources”, Annual Review of Energy and the
Environment, 22, pp. 217-262.

- 161 -
Programme GICC 2004 –

« Climat et développement :
Conciliation des entre contraintes environnementales et politiques
nationales de développement dans les PED »

Sandrine Mathy, Jean-Charles Hourcade, Céline Guivarch, André Pereira, Hélène


Ollivier

Séminaire Gestion et Impacts du Changement Climatique - Paris – 27 et 28 Mai 2008


Description du projet (1)
• Constat:
– limites du système cap and trade du protocole de Kyoto
• un marché carbone non adapté aux pays en développement
• un accord impossible sur des principes d’équité
– renforcement des liens entre trajectoires de développement et politiques
climatiques
– renforcement des effets pervers des trajectoires de développement par les
impacts environnementaux

 Mise en œuvre de synergies, des effets leviers entre politiques de


développement des PED et politiques climatiques

• But du projet:
Evaluer le potentiel de mise en œuvre de ces stratégies et déterminer par
rapport à un système « prix unique » les modalités de politiques climatiques
incitant les PED à prendre des engagements de réduction de leurs émissions
de GES selon leurs spécificités
Plan

• Etudes de cas
– Pré-requis modélisation: Imaclim-R
– Impacts et mécaniques macroéconomiques d’un prix du
carbone dans les PED
– Les énergies de biomasse: une opportunité pour le Brésil de
lier énergie, environnement et développement
– Le charbon en Inde: quand le climat impose une contrainte
incontournable
• Propositions d’architecture pour « l’après Kyoto »
Imaclim-R, une architecture récursive et modulaire
succession d'équilibres statiques liés par des relations dynamiques
Temps

Equilibre statique t Equilibre statique t+1

Équilibre statique sous Evolution des paramètres


(coef. tech., capacités, etc.)
contraintes de court-terme

Carburants fossiles
Démographie

Transports
Electricité,
Modèles Bottom-up (formes réduites)
Moteur de croissance

Signaux prix, investissement


disponible, ...

Évolutions des contraintes

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Caractéristiques fondamentales du modèle
Imaclim-R
 Un effort pour décrire les choix technologiques et les contraintes
techniques
 Un portefeuille de technologies explicite pour les éléments cruciaux du
système énergétique
 Une représentation des contraintes physiques portant sur l’offre et la
demande d’énergie (épuisement de ressources, formation endogène des prix
du pétrole, asymptotes techniques…)
 Représentation de phases transitoires de déséquilibre endogène
avec sur- ou sous-capacités productives (chocs prix énergie,
inadaptation des équipements installés, représentation de sources de
frictions, rigidités…)

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon – Architecture post Kyoto
Impacts et mécaniques macroéconomiques
d’une contrainte carbone dans les PED

• 2 scénarios de stabilisation des émissions de GES 450ppm et


550ppm avec prix unique du carbone croissant linéairement.
• Prix du carbone = prix d’équilibre d’un marché mondial
hypothétique du carbone, où la répartition des droits à polluer
par pays est effectuée de telle façon qu'aucun pays n'a intérêt à
importer ou à exporter du carbone
• Aucun traitement spécifique aux contextes de l’Inde et du
Brésil
• Scénarios non « réalistes »
– mais permettent de révéler la séquence des gains et des pertes à
l’échelle nationale, qui découleraient de cette règle simple,
– ce qui permet de cerner la forme et l’ampleur de la compensation
directe ou indirecte qui sera à prévoir pour emporter l’adhésion du
Brésil et de l’Inde

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon – Architecture post Kyoto
Contrastes et paradoxes dans les profils
de gains et de pertes de revenu
Pertes de PIB de l'Inde (vert) et du Brésil (bleu)

3,00% 3,00%

2,00% 2,00%

1,00% 1,00%

0,00% 0,00%
2001 2008 2015 2022 2029 2036 2043 2050 2057 2064 2071 2078 2085 2092 2099 2002 2009 2016 2023 2030 2037 2044 2051 2058 2065 2072 2079 2086 2093 2100
-1,00% -1,00%

-2,00% -2,00%

-3,00% -3,00%

-4,00% -4,00%

-5,00% -5,00%

-6,00% -6,00%

-7,00% -7,00%

-8,00% -8,00%
realGDP IND realGDP BRE realGDP IND realGDP BRE

550 ppm 450 ppm

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon – Architecture post Kyoto
Contrastes et paradoxes dans les profils
de gains et de pertes de revenu (3)

• Existence de différentes phases :


– fortes pertes pendant période de transition
– existence d’une période de gains importants dans le sc.
450ppm, et non dans le sc. 550ppm
• Jeu combiné de paramètres centraux :
– allégement de la contrainte d’importation en pétrole et en
gaz
– la part de l’énergie dans le budget des ménages
– l’évolution des termes de l’échange
– l’évolution des besoins d’investissement affectés au secteur
énergétique

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon – Architecture post Kyoto
Politique climatique et réduction de la
dépendance pétrolière et gazière (1)

Evolution prix 2.a


Graphique mondiaux charbon,
- Prix mondiaux pétrole
Petróle, Gaz et Charbon et gaz Coal to Liquid
Scenario 550 ppm - (US$/tep)
550 ppm
4,5

3,5

2,5 charbon
petrole
2 gaz
1,5

0,5

0
1 5 9 13 17 21 25 29 33 37 41 45 49 53 57 61 65 69 73 77 81 85 89 93

- évolution des prix du pétrole modérée par rapport au scénario de référence


- peu d'impact sur les prix du gaz.
- parts de marché gaz croît par rapport au charbon et au pétrole

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon – Architecture post Kyoto
Politique climatique et réduction de la
dépendance pétrolière et gazière (2)

Evolution
Graphiqueprix mondiaux
2.b - Prix charbon,
mondiaux Petróle, pétrole
Gaz et Charbon et gaz
Scenario
450 ppm - (US$/tep)
450 ppm
4,5

3,5

2,5 charbon
petrole
2 gaz
1,5

0,5

0
1 5 9 13 17 21 25 29 33 37 41 45 49 53 57 61 65 69 73 77 81 85 89 93

Baisse relative du prix du pétrole et du gaz par rapport au sc. de référence


→ baisse de la facture énergétique pour les ménages et les entreprises brésiliennes et
indiennes
→ réévaluation à la hausse des termes de l’échange et réduction des importations du Brésil
et de l’Inde.
Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon – Architecture post Kyoto
Evolution de la facture énergétique des
ménages (1)
20%

18%

16%

14%
Inde
12%

10%

8%

6%

4%

2%

0%
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 101 Brésil
BRE_REF INDE_REF BRE_550
INDE_550 BRE_450 INDE_450

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon – Architecture post Kyoto
Evolution de la facture énergétique des
ménages (1)
20%

18%

16%

14%
Inde
12%

10%

8%

6%

4%

2%

0%
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 101 Brésil
BRE_REF INDE_REF BRE_550
INDE_550 BRE_450 INDE_450

Période 1:
- faible niveau du prix du carbone
- inertie des équipements
450 ppm : hausse de l’ordre de 1% pour le Brésil, 5 fois plus en Inde
La différence provient des caractéristiques de l’offre énergétique des pays

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon – Architecture post Kyoto
Evolution de la facture énergétique des
ménages (1)
20%

18%

16%

14%
Inde
12%

10%

8%

6%

4%

2%

0%
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 101 Brésil
BRE_REF INDE_REF BRE_550
INDE_550 BRE_450 INDE_450

Période 2:
décroissance relative des dépenses énergétiques = deux effets qui l’emportent
sur l’effet de la taxe grâce :
- au progrès technique
- au changement de mode de consommation énergétique

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon – Architecture post Kyoto
Evolution de la facture énergétique des
ménages (1)
20%

18%

16%

14%
Inde
12%

10%

8%

6%

4%

2%

0%
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 101 Brésil
BRE_REF INDE_REF BRE_550
INDE_550 BRE_450 INDE_450

Saturation de la baisse:
Les gains dus au progrès technique sont compensés par la hausse la mobilité

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon – Architecture post Kyoto
Evolution de la facture énergétique des
ménages (1)
20%

18%

16%

14%
Inde
12%

10%

8%

6%

4%

2%

0%
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 101 Brésil
BRE_REF INDE_REF BRE_550
INDE_550 BRE_450 INDE_450

Politiques d’infrastructures et d’équipement des ménages exigés par


un scénario volontariste.
L’effet rebond a donc des vertus technologiques

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon – Architecture post Kyoto
Influence des termes de l’échange et du coût
énergétique de la production
Evolution des termes de l’échange
1,05

1
REF Brésil
0,95

0,9

0,85

0,8

0,75

0,7

0,65
REF Inde
0,6
2001 2007 2013 2019 2025 2031 2037 2043 2049 2055 2061 2067 2073 2079 2085 2091 2097

mer IND 450 mer BRE 450 mer IND 550


mer BRE 550 mer IND REF mer BRE REF

Dans les scénarios de référence:


Phase de croissance économique élevée (hausse rapide des coûts de main d’œuvre
par rapport aux pays développés) : baisse des termes de l’échange expliquée par
forts besoins d’importations en équipements et biens de consommation
Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon – Architecture post Kyoto
Influence des termes de l’échange et du coût
énergétique de la production
Evolution des termes de l’échange
1,05

1
REF Brésil
0,95

0,9

0,85

0,8

0,75

0,7

0,65
REF Inde
0,6
2001 2007 2013 2019 2025 2031 2037 2043 2049 2055 2061 2067 2073 2079 2085 2091 2097

mer IND 450 mer BRE 450 mer IND 550


mer BRE 550 mer IND REF mer BRE REF

Dans les scénarios de référence:


En fin de période, fin de la phase de rattrapage
d’où la remontée significative des termes de l’échange

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon – Architecture post Kyoto
Influence des termes de l’échange et du coût
énergétique de la production
Evolution des termes de l’échange
1,05

0,95

0,9

0,85

0,8

0,75

0,7

0,65

0,6
2001 2007 2013 2019 2025 2031 2037 2043 2049 2055 2061 2067 2073 2079 2085 2091 2097

mer IND 450 mer BRE 450 mer IND 550


mer BRE 550 mer IND REF mer BRE REF

Sc. 450 et 550 ppm: forte dégradation des termes de l’échange


en raison de la hausse du coût énergétique de la production de biens non énergétiques

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon – Architecture post Kyoto
Influence des termes de l’échange et du coût
énergétique de la production
Evolution des termes de l’échange
1,05

0,95

0,9

0,85

0,8

0,75

0,7

0,65

0,6
2001 2007 2013 2019 2025 2031 2037 2043 2049 2055 2061 2067 2073 2079 2085 2091 2097

mer IND 450 mer BRE 450 mer IND 550


mer BRE 550 mer IND REF mer BRE REF

Sc. 450 et 550 ppm:


gains d’efficacité énergétique
→ baisse des coûts énergétiques à long terme.
baisse des prix des énergies fossiles
→ Réévaluation → hausse pouvoir d’achat indien et brésilien sur marchés internationaux
Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon – Architecture post Kyoto
Impacts et mécaniques macroéconomiques
d’une contrainte carbone dans les PED

• Conclusion
• A court et moyen termes: impact d’une taxe carbone négatif et
produisent des pertes nettes pour les économies brésilienne et
indienne.
• A long terme : l’effet rebond et le progrès technique induit
permettent une amélioration générale des caractéristiques
macroéconomiques.
 le coût à supporter pour les économies
 Est faible à long terme le prix du carbone est élevé (800$/tC en 2050)
et lorsque le PIB/hab sera plus élevé,
 mais important à court et moyen terme (pour assurer la transition qui
correspond à la phase de développement économique des PED).

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon – Architecture post Kyoto
Énergies de biomasse : opportunité pour le Brésil
de lier énergie, environnement et développement ?

CONTEXTE et JUSTIFICATION de l’étude


• Émissions de GES
– faible niveau des émissions énergétiques (hydro + éthanol)
– provenant principalement de la déforestation et du changement d’usage du sol
• Intégration du Brésil au sein d’un accord international sur la base de :
– la prise en compte de la déforestation
– du rêve d’expansion de l’éthanol comme réponse aux émissions des carburants
fossiles, aux enjeux de sécurité énergétique et comme moteur de
développement économique
 Évaluation de l’intérêt pour le Brésil à rejoindre un accord international:
quel impact économique pour le Brésil d’une valorisation internationale de
l’éthanol de canne à sucre?
 Hypothèse: Prise de marché de l’éthanol brésilien sur le marché
international des carburants automobiles de 5% en 2030.

Imaclim-R - Impacts macroéconomiques prix carbone– Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Résultats (1): impact sur le PIB
4%

3%

2%

1%

0%
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

-1%

-2%

-3%

-4%
REF x REF 450 x REF 450_Bio5 xREF

• Evolution des termes de l'échange


• Baisse de la facture énergétique et l'industrie des ménages, elle-
même en partie liée à la baisse des prix du pétrole et du gaz

Imaclim-R - Impacts macroéconomiques prix carbone– Brésil et biomasse – Inde et charbon –Architecture post Kyoto
L’Inde et la question du charbon : quand le climat
impose une contrainte incontournable ?

METHODOLOGIE
• Scénario de référence:
Définir un scénario de référence réaliste prenant en
compte les sous-optimalités du système technico-
économique indien
• Scénario alternatif
Double dividende de politiques sans-regret dans le
secteur électrique
• Séquestration géologique comme variable
d’ajustement ?

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Un paradoxe apparent

Entre les forts taux de croissance des scénarios de référence


donnés par les modèles
et
1. les déséquilibres du système économique et énergétique indien
(shortage structurel, importantes subventions à la
consommation d’électricité, gaspillage, fort niveau de pertes en
T&D, forte croissance des importations de pétrole)

2. les forts taux de découplage entre croissance du PIB et


croissance de la consommation énergétique

→ Réalisme des scénarios de référence indien existant?

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Un découplage PIB/cons. énergie futur
optimiste par rapport aux tendances passées
Période Taux de Taux de Taux de Elasticité de
croissance de la croissance de la croissance la conso.
consommation consommation du PIB d’énergie au
d’énergie primaire d’électricité PIB

Tendances 1975-95 1,4


passées
(Enerdata) 1995-05 0,9

WEO 2006
Scénario de
2004-2030 2,6% 3,8% 5,1% 0,51
référence (AIE,
2006)
WEO 2006
Scénario
2004-2030 2,0% 3,3% 5,1% 0,39
alternatif (AIE,
2006)
IEO (DOE,
2004-2030 2,8% 3,9% 5,7% 0,49
2006)

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Un découplage PIB/cons. énergie futur
optimiste par rapport aux tendances passées
Période Taux de Taux de Taux de Elasticité de
croissance de la croissance de la croissance la conso.
consommation consommation du PIB d’énergie au
d’énergie primaire d’électricité PIB

Tendances 1975-95 1,4


passées
(Enerdata) 1995-05 0,9

WEO 2006
Scénario de
2004-2030 2,6% 3,8% 5,1% 0,51
référence (AIE,
2006)
WEO 2006
Scénario
2004-2030 2,0% 3,3% 5,1% 0,39
alternatif (AIE,
2006)
IEO (DOE,
2004-2030 2,8% 3,9% 5,7% 0,49
2006)

Enjeu majeur: compréhension des mécanismes à l’œuvre dans chgts structurels


Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Un scénario de référence contraint et instable avec
d’importantes implications environnementales
Une forte vulnérabilité envers le peak-oil

160 8%

140 7%

120 6%

100 5%

80 4%

60 3%

40 2%

20 1%

0 0%
2001 2006 2011 2016 2021 2026 2031 2036 2041 2046
Oil price ($/bl) Growth rate (%)

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Un scénario de référence contraint et instable avec
d’importantes implications environnementales
Emissions sectorielles de CO2 (MtCO2)

5000
Residential
4500
Transports
4000
Millions of tons of CO2 Industry
3500 Power sector
3000
2500
2000

1500
1000

500
0
2001 2006 2011 2016 2021 2026 2031 2036 2041 2046

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Double dividende de politiques sans
regret dans le secteur électrique

• réforme tarifaire
– Rationalisation des consommations du secteur
agricole (gaspillage:-50%)
– Suppression des subventions (élasticité prix de la
demande = -0,65)
• Subventions économisées:
– Diminution des pertes en T&D
– Investissement dans capacités additionnelles

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Résultats (1)

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Résultats (2)

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Résultats (2)
Intensité énergétique
1,2

1,0

0,8

REF
0,6
ALT
0,4
Réductions d’émissions de CO2 pas suffisantes!!
0,2
La séquestration peut-elle constituer une variable d’ajustement ?
0,0 6
2001 2006 2011 2016 2021 2026 2031 2036 2041 2046
5

GtCO2
3

0
2001 2006 2011 2016 2021 2026 2031 2036 2041 2046

Emissions totales de CO2 (MtCO2)

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Des réductions d’émissions de GES
compatibles avec un Facteur 2 mondial
Hypothèses de pénétration: toutes les nouvelles centrales thermiques à partir de 2015
5

3
GtCO2

0
1 6 11 16 21 26 31 36 41 46

REF ALT ALT+CCS

Coût macroéconomique >> coût technique


Trouver mécanismes de financements internationaux pour
- sous réserve de mise en œuvre de P&M « sans regret »
- financer le surcoût de la séquestration géologique

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Architecture post-Kyoto: conclusion

La mise en œuvre des synergies est-elle suffisante pour constituer


une incitation à des engagements « forts » des pays:
– Brésil: oui car les coûts à mettre en œuvre pour réduire les émissions de
GES peuvent être compensés par les bénéfices issus de la valorisation de
l’éthanol de canne à sucre sur le marché mondial.
– Inde: mesures d’amélioration de l’efficacité énergétique
• impacts positifs (peak-oil, croissance),
• mais impact limité sur les niveaux d’émission
• aller plus loin dans les réductions d’émissions de GES nécessitera des coûts
importants
• sauf si investissements précoces dans des infrastructures
→ Architecture
→ Centrée autour d’un prix du carbone comme signal de long terme
→ Souple s’adaptant à l’hétérogénéité du monde réel
→ Mécanismes de financement des infrastructures
Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Evolution de la facture énergétique des
ménages (2)
3,00%

2,00% 550 ppm


1,00%

0,00%
2001 2008 2015 2022 2029 2036 2043 2050 2057 2064 2071 2078 2085 2092 2099
20% -1,00%

-2,00%
18%
-3,00%
16%
-4,00%
14%
-5,00%
12%
-6,00%

10% -7,00%

8% -8,00%
realGDP IND realGDP BRE
6%
3,00%
4%

2%
2,00%
450 ppm
1,00%
0%
0,00%
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 101
2002 2009 2016 2023 2030 2037 2044 2051 2058 2065 2072 2079 2086 2093 2100
-1,00%
BRE_REF INDE_REF BRE_550
INDE_550 BRE_450 INDE_450 -2,00%

-3,00%

Allégement de la facture énergétique -4,00%

-5,00%

- Significatif dans le sc.550ppm -6,00%

- Important dans le sc. 450ppm -7,00%

-8,00%

Cohérence avec évolution PIBs? realGDP IND realGDP BRE

PIB

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Evolution de la facture énergétique des
ménages (2)
3,00%

2,00% 550 ppm


1,00%

0,00%
2001 2008 2015 2022 2029 2036 2043 2050 2057 2064 2071 2078 2085 2092 2099
20% -1,00%

-2,00%
18%
-3,00%
16%
-4,00%
14%

OK
-5,00%
12%
-6,00%

10% -7,00%

8% -8,00%
realGDP IND realGDP BRE
6%
3,00%
4%

2%
2,00%
450 ppm
1,00%
0%
0,00%
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 101
2002 2009 2016 2023 2030 2037 2044 2051 2058 2065 2072 2079 2086 2093 2100
-1,00%
BRE_REF INDE_REF BRE_550
INDE_550 BRE_450 INDE_450 -2,00%

-3,00%

-4,00%

-5,00%

-6,00%

-7,00%

-8,00%
realGDP IND realGDP BRE

PIB

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Evolution de la facture énergétique des
ménages (2)
3,00%

2,00% 550 ppm


1,00%

0,00%
2001 2008 2015 2022 2029 2036 2043 2050 2057 2064 2071 2078 2085 2092 2099
20% -1,00%

-2,00%
18%
-3,00%
16%
-4,00%
14%

OK
-5,00%
12%
-6,00%

10% -7,00%

8% -8,00%
realGDP IND realGDP BRE
6%
3,00%
4%

2%
2,00%

1,00%
??? 450 ppm
0%
0,00%
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 101
2002 2009 2016 2023 2030 2037 2044 2051 2058 2065 2072 2079 2086 2093 2100
-1,00%
BRE_REF INDE_REF BRE_550
INDE_550 BRE_450 INDE_450 -2,00%

-3,00%

-4,00%

-5,00%

-6,00%

-7,00%

-8,00%
realGDP IND realGDP BRE

PIB

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto
Evolution de la facture énergétique des
ménages (3)

Scénario 450ppm par 450


Cenário rapport auReferência
vis-à-vis scénario de référence
10,00%

8,00%

6,00%

4,00%

2,00%

0,00%
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 101

-2,00%

-4,00%

-6,00%

Parte despesas transporte Famílias GDP

Parte despesas energéticas Famílias Parte despesas energéticas Indústria

L’augmentation de la facture énergétique dans les transports


est la responsable des pertes sur le PIB

Imaclim-R - Impacts macroéconomiques prix carbone – Brésil et biomasse – Inde et charbon –Architecture post Kyoto

Vous aimerez peut-être aussi