DAHAN Amy (Dir.) - Les Modèles Du Futur - La Découverte - 2007
DAHAN Amy (Dir.) - Les Modèles Du Futur - La Découverte - 2007
DAHAN Amy (Dir.) - Les Modèles Du Futur - La Découverte - 2007
Collection « Recherches »
LA COLLECTION « RECHERCHES » À LA DÉCOUVERTE
Un nouvel espace pour les sciences humaines et sociales
Lʼéditeur
SOUS LA DIRECTION DE
LA DÉCOUVERTE
2007
ISBN : 978-2-7071-5013-4
Le logo qui figure sur la couverture de ce livre mérite une explication. Son objet est dʼalerter le
lecteur sur la menace que représente pour lʼavenir de lʼécrit, tout particulièrement dans le domaine
des sciences humaines et sociales, le développement massif du photocopillage.
Le Code de la propriété intellectuelle interdit en effet expressément, sous peine des sanctions
pénales réprimant la contrefaçon, la photocopie à usage collectif sans autorisation des ayants droit.
Or, cette pratique est généralisée dans les établissements dʼenseignement et à lʼuniversité, provoquant
une baisse brutale des achats de livres, au point que la possibilité même pour les auteurs de créer
des œuvres nouvelles et de les faire éditer correctement est aujourdʼhui menacée.
Nous rappelons donc quʼaux termes des articles L. 122-10 à L. 122-12 du Code de la propriété
intellectuelle toute photocopie à usage collectif, intégrale ou partielle, est interdite sans autori-
sation du Centre français dʼexploitation du droit de copie (CFC, 20, rue des Grands-Augustins,
75006 Paris). Toute autre forme de reproduction, intégrale ou partielle, est également interdite sans
lʼautorisation de lʼéditeur.
Si vous désirez être tenu régulièrement informé de nos parutions, il vous suffit dʼenvoyer vos
nom et adresse aux Éditions La Découverte, 9 bis, rue Abel-Hovelacque, 75013 Paris. Vous recevrez
gratuitement notre bulletin trimestriel À la Découverte. Vous pouvez également retrouver lʼensemble
de notre catalogue et nous contacter sur notre site www.editionsladecouverte.fr
Introduction
Modèles et fabrications du futur : du débat sur la croissance au débat
climatique et retour
par Amy Dahan Dalmedico 7
4. COP : Conference of Parties. « La Conférence des Parties est lʼorgane suprême de la convention
[la Convention-cadre des Nations unies sur les changements climatiques, CCNUCC]. Elle prend, dans
les limites de son mandat, les décisions nécessaires pour en promouvoir la mise en œuvre effective »
(article 22 de la convention Climat, point 2).
5. En anglais, UNFCCC : United Nations Framework Convention on Climate Change.
INTRODUCTION 9
les conceptions du droit, fait diverger les choix politiques et reconfigure les
alliances. La négociation sur le climat et la politique climatique se confirme
comme lʼune des plus difficiles, en particulier parce quʼelle exige une avancée
déterminante de la gouvernance mondiale. Une course paraît engagée entre
la dégradation du climat et la capacité de décision politique des pays de la
planète. Son moteur est puissant : cʼest notre communauté de destin sur cette
terre. Derrière la question du multilatéralisme et au-delà des inégalités Nord-
Sud quʼil faut affronter, se profile une question autrement cruciale : celle de
la capacité de lʼhumanité à faire face collectivement à son avenir. Lʼalerte
sur lʼeffet de serre a puissamment relancé les efforts de production dʼimages
du futur. La production de ces divers scénarios du futur, associés à lʼémer-
gence de la notion de développement durable, devient dʼailleurs un enjeu
suffisamment critique dans les débats de politique internationale pour être
soumise à une « évaluation par les pairs » dans le cadre du Groupe dʼexperts
intergouvernemental sur lʼévolution du climat.
Sur les questions politiques, notre objectif nʼa pas été – car ce nʼétait
pas exactement notre compétence – dʼétudier dans le détail le processus des
négociations ayant conduit au protocole de Kyoto et dʼen faire le bilan à
lʼheure où les perspectives dʼengagement pour la période qui va au-delà de
2012 sont fort peu claires6. Nous avons abordé la dimension géopolitique du
problème climatique plutôt du point de vue des science studies que de celui
des sciences politiques, en insistant sur les questions suivantes : comment les
enjeux géopolitiques croisent-ils, dans ce contexte, les enjeux scientifiques ?
Comment fonctionne la fabrication de consensus scientifiques pour la décision
politique, et quel est lʼimpact de cette fabrique sur la vie scientifique elle-
même ? Peut-on évaluer le poids de la communauté scientifique et la qualité
du travail effectué par les organismes dʼexpertise, notamment le GIEC, dans
le processus politique ? Lʼétude dʼautres controverses scientifico-techniques
contemporaines a montré que les logiques scientifique et politique ne se déve-
loppent pas séparément ; au contraire, elles interagissent et sʼhybrident parfois
étroitement. Quʼen est-il dans le domaine du changement climatique ?
7. Rapport au Club de Rome traduit en français sous le titre Halte à la croissance ! et paru aux
éditions Fayard en 1972.
INTRODUCTION 11
8. Abréviation consacrée pour le Special Report on Emissions Scenarios publié par lʼIPCC
(Intergovermental Panel on Climate Change, dénomination anglo-saxonne du GIEC) en 2000.
9. Nous faisons référence ici à la critique de Claude Allègre, grand scientifique mais extérieur
au domaine de la climatologie, déclarant avec arrogance : « Je doute et jʼai le droit de douter ! » Cet
anarchisme nʼa rien à voir avec les controverses instruites entre spécialistes et chercheurs engagés
dans le domaine qui sont le lot ordinaire de la recherche.
INTRODUCTION 13
retour vers des questions et des préoccupations plus locales. Hélène Guillemot
accompagne ses descriptions dʼune réflexion épistémologique sur les princi-
pales méthodologies à lʼœuvre, le souci de validation des modèles, la néces-
sité des « traductions » et le caractère pluridisciplinaire des pratiques que
lʼordinateur favorise. Modèles, simulations, paramétrisations, couplage de
modèles, intégration, complexité sont les notions principales (ou les concepts)
qui y jouent un rôle clé.
En moins de dix ans, on lʼa dit, le changement climatique est passé du
statut de sujet scientifique complexe à celui dʼun thème politique aux enjeux
majeurs. La structuration du GIEC en trois groupes de travail, les études
quʼil suscite, lʼagenda quʼil définit ont contribué à reconfigurer lʼensemble
du champ. À partir de 1995, les Conférences des Parties réunies annuelle-
ment deviennent des arènes de négociations internationales sur le sujet en
même temps que des forums hybrides où se croisent des groupes de plus en
plus variés. Progressivement, les préoccupations centrales de la recherche
se modifient, de nouvelles pratiques apparaissent ; les enjeux géopolitiques
croisent les questions scientifiques. Un seul exemple ici suffira à lʼillustrer.
La question posée dans la convention de Rio était celle dʼune inflexion des
trajectoires dʼémissions des pays industrialisés, cʼest-à-dire passer dʼune
croissance continue à une stabilisation, puis à une réduction de ces émissions.
Depuis, les travaux scientifiques du GIEC ont introduit une question concrète
déterminante : quelle dégradation du climat acceptons-nous ? Cette question
en a amené dʼautres en cascade : vers quelle concentration en carbone se
stabiliser ? Quelles sont les trajectoires dʼémissions qui conduisent à cette
concentration ? Vers quelle répartition des émissions entre les pays industria-
lisés et les pays en développement doit-on aller ? Lʼobjectif principal dʼAmy
Dahan est de revenir sur cette évolution, sur le rôle déterminant quʼy ont
joué le GIEC et dʼautres institutions du régime. À partir du point de vue des
études sociales des sciences, elle propose une réflexion sur les relations entre
science, politique et expertise dans ce domaine. Elle accorde une attention
privilégiée aux liens entre expertise scientifique et gouvernance globale,
marquée en particulier par la tension des rapports Nord-Sud. En revenant sur
la cartographie des communautés scientifiques, des institutions et des acteurs,
elle sʼattache à mettre en évidence lʼhybridation croissante des dynamiques
scientifiques et des politiques. Elle analyse notamment le fonctionnement et le
positionnement du GIEC, véritable fer de lance du régime climatique qui, dʼun
côté, revendique un modèle traditionnel dʼexpertise scientifique et, de lʼautre,
joue un rôle déterminant dans lʼarticulation avec le politique. Afin de réfléchir
à ce que cet exemple nous enseigne sur les liens entre science et politique à
lʼéchelle internationale, sur les questions de construction et de fonctionnement,
à cette échelle, de lʼexpertise, prise entre normes de scientificité et exigences
de délibération démocratique.
14 LES MODÈLES DU FUTUR
optimal de laisser les émissions de gaz à effet de serre être multipliées par trois
au cours du siècle à venir. Dʼautres études, en revanche, concluent que des
réductions considérables seraient justifiées par les seuls motifs économiques.
Christian Azar cherche à cerner précisément les raisons de ces divergences,
et il se concentre sur quatre questions cruciales qui interviennent dans les
analyses économiques de lʼeffet de serre : les « surprises » climatiques catas-
trophiques (événements de faible probabilité, mais aux conséquences énor-
mes), les méthodes dʼévaluation des coûts, le choix du taux dʼactualisation et,
enfin, le choix des critères de décision. Il met en lumière le rôle décisif de ces
questions dans les conclusions politiques tirées des modèles économiques du
changement climatique, et en particulier comment elles impliquent, chacune,
des choix éthiques significatifs. Cette conclusion simple de la présence de
choix éthiques et de jugements de valeur dans les modélisations économi-
ques doit être reconnue très largement, plaide Christian Azar, car lʼéconomie
est trop souvent perçue comme un outil neutre, apte à fournir les politiques
« optimales » aux décideurs.
Emilio Lèbre La Rovere, Vincent Gitz et André Santos Pereira discutent
les principales difficultés de représentation, par les modèles mondiaux, du
système de lʼéconomie, du système énergétique et de lʼusage des sols dans
les pays en développement. Ils passent en revue différents obstacles : dis-
ponibilité et qualité des données, imperfection des marchés, spécificité des
ressources dʼénergies renouvelables, dynamiques dʼoccupation du territoire,
etc. La question fondamentale quʼils soulèvent – celle de lʼidentification des
limites de lʼexercice de modélisation dans le cas des pays en développement
– est finalement très représentative de la problématique générale de limitation
des émissions de gaz à effet de serre face au défi du changement climatique.
Ces émissions ont un lien direct avec le niveau dʼactivité économique dʼun
pays, sa façon de produire et de consommer lʼénergie, mais aussi sa manière
dʼutiliser les sols. Or, les secteurs traditionnels et informels de lʼéconomie
dans les pays en développement sont un exemple privilégié de lʼintersection
entre ces trois axes dʼanalyse. En effet, les activités intégrées par ces secteurs
correspondent à une partie importante de la production agricole, de la consom-
mation énergétique des ménages et de lʼusage des sols. Paradoxalement, ces
secteurs contribuent dʼautant plus fortement aux émissions de gaz à effet de
serre que leur représentation par des modèles mathématiques est plus complexe
et limitée. Les auteurs attendent des équipes de modélisation travaillant dans les
pays en développement quʼelles rendent mieux compte de ces problèmes.
La densité des travaux de prévision et de prospective énergétique ne
supprime pas le sentiment de grande incertitude que nous éprouvons vis-
à-vis de lʼavenir ; elle tend même à imposer lʼimage dʼun avenir joué très
largement sans nous. Olivier Godard nous invite à réfléchir à la manière dont
la conception de la modélisation à long terme, dans le champ de lʼénergie
16 LES MODÈLES DU FUTUR
12. Voir le dossier de la revue Le Débat (n° 13, janvier-février 2005) : « La démocratie peut-elle
faire face à une catastrophe climatique ? »
INTRODUCTION 19
I.
affirme que la trop grande simplicité du modèle World fait de lʼétude « une
absurdité ». Lʼéquipe de la Science Policy Research Unit de lʼuniversité du
Sussex, au Royaume-Uni, rédige collectivement une critique particulière-
ment détaillée [Cole, 1973]. Cette critique porte dʼabord sur la structure du
modèle, qui, selon elle, jette le discrédit sur la technologie comme moyen de
résoudre les grands problèmes de société. Elle sʼattaque aussi à la fiabilité
du modèle, en montrant que, lorsque lʼon fait tourner le modèle en arrière à
partir de 1900, les variables prennent des valeurs aberrantes par rapport à la
réalité historique. Enfin, elle dénonce lʼattitude « technocratique » du Club de
Rome qui prétend, depuis son centre de recherche déconnecté de la société,
dicter au monde la meilleure marche à suivre à partir de données chiffrées.
Herman Kahn, le « futurologue » qui a fondé le Hudson Institute – après des
années consacrées aux recherches militaires et en particulier à la question de
lʼarme nucléaire –, élabore quant à lui, en réponse aux Limits to Growth, un
« scénario pour les 200 prochaines années » [Kahn, 1976], où il cherche à
montrer que le projet volontariste dʼune croissance zéro nʼest pas pertinent,
en argumentant que la société mondiale est en train dʼeffectuer spontanément
un virage vers une ère de stabilité « post-industrielle », où la consommation
ne sera plus une fin en soi.
déjà une réalité présente pour bien des pays du tiers monde. Lʼidée est donc
de créer un modèle pour déterminer sʼil est possible de satisfaire les besoins
fondamentaux de ces pays, et pour définir les meilleures mesures à prendre
pour y parvenir [Herrera, 1977].
Le premier modèle adopte la méthodologie mise en place par Mihajlo
Mesarovic à des fins de gestion des entreprises, qui met en évidence, pour un
système, la coordination entre différents niveaux de prise de décision et la
manière dont des décisions prises dans des secteurs particuliers du système
lʼaffectent au niveau global. Ce modèle a pour ambition de faire apparaître
lʼhétérogénéité des parties du monde et leur interdépendance. Dans le modèle,
les pays sont donc regroupés en 10 grandes régions. Ses résultats sont présentés
dans le second rapport au Club de Rome, publié en 1974, et qui diffère du
premier par plusieurs aspects. Tout dʼabord, la structure du modèle, vraisem-
blablement bien moins facile à schématiser que celle de World, nʼy apparaît
pas. Ensuite, chaque chapitre soutient un message particulier quʼil appuie en
mettant en avant le comportement de telle ou telle variable sous telle ou telle
hypothèse. Par exemple : il faut se mobiliser rapidement pour combler le fossé
entre pays riches et pays pauvres ; ou alors : il est bénéfique pour tous les
pays de coopérer afin de se partager au mieux les ressources naturelles plutôt
que de se battre pour se les approprier. La conclusion générale de lʼouvrage,
naturellement plus nuancée que celle du premier rapport au Club de Rome, ne
connaît pas de retentissement public. Elle prétend surtout dépasser la dichoto-
mie du débat soulevé par les Limits to Growth (pour ou contre la croissance ?)
et appelle à cultiver dans le monde une « croissance organique » – qui permette
à ses différentes parties de se développer harmonieusement – plutôt quʼune
« croissance indifférenciée », insoutenable dans le long terme.
Dans le « modèle Bariloche », le monde est découpé en 4 grandes régions :
monde développé, Afrique, Asie, Amérique latine. Le problème auquel le
modèle prétend répondre est celui de la satisfaction des besoins fondamentaux
de ces trois dernières régions. Ainsi, le rapport rédigé à lʼattention du grand
public [Herrera, 1977] commence par dessiner une société normative où des
niveaux acceptables de développement auraient été atteints dans les domaines
du logement, de lʼalimentation et de lʼéducation. Le modèle, introduit après,
prétend estimer la possibilité de réalisation dʼune telle société. La représenta-
tion de sa structure ressemble à celle des modèles World : elle fait apparaître
des boucles de rétroaction qui montrent comment les variables dépendent les
unes des autres. La variable « espérance de vie », qui dépend directement de
la satisfaction des besoins fondamentaux et indirectement du niveau de vie, y
joue un rôle central. La méthodologie de lʼétude consiste à la maximiser sur
chaque période dʼun an et à faire évoluer les autres variables en conséquence.
Plus précisément : au début de chaque année et pour chaque région, lʼétat des
variables du modèle détermine une quantité totale de ressources humaines et
30 LES MODÈLES DU FUTUR
plus de modélisation globale à partir des années 1980, mais est élu député
conservateur au Parlement autrichien, où il sʼoccupe néanmoins de questions
environnementales).
1. À propos de cet auteur, on pourra consulter ici même le chapitre rédigé par Pierre Matarasso.
32 LES MODÈLES DU FUTUR
Modèles et « cosmologies »
Venons-en à une étude comparative de trois modèles qui ont posé la question
de la croissance au niveau global, en y apportant des réponses différenciées :
le modèle World, le modèle Bariloche et le modèle DICE de Nordhaus. Nous
allons voir comment plusieurs thèmes y sont traités, dans les discours péri-
phériques comme dans la structure mathématique elle-même, afin de saisir de
quelle manière fond et forme sʼarticulent, et en quoi le traitement de ces thèmes
contribue à façonner des conclusions différentes en ce qui concerne la « crois-
sance ». Nous nous inspirerons du travail de Brian Bloomfield, qui, le premier,
a proposé dʼappliquer la notion de « cosmologie » à lʼétude des entreprises de
modélisation, dans le but de saisir comment des croyances partagées par des
groupes peuvent se trouver intégrées dans des équations mathématiques.
Le rapport à la polarité nature/technologie nous semble constituer une
dimension particulièrement pertinente pour éclairer la manière dont certaines
conceptions du monde façonnent la structure et les conclusions des modèles
qui nous intéressent. Dans les Limits to Growth, une certaine vision du progrès
technique se dégage du discours aussi bien que des équations. Le discours
présente la technologie comme un facteur ambivalent, source dʼun nouveau
pouvoir sur nous-mêmes, mais aussi lourde de menaces puisque nous sommes
Pour ses critiques, la technologie est toujours plus forte que la nature, elle
peut résoudre tous les problèmes. Pour réfuter la conclusion des Limits to
Growth, ils abordent lʼune après lʼautre les menaces évoquées par le rapport,
afin de montrer que le progrès technologique permettra de les éviter : celle de
lʼépuisement des ressources minérales, puis celle du manque de nourriture,
puis celle de la pollution… Cʼest donc en abordant les problèmes soulevés
par le Club de Rome « tranche par tranche » que les critiques parviennent à
démonter les conclusions des Limits. Or, dans ce rapport où lʼêtre humain
est conçu comme un élément de la nature – dans laquelle il doit trouver une
juste place –, lʼactivité humaine est abordée de manière « systémique », et les
interactions entre les secteurs des modèles World font que, si la technologie
apporte son soutien à un secteur particulier (par exemple, en doublant les
ressources naturelles), alors des répercussions se feront sentir dans un autre
secteur du modèle (par exemple, dans celui de la pollution).
La représentation de la technologie dans les Limits to Growth est une source
de questionnement, compte tenu de lʼappartenance de la plupart des membres
du Club de Rome à lʼélite industrielle et/ou politique, peu encline a priori
à tenir un discours écologiste qui émanait alors surtout de la contre-culture,
compte tenu aussi de lʼenracinement de la dynamique des systèmes dans les
questions liées à la croissance des entreprises.
Il est certain que le projet du Club de Rome a impliqué des personnes de
milieux et dʼintérêts divers. Rappelons quʼAurelio Peccei a développé dès
les années 1960 un discours ambivalent à propos de la technologie, tantôt
idéalisée, tantôt perçue comme un facteur majeur de déstabilisation sociale et
morale. Par la suite, il est allé plus loin en critiquant lʼorientation majoritai-
rement matérialiste de nos sociétés et son désintérêt pour des questions plus
métaphysiques. Forrester a conçu la première version du modèle World, mais
il sʼest consacré avant et après ce projet à des modèles économiques privilé-
giant la croissance économique. Cela nous incite à penser que les hypothèses
fondatrices du modèle (croissance exponentielle dans un cadre fini, impliquant
nécessairement une saturation) émanaient de Peccei, sans doute influencé par
la pensée environnementaliste de son époque et marqué par son expérience du
« développement » dans les pays du tiers monde. Lʼéquipe pluridisciplinaire
qui a travaillé sur le modèle World 3, et en particulier Donella Meadows qui a
rédigé le rapport, a apporté une certaine coloration au texte, qui accompagne
lʼexposition des simulations de toute une réflexion sur la société de stabilité
quʼil convient de construire et ses avantages par rapport à la société existante.
Cette réflexion apparaît nourrie de lʼinfluence dʼéconomistes critiques du
progrès technique, comme Boulding et Daly, mentionnés plus haut. On sait
aussi que le couple Meadows revendiquait un mode de vie particulièrement
autosuffisant et écologiste, et que Donella Meadows, qui sʼest toujours présen-
tée comme « paysanne aussi bien que chercheuse », avait adopté un mode de
CROISSANCE OU STABILITÉ ? LʼENTREPRISE DU CLUB DE ROME… 37
modèle FREE (Feedback Rich Energy Economy Model), qui intègre des hypo-
thèses tout à fait différentes et conclut à la nécessité dʼune action bien plus
drastique et urgente contre le changement climatique [Fiddaman, 1996]. Mais,
pour revenir à Nordhaus, on peut remarquer au passage que, le modèle quʼil
choisit pour y « greffer » la question du changement climatique étant un modèle
de « croissance optimale » (celui de Ramsey), il était a priori peu probable
que les conclusions de ses simulations sʼopposent à la croissance…
de satisfaire les besoins de son pays ou dʼun groupe de pays : le monde « non
communiste ». Il nʼy a aucune prise en compte du monde dans sa diversité.
Le rapport au futur, quant à lui, diffère sensiblement dʼun modèle à lʼautre.
Pour le modèle World et ses différentes versions, il sʼagit, comme lʼa écrit
Philippe Braillard, dʼéchapper à un avenir catastrophique en infléchissant le
chemin suivi par lʼhumanité. Les simulations aboutissent à une multitude de
futurs en fonction des hypothèses initiales, et entre les divers scénarios simulés,
on opte pour celui qui aboutit à la situation la moins mauvaise. Dans les Limits
to Growth, cʼest cette situation finale qui importe plutôt que la trajectoire qui
va y conduire. Ce qui implique quʼon préfère des hypothèses conduisant à une
situation finale stable plutôt quʼà une oscillation continuelle du système. Dans
chaque simulation, on étudie lʼévolution sur lʼintervalle de temps global. Si le
système « survit », le scénario est validé. Sinon il est rejeté. Des analystes de
la méthode dite « dynamique des systèmes » ont montré par ailleurs que cette
méthodologie associait à chaque système un « comportement type » – parmi
trois ou quatre possibles –, et que le comportement overshoot and collapse
était lʼun dʼeux. Cela montre à quel point le discours (« nous allons droit dans
le mur ») du Club de Rome et son choix méthodologique concourent à délivrer
le message des limites de la croissance.
Pour les deux autres modèles, il nʼy a pas dʼenjeu vital de type « sauver
la planète », et pas de manichéisme « bons/mauvais scénarios ». Il sʼagit
dʼoptimiser un paramètre, pour chaque segment dʼune période donnée dans
le modèle de la fondation Bariloche, et sur la durée totale de la période pour
les modèles de Nordhaus. Le futur nʼest pas présenté comme une menace
potentielle. Pour le modèle Bariloche, il est vu comme le cadre potentiel de
lʼavènement dʼune société meilleure, et, pour Nordhaus, il nʼest présenté
ni comme positif ni comme négatif : cʼest simplement une période à gérer
intelligemment. Pour Herman Kahn, qui envisageait jusquʼà lʼexplosion dʼune
guerre nucléaire comme un phénomène gérable, les problèmes évoqués dans
les Limits to Growth ne se posent évidemment pas comme des questions cru-
ciales, dont la prise en charge urgente serait nécessaire pour que lʼhumanité
ait un avenir…
Nous avons abordé ici des modèles intégrant dans leur structure et leurs
équations des présupposés très différents sur la place de lʼhomme dans la nature
ou les possibilités de la technologie, déclinant la question de la croissance
mondiale de plusieurs manières et apportant tout un éventail de réponses à la
question initiée par le Club de Rome. Ces réponses semblent correspondre à
des positions sociales et culturelles ainsi quʼà des intérêts variés.
CROISSANCE OU STABILITÉ ? LʼENTREPRISE DU CLUB DE ROME… 41
Lʼavenir – lʼunique, pas celui des modèles – nous dira si la critique acadé-
mique de la croissance économique est bien morte, ou si, en ces temps troublés
de crise écologique, elle va renaître pour relayer lʼappel « altermondialiste »
et politique à une « décroissance soutenable », qui dénonce le dogme du
produit national brut comme indicateur ultime de la réussite dʼune société et
revendique la définition dʼobjectifs sociaux et écologiques plus concrets.
RÉFÉRENCES BIBLIOGRAPHIQUES
Pierre Matarasso
Au début des années 1970, le Club de Rome engage des recherches sur
lʼavenir planétaire. Ces recherches tentent de démontrer quʼune croissance
indéfinie est impossible en raison des ressources minières limitées et de lʼac-
cumulation de pollutions. À la vision traditionnelle de la science économique
qui sʼintéresse aux interactions entre des agents humains médiatisées par
des marchandises, le Club de Rome oppose la nécessité de rendre compte
de lʼinfluence des activités économiques sur la biosphère. Le rapport Limits
to Growth, basé sur les travaux de J. Forrester et D. Meadows [Meadows et
alii, 1972], sʼefforce de donner à cette approche un fondement scientifique.
À partir de cette époque, notre vision de lʼéconomie réelle commence donc à
sʼétendre de lʼanalyse des échanges et de la formation des prix vers lʼunivers
des phénomènes physiques, chimiques et biologiques de niveau planétaire qui
résultent des activités humaines. Par ailleurs, les visions du futur ne peuvent
plus se contenter dʼêtre des projections du passé en raison de la croissance
des populations, de la raréfaction de certaines ressources, de lʼévolution des
techniques et des transformations irréversibles de lʼenvironnement1.
La question du couplage de modèles économiques avec les modèles de
la climatologie et les modèles écologiques se pose. La nécessité dʼappréhen-
der le très long terme, bien au-delà des horizons envisagés jusque-là par la
« prévision » économique, sʼimpose également. En effet, les climatologues
introduisent un « temps long » dans lʼanalyse du climat du fait de lʼinertie
considérable (de lʼordre du siècle) des phénomènes géophysiques et géo-
chimiques. En termes économiques, la question du changement climatique
devient, à partir des années 1980, celle de la comparaison du coût des actions
du climat) et, probablement, la conquête dʼautres planètes. Son travail sur les
self-reproducing automata donnera naissance à la métaphore des Von Neumann
probes qui matérialisent une extension interplanétaire des machines ! Quelques
années plus tard, Kenneth E. Boulding, René Dubos et, après eux, Jay Forrester
et Dennis Meadows se préoccupent de la finitude des ressources fossiles et
de lʼaccumulation des pollutions ; leur optique est centrée sur lʼidée que la
planète Terre est le vaisseau spatial à gérer. Tjalling C. Koopmans et Herbert
Simon, deux futurs prix Nobel, travaillent dès les années 1950 dans le cadre
de la Cowles Commission2 sur le thème du développement économique en
lien aux futures sources dʼénergie jusquʼà imaginer des déploiements massifs
de lʼénergie nucléaire dans les pays en développement.
Les approches méthodologiques sont diverses :
— John von Neumann avec les automates « autoreproducteurs » et son
travail sur lʼéquilibre général des années 1930 a posé des bases théoriques,
mais très idéalisées des problèmes de croissance et de ce que lʼon bapti-
serait aujourdʼhui la « soutenabilité » ; il sʼappuie sur des représentations
technologiques détaillées qui convoquent des « processus élémentaires » et
« des événements discrets », ce qui nʼest pas étonnant de la part de lʼun des
unificateurs de la mécanique quantique ;
— Jay Forrester et Norbert Wiener, qui viennent de la cybernétique appli-
quée à des problèmes militaires (radars, poursuite de cible, guidage…), éla-
borent des paradigmes en termes de systèmes dʼéquations différentielles
simultanées et de contrôle (notion de feedback) pour modéliser des « systèmes
complexes » ;
— Herbert Simon et Tjalling C. Koopmans cherchent, dans le cadre de
la Cowles Commission, à joindre élaboration mathématique des problèmes
économiques et études appliquées (logistique des transports, énergie, prévi-
sion…). La Cowles est le lieu où lʼinteraction des économistes et des ingénieurs
ayant travaillé pour la Rand Corporation, lʼU.S. Air Force et le Pentagone va
se produire autour de la mathématisation de lʼéconomie.
Cʼest à partir de ces différents points de vue que vont se développer les
paradigmes de modélisation qui sont actuellement à lʼœuvre dans la probléma-
tique du changement climatique. Nous allons tenter dʼexpliquer pourquoi les
conceptions de von Neumann et Koopmans vont sʼimposer par lʼentremise de
leurs héritiers spirituels, William Nordhaus et Alan Manne, qui sont devenus
les figures centrales contemporaines de la recherche sur lʼéconomie du chan-
gement climatique. Au contraire, Forrester et Meadows seront de plus en plus
2. La Cowles Commission qui deviendra la Cowles Foundation a été fondée par Alfred Cowles
après la crise de 1929. Son but est de rapprocher lʼéconomie des sciences exactes par une utilisation
systématique des mathématiques. T. C Koopmans jouera un rôle essentiel dans sa direction. Nous
donnons plus loin quelques éléments sur lʼhistoire de cet organisme. Un point de vue sur cette
organisation : http://cepa.newschool.edu/het/schools/cowles.htm
LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE… 47
contestés à partir des années 1980. La critique qui leur sera opposée sʼattaque
autant à leur objectif déclaré de « croissance zéro » quʼà leur méthode, qui
repose sur la dynamique des systèmes. On pourrait penser que la suprématie
méthodologique de la Cowles Foundation est le résultat de la posture ins-
titutionnelle très forte de cette structure, faite de publications scientifiques
remarquées et de commandes fédérales (la Cowles produira plusieurs lauréats
du prix Nobel en économie). À lʼinverse, la critique académique adressée au
Club de Rome paraît provenir de son ambition plus contestataire. Le Club
de Rome est une organisation plus européenne quʼaméricaine et il réussit
magistralement son opération de communication destinée à lancer lʼalerte, ce
que des chercheurs comme Boulding ou Dubos nʼavaient pas réussi à faire.
Mais dans un deuxième temps, Limits to Growth va susciter une réaction
extrêmement violente et fera lʼobjet dʼun procès en nullité de la part du milieu
des sciences économiques.
Il est tentant de renvoyer le relatif échec méthodologique du Club de Rome
à son message politique radical (la « croissance zéro ») et à sa position institu-
tionnelle plus marginale. De même, le succès de la Cowles Foundation semble
pouvoir être attribué à sa notoriété académique et politique. Cette explication
des succès relatifs de ces deux organisations est légitime, mais elle nʼest que
partielle. Il est nécessaire de sʼinterroger également sur les méthodes et les
protocoles scientifiques suivis par ces équipes, finalement rivales, en matière de
modélisation. Les héritiers spirituels de Koopmans proposent-ils une méthode
de modélisation plus adaptée que celle de Forrester ? La prééminence des
conceptions de la Cowles Foundation est-elle une conséquence logique de la
sélection des méthodes les plus opératoires ou bien une injustice de lʼhistoire
vis-à-vis de Forrester et Meadows ? Pourquoi, en dépit de lʼinvention de
méthodes de modélisation novatrices, matérialisées par les langages de pro-
grammation des systèmes dynamiques Dynamo et Stella, Forrester nʼa-t-il pas
la même postérité ? Pourquoi, enfin, le modèle IMAGE, séquelle principale du
Club de Rome, reste-t-il confiné au cercle de ses créateurs ? Autant de questions
qui impliquent dʼanalyser la formation de « communautés épistémiques » dans
le monde de la modélisation liée au changement climatique.
3. La description détaillée de la manière dont la Cowles sʼest engagée dans les questions de
ressources non renouvelables et dʼénergie se trouve dans le rapport dʼactivité des années 1970-1973,
disponible sur Internet à lʼadresse : http://cowles.econ.yale.edu/P/reports/1970-73.htm, où les rôles
respectifs de Koopmans, Nordhaus et Manne y sont précisés.
LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE… 49
Une différence essentielle entre tous ces modèles tient à leurs modalités
de développement. On note une croissance spontanée, par emprunt ou colla-
boration dʼindividu à individu, dans le cas des modèles « paradigmatiques ».
Dans les modèles « coopératifs », la collaboration prend un caractère plus
organisé grâce à la mise en place dʼune institution qui assure la diffusion des
sources. Le premier type sʼillustre par le modèle DICE (Dynamic Integrated
Model of Climate and Economy) de William Nordhaus et le second par le
modèle MARKAL (Market Allocation Model), associé en particulier au nom
dʼAlan Manne. On peut se convaincre de la diffusion de DICE et MARKAL
en comptabilisant leurs occurrences dans la littérature scientifique et dans
les communications à lʼEnergy Modeling Forum. Depuis quelques années,
le Forum, organisé en commun avec lʼIIASA, est jumelé avec les rencontres
de lʼassociation des utilisateurs de MARKAL (ETSAP) : plusieurs dizaines
dʼéquipes travaillent ou ont travaillé sur DICE ; les applications de MARKAL
dépassent la trentaine de pays et ont mobilisé près de 75 équipes. DICE comme
MARKAL sont en général présentés dans des revues ou des livres qui four-
nissent les listes dʼéquations, les informations extensives sur les méthodes
de résolution et leurs justifications. Le programme informatique commenté
est parfois diffusé intégralement. Ces modèles possèdent donc un caractère
générique incontestable, les équations sont des « types » dʼéquations qui peu-
vent être adaptées à divers contextes (MARKAL) ou diverses préoccupations
(DICE). Face à cette diffusion, les autres modèles conservent leur crédibilité
mais demeurent restreints aux équipes qui les développent4.
On pourrait faire remarquer que le modèle du Club de Rome vérifie, en
commun avec DICE et MARKAL, les conditions larges de diffusion grâce
à lʼutilisation des langages de programmation Dynamo, puis du langage
Stella qui sont friendly oriented ; dès le milieu des années 1970, les criti-
ques du modèle « Limits to growth » pouvaient en reproduire les résultats.
Cependant, il a toujours manqué à Jay Forrester un ancrage dans la science
économique et un fondement théorique pour être reconnu par la communauté
des économistes. Le modèle IMAGE nʼa pratiquement fait lʼobjet dʼaucune
publication dans les journaux scientifiques consacrés de la discipline tandis
quʼun consensus méthodologique, se traduisant par de nombreuses publications
académiques, sʼest établi assez rapidement autour de DICE et MARKAL. Ce
consensus autour des méthodes de la Cowles Foundation est fondé sur une
base conceptuelle solide, et également sur le réseau de ceux qui partagent
cette base conceptuelle. On entend ici par base conceptuelle une structure de
concepts qui permet dʼenseigner les modèles, de guider les nouveaux arrivants
vers le développement de problématiques et dʼapplications inédites. La base
4. Cela ne doit pas sʼinterpréter comme une réserve à lʼégard des modèles moins diffusés,
nécessaires à lʼenrichissement, à lʼévolution et à la critique des modèles les plus diffusés.
50 LES MODÈLES DU FUTUR
5. Voir lʼintroduction des Remarques philosophiques de Wittgenstein (qui cite Ramsey et Sraffa)
et celle de Production de marchandises par des marchandises de Sraffa qui, lui, cite Ramsey [Sraffa,
1960].
6. Voir par exemple : http://www.wittgen-cam.ac.uk/cgi-bin/text/biogre.html, « Wittgenstein
biographical sketch », et aussi les ressources des Wittgenstein Archives, http://gandalf.aksis.uib.
no/wab/
52 LES MODÈLES DU FUTUR
7. On devrait ici, bien entendu, évoquer Keynes qui jouait un rôle éminent dans ce qui se passait
à Cambridge. Mais, comme lʼindique le titre de notre article, lʼanalyse historique ici proposée ne
prétend pas à lʼexhaustivité.
8. Voir en particulier Ramsey [1927, 1931].
LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE… 53
12. On peut mentionner : théorème de Brouwer, topologie, dualité, point selle, minimax…
LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE… 55
La Cowles Foundation fut lʼun des lieux dʼaccueil des membres du cer-
cle de Vienne fuyant le nazisme. Elle bénéficia en particulier de lʼapport du
séminaire de Menger13. Les travaux que Koopmans développe empruntent
beaucoup aux modèles « de von Neumann » et « de Ramsey » et lui vaudront
le prix Nobel dʼéconomie (conjointement avec le russe Kantorovitch14). Deux
jeunes participants de la fondation, Kenneth Arrow et Herbert Simon, ont pour
maîtres deux autres membres éminents du cercle de Vienne, respectivement
Anton Wald et Rudolf Carnap.
Koopmans, élève de Timbergen et Frisch, se lance dans une étude des
systèmes de transport optimaux. En étudiant systématiquement cette question,
de même que celle plus générale des resources allocations, Koopmans se rend
compte de leur proximité, dʼune part, avec la théorie de lʼéquilibre général
développée par von Neumann et Wald, dʼautre part, avec les représentations
en « analyse dʼactivités » et la programmation linéaire développée par Dantzig
dans le cadre de lʼU.S. Air Force. À cette époque, lʼanalyse dʼactivités est
considérée comme une profonde innovation dans le domaine de la représenta-
tion de la production en économie. En 1949 se tient une conférence à laquelle
participent la plupart des futurs grands noms de lʼéconomie des États-Unis :
Samuelson, Arrow, Koopmans, Simon, Dantzig, Georgescu-Roegen. Cette
conférence donnera la brochure n° 13 de la Cowles Commission. Debreu
et Arrow réalisent des prolongements théoriques à ces formalismes et les
rattachent à une conception logiquement rigoureuse de lʼéquilibre général
[Koopmans, 1951a]. Lʼentreprise de la Cowles sʼoriente vers la mise en place
dʼun paradigme économique qui sʼétend de la théorie jusquʼaux applications,
peut se décliner à diverses échelles dʼespace et de temps et qui couple analyse
dʼactivités et théories de lʼutilité en partie reprises de Ramsey15. Parallèlement,
la Cowles développe aussi de nombreux travaux économétriques avec, en
particulier, Lawrence Klein.
Lorsque survient la crise de lʼénergie, Koopmans commence à fréquenter
lʼIIASA ; il sʼinterroge avec Simon sur la validité des modèles économétriques
pour traiter de ces problèmes où technologies et long terme jouent des rôles
importants. Pour Koopmans, statistiques et économétrie sont intéressantes
dans les périodes où le futur est dans la droite ligne du passé. Mais si le futur
implique des ruptures par rapport au passé, il faut dʼautres méthodes. En
particulier, les méthodes économétriques et les fonctions de production sont
16. « À mes yeux, un modèle constitué dʼun ensemble de processus alternatifs [comme lʼanalyse
dʼactivités, ndt] représente une manière plus appropriée de rendre compte des possibilités de production
quʼun modèle input-output [à la Leontief, ndt] ou encore un modèle fondé sur des fonctions de
production continues [fonctions de production Cobb-Douglas, CES…, ndt]. »
17. « Il y a peu dʼintérêt à consacrer nos efforts à réaliser des scénarios du genre de ceux que
la “world dynamics” et le Club de Rome ont récemment popularisés. Au lieu de cela, ce qui est
nécessaire, ce sont des modèles capables de représenter des états alternatifs et cohérents des systèmes
énergétiques au niveau de la production de milliers de terawattheures. À ma connaissance, le seul
modèle de ce type est celui de Kenneth Hoffman du Brookhaven National Laboratory, qui est réalisé
à partir des techniques de la programmation linéaire [il sʼagit du modèle BESOM, qui deviendra
MARKAL, ndt] » [Simon, 1973, p. 1110-1121]. Et plus loin Simon ajoute : « Nous produisons des
rapports statistiques et des prévisions détaillées sur de multiples aspects des problèmes de lʼénergie,
mais nous manquons des capacités dʼanalyse et de programmation orientées vers la conception de
systèmes énergétiques, capacités que nous savons parfaitement mettre en place. »
LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE… 57
entre les deux formalismes est traitée dans la monographie de la Cowles sur
lʼanalyse dʼactivités et dans le livre de Samuelson, Dorfman et Solow, Linear
Programming and Economic Analysis [1958]. Peu après, Alan Manne [1960]
présente une critique du livre de Hollis Chenery et Paul Clark, Interindustry
Economics. Dans ce texte, il critique très vivement les méthodes à la Leontief,
les « matrices carrées » input-output, au profit de lʼanalyse dʼactivités (matrices
rectangulaires). Les mots sont durs : « Les meilleures capacités dʼanalyse des
spécialistes de lʼapproche input-output [à la Leontief, ndt] ont été mises au
service de bricolages et de ravaudages autour du formalisme initial ; de telles
improvisations auraient pu largement être évitées si lʼon avait eu recours à
lʼanalyse dʼactivités. » On ne peut évoquer plus brutalement le « bricolage »
de la macroéconomie. Lʼannée suivante, il publie avec Harry Markowitz
(futur prix Nobel) une monographie de la Cowles fondée sur lʼespoir dʼune
macroéconomie qui reposerait sur une représentation claire des processus liés
aux activités humaines en termes de process analysis [Manne et Markowitz,
1960].
Dix ans plus tard environ, ces idées sont reprises par K. C. Hoffman dans
sa thèse pour mettre en place le prototype du modèle MARKAL. Manne est
lʼun des premiers à appliquer les méthodes de process analysis au thème
sectoriel de lʼénergie, puis en collaborant avec les équipes de MARKAL, à
concevoir MARKAL-Macro [Manne, 1994a]. Il étend par ailleurs, à partir des
années 1990, les principes du process analysis aux questions de lʼeffet de serre
dans le cadre du modèle MERGE [Manne, 1995]. Il apporte une contribution
majeure à la structuration du débat sur ce sujet.
Les années 1970 voient lʼémergence aux USA des premiers travaux qui
critiquent la croissance comme objectif fondamental de lʼactivité économique.
Nordhaus, disciple de Koopmans, joue un rôle de premier plan dans la critique
du rapport Limits to Growth au travers dʼabord dʼun article rédigé avec Tobin,
« Is growth obsolete ? », en 1972 [Nordhaus et Tobin, 1972]. Il poursuit avec
lʼune des critiques les plus systématiques et argumentées des modèles de
Forrester et Meadows. Lʼarticle « World Dynamics : measurement without
data » [1973a] est le premier pas de son engagement dans une recherche sur
les prospectives mondiales en liaison avec le thème de lʼénergie et du CO2.
Cet article est une analyse technique détaillée de la structure des équations
du modèle du Club de Rome et une tentative de considérer le modèle comme
« une théorie scientifique » à laquelle on fait passer des épreuves. Nordhaus
fait tourner le modèle, réalise des analyses de sensibilité… et arrive à des
conclusions dévastatrices :
58 LES MODÈLES DU FUTUR
18. Voir Nordhaus [1992a, p. 1315-1319 ; 1993, p. 27-50]. Ces deux textes signalent explicitement
que lʼon se place dans le cadre dʼun modèle intertemporel de Ramsey.
LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE… 59
CONCLUSION
RÉFÉRENCES BIBLIOGRAPHIQUES
ARMATTE M. (2004), « Les sciences économiques reconfigurées par la pax americana », dans
DAHAN A. et PESTRE D, Les Sciences pour la guerre (1940-1960), Presses de lʼEHESS,
Paris, p. 129-173.
KOOPMANS T. C. (1951a), Activity Analysis of Production and Allocation, proceedings of a
conference, par Tjalling C. Koopmans, en collaboration avec A. Alchian, G. B. Dantzig,
N. Georgescu-Roegen, P. A. Samuelson, A. W. Tucker, John Wiley, New York (http://
cowles.econ.yale.edu/P/cm/m13/index.htm).
LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE… 61
Michel Armatte
Lʼirruption dʼune réflexion projective sur le temps peut être datée des
grandes crises économiques de la fin du XIXe, qui sont aussi concomitantes de
controverses méthodologiques importantes [Armatte et Desrosières, 2000].
La première grande crise des années 1880-1890, qui se traduit par de grands
désordres sur les marchés de lʼemploi et de la finance, découvre ce nouveau
thème, les business cycles, la grande affaire des quarante années suivantes.
Cʼest une période de forte innovation dans les représentations mentales, puis
techniques du mouvement économique, qui sʼincarne dans la vogue des baro-
mètres et dans la naissance des principaux instituts de conjoncture européens
et nord-américains [Armatte, 1992]. Ces baromètres qui visent à décrire les
cycles économiques deviennent des instruments « magiques » de prévision.
De cette période date la démarcation stricte entre le temps de la conjoncture,
avec ses cycles saisonniers et ses projections à très court terme (1 à 6 mois),
et le temps long des évolutions tendancielles ou des fluctuations économiques
quʼillustrent les cycles de Kuznets et de Kondratiev (40 ans). La prévision
conjoncturelle sʼappuie principalement sur des indicateurs statistiques et des
enquêtes auprès des ménages et des chefs dʼentreprises ou encore des dires
dʼexperts, et elle produit des notes de synthèse qui se vendent aussi bien aux
entrepreneurs quʼaux politiques.
2. Bernard et Cossé [1974, p. 68]. La tension entre les approches comptables et économétriques
dans les exercices de prévision budgétaire ou de planification a été décrite par Alain Desrosières
[1999] sous la belle formule de « la commission et lʼéquation », et illustrée par des comparaisons
éclairantes entre le Plan français et le Plan néerlandais.
3. « Il faut vous confier que le modèle physico-financier ne sait pas marcher à lʼenvers […]. Si
vous remettez la chair à saucisse dans le hachoir à viande et faites tourner celui-ci à lʼenvers, il ne
vous redonnera pas les morceaux de gras et de maigre. Alors, pour faire marcher Fifi à lʼenvers, il
faut procéder par tâtonnements » [interview de R. Martin à Europe n° 1, 15 janvier 1970, cité par
Bernard et Cossé, 1974].
4. En quelques mois, fin 1969, on a exploré 9 variantes dʼincertitude, 28 variantes de sensibilité,
14 variantes de politique économique et 21 variantes de politique budgétaire et fiscale. « Nous avions
franchi la limite dʼune utilisation honnête du modèle », écrivent Bernard et Cossé, qui signalent les
vives réactions des organisations syndicales qui se disent dépossédées.
5. Pour éviter la confusion entre prévision et objectifs, on a dʼailleurs séparé assez artificiellement
le document littéraire livré aux débats parlementaires et les projections économiques pour 1975,
publiées ultérieurement.
68 LES MODÈLES DU FUTUR
6. Voir les Histoires du temps de J. Attali [1999] et lʼEssai d’analyse de mouvements économiques
de longue durée de S. Walery [1987].
LES ÉCONOMISTES FACE AU LONG TERME… 69
La démarche prospective
soit des organismes alternatifs comme le Congressional Clearinghouse for the Future aux États-Unis,
la fondation Bariloche en Argentine, ou le GAMMA (Groupe associé Montréal, McGill pour lʼétude
de lʼavenir) à lʼuniversité de Montréal. Voir les contributions dʼÉlodie Vieille Blanchard et de Pierre
Matarasso dans cet ouvrage.
9. Citations extraites de Berger [1964].
LES ÉCONOMISTES FACE AU LONG TERME… 71
10. Le groupe comprenait une équipe permanente – Pierre Guillaumat (président), Mme J. Krier,
J. Bernard, E. Claudius-Petit, M. Demonque, L. Estrangin, J. Fourastié, Cl. Gruson, B. de Jouvenel,
Ph. Lamour et G. Levard –, mais sʼest adjoint les collaborations de P. Delouvrier, Cl. Lévi-Strauss,
J. Delors et R. Aron.
72 LES MODÈLES DU FUTUR
croissance endogène, il est vrai que les économistes lʼont souvent réduite à
lʼétat de squelette » [Guellec et Ralle, 1996, p. 86]. Ces modèles ont souvent
achoppé sur la représentation du progrès technologique et de lʼinnovation, mais
aussi sur celle des arbitrages intertemporels. Le choix dʼun taux dʼactualisation,
fait pour les choix dʼinvestissement, a conduit à des aberrations dʼarbitrage
coût-efficacité sur le plus long terme13 (50 ou 100 ans). La modification du
contexte socio-économique sur ce long terme a invalidé la modélisation macro-
économique dans la forme dominante, à savoir lʼéconométrie structurelle.
Lʼimportance des boucles de rétroaction a réduit également les prétentions
de la généralisation des modèles linéaires. Un petit nombre dʼéconomistes,
soucieux de coller à la diversité des filières de production industrielles ou
énergétiques, ont préféré sʼappuyer sur les deux traditions similaires mais
concurrentes des modèles input-output de Leontief ou des modèles dʼanalyse
dʼactivité de Koopmans, dont un lointain rejeton est le modèle de projection
énergétique MARKAL14 (Market Allocation Model).
La démarche prospective représente une autre alternative, mais ses carac-
téristiques principales – le long terme, la projection volontariste et la pluralité
des futurs – donnent à la discipline une originalité, voire une odeur de soufre,
qui en éloigne a priori les économistes, effrayés par son éclectisme. Compte
tenu cependant des limites des autres méthodes, la prospective économique
et sociale a trouvé sa place en affirmant sa spécificité.
Toute étude prospective commence par la construction dʼune base, cʼest-
à-dire lʼélaboration du système de représentation qui sʼappuie sur un recueil
de données qualitatives et statistiques auprès des experts. Dans cette étape, il
faut donc identifier les acteurs collectifs ou individuels, leurs objectifs et leurs
contraintes, ainsi que le jeu dʼéléments et de leurs relations présumées qui défi-
nit la structure du problème. Plutôt que de se saisir des modèles formalisés de
lʼéconomie quʼils jugent trop fermés, les prospectivistes préfèrent se référer à
lʼanalyse des systèmes. Forrester et sa dynamique des systèmes à base de liens
entre flux et stocks et de boucles de rétroaction telle quʼelle sʼest incarnée dans
le modèle World 3 du Club de Rome est une première forme de cette analyse.
Les prospectivistes français se référent aussi à Yves Barel [1971] qui a théorisé,
pour la DATAR, cette filiation avec la systémique, dans une double approche
cognitive et décisionnelle15, ou encore au groupe des chercheurs québécois de
lʼINRS (Institut national de la recherche scientifique) auteurs dʼun gros mémo-
randum sur la méthode des scénarios [Julien, Lamonde et Latouche, 1975].
13. Voir le chapitre rédigé par Christian Azar dans le présent ouvrage.
14. Voir ici même le chapitre rédigé par Pierre Matarasso.
15. « La prospective pose globalement trois problèmes théoriques et méthodologiques majeurs :
celui du passage de la partie au tout, celui de la nature de la réalité constituant lʼobjet dʼétude et
celui du traitement scientifique de la décision et de la normativité. Sur ces trois points, lʼapproche
systémique semble pouvoir faire des apports à la prospective » [Barel, 1971].
LES ÉCONOMISTES FACE AU LONG TERME… 75
Forts échanges
A B1 B2 B3
Nord-Sud
Relations entre
Divisions
pays en C
Nord-Sud
développement
Fragmentation
D
Sud
Fort heureusement, cette logique combinatoire nʼest pas seule en jeu car le
rapport Interfuturs développe une analyse qualitative et des récits en forme de
storylines qui enrichissent considérablement cette typologie. Mais, dans dʼautres
cas, on nʼa pas échappé à des systématisations de cette méthode de construction
de scénarios. Pour réduire les divergences des experts sur un problème donné, la
méthode Delphi, développée à la Rand à la fin des années 1950 par Olaf Helmer
et Norman Dalkey, recense dʼabord les réponses indépendantes des experts et
dégage une médiane. Les faisant ensuite discuter sur leurs divergences autour de
cette médiane, on les amène par itération à resserrer fortement leurs estimations.
Si la méthode a eu quelques succès dans des exercices de prospective techno-
logique, sur des questions quantitatives (dates, volumes, prix), elle est bien peu
adaptée aux questions dʼévolution des sociétés à lʼéchelle mondiale.
Une seconde voie pour sélectionner des scénarios possibles et cohérents
consiste à explorer la combinatoire des événements possibles. Mais les appro-
ches combinatoires ne conviennent guère que pour des microscénarios, relatifs
à des sous-sytèmes pour lesquels le nombre dʼéléments est suffisamment petit
pour éviter une combinatoire explosive. Et il faut ensuite agréger ces micro-
scénarios en un scénario global. Lʼanalyse morphologique, dont les scénarios
dʼInterfuturs forment un cas typique, permet cette décomposition dʼun système
en sous-systèmes et en composantes. Il est possible dʼappuyer cette analyse
morphologique sur une quantification des événements par des variables prenant
chacune en compte plusieurs modalités possibles : un scénario est alors une
configuration (un vecteur) de modalités remarquables et compatibles. Dans
cet espace des scénarios possibles, on peut définir des distances, des voisi-
nages… [Ayres 1969], et même des probabilités. À la fin des années 1960,
à lʼInstitute for the Future, T. Gordon a développé la méthode des « impacts
croisés » sous la forme de matrices de co-occurrence dʼévénements assorties
de leurs probabilités de réalisation et dʼinteraction, chiffrées par une simulation
de Monte-Carlo, et cette table permet de tester la sensibilité des événements
futurs aux politiques. En France Michel Godet a développé sur cette base la
méthode SMIC et lʼa implantée dans un logiciel « Prob-Expert » permettant
de classer des scénarios par probabilité décroissante [Godet, 1985 ; Lesourne,
1990]. Mais beaucoup de prospectivistes rejettent ces probabilisations.
soulignent que « le modèle nʼa pas connu une grande faveur en prospective »
parce que, disent-ils, « en lʼabsence de base théorique valable pour choisir
le sous-ensemble de propriétés structurelles du système […] le modèle est
inefficace et source dʼerreur ». Plus encore, le modèle mathématique est beau-
coup trop lié à un usage de prévision rigide avec lequel il faut rompre, et il
ne permet pas dʼintégrer les dimensions stratégiques et volontaires (valeurs,
jeux dʼacteurs, objectifs) dʼune vision prospective. Des auteurs, reprenant une
opposition classique entre approche « humaniste » et méthode scientifique,
considèrent que la méthode des scénarios est un bon compromis entre le
modèle et lʼimage, ou encore, comme on le dit aujourdʼhui, entre le modèle
et le récit [Grenier, Grignon et Menger, 2001]. Cette opposition sʼest muée
en une complémentarité dès lors quʼon sʼest convaincu que la modélisation
macroéconomique se révélait incontournable dans la phase de déroulement
des scénarios. Nous avons vu que le VIe Plan (1971-1976) a pour la première
fois utilisé un modèle, Fifi, qui avait posé quelques problèmes. En 1979,
Michel Albert, nouveau commissaire en charge du VIIIe Plan, est encore
interpellé par les conclusions des simulations du modèle macroéconomique
dynamique multisectoriel (DMS) qui conduisent toutes à une forte aggrava-
tion du chômage dʼici 1985. Il décide dʼengager une étude complémentaire à
base de scénarios pour illustrer le cheminement du marché de lʼemploi et des
politiques à suivre en la matière. Le rôle du modèle est alors dʼexplorer des
variantes analytiques du scénario de référence (on en a exploré plus de 90)
en jouant sur une seule variable de commande à la fois (taux des cotisations
sociales, barème de lʼimpôt, investissement des administrations publiques…).
Les scénarios apparaissent alors comme des combinaisons de variantes. Ici
lʼinterpénétration des deux méthodes est forte puisque les variantes du scénario
de référence forment la matrice des scénarios contrastés.
En 1979, lʼéquipe de J. Lesourne a utilisé SARUM (System Analysis
Research Unit Model), un modèle néoclassique mondial à 10 secteurs et
12 régions, élaboré au Royaume-Uni par le département de lʼEnvironnement,
mais uniquement dans la seconde phase, cʼest-à-dire pour réaliser des projec-
tions macroéconomiques quantitatives, à lʼintérieur de scénarios prédéterminés
par une analyse qualitative, et fournir pour chacun dʼeux des images finales
et des cheminements macroéconomiques plus précis.
Lʼexpérience plus récente du Central Planning Bureau (CPB) va nous
permettre dʼexplorer une autre articulation possible entre modèle et scénarios.
Scanning the Future [CPB, 1992] est une étude prospective à horizon 2015
(25 ans) de lʼéconomie mondiale qui a pour objectifs de stimuler le débat
public et de fournir les éléments dʼétudes sectorielles ou régionales. Lʼétude
sʼannonce comme une tentative de combiner lʼapproche orientée modèle avec
la méthode des scénarios. Curieusement, la publication de cette étude ne fait
LES ÉCONOMISTES FACE AU LONG TERME… 81
16. Le CPB fut sous la direction de Tinbergen un bureau de planification, mais nʼest plus quʼun
institut de recherche indépendant dont le nom complet est Netherland Bureau of Economic Analysis.
« Le Bureau ne planifie pas lʼéconomie hollandaise. Ce serait naturellement déplacé dans une économie
de marché telle que celle des Pays-Bas. »
17. Worldscan est construit à partir dʼune approche néoclassique de la croissance et du commerce
international, sur la base dʼune fonction de production qui intègre deux facteurs travail (low and high-
skilled), et dʼune spécification du commerce de type Armington pour le moyen terme et Heckscher-
Ohlin pour le long terme.
18. En lʼoccurrence, il sʼagit de la base de comptabilité sociale du Global Trade Analysis Project
de la Purdue University sur laquelle sʼappuient de nombreux modèles de type « équilibre général
calculable » de la Banque mondiale.
82 LES MODÈLES DU FUTUR
Ouverture et convergence
Faible Forte
Durabilité du développement
(régional) (global)
Faible (dominance économique) A2 A1
Forte (dominance social/environnement) B2 B1
19. Il sʼagit dʼAIM (Japon), ASF (USA), IMAGE (Pays-Bas), MARIA (Japon), MESSAGE
(IIASA), MiniCAM (USA).
LES ÉCONOMISTES FACE AU LONG TERME… 85
CONCLUSION
RÉFÉRENCES BIBLIOGRAPHIQUES
ALCAMO J. (dir.) (1994), IMAGE 2.0 : Integrated Modeling of Global Climate Change, Kluwers
Academic Publishers, Dordrecht.
ARMATTE M. (1992), « Conjonctions, conjoncture et conjecture. Les baromètres économiques »,
Histoire et mesure, vol. VII, n° 1-2, p. 99-149.
– (2004), « Les sciences économiques reconfigurées par la pax americana », dans DAHAN A.
et PESTRE D. (dir.), Les Sciences pour la guerre, 1940-1960, Presses de lʼEHESS, Paris,
p. 129-174.
– (2005a), « Economical models of climate change : the costs and advantages of integration »,
dans FREGUGLIA P. (dir.), The Sciences of Complexity : Chimera or Reality ?, Esculapuio,
Bologne, p. 51-71.
– (2005b), « La notion de modèle dans les sciences sociales : anciennes et nouvelles
significations », Mathématiques et sciences humaines, n° 172, p. 91-123.
LES ÉCONOMISTES FACE AU LONG TERME… 89
II.
Hélène Guillemot
1. Lʼun est développé depuis le début des années 1970 au Laboratoire de météorologie dynamique
(LMD), qui dépend du CNRS, et lʼautre à Météo France, en relation avec le modèle de prévision
opérationnel.
94 LES MODÈLES DU FUTUR
donner une prédiction toutes les trois heures ! Quelques décennies plus tard,
le programme de Bjerknes sera réalisé, en utilisant les équations formulées
par Richardson – grâce à un calculateur électronique.
Dès 1945, le grand mathématicien John von Neumann voit dans la météo-
rologie un domaine dʼapplication idéal pour les tout nouveaux calculateurs :
la météorologie pose des problèmes de dynamique des fluides non linéaires
et insolubles analytiquement, elle exige une grande puissance de calcul – et
son importance pratique et stratégique nʼest plus à démontrer. De plus, le
développement rapide, durant la guerre, des réseaux dʼobservation en alti-
tude et des moyens de télécommunication assure le flux de données néces-
saire à lʼétablissement des prévisions. Sous lʼimpulsion de von Neumann, le
Meteorological Project est lancé en 1946, à Princeton, en relation étroite avec
la construction du nouvel ordinateur Johnniac. En sept ou huit ans, lʼéquipe
dirigée par Jules Charney obtient une prévision opérationnelle pour tout le
territoire des États-Unis.
Le calcul par ordinateur permet aussi dʼeffectuer aisément des « expé-
riences numériques », autrement dit de tester des hypothèses sur les mécanis-
mes climatiques en calculant des prévisions susceptibles dʼêtre confrontées
aux données. Outre lʼintérêt scientifique de ces recherches, il est admis que
lʼamélioration de la prévision du temps passe par une meilleure compréhen-
sion des mécanismes généraux du climat. Dès le début des années 1950, les
scientifiques de Princeton développent, à côté des modèles de prévision, des
« modèles de circulation générale » (Global Circulation Models, en abrégé
GCM), dont lʼobjectif est de reproduire les propriétés moyennes des mouve-
ments de lʼatmosphère. Ces GCM sont les ancêtres directs des modèles de
climat actuels.
Le premier modèle numérique de circulation générale de lʼatmosphère fut
achevé par Norman Phillips en 1955 à Princeton. À partir de formulations sim-
plifiées des équations de la dynamique, il parvenait à reproduire les grands traits
de la circulation à lʼéchelle du globe (courants jets2, dépressions…). Ce succès
a institué la circulation de lʼatmosphère comme thème de recherche majeur.
2. Les courants jets sont des vents très forts de très haute altitude, souflant dʼouest en est à peu
près horizontalement, sur plusieurs milliers de kilomètres, et font partie des structures météorologiques
de grande échelle majeures en météorologie, bien identifiables à la fois dans les observations et les
simulations.
96 LES MODÈLES DU FUTUR
3. Dès 1945, en lançant le projet de développer la prévision du temps par ordinateur, John von
Neumann mentionne le contrôle du climat comme lʼun des objectifs de la modélisation numérique
[Nebecker, 1995].
4. Ce revirement a été décrit et analysé par C. Kwa dans Miller et Edwards [2001].
5. Cependant, localement, certaines théories sur le rôle des hommes dans certains changements
climatiques ont eu un impact public dans le passé [Fleming, 1998].
LES MODÈLES NUMÉRIQUES DE CLIMAT 99
Expériences numériques
ce qui se passe dans ces modèles complexes. Pour cela, les modélisateurs ont
fréquemment recours à des modèles simples, schématisés, du modèle complet
– des « métamodèles » en quelque sorte. Alors que, dans un GCM (modèle
de circulation générale) long et détaillé où interviennent de nombreuses
rétroactions, il est difficile dʼattribuer telle caractéristique du climat simulé à
telle paramétrisation, un modèle simple permet dʼisoler dans des conditions
maîtrisées une composante climatique, sans avoir tous les couplages et les
rétroactions.
Toutefois, il demeure essentiel de sortir de lʼunivers du modèle, de le
confronter aux données dʼobservation. Il y a en effet une différence majeure
entre expérience numérique et expérience de laboratoire : dans une expérience
de laboratoire, lʼhypothèse à tester est mise à lʼépreuve du monde réel, alors
que lʼexpérience numérique ne met en jeu quʼune représentation algorithmique
du climat. La confrontation avec le véritable climat a lieu en comparant les
simulations du modèle aux observations du climat réel. Aux yeux des cher-
cheurs, cʼest la mise à lʼépreuve du modèle par les observations du climat,
appelée « validation », qui confère au modèle sa valeur scientifique.
Le flux de données fourni par les réseaux terrestres, les satellites et les
campagnes de mesure augmente exponentiellement, mais ces données instru-
mentales sont récentes et nʼoffrent que peu de recul – quelques décennies tout
au plus. Or on doit observer le climat sur de très longues durées si lʼon veut
étudier la fréquence des événements extrêmes, ou le rôle des composantes
lentes comme la végétation, les glaciers ou lʼocéan profond, particulièrement
dans la perspective du changement climatique. Dʼoù la nécessité de valider les
modèles sur les climats passés. Les modèles climatiques sont en effet capables
de simuler les climats anciens comme ceux dʼaujourdʼhui, pourvu quʼon leur
fournisse les conditions aux limites correspondant aux périodes concernées
(constante solaire, albédo, taux de CO2 atmosphérique, températures de surfa-
ces des océans). On a ainsi modélisé le climat du dernier maximum glaciaire
LES MODÈLES NUMÉRIQUES DE CLIMAT 105
(il y a 20 000 ans) et le climat dʼil y a 6 000 ans (quand le Sahara était humide
et couvert de végétation), ce qui permet de valider les modèles en confrontant
leurs simulations aux données paléoclimatiques.
On dispose dʼune grande variété dʼarchives climatiques : sédiments des
fonds marins, glaces des calottes polaires ou du Groenland, tourbes ; et pour
les climats plus récents, cernes dʼarbres, coraux, voire archives historiques.
Ces données se prêtent à toutes sortes dʼanalyses : ainsi, le dosage isotopique
de lʼoxygène des glaces polaires permet de remonter à la température de lʼair
au moment de leur formation. La comparaison entre simulations numériques
et données paléoclimatiques permet de valider le modèle par les données, mais
aussi parfois les données par le modèle, car les mesures paléoclimatiques,
elles aussi, passent par plusieurs étapes de traduction et dʼinterprétation. En
réalité, la validation nʼest pas une relation à sens unique, mais un processus
itératif complexe, qui comprend de multiples allers et retours entre simula-
tions et données.
Les modélisateurs le soulignent souvent : on parvient à valider un modèle
par rapport au climat actuel, mais il est plus difficile de valider la « sensibilité »
de ce modèle au changement climatique, cʼest-à-dire la façon dont ses para-
métrisations répondront à lʼaccroissement de lʼeffet de serre. De ce point de
vue, il est intéressant de tester les modèles pour des paléoclimats, cʼest-à-dire
dans des conditions très éloignées de celles du présent – comme le seront les
climats futurs que les modèles doivent être capables de simuler.
sur le climat à moyen et long terme. Dès quʼon veut donner des prévisions
météorologiques au-delà de quelques jours (pour la prévision saisonnière),
étudier des phénomènes de grande ampleur comme les événements de type
El Niño, et a fortiori prévoir lʼévolution du climat sur plusieurs décennies, on
doit prendre en compte les interactions entre océan et atmosphère en modé-
lisant simultanément les deux fluides et leurs échanges – ce quʼon appelle
« coupler » les modèles. Des modèles globaux dʼocéan (à trois dimensions
et fondés sur les équations de la dynamique des fluides, comme les modèles
atmosphériques) ont été couplés aux modèles dʼatmosphère au début des
années 1990 aux États-Unis – dix ans plus tard en France6.
Le couplage océan-atmosphère est une opération lourde qui exige à la fois
une réflexion approfondie sur les échanges physiques entre les deux milieux
et un important travail informatique. Dans un premier temps, les modèles
couplés présentaient des « dérives » : ils nʼétaient pas capables de reproduire
un climat stable, comme le faisaient les modèles atmosphérique ou océanique
pris séparément. Pour corriger ces défauts, des équipes de modélisation ont eu
recours à des techniques appelées « ajustements de flux », grâce auxquelles
les échanges à la surface océanique sont ajustés en permanence pour retrouver
des prédictions acceptables. Dʼautres modélisateurs ont préféré ne pas utiliser
ces procédés empiriques quʼils jugeaient peu rigoureux7. Aujourdʼhui, lʼamé-
lioration des couplages permet de calculer les échanges sans ajustement.
des gaz à effet de serre dans lʼatmosphère pour le XXIe siècle et les suivants,
qui sont utilisés comme « forçages » par les modèles de climat pour produire
des simulations de climats futurs. Une quinzaine dʼéquipes de modélisateurs
du climat dans le monde consacrent ainsi une part importante de leur temps
et de leurs moyens de calcul à la réalisation de ces simulations9, et plusieurs
centaines de climatologues travaillent aux rapports du GIEC comme contri-
buteurs, auteurs ou « auteurs principaux », responsables dʼun chapitre. Ce
travail de synthèse et de recherche de consensus de même que les thèmes mis
en avant ne sont pas sans influencer la recherche sur le climat. Lʼemprise du
changement climatique ne se limite pas aux travaux du GIEC ; elle se manifeste
également au travers des projets de recherche européens ou mondiaux, dans
les financements et les postes octroyés, ou par les initiatives des laboratoires
et des équipes. Ainsi, la tendance à lʼintégration de milieux, de rétroactions et
de cycles nouveaux dans les modèles participe dʼune volonté de mieux prendre
en compte tous les facteurs influençant le climat à long terme.
9. En France, les deux communautés de modélisateurs de climat nʼont pas réalisé de simulations
pour les premiers rapports du GIEC (1990 et 1995) et très peu pour le troisième (en 2001), mais des
chercheurs français figuraient parmi les auteurs et les travaux cités. En revanche, pour le 4e rapport,
qui paraîtra en 2007, le modèle de lʼIPSL et celui de Météo France ont effectué un grand nombre de
simulations de changement climatique.
10. Lʼinstitut Pierre-Simon Laplace (ou IPSL), créé en 1992, regroupe six laboratoires de la
région parisienne étudiant différentes composantes de lʼenvironnement et du climat, dont le LMD
pour lʼatmosphère et le LODYC pour lʼocéan. Cʼest au niveau de lʼIPSL quʼest pris en charge le
modèle couplé océan-atmosphère, dont le modèle atmosphérique du LMD constitue le noyau et
qui inclut de plus en plus de milieux et de domaines (végétation, chimie, etc.) modélisés dans ses
différents laboratoires.
108 LES MODÈLES DU FUTUR
RÉFÉRENCES BIBLIOGRAPHIQUES
lʼexpression de régime – au sens non pas des sciences politiques mais des
science studies – utilisée par de nombreux auteurs pour caractériser les modes
de production du savoir scientifique contemporain, quand ils se déploient
pour résoudre des problèmes en liens organiques avec des pratiques indus-
trielles, des choix économiques, des régulations politiques et juridiques, des
débats éthiques et sociaux2. Notre thèse est alors dʼaffirmer que le régime
du changement climatique devient de plus en plus hétérogène et multiple, et
se caractérise par une hybridation croissante et singulière des dynamiques
proprement scientifiques et des dynamiques politiques.
Lʼobjet principal de ce chapitre est de revenir sur cette évolution intervenue
au cours des vingt dernières années, sur le rôle déterminant quʼy ont joué le
GIEC et dʼautres institutions du régime. Afin de réfléchir à ce que cet exemple
nous enseigne sur les liens, à lʼéchelle internationale, entre science et poli-
tique ; sur les questions de construction et de fonctionnement à cette échelle
de lʼexpertise, prise entre normes de scientificité et exigences de délibération
démocratique. Nous interrogerons en particulier lʼidée selon laquelle ce serait
par la convergence cognitive de tous les partenaires impliqués autour des
questions scientifiques et, ensuite, par le consensus autour de leurs solutions
quʼune politique pourrait être définie et acceptée. Comment cette idée rend-elle
compte des relations complexes entre science, politique et expertise ?
2. Plusieurs auteurs ont utilisé le terme à propos de lʼInternational Weather Regime mis en place
par les météorologistes après la Seconde Guerre mondiale. Voir Clark Miller [2001a] ou Daniel
Bodansky [2001]. Lʼutilisation semble devenir ensuite courante à propos du changement climatique.
Du côté des science studies, Dominique Pestre [2003], commentant les ouvrages de M. Gibbons et
alii [1994] et H. Nowotny et alii [2001], a thématisé lʼexpression de « régime ».
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 115
utiliser ces ressources pour installer des observatoires dans les zones peuplées
(déjà couvertes) afin dʼaffiner les prédictions locales et directement utilisables
par les pays ? Les réponses des scientifiques et des politiques étaient a priori
fort éloignées ; néanmoins, les modes dʼinteraction des deux groupes ont
permis dʼaboutir à la construction de solutions de compromis.
En 1988, lʼOrganisation météorologique mondiale et le Programme des
Nations unies pour lʼenvironnement (PNUE) décident de créer une instance
mondiale dʼexpertise, unique en son genre : le Groupe dʼexperts intergouver-
nemental sur lʼévolution du climat (GIEC). Le GIEC, constitué de plusieurs
centaines de scientifiques, est chargé non seulement dʼinformer les gouverne-
ments de lʼétat des connaissances sur le sujet, mais aussi de passer en revue
les politiques nationales ou internationales liées à la question des gaz à effet
de serre. Ce nouvel organisme dʼexpertise doit faire lʼétat de lʼart (scientifi-
que et technologique), susciter des recherches utiles aux politiques – ce que
lʼon nomme la policy-relevant research. Cependant, il ne doit en aucune
manière empiéter sur les prérogatives et la souveraineté des États nationaux,
et sa mission sʼoppose à tout ce qui pourrait être perçu comme une démarche
prescriptive (policy-prescriptive research).
La période nʼest plus celle de la guerre froide. La question climatique
et ses dimensions environnementales vont se révéler dʼune telle ampleur
quʼelles vont notamment contribuer au retour sur la scène internationale des
pays en développement. Certes, le changement climatique nʼest pas le seul
facteur de la reprise du dialogue Nord-Sud, en panne depuis la décolonisation
des années 1960, et qui nʼavait pas débouché sur un rattrapage des écarts de
développement. Certes, lʼémergence récente dʼun marché mondial, dominé
par les concentrations industrielles et financières, a provoqué par le processus
des délocalisations un transfert de richesses vers des pays émergents et recon-
figuré la répartition du développement. Mais dʼautres modes dʼinteraction se
mettent en place progressivement dans une co-construction du scientifique et
du politique quʼil sʼagit dʼexplorer dʼici.
Les États-Unis ont joué un rôle déterminant pour faire pression sur le
conseil exécutif de lʼorganisation météorologique mondiale et imposer le
compromis dʼun tel mécanisme intergouvernemental. Pourtant, les points
de vue américains étaient aussi variés que concurrents. LʼAdministration
républicaine pensait en particulier quʼil nʼy avait aucune évidence scienti-
fique quant au changement climatique qui puisse justifier une action poli-
tique trop onéreuse. En revanche, lʼAgence américaine de protection de
lʼenvironnement (lʼEnvironment Protection Agency, EPA) et le département
dʼÉtat soutenaient lʼidée dʼune convention, mais pas celle dʼun mécanisme
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 117
5. Cette exigence a été constamment réaffirmée par ses présidents successifs (Bert Bolin, Robert
Watson qui lʼa remplacé en 1997 et, depuis 2003, lʼIndien Rajendra K. Patchauri).
118 LES MODÈLES DU FUTUR
premier rapport de 1990, à lʼaide de ces modèles auxquels ils intègrent les
concentrations de gaz à effet de serre – concentrations croissantes selon lʼhypo-
thèse du business as usual –, les climatologues prédisent un accroissement
de la température moyenne du globe au cours du XXIe siècle de 0,3 °C par
décennie. Ils insistent toutefois sur les incertitudes (concernant le rôle des
nuages, les océans, les sols, et aussi les sources et les puits de gaz à effet de
serre). Ce premier rapport, qui établissait une claire distinction entre le « chan-
gement climatique » – dʼorigine anthropique – et la « variabilité climatique »
(attribuable à des causes naturelles), a sensibilisé les politiques et entraîné la
convocation par lʼassemblée générale des Nations unies de la conférence de
Rio de Janeiro en juin 1992.
du WRI, il conseille divers États, notamment de la côte Est, dans leurs politiques et prospectives
énergétiques. Il continue à être une personnalité importante lors des COP.
8. 6 000 personnes ont assisté à la COP 10 de Buenos Aires en 2004 : 2000 délégués, 3000 obser-
vateurs ainsi que des membres dʼONG, des chercheurs, des représentants dʼinstitutions diverses.
9. Sur le rôle des ONG au sein du régime du changement climatique, on peut lire Kal Raustiala
[2001].
120 LES MODÈLES DU FUTUR
LE FONCTIONNEMENT DE LʼEXPERTISE
Comme lʼa écrit Ulrich Beck [2001], les risques écologiques se singu-
larisent par leur statut ambigu, à la fois objectif et subjectif : objectif, car
procédant dʼévolutions physiques aux effets concrets, et subjectif au sens où
ils nʼaccèdent à la conscience (individuelle ou collective) quʼau terme dʼun
long travail de construction. A fortiori, le risque climatique nʼest pas un donné
mais un construit. Au moment de la création de cet organisme dʼexpertise et
dʼévaluation des risques quʼest le GIEC, aucun consensus profond nʼexistait
entre les gouvernements sur les instances qui garantiraient lʼexpertise, sur
ce qui se verrait reconnaître le statut dʼévidence et, enfin, sur les moyens de
remettre en question ou de critiquer cette expertise. De vives tensions sont
apparues sur tous ces sujets, et elles ont pesé sur les formes quʼa revêtues cette
expertise, sur son fonctionnement et sur le périmètre de ses compétences.
11. Le texte de lʼarticle 9 de la Convention qui porte sur le SBSTA stipule : « Lʼorgane, agissant
sous lʼautorité de la Conférence des Parties et sʼappuyant sur les travaux des organes internationaux
compétents, a pour fonctions : a) de faire le point des connaissances scientifiques sur les changements
climatiques et leurs effets ; b) de faire le point, sur le plan scientifique, des effets des mesures
prises en application de la Convention ; c) de recenser les technologies et les savoir-faire de pointe,
novateurs et performants, et dʼindiquer les moyens dʼen encourager le développement et dʼen assurer
le transfert ; d) de fournir des avis sur les programmes scientifiques, sur la coopération internationale
et la recherche-développement en matière de changements climatiques et sur les moyens dʼaider les
pays en développement à se doter dʼune capacité propre ; e) de répondre aux questions scientifiques,
technologiques et méthodologiques que la Conférence des Parties et ses organes subsidiaires pourront
lui poser. »
124 LES MODÈLES DU FUTUR
Si, aux yeux des scientifiques, les rapports complets du GIEC (plusieurs
milliers de pages) constituent un état des lieux de la connaissance scientifi-
que relativement fidèle et satisfaisant, faisant apparaître éventuellement les
divergences, les incertitudes ou une dispersion dans les résultats, les résumés
en revanche ont un statut bien différent. Ils effectuent inévitablement une
sélection et une synthèse pour trouver un consensus entre les politiques – y
compris sur la formulation des dissensus. Cette recherche dʼun accord sur la
manière de formuler les désaccords et les alternatives a pu conduire parfois,
dans les résumés, à un style lénifiant sans arêtes ni dramatisation.
Pourtant, est-ce la proximité du processus politique, la déconstruction des
évidences scientifiques (en particulier au sein du SBSTA) ou le fait que les
contestations politiques viennent de tous bords (pas seulement des pays du
Sud, mais aussi de la part des États-Unis ou de lʼAustralie), toujours est-il que
le GIEC a encouragé une pratique réflexive de lʼexpertise, notamment dans le
cas des controverses scientifiques porteuses dʼenjeux politiques.
Citons le cas dʼun climatologue américain du MIT, Richard Lindzen, qui
avait avancé plusieurs théories contestant la rétroaction positive de la vapeur
dʼeau et des nuages sur lʼeffet de serre. Ses thèses, en mettant en cause tant
lʼimportance du réchauffement global que la capacité des modèles à le simuler,
ont vite débordé la sphère scientifique et fourni des arguments de poids aux
« sceptiques » du changement climatique. Toutefois, ces désaccords, débattus
en profondeur par le groupe de travail du GIEC chargé de rédiger lʼexpertise
sur ce point, ont été en grande partie résolus. Une scientifique française [Bony,
2004], membre du groupe, en a fait le récit. Elle y voit un exemple de la façon
dont la controverse scientifique rigoureuse peut faire progresser lʼexpertise.
Nous pouvons, réciproquement, y trouver un exemple de la manière dont
une polémique politique peut faire avancer la controverse scientifique : la
126 LES MODÈLES DU FUTUR
13. Les trois principales mesures auxquelles ils ont abouti sont les suivantes :
— les permis dʼémission internationalement négociables, cʼest-à-dire la possibilité pour un pays
soumis à des quotas dʼémission de les respecter en important des permis additionnels de pays où les
coûts dʼabattement des émissions sont inférieurs ;
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 127
— lʼapplication conjointe (AC) : possibilité pour un pays de lʼannexe B (ceux qui se sont engagés
à limiter ou à réduire leurs émissions) de mener des projets dʼabattement des émissions dans un pays
tiers (lui aussi de lʼannexe B) et dʼen retirer des crédits dʼémission ;
— le mécanisme de développement propre (MDP) : même principe que lʼapplication conjointe,
sous contrainte que les projets contribuent réellement au développement durable du pays hôte, classé
dans des pays hors annexe B.
128 LES MODÈLES DU FUTUR
14. Special Report on Emissions Scenarios [2000]. Voir le texte de Michel Armatte ici même
(chapitre III).
15. Ces scénarios ont été élaborés sans postuler lʼintervention explicite de politiques générales
en matière de climat et ne prennent pas en compte les objectifs dʼémissions fixés par le protocole
de Kyoto, même sʼils postulent à des degrés divers lʼeffet de préoccupations gouvernementales, par
exemple le développement de technologies peu consommatrices dʼénergie.
16. Dans le troisième rapport de 2001, quatre autres variables ont été introduites : les concentrations
de gaz à effet de serre autres que le gaz carbonique ; et on parle « dʼéquivalent carbone ».
17. Voir le texte dʼÉlodie Vieille Blanchard (chapitre I du présent ouvrage).
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 129
18. Enquête effectuée lors des COP 10 et 11 – Buenos Aires (2004) et Montréal (2005). Une
douzaine dʼentretiens y ont été réalisés par lʼauteur et Venance Journé. Je remercie vivement cette
dernière de sa collaboration et de ses suggestions. Dʼautres chercheurs du domaine font état dʼéchos
similaires. Voir Myanna Lahsen [2004] ou Clark Miller [2004].
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 131
20. Il sʼagit des inventaires concernant les sources dʼémission dans chaque pays desquels sont
ensuite soustraits les puits de gaz à effet de serre, non contrôlés par le protocole de Montréal.
21. Voir le texte dʼEmilio Lèbre La Rovere et alii dans cet ouvrage (chapitre VII). Voir aussi
Fogel [2004].
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 133
res nationaux soient soumis à une évaluation internationale, bien que cette
« révision » demeure non contraignante pour les gouvernements nationaux. Au
final, ce sont ces derniers, et non le GIEC ou tout autre organisme, qui restent
responsables de ces bilans. LʼInde, le Brésil et même, en 2005, la Chine ont
commencé à présenter leurs bilans nationaux dʼémissions. Que les méthodolo-
gies standard pour les bilans nationaux dʼémission de CO2 soient développées
par les pays eux-mêmes revêt sans doute une importance stratégique, car cette
décision assure une meilleure acceptation que celle de standards fournis et une
prise de conscience directe de la responsabilité des divers secteurs. Quant à
la question des transferts de technologies du Nord vers le Sud, en particulier
les technologies friendly-climate permettant aux pays du Nord de gagner des
crédits dʼémission en implantant des technologies moins émettrices, elle a été
lʼobjet de conflits très vifs, les pays du Nord étant soupçonnés de défendre
une stratégie ayant pour eux tous les avantages.
Les débats à lʼintérieur du SBSTA illustrent les défis inhérents à tout effort
de mobilisation de la science pour soutenir une politique publique. Ils se sont
cristallisés, dit Miller, principalement sur trois ordres de questions22 :
— questions de contingence : le recours à lʼargument de contingence (des
événements climatiques) sʼopposant fréquemment à lʼassertion de validité
universelle des énoncés scientifiques ou de leurs conséquences ;
— des questions de confiance ou de crédibilité : comment garantir la
validité de certaines assertions, avoir confiance dans les résultats des experts
scientifiques ?
— des questions dʼordre moral, la science privilégiant toujours certaines
voies de connaissance et certaines interprétations de la nature, qui ne vont pas
de soi et ne sont pas partagées spontanément par tous les pays.
La déconstruction de lʼévidence scientifique au sein du SBSTA offre
beaucoup dʼanalogies avec le processus fastidieux de négociation décrit par
Sheila Jasanoff [1995] autour des questions de contentieux lors de procès, aux
États-Unis, mettant en cause des résultats scientifiques. Cette déconstruction
systématique, associée à la règle du consensus unanime, cʼest-à-dire « un vote,
un veto », est à lʼorigine de la lenteur extrême du processus. À plusieurs repri-
ses, des scientifiques des trois groupes du GIEC ont préféré ne pas soumettre
de nouvelles méthodologies (par exemple relatives aux guidelines) de crainte
de voir le processus sʼenliser à nouveau, les méthodologies en compétition
pouvant avoir des implications directes sur lʼattribution des responsabilités
en matière dʼémissions.
Le SBSTA a fourni un forum dans lequel des pays qui nʼauraient en son
absence jamais été impliqués dans des processus dʼorganisation de conseil
22. Nous reprenons ici lʼanalyse de Clark Miller, qui a pu suivre les débats dans le détail durant
les premières années de fonctionnement de lʼorganisme.
134 LES MODÈLES DU FUTUR
23. Aujourdʼhui, les présidences des trois groupes de travail sont ainsi partagées : Suzan Solomon
(USA) et Qin Dahe (Chine) pour le groupe I, Osvaldo Canziani (Argentine) et Martin Parry (Royaume-
Uni) pour le groupe II, Bert Metz (Pays-Bas) et Ogunlade Davidson (Sierra Leone) pour le groupe III,
la présidence du GIEC revenant à lʼIndien Rajendra Patchauri qui a succédé en 2003 à la figure très
charismatique de Robert Watson (USA).
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 135
groupe II, mais celui-ci sʼest surtout concentré sur lʼévaluation des impacts du
changement climatique, et lʼadaptation a été longtemps négligée. Aujourdʼhui,
les dirigeants du GIEC affirment fortement leur engagement dans cette nou-
velle priorité de lʼadaptation, et les responsables des groupes II et III pour
le 4e rapport (2007) affirment que ce dernier va mieux intégrer lʼanalyse
des vulnérabilités et de lʼadaptation, multiplier les études de cas concrets.
Lʼobjectif est de montrer que prendre des mesures dʼadaptation – entendue ici
comme associée à la réduction des émissions – nʼest pas forcément ruineux
pour une économie et pourrait même être stimulant. Mettre lʼadaptation en
avant, cʼest bouleverser un peu plus la hiérarchie dʼinfluence entre les trois
groupes du GIEC, souligner le rôle du deuxième groupe et, surtout, permettre
que les pays moins développés et industrialisés sʼintègrent toujours davantage
au processus dʼévaluation. En conséquence de ce « tournant de lʼadaptation »,
le GIEC a décidé dʼélargir lʼévaluation des recherches existantes à lʼanalyse
de case-studies et à lʼétude de la littérature grise des pays en développement
car, disent les responsables, les savoirs locaux relatifs à lʼadaptation ne sont
pas des savoirs codifiés et académiques, ils font peu lʼobjet de publications
dans des revues scientifiques internationales. Décision politiquement très
significative !
24. Voir à ce sujet Callon, Lascoumes et Barthe [2001], Bonneuil et alii [2005].
136 LES MODÈLES DU FUTUR
RÉFÉRENCES BIBLIOGRAPHIQUES
AGRAWALA S. (1998a), « Context and early origins of the Intergovernmental Panel on Climate
Change », Climate Change, n° 39, p. 605-620.
– (1998b), « Structural and process history of the Intergovernmental Panel of Climate
Change », Climate Change, n° 39, p. 621-642.
BECK U. (2001), La Société du risque, Champs Flammarion, Paris (1re édition 1986).
BODANSKY D. (2001), « The history of the global climate change regime », dans LUTERBACHER U.
et SPRINZ D. (dir.), International Relations and Global Climate Change, MIT Press,
Cambridge, Mass., p. 23-40.
BONNEUIL C., GAUDILLIÈRE J.-P. ET TESTARD J. (2005), Quelle politique scientifique pour entrer
dans le XXIe siècle ? Vers un nouveau contrat entre recherche et société, contribution de la
fondation Sciences citoyennes aux états généraux sur lʼavenir de la recherche, octobre,
note 2 (http://sciences citoyennes.org/img/pdf/note-recherche-v28.10.04.pdf).
BONY S. (2004), « Comment le débat scientifique a fait progresser lʼexpertise sur les rétroactions
atmosphériques », dans LE TREUT H. et alii (dir.), Science du changement climatique.
Acquis et controverses, Éditions de lʼIDDRI, Paris, p. 38-42.
CALLON M., LASCOUMES P. et BARTHE Y. (2001), Agir dans un monde incertain. Essai sur la
démocratie technique, Le Seuil, Paris.
COHEN S. (2003), La Résistance des États. Les démocraties face aux défis de la mondialisation,
Le Seuil, Paris.
COOPER R. (1999), The Postmodern State and the World Order (1996), Demos, Londres.
DAHAN DALMEDICO A. (2007), « Models and simulations in climate change. Historical,
epistemological, anthropological and political aspects », dans CREAGER A., LUMBECK E.
et WISE N. (dir.), Science without Laws : Model Systems, Cases and Exemplary Narratives,
Duke University Press, Durham et Londres, p. 184-237.
DAHAN DALMEDICO A. et GUILLEMOT H. (2006), « Changement climatique : dynamiques
scientifiques, expertise, enjeux géopolitiques », Sociologie du travail, juillet-septembre,
vol. 48, n° 3, p. 412-432.
DENIS B. (2006), La politique internationale du climat. Analyse du processus de construction
du cadre international de lutte contre le réchauffement global, thèse en sciences politiques,
Université libre de Bruxelles, 2 volumes.
EDWARDS P. N. et SCHNEIDER S. H. (2001), « Self-governance and peer-review in science-
for-policy : the case of the IPCC second assessment report », dans MILLER C. A. et
EDWARDS P. N. (dir.), Changing the Atmosphere, Expert Knowledge and Environmental
Governance, MIT Press, Cambridge, Mass., p. 219- 246.
FOGEL C. (2004), « The local, the global and the Kyoto protocol », dans JASANOFF S. et
MARTELLO M. L. (dir.), Earthly Politics. Local and Global in Environmental Governance,
MIT Press, Cambridge, Mass., p. 103-126.
GIBBONS M., LIMOGES C., NOWOTNY H., SCHWARTZMAN S., SCOTT P. et TROW M. (1994), The
New Production of Knowledge : The Dynamics of Science and Research in Contemporary
Societies, Sage Publications, Londres.
138 LES MODÈLES DU FUTUR
RAUSTIALA K. (2001), « Nonstates actors in the global climate regime », dans LUTERBACHER U. et
SPRINZ D. F., International Relations and Global Climate Change, MIT Press, Cambridge,
Mass., p. 95-117.
ROQUEPLO P. (1993), Climats sous surveillance, Economica, Paris.
– (1997), Entre savoir et décision, l’expertise scientifique, Éditions de lʼINRA, Paris.
THEYS J. et KALAORA B. (1992), La Terre outragée. Les experts sont formels !, Éditions
Autrement, Paris.
YAMIN F. et DEPLEDGE J. (2004), The International Climate Change Regime, A Guide to Rules,
Institutions and Procedures, Cambridge University Press, Cambridge.
YEARLEY S. (1996), Sociology, Environmentalism, Globalization, Sage Publications,
Londres.
140 LES MODÈLES DU FUTUR
Jean-Charles Hourcade
théorique sur lequel ils sʼadossent) et les glissements de sens provoqués par
lʼutilisation dans le langage « naturel » des débats publics de notions sorties
de leur contexte sémantique.
Nous le ferons par un itinéraire passant par trois lieux importants de contro-
verse sur les politiques climatiques. À chaque étape, nous demanderons au
lecteur un peu de patience et nous lʼarrêterons sur des « détails » apparemment
techniques. Dans ces détails se jouent en effet les tensions entre les modèles
comme langage de vérité sur le monde réel et les modèles comme langage de
négociation entre des acteurs.
Les modèles dont on parle ici sont des artefacts utiles pour « penser » les
enjeux des mondes futurs. Mais on va voir comment ceux-ci sont interprétés
en fonction de croyances préétablies (changeantes en fonction des périodes et
des nécessités rhétoriques) et comment, sans élucidation de ces interprétations,
les risques sont grands que les exercices modélisés ne participent à des jeux de
masque qui amoindrissent leur capacité à révéler des mécanismes méconnus
et pourtant essentiels pour les débats publics.
1. Il nʼest pas inutile de noter que lʼargument vaut pour lʼexploitation des potentiels à coûts
négatifs : si les meilleures techniques ne sont pas adoptées aujourdʼhui, cʼest bien quʼil y a quelque
part une défaillance des structures dʼincitation.
2. Si, par des normes ou accords volontaires, on diffuse des moteurs consommant 2 L/100km
de carburant ex-fossile, cela fera baisser le coût de la mobilité automobile et rendra le transport
routier de marchandises plus compétitif par rapport au rail en lʼabsence dʼune hausse des taxes sur
les carburants.
LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE… 143
il dispose et le système symbolique qui formate ses goûts, mais il ne fera pas
durablement exprès dʼacheter très cher un bien peu utile.
Ce qui nous intéresse ici est le nœud de malentendus autour du traitement
de la composante physique dans un tel dispositif. Concentrons-nous, pour
des raisons de simplicité, sur la fonction de production (le raisonnement
vaut, mutatis mutandis, pour la demande des ménages). Lʼinformation de
base utilisée par un MEGC est un tableau de flux en valeurs dont on peut tirer
une structure de coût (part de dépenses allouées au travail, aux équipements,
à lʼénergie et aux autres consommations intermédiaires). Lʼéconomiste ne
connaît pas la fonction de production « physique » (au sens de lʼingénieur)
qui sous-tend ce tableau, fonction dʼailleurs trop complexe pour être écrite
en termes tractables. Mais lʼéconomiste la révèle à un niveau agrégé, grâce
à une technique précise3 qui est la reprise dʼun « truc » (wrinkle) employé
par Solow [1956] pour écrire son modèle de croissance devenu un modèle
canonique de la discipline.
Ce « truc » repose sur lʼhypothèse dʼégalité du rapport des prix des facteurs
et de leur productivité marginale (par exemple les salaires avec la productivité
du travail). On montre en effet4 que, autour dʼun point dʼéquilibre optimal,
on peut faire correspondre à une fonction de production « physique » une
fonction coût (en valeur). Concrètement, la première fonction dit que, pour
produire 100 unités dʼun produit donné, il faudra 100 000 heures de travail,
300 tonnes dʼénergie (en équivalent pétrole), 20 tonnes dʼacier et 100 unités
dʼune machine fictive (lʼamortissement du parc) ; la deuxième dira que les
salaires, le pétrole, lʼacier et les machines représentent 30 %, 10 %, 5 % et
15 % du coût de production. Dans les faits, les structures de coût seules sont
données par les statistiques ; on peut donc calculer ses coefficients puis révéler
ceux de la fonction « réelle » en connaissant les prix des facteurs5.
On peut bien sûr sʼinterroger sur le domaine de validité de ce « truc »
dont Solow lui-même avertissait dès 1988 quʼil était acceptable à un niveau
agrégé seulement (pour des buts spécifiques), ce qui implique d’être prudent6…
[Solow, 1988]. Mais du point de vue des représentations du monde en jeu dans
les joutes publiques, la caractéristique majeure de ce truc apparemment anodin
est de présupposer quʼà chaque point du temps les choix de techniques sont
optimaux pour un vecteur prix donné. Dans un tel dispositif, calibré sur les
réel reconnaîtra quʼil sʼagit ici dʼune hypothèse « héroïque ». Le débat de fond
est le suivant, résumé par cette phrase bien connue (dans le milieu concerné)
dʼAlan Manne et Rutherford : « Si lʼhypothèse dʼanticipation parfaite est
peu plausible, lʼhypothèse de comportements myopes est pire encore. » En
dʼautres termes, si on ne peut supposer que les agents anticipent correctement
à chaque point du temps, il est encore plus faux de supposer quʼils ne sont pas
instruits par lʼexpérience. De plus, si on veut représenter des scénarios avec
erreur dʼanticipation et correction lente des croyances, on doit multiplier les
hypothèses ad hoc sur ces erreurs ; cela débouche sur la genèse ad infinitum
de scenarios multiples avec, au total, un « plat de spaghettis » de courbes dont
on ne sait que faire. En cas dʼanticipation parfaite au moins, on dispose dʼun
cadre analytique clair et univoque, dʼun point de référence dont on connaît
les propriétés et quʼon peut comparer à lʼétat actuel des économies.
Ces arguments ne sont pas infondés même sʼils caricaturent un peu les
approches sans anticipation parfaite. Lʼécriture de scénarios contrastés permet
en effet dʼéviter le piège du « plat de spaghettis » et on peut modéliser les
structures dʼanticipation à retenir non pas à partir dʼhypothèses ad hoc, mais
sur la base de comportements observables (par exemple les pratiques dʼinves-
tissement des secteurs). Les scénarios en anticipation parfaite sont sûrement
utiles dʼun point de vue strictement analytique, mais le prix à payer est quʼils
ne peuvent représenter que des scénarios « en âge dʼor » situés sur un sentier
de croissance régulier. On sʼinterdit alors de représenter ce qui est lʼenjeu
majeur du point de vue de la décision publique, à savoir celui de la réaction à
un choc exogène (prix du pétrole par exemple) ou à des politiques publiques
dʼéconomies en déséquilibre ou en équilibre sub-optimal (chômage structurel
par exemple). Communiquer des résultats dans le débat public sans signaler
cette limite, cʼest faire comme si, vues sur le très long terme, les imperfections
étaient de simples « bruits » autour de tendances régulières. Cʼest une vision
possible de la croissance, mais une parmi dʼautres.
Or, représenter les trajectoires de croissance sous forme de trend régulier
plus ou moins pentu est loin dʼêtre anodin pour lʼévaluation du coût des poli-
tiques climatiques et pour la conduite du débat public.
7. Faire remarquer que le riche Chinois ou le riche Brésilien – sans parler des couches aisées
de la population en Arabie saoudite ou dans les Émirats – émet plus de gaz à effet de serre que
lʼEuropéen moyen est ici diplomatiquement inefficace vis-à-vis dʼun « G77 + Chine » qui négocie
pour lʼinstant « en bloc ».
148 LES MODÈLES DU FUTUR
corrects, on sʼapercevrait que, certes, il y a des arbitrages à faire (si des stra-
tégies climatiques peuvent être « sans regret », elles ne sauraient être « sans
douleur ») mais que ce nʼest pas entre climat et développement.
À titre illustratif de cet effet dʼhypnose, vous trouverez ci-contre deux
graphiques qui donnent un scénario de référence concernant la Chine, calculé
pour la Banque mondiale à partir dʼun modèle avec déséquilibre et dʼun scé-
nario avec tensions énergétiques. Dans le premier, le format de présentation
est classique ; on en tire lʼidée rassurante que les tensions énergétiques ne sont
pas un problème majeur. Dans le second graphique, on représente les mêmes
résultats en variations entre la courbe « sans heurt » et la courbe « avec fric-
tion ». Ce qui saute aux yeux alors est la soudaine perte de croissance dans
un premier temps, puis un choc vers 2025, comme si la Chine avait alors une
fragilité spécifique ; cʼest en fait celle du début dʼinversion de sa pyramide
dʼâge, donc de sa capacité dʼépargne. Immédiatement, on se dit alors quʼat-
ténuer ces tensions par des politiques dʼefficacité énergétique pourrait être un
double dividende significatif des politiques climatiques.
Convenons dʼabord que, pour diviser par quatre les émissions de carbone, il
faudra aller au-delà des potentiels dʼamélioration à très bas coût des appareils
utilisateurs dʼénergie et se doter de techniques plus sophistiquées et plus chères
au moins dans un premier temps (sinon le problème serait spontanément résolu).
Supposons quʼune norme impose une baisse de 20 % des émissions unitaires
moyennes pour produire un bien donné. En fait les entreprises ne sont pas tou-
chées de la même façon par cette contrainte : pour certaines, une baisse de 5 %
des émissions suffira, quʼelles obtiendront à coût nul en organisant simplement
un peu mieux lʼentretien et le réglage de leurs appareils de production ; dʼautres
se situent à la moyenne et il leur faudra augmenter leur coût unitaire de 100 _ à
120 _ par exemple ; dʼautres enfin, parce quʼelles ont un vieil équipement, devront
débourser 40 _ par tonne. Si lʼoffre nʼest pas excédentaire, ces entreprises vont
vendre leur produit à 140 _ par tonne (ou si le marché est élastique à 130 _ en
rognant sur leurs marges), et le résultat sera une rente nouvelle pour les deux
autres catégories dʼentreprises. En dʼautres termes, la gratuité dʼune norme nʼest
quʼapparente : on croit imposer une contrainte aux industriels, mais ceux-ci en
LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE… 151
8. Ce nʼest pas le cas pour les secteurs très énergivores (sidérurgie, ciment, non-ferreux, produits
pétroliers) pour lesquels la solution est a) dʼadmettre quʼune part seulement des permis est acquise
aux enchères, lʼautre étant obtenue gratuitement, b) de négocier des garanties auprès de lʼOMC
sur la possibilité de mesures protectionnistes contre les pays qui appliqueraient à leur industrie des
dispositifs plus laxistes que la règle commune (cf. la position de Stiglitz sur ce point).
152 LES MODÈLES DU FUTUR
le cas présent, il serait par trop commode de sʼen tenir là sans se poser des
questions sur la responsabilité propre des modélisateurs. Il existe en effet
des faiblesses techniques réelles dans les modèles existants et, lorsque des
plaidoyers pour les signaux prix sont construits sans précaution et en forme
dʼarguments dʼautorité, le risque est de ne convaincre que ceux qui sont prêts
à en accepter dʼentrée de jeu le contenu.
On revient ici, par un autre biais, aux querelles bottom-up versus top-down.
Dans leur version la plus pure en effet, les modèles top-down ne peuvent repré-
senter aisément que des réactions aux prix ; on peut certes essayer dʼy intégrer
des informations bottom-up sur lʼimpact dʼune norme, mais cela se fait via
des hypothèses exogènes sans quʼon ait en général assez dʼinformations sur
les coûts réels de la norme. Cʼest pourquoi les modélisateurs top-down sont
assez réticents sur ce type de manipulation, certains dʼentre eux dʼailleurs par
conviction a priori de la supériorité des signaux prix sur les normes (en fait
celle-ci dépend des domaines concernés en termes dʼefficacité incitative sur
le changement technique). Nier cette faiblesse de lʼétat de lʼart renforce les
postures de refus des signaux prix tant il est aisé de donner des exemples de
lʼintérêt des mesures « non-prix » comme les normes (qualité, sécurité) ou les
politiques dʼinfrastructures. De plus, la quasi-totalité des modèles nʼintègrent
que les prix du carbone par rapport aux autres biens et ignorent les prix du
foncier et de lʼimmobilier qui sont si importants pour lʼavenir des biocarbu-
rants (prix de la terre et compétition bioénergie-production alimentaire) ou
pour la dynamique des besoins de mobilité. Ces faiblesses nʼinvalident ni les
arguments qui font des prix du carbone un vecteur supérieur de coordination
internationale, ni le mécanisme du double dividende ; mais, en présentant le
signal prix comme lʼalpha et lʼoméga des politiques climatiques, alors quʼil
nʼen est quʼune précondition, tout sera prêt pour un blocage rhétorique tant
il est évident que cʼest sur une panoplie plus large de paramètres quʼil faut
jouer ; prétendre infléchir les tendances dans les transports via le seul prix
du carbone sans toucher à lʼimmobilier et aux infrastructures relève aussi
du mirage puisquʼil faudrait atteindre des niveaux de taxe inacceptables
politiquement.
La structure de ce blocage rhétorique va se retrouver mutatis mutandis dans
lʼaffaire des permis dʼémission négociables. Ceux-ci, parce quʼils introduisent
une contrainte sur le commerce extérieur (importation de permis) ont lʼavan-
tage, par rapport à des taxes, de pousser les gouvernements à mettre en jeu
lʼensemble des variables autres que le prix du carbone. Mais ce système a fait
lʼobjet de fortes résistances idéologiques et a été dénoncé comme conduisant
à la marchandisation de lʼenvironnement et à la possibilité pour les « riches »
dʼacheter des PEN aux « pauvres » sans pour autant transformer leurs modes
de consommation. Les modélisateurs vont bien sûr être conviés dans cette
querelle, mais ils seront pris au piège de la surinterprétation des résultats par
LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE… 153
choisir la trajectoire définitive dans vingt ans (quand nous en saurons plus)
pour conclure quʼil faut un décrochage immédiat significatif (autour de celui
exigé par Kyoto) (cf. graphique n° 3 et 4) si on veut se garder la possibilité
de bifurquer vers un objectif de 450 ppm.
Source : CIRED.
CONCLUSION
Le titre de cet article suggère que, convoqués pour éclairer les futurs, les
modélisateurs se retrouvent un peu comme les invités au Capitole : bien trop
proches de la Roche tarpéienne qui est ici celle du dédain de leurs travaux. Le
risque est alors de se priver de ce que, malgré leurs fragilités, les « expériences
numériques » quʼils mènent peuvent apporter : forcer chacun à rendre compte
de ses conjectures, de ses visions du monde et de ses choix normatifs, en des
termes tels quʼon peut en cerner la cohérence et les implications, et cela grâce
à ce juge de paix quʼest un modèle numérique.
Jʼespère avoir convaincu le lecteur que beaucoup se joue sur des détails
a priori sans intérêt. À chacune des étapes du parcours suivi, jʼai essayé de
montrer comment des astuces commodes (interpolation entre 0 °C et 2 °C
des courbes de dommages) ou des habitudes méthodologiques (fonctions de
production) peuvent sʼavérer dʼune importance inattendue. Cʼest parce que
de tels détails ne sont pas discutés quʼil est difficile de contrôler la surinter-
prétation des résultats au prisme de visions du monde soit préexistantes, soit
provoquées par la présentation même des travaux. Les modélisateurs portent
ici une part de responsabilité lorsque, pour protéger lʼélément de vérité contenu
dans leurs simulations, par peur de complexifier le message mais aussi par
enfermement dans leur propre langage, ils évitent dʼouvrir la boîte à outils
et ne se hâtent pas de signaler les glissements sémantiques effectués à partir
de leurs travaux.
Mais on ne peut faire comme si les « utilisateurs » eux-mêmes nʼavaient
pas leur part de responsabilité : attraction dʼune tangibilité parfois illusoire,
manque dʼéducation à lʼincertitude qui fait quʼon va chercher le best guess, le
« raisonnable », commodité que représente la polarisation des débats autour de
camps bien établis. Tout cela empêche de faire lʼeffort de percevoir la nature
des enjeux réels derrière les querelles de modèles.
Or ces querelles sont loin dʼêtre purement techniques ; que ce soit dans
lʼécriture des scénarios de base et la recherche de stratégies « sans regret »,
dans la discussion des mécanismes de marché ou dans celle du coût des
dommages, on a vu lʼimportance des notions dʼéquilibre, dʼoptimum et dʼan-
ticipation parfaite. Se contenter de dénoncer lʼirréalisme de ces notions, cʼest
enfoncer une porte ouverte (encore que des phénomènes dʼhypnose peuvent
expliquer que beaucoup les tiennent pour vraies) et ne pas comprendre la raison
LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE… 163
RÉFÉRENCES BIBLIOGRAPHIQUES
BABIKER M. H., REILLY J. M., MAYER M., ECKAUS R. S., SUE WING I. et HYMAN R. C. (2001),
The MIT Emissions Prediction and Policy Analysis, EPPA Model : Emissions, Sensitivities
and Comparison of Results, Massachusetts Institute of Technology, Joint Program on the
Science and Policy of Global Change, rapport n° 71.
BERCK P. et SYDSAETER K. (1992), Economists’ Mathematical Manual, Springer-Verlag,
Berlin.
BERNDT E. R. et WOOD D. O. (1975), « Technology, prices and the derived demand for energy »,
Review of Economics and Statistics, vol. 57, n° 3, p. 259-268.
FANKHAUSER S. (1995), Valuing Climate Change : the Economics of Greenhouse, Earthscan,
Londres.
FERRY L. (1992), Le Nouvel Ordre écologique, Grasset, Paris.
FRONDEL M. et SCHMIDT C. M. (2002), « The capital-energy controversy : an artifact of cost
shares? », The Energy Journal, vol. 23, n° 3, p. 53-79.
GRUBB M. J., HA DUONG M. et HOURCADE J.-C. (1997), « Influence socioeconomic inertia and
uncertainty on optimal CO2-emission abatement », Nature, n° 390, p. 270-274.
HARRISON G. W. et RUTHERFORD T. (1999), « Burden sharing, joint implementation and carbon
coalitions », dans CARRARO C. (dir.), International Agreements on Climate Change, Kluwer
Academic Publishers, Dordrecht.
HOURCADE J.-C. (1998a), « Débat autour du principe de précaution », Natures, sciences,
sociétés, vol. 6, n° 1, p. 41-45.
– (1998b), « Analyse économique, modélisation prospective et développement durable ou
comment faire remonter des informations du futur ? », Économies et sociétés, série F. 36,
n° 1, p. 175-192.
– (2002), « Dans le labyrinthe de verre. La négociation sur lʼeffet de serre », Critique
internationale, Fondation nationale des sciences politiques, avril, p. 143-159.
HOURCADE J.-C. et GHERSI F. (2002), « The economics of a lost deal : Kyoto-The Hague-
Marrakesh », The Energy Journal, vol. 23, n° 3.
164 LES MODÈLES DU FUTUR
III.
Christian Azar
1
Lʼouvrage sur la théorie microéconomique de Layard et Walters [1978]
sʼouvre sur lʼaffirmation suivante : « lʼéconomie fait les choses au mieux ».
Pourtant, notent les auteurs, David Hume avait déjà remarqué il y a deux siè-
cles quʼ« un devoir-être ne peut jamais être dérivé dʼun être ». Dʼune façon
ou dʼune autre, tout « devoir-être » est intrinsèquement lié à un jugement de
valeur. Cʼest ce qui explique lʼexistence dʼune composante normative forte
en économie du bien-être.
Pour déterminer si lʼon doit ou non sʼengager dans un projet, il faut faire
un certain nombre dʼhypothèses ; plusieurs dʼentre elles peuvent être discuta-
bles dʼun point de vue éthique. Cela est particulièrement vrai dans le contexte
des problèmes environnementaux à long terme. Il est important dʼen être
parfaitement conscient car nos résultats sont souvent perçus comme affran-
chis de tout jugement de valeur. De plus, notre vocabulaire économique, et
notamment le concept dʼoptimalité, véhicule une conception platonicienne du
monde, selon laquelle il existe – au sens ontologique du terme – un « meilleur
choix » possible, que lʼavancée des recherches doit révéler. Cela contribue
à accentuer la perception dʼune certaine neutralité vis-à-vis des valeurs.
Considérons ci-dessous la littérature économique traitant de la réponse au
changement climatique.
On se préoccupe beaucoup des changements climatiques graves quʼocca-
sionneront les émissions de gaz à effet de serre, et des menaces qui en résul-
teront sur la préservation de lʼéquilibre environnemental et social. Pourtant,
plusieurs études économiques – la plus célèbre a conduit au modèle nova-
teur DICE de Nordhaus [1994] – ont conclu que des mesures drastiques de
contrôle des émissions de CO2 se révéleraient très coûteuses, même si on tient
1. Ce texte est une version remaniée et simplifiée (par Amy Dahan) dʼun article de Christian Azar,
paru en anglais dans la revue Environmental and Resource Economics en 1998 [cf. Azar, 1998a]. La
traduction est de J. Koskas.
168 LES MODÈLES DU FUTUR
compte des bénéfices engendrés par la baisse des émissions (à savoir éviter les
dégâts causés par les changements climatiques). Ainsi, Nordhaus aboutit à la
conclusion quʼil serait optimal de laisser les émissions de gaz à effet de serre
être multipliées par trois au cours du siècle à venir. Plusieurs autres études
parviennent à des résultats similaires, par exemple Manne et alii [1995] et
Peck et Teiseberg [1995].
Néanmoins, ces résultats ont été remis en question par un nombre croissant
dʼétudes, comme celles de Cline [1992], Azar et Sterner [1996] et dʼautres.
Pour Cline, par exemple, une stabilisation des émissions mondiales à 4 GtC/an
(soit 30 % en dessous du taux actuel dʼémission de carbone fossile) se justifie-
rait « uniquement par des motifs économiques ». Et ce taux dʼémission suffirait
à stabiliser, au cours du siècle prochain, les concentrations atmosphériques à
des niveaux proches des niveaux actuels2.
Il y a donc de sérieuses raisons pour essayer de mieux comprendre les causes
sous-jacentes de ces divergences. On peut clairement attribuer une partie de ces
écarts à la détermination des valeurs quantifiées des paramètres, qui pourrait
être améliorée avec les progrès de la recherche (aussi bien dans le domaine
économique quʼécologique ou climatique). Cependant, de telles améliorations
ne suffiront pas à concilier ces résultats discordants : ils émanent en fait – et
cʼest là le point fondamental – de désaccords profonds sur certains paramètres
clés et sur les choix de modélisation liés à des systèmes de valeurs.
Grubb [1993] écrit que lʼon devra « prendre conscience du fait que des
jugements de valeur contestables interviennent, de façon inhérente, dans
les études sur les coûts dʼimpact mondiaux. Des hypothèses différentes sur
ces jugements de valeur pourraient inverser complètement les conclusions
obtenues ». Pour Schneider [1997], il faut impérativement attirer lʼattention
sur ces hypothèses, empreintes de valeurs, pour sʼassurer que les modèles
intégrés dʼévaluation du changement climatique (et de tout autre problème
environnemental) « éclairent plus quʼils ne dissimulent ».
Pour cerner les raisons de ces divergences, notre article identifie quatre
questions fondamentales dans lʼanalyse coût-bénéfice du changement climati-
que : le traitement des événements à faible probabilité mais à impact catastro-
phique (encore appelés « surprises catastrophiques »), lʼévaluation des biens
non marchands, la question du taux dʼactualisation et le choix des critères de
décision. Nous les aborderons successivement et nous montrerons :
— quʼil faut faire des hypothèses controversées sur le plan éthique pour
traiter chacun de ces aspects ;
— que les conclusions politiques obtenues à partir des modèles dʼoptimi-
sation sont très sensibles à ces choix ;
2. On passe des taux dʼémission aux taux de concentration dans lʼatmosphère à lʼaide des
modèles du cycle du carbone.
LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ? 169
— et que les études ayant abouti à la conclusion que des réductions minima-
les sont suffisantes ont toujours fait des choix qui tendent à réduire lʼimportance
des arguments les plus courants en faveur des réductions dʼémissions.
Nous présenterons enfin quelques remarques conclusives.
La sensibilité
3. Il est important de garder cela à lʼesprit, car les partisans du laisser-faire mettent souvent lʼaccent
sur les incertitudes qui entourent le changement climatique, à un point tel quʼils font (délibérément ?)
douter de lʼexistence de lʼeffet de serre lui-même. Le lecteur pourra, sʼil le souhaite, consulter Mahlman
[1997] à ce sujet. Il donne un aperçu concis et une classification des « faits » virtuellement avérés,
des projections virtuellement certaines, des projections probables et des projections erronées, dans
le cadre du changement climatique.
4. Citons, parmi de nombreux autres : Parry [1993], Peck et Teisberg [1993], Nordhaus [1994],
Fankhauser [1995], Tol [1995], Azar et Johansson [1996], Manne [1996], Gjerde et alii [1997],
Roughgarden et Schneider [1999]. Lʼincertitude joue aussi un rôle important dans dʼautres domaines
de lʼéconomie du changement climatique. Par exemple dans le débat sur la réduction efficiente des
émissions menant à une stabilisation du CO2 atmosphérique, Wigley et alii [1996] soutiennent quʼà
court terme un faible niveau de dépollution est justifié. Mais Ha-Duong et alii [1997] ont remis en cause
ces conclusions, en se fondant principalement sur lʼhypothèse quʼil existe une certaine probabilité
que lʼon doive également envisager un objectif de réduction ambitieux (400 ppm).
170 LES MODÈLES DU FUTUR
Toutes les études mentionnées ci-dessus sont basées sur une approche pré-
dictive des coûts. Mais cette approche présente deux points délicats : comment
traiter les questions pour lesquelles la distribution de probabilité est inconnue ?
Comment calculer les coûts de conséquences catastrophiques à lʼéchelle plané-
taire, et quel est le coût maximal que pourrait supporter lʼéconomie mondiale ?
Ce problème dʼindétermination limite lʼintérêt de lʼanalyse coût-bénéfice dans
le contexte du réchauffement climatique. Puisquʼil nʼexiste pas dʼestimateurs
fiables de la probabilité des surprises catastrophiques, lʼapproche prédictive
des coûts dépend en grande partie de la distribution choisie par lʼanalyste, et
lʼon peut ainsi défendre presque tous les niveaux dʼémissions.
La question de la gravité des risques auxquels nous pouvons nous permettre
dʼexposer notre planète se pose fondamentalement en termes éthiques. Il nʼest
pas possible de trancher à lʼaide dʼapproches prédictives des coûts ou dʼautres
méthodes économiques apparentées ; ces méthodes ont été développées pour
traiter les incertitudes à une échelle complètement différente. La stratégie
dite de « maximin » représente une alternative à lʼanalyse coût-bénéfice.
Elle consiste à considérer la pire issue possible et à maximiser le bien-être
dans cette situation. Appliquée à lʼeffet de serre, cette stratégie implique de
fortes baisses dʼémissions afin de réduire la probabilité dʼoccurrence des
événements catastrophiques. Cependant, comme toute autre, cette conclusion
va dépendre largement de la perception subjective quʼaura lʼanalyste de « la
pire issue possible ».
5. Dans cette étude, on suppose que lʼincertitude est levée dʼici 2020. Si la surprise catastrophique
se produit réellement, alors des réductions considérables sont justifiées au-delà de 2020.
6. Voir Tol [1995], Azar et Johansson [1996], Gjerde et alii [1997] et Roughgarden et Schneider
[1999].
LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ? 171
Conclusion
Plusieurs auteurs7 ont publié des estimations complètes des coûts économi-
ques engendrés par les changements climatiques. On peut trouver un aperçu
de cette littérature commentée dans le rapport du Groupe dʼexperts intergou-
vernemental sur lʼévolution du climat (GIEC) [Pearce et alii, 1996]. Bien que
des progrès soient intervenus au cours des dernières années, la conclusion
de Nordhaus [1994], qui qualifiait dʼ« extrêmement balbutiantes » et « dans
leur petite enfance » les études de coût existantes, reste encore largement
valable. Premièrement, presque toutes les études menées jusquʼà présent se
sont concentrées sur les coûts associés à un doublement des émissions (en
équivalent CO2). Les dommages à dʼautres niveaux sont intégrés à lʼanalyse
à lʼaide dʼune fonction non linéaire (choisie arbitrairement) par rapport au
changement de température. De plus, toutes les études, à lʼexception de celles
de Tol [1995, 1996], supposent les fonctions de dommages indépendantes
du rythme des changements climatiques, alors que lʼon sʼattend à ce que cet
aspect prenne autant dʼimportance que lʼélévation de la température. Enfin,
les estimations concernant les pays en développement sont encore plus vagues
que les études portant sur ces pays. Ainsi, Nordhaus et Cline évaluent les
coûts à lʼéchelle planétaire, en extrapolant simplement lʼestimation obtenue
pour les États-Unis.
En général, les impacts sur le marché sont simples à déterminer. Mais
pour estimer les impacts hors marché, il faut appliquer des méthodes alter-
natives, très controversées8. Cʼest important car la préoccupation principale,
7. Parmi lesquels : Ayres et Walter [1991], Nordhaus [1991, 1994], Cline [1992], Fankhauser
[1995], Tol [1995].
8. Ces techniques peuvent se baser sur les préférences révélées (comme les méthodes dʼévaluation
hédonistiques ou celles des coûts de voyage) ou sur les marchés hypothétiques (comme la méthode
contingente dʼévaluation).
172 LES MODÈLES DU FUTUR
au cœur du débat sur le changement climatique, est liée aux impacts hors
marché (dans certaines estimations des coûts, ces effets dominent dʼailleurs
lʼanalyse, comme dans Pearce et alii, 1996). En particulier, ces méthodes
ne permettent pas de reconnaître des droits aux espèces autres que lʼespèce
humaine (au sens où elles ne se soucient que de la valeur accordée par
les hommes à ces espèces), ou refusent de le faire. Elles ne prennent pas
en compte les souffrances dʼun animal exposé à des produits chimiques
toxiques, à moins quʼun humain ne soit prêt à payer pour y mettre fin. Par
ailleurs, Jacobs [1991] soutient que ces méthodes ne traduisent pas non plus
la valeur que les humains accordent à ces souffrances (et aux impacts sur
lʼenvironnement en général), car elles ne donnent pas la possibilité aux gens
dʼémettre un jugement collectif, en tant que citoyens, par opposition à un
jugement individuel, en tant que consommateurs. Il conviendrait également
de se pencher de plus près sur une autre facette intéressante du problème
des coûts, à savoir : dans quelle mesure dʼautres hypothèses portant sur lʼal-
truisme des hommes pourraient-elles modifier lʼinterprétation des études et
des méthodes dʼévaluation ?
Dans cette brève analyse, nous ne développerons quʼune question concer-
nant les coûts : celle de lʼévaluation des dommages dans les pays en dévelop-
pement. Seuls quelques auteurs, comme Ayres et Walter [1991], Fankhauser
[1995] et Tol [1995], ont essayé dʼexpliciter ces coûts (en incluant à la fois les
impacts marchands et les impacts non marchands). Fankhauser et Tol ont basé
leurs calculs sur lʼestimation du consentement à payer, face à divers impacts,
comme, par exemple, lʼaugmentation des risques de mortalité. Puisque les
pays en développement sont plus pauvres, les sommes quʼils sont prêts à
verser en échange de plus de sécurité sont moins importantes que dans les
pays riches. Cʼest pourquoi lʼétude de Fankhauser estimait statistiquement
la valeur dʼune vie assignée à un décès dans un pays riche à environ quinze
fois celle qui correspond à un décès dans un pays pauvre (et Tol conclut à des
valeurs similaires). Ces estimations furent à lʼorigine de nombreux débats et
controverses à travers le monde, en particulier lorsquʼil est apparu clairement
quʼelles serviraient de base au chapitre sur les coûts liés aux dommages dans
le deuxième rapport dʼévaluation du GIEC [Pearce et alii, 1996]. La critique
venait dʼun malaise par rapport à lʼattribution dʼune valeur moins importante
à la vie (par opposition à la mort) dans les pays en développement et/ou au
fait que cette façon dʼévaluer les coûts ne tenait pas compte de lʼidée que
lʼutilité marginale dʼun dollar dans un pays pauvre est supérieure à celle dʼun
dollar dans un pays riche. Lʼintroduction de coefficients de pondération des
coûts affectant les pays pauvres pourrait sʼappuyer sur ce dernier point, ce
qui « rétablirait » dans certains cas une évaluation équitable de tous les pays
[Azar, 1998b].
LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ? 173
La sensibilité
Conclusion
Sʼattendre à ce que les gens pauvres dans les pays pauvres subissent les
effets les plus sévères du changement climatique alors quʼils émettent neuf fois
9. Dans la perspective de lʼutilitarisme, doctrine morale élargie à lʼéconomie, ce qui est « utile »
est bon et lʼutilité peut être calculée de manière rationnelle. En particulier, ce qui contribue à maximiser
le bien-être des humains est forcément bon.
174 LES MODÈLES DU FUTUR
moins de CO2 fossile par habitant que les pays industrialisés constitue un double
argument fréquemment invoqué en faveur de la réduction des émissions dans les
pays riches. Pourtant, dans la plupart des analyses économiques, cʼest justement
parce que les gens sont pauvres – selon la logique du consentement à payer – que
lʼon attribue moins dʼimportance aux souffrances qui les attendent.
La sensibilité
Une question se pose alors : quelle valeur choisir pour le taux dʼactuali-
sation ? On peut adopter principalement deux positions :
— la première, généralement appelée descriptive, se fonde sur lʼobservation
des taux dʼintérêt du marché pour assurer que les investissements financent
les projets les plus rentables ;
10. Concept choisi par lʼOCDE pour les comparaisons, qui sert à mesurer la différence entre
ce que les employeurs payent sous forme de salaires et de charges sociales, et ce dont les salariés
disposent après impôts et déduction des cotisations de sécurité sociale, en tenant compte aussi des
transferts en espèces accordés dans le cadre des programmes publics dʼaide sociale (ndt).
11. Voir par exemple Lind [1992].
LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ? 175
12. Le taux social de préférence temporelle (TSPT, en anglais Social Rate of Time Preference,
SRTP) vaut Gg + R (formule de Ramsey), où G est lʼopposé de lʼélasticité de lʼutilité marginale, g
est le taux de croissance relative par habitant et R est le taux dʼactualisation de lʼutilité (le taux de
préférence temporelle pur).
13. Voir, parmi dʼautres : Ramsey [1928], Rawls [1972], Cline [1992], Solow [1992], Price
[1993], Azar et Sterner [1996], Schultz et Kastings [1997].
176 LES MODÈLES DU FUTUR
perd en grande partie sa signification pour des horizons temporels qui sʼéten-
dent au-delà dʼune vingtaine dʼannées. Sur quoi porte la description ? peut-on
même se demander. Pour des horizons temporels encore plus lointains, le taux
dʼactualisation déterminé par la méthode descriptive sʼapparente carrément
à un jeu de devinettes.
Ce point pourrait dʼailleurs sauver lʼapproche descriptive de quelques dif-
ficultés mentionnées ci-dessus. On pourrait postuler que le taux dʼactualisation
soit fixé à 5 % aujourdʼhui, mais décroisse avec le temps pour tendre lente-
ment vers zéro ; ainsi, le futur lointain serait estimé à des niveaux encore non
négligeables. Parmi les études adoptant un tel taux dʼactualisation décroissant,
on compte celles de Sterner [1994], Ayres et Axtell [1996] et Azar et Sterner
[1996]. Quant à Nordhaus [1994], il fait également lʼhypothèse que le taux
de croissance – et par conséquent le taux dʼactualisation – diminue avec le
temps ; mais comme le taux dʼactualisation de lʼutilité est fixé chez lui à 3 %
par an, la valeur quʼil accorde au futur reste une exponentielle décroissante
dans son modèle.
Il ne faut pas perdre de vue que lʼapproche descriptive garantit une effi-
cience intertemporelle qui est seulement potentielle. Supposons, par exemple,
que le taux dʼactualisation soit de 10 % par an. Il ne serait pas alors efficient,
dʼun point de vue intertemporel, de réduire les émissions pour nous préserver
dʼun dommage chiffré à 1 050 dollars lʼannée suivante si le coût de cette
dépollution est de 1 000 dollars ; la raison en étant quʼinvestir ailleurs pourrait
permettre de gagner 1 100 dollars. Cependant, lʼefficience intertemporelle
nʼest que potentielle, car il nʼexiste aucune garantie que lʼinvestissement
alternatif aura effectivement lieu. Pour le changement climatique et les pro-
blèmes environnementaux intergénérationnels, nous devrions faire en sorte
que lʼinvestissement initial soit réinvesti à intérêts capitalisés pendant des
décennies, voire pendant des siècles ; ce qui ne sera probablement pas le cas.
Cʼest pourquoi lʼargument principal en faveur de la méthode descriptive
faiblit encore davantage si lʼon considère des horizons temporels à très long
terme.
On peut aussi critiquer la baisse du taux dʼactualisation pour les pro-
blèmes environnementaux à long terme. Pour un budget dʼinvestissement
donné, lʼapproche descriptive permet de départager différents projets et de
sélectionner les plus rentables. Wallace [1993] écrit à ce sujet quʼ« un taux
dʼactualisation particulièrement bas conduirait en réalité à diminuer la richesse
transmise aux générations suivantes, car il conduirait à financer des projets
dont les taux de rentabilité sont moins importants que ceux dʼautres inves-
tissements possibles ». Nordhaus [1994] et Manne [1995] soulignent de plus
quʼun taux dʼactualisation très faible entraîne (dans les modèles de croissance
optimale) un bond des taux dʼépargne, incompatible avec les comportements
dʼépargne actuels. Remarquons toutefois que ces deux critiques ne tiennent
LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ? 177
Conclusion
Dans le débat sur la politique relative aux émissions de gaz à effet de serre,
la préoccupation intergénérationnelle constitue lʼun des arguments clés en
faveur des réductions. Pourtant, dans lʼutilisation de la méthode descriptive
– ce qui est couramment le cas dans la littérature économique –, lʼanalyse ne
reflète pas cette inquiétude au sujet des générations futures.
Lʼanalyse coût-bénéfice est basée sur le critère dit « de Kaldor » selon lequel,
si les bénéfices totaux excèdent les coûts totaux, alors le projet mérite dʼêtre
conduit. Nous avons défendu plus haut lʼidée que les concepts de coût (et de
bénéfice) nʼétaient pas définis aussi clairement que lʼon aurait pu le croire. Au-
delà de ces objections, le critère de Kaldor lui-même reste controversé. Il sʼagit
dʼun critère nécessaire, mais non suffisant, pour une amélioration de Pareto.
Si un projet répond au critère de Kaldor, il est potentiellement susceptible de
faire lʼobjet dʼune amélioration de Pareto, ce qui signifie que lʼon pourrait amé-
liorer le sort dʼun individu au moins sans en léser aucun autre ; cela sans quʼon
puisse garantir la compensation. Toutefois, si les perdants ne reçoivent jamais
14. On pourrait par exemple se placer dans le cadre des modèles de générations imbriquées
[Howarth, 1997 ; Manne, 1997].
178 LES MODÈLES DU FUTUR
de compensation, la base éthique sur laquelle est fondé le critère de Kaldor est
discutable. Par exemple, une amélioration de Kaldor pourrait conduire à une
diminution du bien-être social, si « lʼamélioration » impliquait simultanément
un transfert de richesses suffisamment important des pauvres vers les riches.
La sensibilité
Conclusion
Nous avons passé en revue quatre points critiques (qui se recouvrent par-
tiellement) auxquels on se trouve confronté lors dʼune analyse économique
du changement climatique. La façon dont on traite ces quatre questions – le
risque de catastrophes environnementales à lʼéchelle planétaire, les méthodes
dʼévaluation des coûts, le taux dʼactualisation et les critères de décision – déter-
mine en grande partie les résultats obtenus à partir des diverses analyses coût-
bénéfice du réchauffement planétaire. De surcroît, nous avons montré que
des jugements de valeur sont nécessaires pour aborder chacun de ces quatre
aspects. Il faut en avoir pleinement conscience, car lʼéconomie est souvent
perçue comme un outil capable de fournir un conseil neutre aux décideurs.
Il faut souligner également que plusieurs hypothèses économiques stan-
dard, tout à fait acceptables dans des circonstances normales, tendent à porter
préjudice aux arguments les plus courants en faveur de la réduction des émis-
sions. Cela ne veut pas dire que les modèles dʼoptimisation coût-bénéfice ne
peuvent (ni ne doivent) jouer aucun rôle dans les politiques de lutte contre
le changement climatique. Ils ne deviennent problématiques quʼà partir du
moment où ils sont utilisés comme des « machines à dire la vérité » [Schneider,
1997]. On devrait les mettre à profit plutôt pour analyser les répercussions
de différents choix de paramètres, fortement influencés par des jugements
de valeur.
En conclusion, nous devrions pouvoir nous accorder sur deux propositions
fondamentales :
— lʼanalyse coût-bénéfice ne constitue pas un outil exempt de références
à un système de valeurs, en mesure de fournir aux décideurs politiques des
propositions objectives sur différentes alternatives politiques ;
— cela signifie que nous devons prendre position explicitement vis-à-vis
des jugements de valeur intervenant dans les hypothèses. Nous devons les
mettre en évidence, et ne pas chercher à les masquer derrière un langage
mathématique et économique apparemment neutre.
Ces conclusions ont des conséquences importantes pour les recherches
économiques futures sur le changement climatique. Au lieu de chercher à
définir « un niveau optimal de changement climatique », nous devrions plutôt
nous efforcer dʼaffiner notre compréhension dʼun certain nombre de questions
liées à la mise en œuvre de lʼobjectif principal de la CCNUCC. En particulier,
nous devrions chercher à en savoir plus sur les réponses de nos sociétés et de
nos économies face à des politiques de baisse dʼutilisation du carbone et à
lʼévolution technologique. Et chercher à en savoir plus aussi sur lʼadaptation
aux technologies de « basse consommation », sur lʼamélioration et le déve-
loppement des énergies renouvelables ; sur lʼinertie du système énergétique
LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ? 181
mondial et des infrastructures associées ; sur la part des options « aucun regret »
et des politiques nécessaires à leur contrôle ; enfin, sur les mesures incitatives
qui permettraient de mettre en piste les pays en développement…
RÉFÉRENCES BIBLIOGRAPHIQUES
ARROW K. J., CLINE W., MÄLER K. G., MUNASINGHE M., SQUITIERI R. et STIGLITZ J. (1996),
« Intertemporal equity, discounting and economic efficiency », dans BRUCE J. P., LEE H.
et HAITES E. F. (dir.), Climate Change 1995 : Economic and Social Dimensions of Climate
Change, 2e rapport du Groupe dʼexperts intergouvernemental sur lʼévolution du climat
(GIEC), Cambridge University Press, Cambridge.
AYRES R. U et AXTELL R. (1996), « Foresight as a survival characteristic : when if ever does
the long view pay », Technological Forecasting and Social Change, n° 51, p. 209-235.
AYRES R. U. et WALTER J. (1991), « The greenhouse effect : damages, costs and abatement »,
Environmental and Resource Economics, n° 1, p. 237-270.
AZAR C. (1998a), « Are optimal emissions really optimal ? », Environmental and Resource
Economics, vol. 11, n° 3-4, p. 301-315.
– (1998b), « Weight factors in cost-benefit analysis of climate change », Environmental and
Resource Economics, n° 13, p. 249-268.
AZAR C. et JOHANSSON O. (1996), « Uncertainty and climate change or the economics of
twin peaks », texte présenté à la conférence annuelle des European Environmental and
Resource Economists, juin, Lisbonne.
AZAR C. et RODHE H. (1997), « Targets for stabilisation of atmospheric CO2 », Science,
n° 276, p. 1818-1819.
AZAR C. et STERNER T. (1996), « Discounting and distributional considerations in the context
of climate change », Ecological Economics, n° 19, p. 169-185.
BINGHAM G., BISHOP R., BRODY M., BROMLEY D., CLARK E., COOPER W., COSTANZA R., HALE T.,
HAYDEN G., KELLERT S., NORGAARD R., NORTON B., PAYNE J., RUSSEL C. et SUTER G.
(1995), « Issues in ecosystem valuation : improving information for decision-making »,
Ecological Economics, n° 14, p. 73-90.
CLINE W. R. (1992), The Economics of Global Warming, Institute of International Economics,
Washington, D. C.
FANKHAUSER S. (1995), Valuing Climate Change : The Economics of the Greenhouse.
Earthscan, Londres.
GJERDE J., GREPPERUD S. et KVERNDOKK S. (1997), « Optimal climate policy under the possibility
of a catastrophe », document présenté à la rencontre annuelle de lʼEuropean Association
of Energy and Resource Economists (EAERE), juin, Tilburg, Pays-Bas.
GRUBB M. (1993), « The costs of climate change. Critical elements », dans KAYA Y.,
NAKICENOVIC N., NORDHAUS W. D. et TOTH F. L. (dir.), Costs, Impacts, and Benefits of
CO2 Mitigation, comptes rendus dʼun séminaire de lʼIIASA, septembre, Laxenburg,
Autriche, p. 153-166.
HA-DUONG M., GRUBB M. et HOURCADE J.-C. (1997), « Influence of socioeconomic inertia and
uncertainty on optimal CO2-emission abatement », Nature, n° 390, p. 270-273.
HASSELMAN K., HASSELMAN S., GIERING R., OCANA V. et STORCH H. V. (1997), « Sensitivity
study of optimal CO2 emission paths using a simplified structural integrated assessment
model », Climatic Change, n° 37, p. 345-386.
182 LES MODÈLES DU FUTUR
représentation plus précise des pays en développement dans les modèles glo-
baux. À lʼévidence, du fait de la forte hétérogénéité des pays en développement
– et même des différentes régions au sein dʼun même pays –, la nature des
problèmes rencontrés variera selon les cas envisagés.
transactions dʼune économie [OCDE, 1959]. Les MCS mettent en évidence les
relations entre les structures de production et la distribution des revenus ainsi
que les flux de capitaux et les transactions financières, tant au niveau domestique
que dans le reste du monde. La structure du tableau obtenu dépend de limitations
empiriques telles que les données disponibles et les moyens de traitement de
ces données [Sand-Zantman, 1995].
À partir dʼune MCS représentant une économie en situation dʼéquilibre,
les modèles dʼéquilibre général calculable peuvent estimer les changements
causés par certaines modifications de lʼenvironnement économique – comme
lʼaugmentation ou la baisse des taux dʼintérêt, du niveau de la demande,
des taxes, etc. Pourtant, lʼefficacité de ces modèles est directement liée à la
consistance et à la disponibilité de données statistiques, notamment celles qui
proviennent du système de comptabilité nationale.
Fréquemment, dans le cas des pays en développement, ces modèles ne sont
pas capables de répondre de façon satisfaisante aux besoins des politiques
économiques à long terme. En effet, les modèles, les concepts et les référents
employés ne correspondent pas exactement à ce qui se passe dans ces pays,
car des aspects importants de leur réalité ne sont pas révélés ou pas inclus
dans leur système de comptabilité nationale. Pour cette raison, les modèles
économiques perdent beaucoup de leur capacité opérationnelle pour lʼanalyse
de long terme dans les pays en développement. Par conséquent, dans ces pays,
la formulation de la politique économique est plus un instrument de gestion
conjoncturel, basé sur une analyse de court terme.
Une autre limitation des SCN est liée aux problèmes dʼordre conceptuel,
méthodologique et statistique. Dans le cas des pays en développement, ce type
dʼinconsistance intrinsèque au SCN est plus fort pour deux raisons principales.
Tout dʼabord, les activités traditionnelles et dans leur sillage toute lʼéconomie
informelle – par exemple lʼéconomie de subsistance – ne font pas partie du
circuit des transactions économiques monétarisées et elles nʼexistent donc
pas pour le SCN. Or, ces activités ont une importance relative beaucoup plus
grande dans les pays en développement, ce qui rend dʼautant plus difficile
une représentation fidèle de leurs économies par les modèles. La deuxième
raison tient à lʼincohérence des statistiques économiques de base et du défi-
cit dʼinformations sur plusieurs phénomènes économiques importants pour
lʼélaboration des agrégats. De ce fait, les économistes et les statisticiens qui
travaillent sur le SCN sont parfois obligés dʼutiliser des procédés dʼestima-
tion des données qui ne sont pas toujours capables de reproduire toutes les
transactions économiques manquantes.
Une représentation statistique chère aux économistes et aux modélisateurs
est constituée par le tableau qui décrit les relations intersectorielles : quels
biens, en quelle quantité sont utilisés dans la production dʼun autre bien ?
(Combien dʼacier, dʼénergie, etc., pour produire un véhicule automobile par
188 LES MODÈLES DU FUTUR
exemple ?) Tous les biens dʼune économie se trouvent ainsi représentés dans
ce tableau.
La construction de ces tableaux demande énormément de travail et est très
coûteuse. En général, les pays en développement nʼont pas la même facilité que
les pays développés pour les construire périodiquement. Le caractère incomplet
de statistiques économiques importantes comme celles des consommations
intermédiaires, plus accentué chez les pays en développement, limite aussi
lʼutilisation des modèles dans ces pays.
Les agrégats du SCN sont exprimés en unités monétaires. La monétarisa-
tion des statistiques est indispensable pour lʼagrégation macroéconomique.
Imaginons, par exemple, la production dʼun pays et la manière dont il est
possible dʼexprimer cette production en un seul agrégat, avec un seul chif-
fre. Puisque nous ne pouvons pas additionner des quantités physiques de
nature différente pour agréger la production, il est nécessaire de convertir la
production physique en valeur monétaire. Cette procédure est réalisée par la
multiplication des quantités des divers biens produits dans une économie par
leurs prix respectifs.
Les économistes sʼintéressent beaucoup à la variation des prix, mais aussi
à la variation des quantités physiques. Pour annuler lʼeffet de la variation de
prix sur la valeur nominale dʼun agrégat macroéconomique1, ils font appel
à un indice statistique qui mesure la variation des prix pendant une certaine
période. Plus lʼamplitude de la variation des prix est grande, plus la transfor-
mation des variables nominales en variables réelles devient approximative.
Pourtant, ces dernières sont très importantes pour lʼexercice de modélisation.
Or, du fait des problèmes dʼhyperinflation, les statistiques réelles des pays
en développement sont moins exactes et moins consistantes que celles des
pays développés ; et lʼapplication des modèles économiques au cas des pays
en développement devient encore plus compliquée et limitée.
1. La valeur nominale dʼun agrégat macroéconomique ne comprend pas seulement les variations
des quantités physiques, mais aussi celles des prix.
MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT 189
est beaucoup plus élevée dans les pays développés, au point que, pour à peine
20 % de la population mondiale, ces pays considérés dans leur ensemble sont
responsables de la plus grande part de la consommation mondiale dʼénergie
[AIE, 2006]. Sur le plan de lʼoffre, de nombreux pays en développement
font reposer la plus grande partie de leur production dʼénergie sur les sour-
ces traditionnelles de biomasse, alors que les pays développés comblent la
majeure partie de leurs besoins énergétiques à lʼaide des énergies fossiles dont
une part croissante est transformée en électricité pour une consommation en
usage final.
Les populations rurales des pays en développement utilisent encore une
grande quantité de bois de chauffage, de charbon de bois et de déchets agricoles
et/ou animaux pour assurer leurs besoins énergétiques domestiques tels que
chauffage et cuisson. Alors que la plupart des pays dʼAmérique latine sont
devenus dès à présent majoritairement des sociétés urbaines, en Afrique et en
Asie les populations rurales sont au contraire et resteront vraisemblablement
encore longtemps dominantes. Les données sur les sources traditionnelles
de biomasse sont rarement disponibles par le seul fait que lʼessentiel de leur
production et de leur usage sʼeffectue par lʼintermédiaire de circuits non
commerciaux. Lʼinformation disponible recouvre le plus souvent de simples
estimations fondées sur la structure des populations et sur des moyennes de
consommation des ménages. Les incertitudes qui pèsent alors sur les chiffres
de la consommation énergétique sont de ce fait beaucoup plus fortes que
pour les énergies qui passent par les circuits commerciaux. Lʼestimation de la
dynamique et des tendances futures de ces niveaux de consommation dʼénergie
peut ainsi se révéler particulièrement délicate.
Une question importante consiste à estimer les parts renouvelables et non
renouvelables de lʼusage total de biomasse. La déforestation provoquée par
lʼusage de la biomasse comme source énergétique peut être considérable dans
les pays en développement, surtout en Afrique et en Asie, alors que, dans le
contexte plus large de lʼAmérique latine, des facteurs tels que lʼexpansion de
la frontière agricole sont plus pertinents comme facteurs déterminants de la
déforestation. À première vue, il peut ne pas sembler particulièrement crucial
de savoir si la déforestation a été induite par les besoins de consommation
dʼénergie ou non, puisque les émissions de CO2 qui en résultent peuvent être
estimées à partir de lʼétendue des surfaces défrichées (donnée disponible à
partir de lʼimagerie satellitaire) et dʼindications sur la densité de la biomasse
(voir la section suivante). En réalité, les inventaires dʼémissions de GES
rendent compte séparément des émissions dues à la combustion dʼénergies
fossiles et de celles dont lʼorigine réside dans les changements dʼusage des
sols, phénomènes qui incluent pourtant des émissions qui rélèvent à la fois
dʼusages énergétiques et dʼusages non énergétiques. Cependant, la compré-
hension des tendances récentes et des modifications structurelles du niveau
190 LES MODÈLES DU FUTUR
dans le Sud. Il faut tout dʼabord sʼassurer de prendre en compte les principaux
arbitrages sur les usages, puis contourner les obstacles méthodologiques de
la modélisation.
Arbitrages et enjeux
dʼusage des sols reposent sur une description spatiale. Ces difficultés peuvent
être de différentes natures : faible disponibilité des données économiques
géographiquement référencées (ou problème de confidentialité, comme dans
le cas de lʼUnion européenne où la base de données existante sur lʼéconomie
des exploitations agricoles ne peut révéler la localisation précise des fermes,
mais seulement leur appartenance à une grande région agricole) ; risque dʼun
manque de capacité dʼadaptation des modèles uniquement économiques ;
problèmes de compatibilité de lʼanalyse économique fondamentale avec des
approches par modèles multiagents ou à automates cellulaires ; difficulté du
calibrage des approches multiagents ou à automates.
Enfin, une dernière difficulté émerge du fait que les données économiques
sont fondées sur le découpage administratif des territoires, alors que les don-
nées biophysiques ou environnementales le sont le plus souvent sur la base
dʼun découpage géoréférencé.
Dans les pays en développement, les analyses de lʼusage des sols sont
souvent fortement affaiblies par lʼabsence de données statistiques issues
de recensements agricoles et forestiers [Nelson et Geoghegan, 2002]. Cette
caractéristique est dʼautant plus dommageable que lʼhétérogénéité au niveau
des écosystèmes et agrosystèmes est importante [Grainger, 1999]. Cela limite
beaucoup les outils utilisables, avec comme conséquence majeure le fait
que des causalités peuvent être sous-estimées du seul fait que les données
manquent [Veldkamp, 2001]. Selon certains [Tinker, 1997], « des auteurs ont
même perdu de leur crédibilité par lʼexpression de conclusions excessives
fondées à lʼévidence sur des données statistiquement pauvres ». Lʼutilisation
de données satellitaires peut combler une carence en données biologiques
ou écosystémiques [Vance et Geoghegan, 2002], mais le problème persiste
souvent pour les données économiques.
3. Une discussion des forces et des faiblesses respectives de ces approches sort du cadre de
cette étude, mais le lecteur pourra consulter à ce sujet Geist et Lambin [2002].
198 LES MODÈLES DU FUTUR
CONCLUSION
4. Une des voies de recherche les plus prometteuses réside dans le couplage des deux grandes
catégories dʼapproche existantes : les approches à dominante « automates cellulaires » locales [par
exemple Soares-Filho, 2006] ou globales [par exemple Alcamo et alii, 2002] dʼune part, et les
approches à dominante économique locales, régionales [par exemple Adams et alii, 1996] ou globales
[par exemple Sands et Leimbach, 2003] dʼautre part.
MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT 199
Les émissions de gaz à effet de serre ont un lien direct avec le niveau
dʼactivité économique dʼun pays, avec sa façon de produire et de consommer
lʼénergie, mais aussi avec sa manière dʼutiliser les sols. Les secteurs tradi-
tionnels et informels de lʼéconomie sont de bons exemples de lʼintersection
entre ces trois axes dʼanalyse. En effet, les activités intégrées par ces secteurs
correspondent à une partie importante de la production économique, de la
consommation énergétique, de lʼusage des sols et des émissions de gaz à
effet de serre.
Or, dans les pays en développement en général, les secteurs traditionnels
et informels représentent la plus grande partie de la production agricole, de
lʼusage des sols, de lʼemploi et de la consommation énergétique des ménages.
En même temps quʼils contribuent fortement aux émissions de gaz à effet de
serre, leur représentation par des modèles mathématiques est plus complexe
et limitée.
La dynamique de transition des pays en développement est essentielle-
ment un processus de transformation des activités dites traditionnelles en
activités modernes, à travers une myriade de processus simultanés tels que la
monétarisation, le développement du marché, la pénétration technologique,
le renforcement des institutions et de lʼéducation [Shukla, 1995].
La représentation de cette dynamique exige des changements importants
dans les modèles conçus le plus souvent pour et par les pays développés. Selon
Shukla [1995], la représentation des pays en développement par les modèles
peut être améliorée, entre autres, par : 1) une meilleure représentation des
secteurs traditionnels et informels ; 2) lʼidentification plus efficace des barrières
à lʼintroduction des technologies ; 3) lʼanalyse des politiques de bifurcation
concernant différents modes de transport, dʼirrigation, ainsi que la production
et la consommation des différents carburants ; 4) une analyse approfondie des
politiques relatives à lʼusage des sols, y compris la production de biomasse
moderne et le reboisement ; 5) le traitement autonome du secteur traditionnel,
notamment dans ses besoins dʼinvestissement ; 6) le développement de bases
de données sur les activités économiques liées aux émissions des GES.
En ce qui concerne la modélisation du secteur énergétique, la longue
durée de vie de la plupart des technologies comme lʼimpact à long terme des
décisions dʼinvestissement sur lʼéconomie, sur les ressources naturelles et sur
lʼenvironnement rendent nécessaire une planification de long terme qui doit
forcément prendre en compte les interactions entre ces trois axes dʼanalyse.
Les politiques gouvernementales changeantes et les incertitudes macroécono-
miques augmentent la complexité de la planification et de la prise de décision
dans le secteur en question.
Dans la littérature scientifique, nous pouvons trouver un vaste éventail de
modèles traitant, dʼune manière assez complète, les problèmes concernant la
planification et la politique énergétique dans le contexte des pays développés.
200 LES MODÈLES DU FUTUR
RÉFÉRENCES BIBLIOGRAPHIQUES
ADAMS D. M., ALIG R. J., CALLAWAY J. M., MCCARL B. A. et WINNETT S. M. (1996), « The
forest and agricultural sector optimization model (FASOM) : model structure and policy
applications », Res. Pap. PNW-RP-495, Department of Agriculture, Forest Service, Pacific
Northwest Research Station, Portland, Oregon.
MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT 201
Olivier Godard
Une certitude est désormais acquise : les systèmes et les usages énergéti-
ques qui ont soutenu le développement économique depuis plusieurs décennies
devront se transformer en profondeur dʼici 2050. Cʼest là que la certitude cède
la place à lʼincertitude. Comment reconfigurer les systèmes énergétiques pour
tenir compte simultanément de toutes les contraintes et de toutes les menaces
204 LES MODÈLES DU FUTUR
dʼun monde profondément inégal et lancé plus que jamais dans la course à la
croissance matérielle ?
Les inerties liées aux capacités de production installées, aux infrastructures
et à lʼaménagement du territoire laissent peu dʼinconnues à court et moyen
terme (15 ans) quant aux besoins et aux moyens de les satisfaire. De plus, sʼil
est un domaine qui a été lʼobjet constant de lʼattention des prévisionnistes et
prospectivistes, cʼest bien celui de lʼénergie. Notre avenir nʼest-il pas éclairé
de mille lumières grâce aux efforts de lʼAgence internationale de lʼénergie,
de la Commission européenne, de la Conférence mondiale de lʼénergie, des
centres universitaires, des commissions gouvernementales et des bureaux
dʼétude spécialisés ?
Toutefois, éclairés, le sommes-nous totalement et sans trompe-lʼœil par ces
exercices ? Au-delà des intentions diverses des modélisateurs, la modélisation
est-elle si innocente lorsque, sʼappuyant sur la formalisation la plus sophisti-
quée, elle livre ses chiffres sur la scène publique ? Cʼest en effet à lʼusage public
de la modélisation dans un contexte de délibération sur lʼaction à conduire
que ce texte est consacré, en prenant appui sur le traitement des enjeux du
climat. On se réfère parfois, dans le monde de la critique de cinéma ou de la
photographie, à lʼidée dʼune morale du regard. Je propose ici de réfléchir à ce
quʼon pourrait appeler une morale du cadrage de la modélisation économique
des enjeux climatiques en situation dʼexpertise, en considérant successivement
le moyen terme (10 à 20 ans) et la longue durée.
Le propos sera introduit par quelques questions sur la pratique de la modé-
lisation, en ayant particulièrement en vue lʼévolution récente vers des modèles
intégrés climat-économie. Puis le questionnement abordera le moyen terme en
décortiquant deux exemples dʼusage de la modélisation économique dans le
domaine énergie-climat. Le premier, international, remonte à 1992 et touche
à lʼaccueil fait aux États-Unis aux propositions de la Commission européenne
dʼalors en matière de politique de lʼeffet de serre. Le second, français, est
plus récent. Il concerne les travaux du groupe Énergie 2010-2020 animé par
le Commissariat général du Plan en 1996-1998 à la demande du ministre de
lʼIndustrie.
Sur ce fond dʼexpériences, la réflexion sʼélargira à la manière dont il est
tenu compte des générations futures éloignées dans la modélisation à long
terme. Lʼun des traits notables des modèles traitant du changement climati-
que est en effet leur longue portée temporelle. Présenter des trajectoires et
des bilans sur un siècle ou deux – voire bien au-delà1 – nʼeffrayant pas les
climatologues, certains économistes se sont enhardis à faire de même. Par
1. Par exemple, le géophysicien David Archer [2005] modélise le devenir du CO2 dʼorigine
fossile sur plusieurs dizaines de milliers dʼannées et conclut que la durée de vie moyenne du CO2 dans
lʼatmosphère est dʼenviron 30 000 ans, du fait que 15 à 20 % des émissions anthropiques doivent être
considérées comme demeurant dans lʼatmosphère « pour lʼéternité ». Lʼauteur le souligne lui-même,
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 205
exemple certains font valoir les bénéfices nets que des pays comme la Chine
ou la Russie retireraient durablement, à partir de 2100 jusquʼen 2200, du
changement climatique annoncé…
ces résultats sʼécartent de la vulgate scientifique qui a diffusé lʼidée dʼun pas de temps dʼenviron
une centaine dʼannées.
206 LES MODÈLES DU FUTUR
Les faits
2000, le coût de cette taxe pour les Américains aurait été de lʼordre de 0,4 %
de leur PIB, tandis que lʼEurope nʼaurait eu à supporter quʼun coût de 0,2 %.
Les auteurs évoquaient, dans leurs commentaires, les effets possibles dʼun
tel déséquilibre des coûts sur la compétitivité relative des deux régions. Ces
commentaires ont été repris par certains journaux américains, dont le New York
Times. Moquant la Commission européenne, cette presse souligna combien
peu vraisemblable et peu souhaitable aurait été le ralliement des États-Unis,
où lʼon nʼaime guère les taxes, à une mesure qui aurait si nettement avantagé
lʼEurope et si nettement pénalisé les États-Unis dans la compétition interna-
tionale ! On ne peut naturellement pas imputer les choix politiques américains
à une seule étude ni à quelques articles de presse. Néanmoins la diffusion
de ces résultats dans une période clé des négociations a renforcé le camp de
ceux qui étaient hostiles à la fois à toute taxe sur le carbone et à toute action
significative de limitation des émissions de gaz à effet de serre. Finalement,
ni les États-Unis ni le Japon nʼont voulu de cette proposition de taxe et la
Commission, qui lʼavait avancée de manière conditionnelle, y a finalement
renoncé avant le Sommet de Rio.
Lʼhistoire de ce travail dʼexpertise ne sʼest pas arrêtée là. Lʼarticle en
question a été soumis à la revue Energy Policy, revue académique de réfé-
rence pour les spécialistes du domaine, et publié en janvier 1993 [Manne et
Richels, 1993], six mois après le Sommet de Rio. Il sʼagissait du même article
présentant les mêmes résultats, à une exception notable près, celle de la figure
comparant le coût respectif de la taxe en Europe et aux États-Unis (voir la
figure 2 ci-contre). La situation était désormais complètement inversée ! Les
États-Unis apparaissaient comme les grands gagnants – relatifs – de lʼintro-
duction coordonnée dʼune taxe sur le CO2. Pour lʼEurope, lʼordre de grandeur
du coût était considérablement modifié, puisque ce dernier était multiplié par
quatre : à lʼhorizon 2010, ce coût passait, entre les deux versions de lʼarticle,
de 0,3 à 1,2 point de PIB. Les auteurs ne mentionnaient pas quʼils avaient
modifié leurs résultats initiaux sur ce point, mais en donnaient indirectement
lʼexplication.
% du PIB
% du PIB
non pas additives3. Ce point avait été soulevé par plusieurs collègues, notam-
ment de lʼOCDE, lors du processus de relecture de lʼarticle avant publication.
Les auteurs avaient donc modifié leur modélisation sur ce point pour prendre
en compte les coûts économiques des distorsions supplémentaires imputables
à la nouvelle taxe projetée, surtout en Europe. Considérant lʼimpôt comme
distorsif dès le premier dollar versé, le coût de distorsion dʼune taxe carbone
devenait considérablement plus élevé en Europe quʼaux États-Unis.
La publication finale nʼa soulevé à ma connaissance aucun commentaire
dans la presse américaine sur les avantages considérables que les États-Unis
auraient pu retirer dʼune taxe sur le carbone dans sa compétition avec lʼEurope.
Le Sommet de Rio était déjà loin.
3. Cette théorie ne voit dans la fiscalité en place que le moyen de collecter les ressources
financières nécessaires au financement de dépenses publiques. Les marchés sont supposés être tous
parfaitement concurrentiels et répondre au mieux aux préférences des consommateurs.
210 LES MODÈLES DU FUTUR
Lʼépisode est instructif sur les enjeux dʼune expertise économique inter-
nationale. Il éclaire aussi en creux certains éléments dʼune morale de la
modélisation en situation dʼexpertise. Commençons par une observation
factuelle : lorsque des négociations internationales sʼaccélèrent ou approchent
dʼune échéance convenue, différents groupes dʼintérêts mettent en circulation
toutes sortes dʼétudes encore sous la forme de drafts, dans le but de peser sur
le résultat final. Ces documents prétendent souvent apporter des révélations
sur une réalité jusquʼalors ignorée, mais nʼont pas fait lʼobjet dʼune revue
critique par des pairs.
Ces jeux dʼinfluence ne concernent pas seulement des experts de troi-
sième catégorie, membres douteux dʼofficines prêtes à démontrer tout ce que
veulent leurs clients. Les économistes impliqués dans le cas cité comptent
parmi les plus réputés et influents sur la scène du changement climatique. Ils
ont depuis régulièrement contribué au travail du GIEC (Groupe dʼexperts
intergouvernemental sur lʼévolution du climat4). Le besoin dʼune réflexion
sur lʼusage de la modélisation économique en contexte dʼexpertise concerne
bien le cœur de la profession.
5. De tels coûts négatifs se présentent lorsque les actions de réduction des émissions de gaz
à effet de serre contribuent à dʼautres objectifs comme la réduction de la pollution locale ou la
pénétration de techniques éco-efficaces rentables dans les conditions économiques courantes mais
insuffisamment connues.
6. Par exemple, les modélisateurs pourraient être invités à utiliser lʼIDH (lʼindicateur du
développement humain) du Programme des Nations unies pour le développement ou dʼautres
indicateurs cherchant à cerner le caractère durable du développement.
212 LES MODÈLES DU FUTUR
lʼÉtat et dʼune redéfinition de ses modes dʼaction allant dans le sens dʼune plus
large confiance dans les mécanismes régulateurs de marché. Il sʼaccompagnait
également de la contraction de lʼhorizon temporel des différents acteurs sous
lʼeffet des pressions et sanctions concurrentielles. Dans ce scénario lʼénergie,
y compris la production électrique, était un bien ordinaire laissé à la régulation
du marché. Le deuxième scénario, appelé « État industriel », correspondait au
retour dʼun État interventionniste dans le domaine économique et industriel au
nom dʼune identification des intérêts à long terme de la nation avec la force
et la compétitivité de son industrie. La conception des différentes politiques
publiques, par exemple les politiques dʼenvironnement (effet de serre), y
était systématiquement utilisée pour favoriser la compétitivité et lʼessor de
lʼindustrie française, dans les limites autorisées par les règles européennes
et celles de lʼOrganisation mondiale du commerce. Lʼénergie demeurait un
bien stratégique pour la souveraineté nationale, dérogeant de ce fait aux lois
ordinaires du marché. Le troisième scénario, désigné comme « État protec-
teur de lʼenvironnement », faisait prioritairement de lʼÉtat le gardien des
valeurs de protection de la santé de la population, de prévention des risques
technologiques et de préservation de lʼenvironnement aussi bien à lʼéchelle
locale que planétaire. Il laissait davantage aux entreprises, aux organisations
professionnelles et aux partenaires sociaux le soin de piloter les mutations
économiques compatibles avec le cadre fixé. En résumé, S1 était un scéna-
rio de plus grand laisser-faire des marchés, S2 un scénario dʼune politique
volontariste de lʼoffre, et S3 un scénario de maîtrise conjointe de lʼoffre et
de la demande pour les rendre compatibles avec les objectifs sociaux et envi-
ronnementaux du pays.
Ces trois scénarios ont été traduits sous la forme dʼhypothèses technico-
économiques9 de façon à être aussi plausibles, complets et cohérents les uns
que les autres. Aucun de ces scénarios nʼétait considéré comme tendanciel.
Aucun ne constituait le scénario de référence qui aurait renvoyé les autres au
statut de variantes.
La priorité ayant été donnée à lʼexploration des conséquences de trois
évolutions sociopolitiques, un jeu unique dʼhypothèses a été retenu concer-
nant la croissance économique (un taux annuel moyen de 2,3 % sur toute la
période), la croissance démographique et les prix internationaux de lʼénergie
(un pétrole à 24 dollars9510 le baril de 2005 à 2020). Le taux dʼactualisation
utilisé pour les choix dʼinvestissement énergétique et le calcul des coûts a été
9. Ces hypothèses technico-économiques ont été introduites dans deux cadres de modélisation
économique permettant de déterminer des équilibres offre/demande pour les divers secteurs productifs
et pour les différents marchés de lʼénergie. Lʼun était un modèle technico-économique du secteur
énergétique et lʼautre un modèle dʼéquilibre général calculable.
10. Ce chiffre de 95 en indice exprime le « millésime » de la valeur du dollar pris comme
référence : ici, des dollars de 1995.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 215
Nucléaire ou gaz ?
11. On notera donc que S3, le scénario « environnement », nʼétait pas du tout un scénario de
sortie ou de gel du nucléaire.
216 LES MODÈLES DU FUTUR
Sur le fond, que la France, sous lʼemprise dʼun vent libéral, puisse préférer
se détourner du nucléaire pour le gaz était une perspective nouvelle venant dʼun
rapport officiel préparé au sein de la sphère publique ! Elle a suscité quelques
levées de boucliers dans lʼadministration et chez les partisans du nucléaire.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 217
12. Placé auprès du Premier ministre, ce conseil a été créé par Lionel Jospin en 1997.
218 LES MODÈLES DU FUTUR
13. La proposition soumise pendant lʼété 1998 par la présidence autrichienne du Conseil des
ministres européen aboutissait à un potentiel maximal dʼéchanges pour chaque pays dʼenviron 2,5 %
de ses émissions de 1990. En novembre 2000, à la conférence de La Haye, les Européens se sont
encore présentés en exigeant la fixation de plafonds stricts sur les échanges, ne renonçant à cette
exigence quʼaux tout derniers moments de la négociation.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 219
14. Dʼoù lʼimportance des enjeux attachés, dʼun côté, à la définition conjointe par les décideurs et
par les experts dʼun cadrage précis des questions posées aux experts et, de lʼautre côté, à la publicité
des travaux des experts, y compris des avis minoritaires. Sur ces points, voir Godard [2003].
15. Une troisième option aurait été de miser sur la bonne volonté des autres États en supposant
quʼils accorderaient à la France le surcroît de quotas supplémentaires nécessaires (30 %) au moment
de négocier les objectifs à lʼhorizon 2020, alors quʼeux-mêmes devraient consentir des réductions
significatives. Peu crédible, cette dernière option aurait de toute façon placé la liberté de choix des
Français sous la tutelle des autres pays.
220 LES MODÈLES DU FUTUR
sur le bilan intertemporel des coûts et des avantages comme manière de définir
lʼaction qui convient.
Cependant, tant lʼutilitarisme que les critiques qui lui sont adressées au
nom de lʼéquité et dʼune théorie des droits rencontrent des problèmes redou-
tables lorsquʼil sʼagit dʼaborder les relations avec les générations futures
éloignées. Jʼen retiendrai trois : celui du postulat de permanence, à travers le
temps historique, des entités politiques pertinentes (les États…) ; celui de la
non-existence des générations futures ; celui de leur non-identité.
Le problème de la non-identité
lʼidée de justice est construite à partir des plaintes ou reproches que pourraient
formuler, si elles en avaient la possibilité, les personnes futures à lʼencontre
des générations présentes. La question posée est la suivante : comment des
personnes vivant dans un avenir lointain pourraient-elles être en position de
reprocher quoi que ce soit aux générations antérieures quant à lʼétat du monde
reçu en héritage ? Admettons que cela soit possible et que ce reproche putatif
soit anticipé par les générations antérieures. Admettons que, soucieuses de
justice, ces dernières changent leurs comportements en conséquence. Cʼest
alors toute lʼhorlogerie des relations de procréation qui se trouverait éga-
lement modifiée. Les personnes hypothétiques futures qui auraient adressé
des reproches à leurs ancêtres ne seraient jamais venues à lʼexistence et les
reproches nʼauraient pas pu être formulés. Dʼautres personnes seraient nées
à la suite dʼautres choix des générations antérieures. La théorie du reproche
est frappée dʼincohérence logique. Un double lien doit être élucidé : le lien
entre dommage et droit, et entre dommage et identité.
Remarquons que la notion de dommage est elle-même dépendante de celle
de droits, comme lʼavait montré Ronald Coase [1960] : tant que les droits
respectifs nʼont pas été définis par une institution, il est impossible de qualifier
une situation en termes de dommages occasionnés par lʼun et subis par lʼautre,
sauf à recourir à lʼidée hasardeuse dʼun droit naturel hors de lʼhistoire et de
lʼinstitution. Or lʼusage, pour les générations futures, de lʼidée de droits est
problématique, cela a été montré plus haut. On ne saurait, par exemple, faire
état du droit à la vie des générations futures.
Ensuite, comme Axel Gosseries [2004] lʼa démontré à propos de lʼaffaire
Perruche en France, lʼidée de dommages subis par une personne devient
impropre lorsque lʼattribut quʼon serait tenté de qualifier ainsi est insépa-
rable de lʼidentité des personnes concernées. Les personnes souffrant dʼun
handicap congénital ne peuvent pas faire reproche à leurs parents de leur
avoir occasionné un dommage. En effet, si les parents avaient pris certaines
dispositions pour éviter la naissance dʼun enfant handicapé, les personnes
nées sans ce handicap auraient été des personnes différentes de celles qui sont
handicapées. Lʼexpression « mettre au monde » signifie bien cette solidarité
la plus intime entre les humains et le monde qui leur est donné et qui résulte
de toute une histoire à la fois naturelle et humaine. Quel que soit lʼétat du
monde transmis, lʼidentité des personnes futures qui habiteront ce monde-là
nʼen est pas détachable.
En conséquence, si lʼon assoit lʼidée de justice sur celle de légitime repro-
che, il nʼest pas valide de spéculer sur les bénéfices et les dommages que pour-
raient retirer les générations futures de telle ou telle évolution qui résulterait
des décisions de leurs ancêtres. En effet, pour entrer dans la comptabilité des
dommages et des avantages attribuables aux actions des générations antérieu-
res, lʼanalyse devrait se rapporter à des personnes futures à lʼidentité définie
224 LES MODÈLES DU FUTUR
16. Dans les modèles, cela se traduit par le fait que la fonction dʼutilité collective prise en compte
reste la même dans les différents cas de figure examinés.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 225
RÉFÉRENCES BIBLIOGRAPHIQUES
ARCHER D. E. (2005), « The fate of fossil fuel CO2 in geological time », Journal of Geophysical
Research, vol. 110, septembre.
BECKERMAN W. et PASEK J. (2001), Justice, Posterity and the Environment, Oxford University
Press, Oxford.
BIRNBACHER D. (1994), La Responsabilité envers les générations futures, PUF, « Philosophie
morale », Paris.
COASE R. H. (1960), « The problem of social cost », Journal of Law and Economics, vol. 3,
octobre, p. 1-44.
COMMISSARIAT GÉNÉRAL DU PLAN (1998a), Énergie 2010-2020 – Rapport de l’atelier « Trois
scénarios énergétiques pour la France », Paris, septembre.
– (1998b), Énergie 2010-2020. Les chemins d’une croissance sobre, rapport du groupe présidé
par Pierre Boisson, La Documentation française, Paris.
COMMISSION MONDIALE SUR LʼENVIRONNEMENT ET LE DÉVELOPPEMENT (1988), Notre avenir à tous,
Éditions du Fleuve, Montréal.
DUPUY J.-P. (1992), Le Sacrifice et l’envie. Le libéralisme aux prises avec la justice sociale,
Calmann-Lévy, Paris.
– (2000), « Philosophical foundations of a new concept of equilibrium in the social sciences :
projected equilibrium », Philosophical Studies, vol. 100, n° 3, p. 323-345.
– (2002), Pour un catastrophisme éclairé. Quand l’impossible est certain, Le Seuil, Paris.
FORSÉ M. et PARODI M. (2004), La Priorité du juste. Éléments pour une sociologie des choix
moraux, PUF, « Sociologies », Paris.
GODARD O. (1998), « Annexe 1. Les scénarios énergétiques de la France 2010-2020 », dans
COMMISSARIAT GÉNÉRAL DU PLAN, Énergie 2010-2020. Les chemins d’une croissance
sobre, rapport du groupe présidé par Pierre Boisson, La Documentation française, Paris,
p. 317-404.
226 LES MODÈLES DU FUTUR
Olivier Godard
Une certitude est désormais acquise : les systèmes et les usages énergéti-
ques qui ont soutenu le développement économique depuis plusieurs décennies
devront se transformer en profondeur dʼici 2050. Cʼest là que la certitude cède
la place à lʼincertitude. Comment reconfigurer les systèmes énergétiques pour
tenir compte simultanément de toutes les contraintes et de toutes les menaces
204 LES MODÈLES DU FUTUR
dʼun monde profondément inégal et lancé plus que jamais dans la course à la
croissance matérielle ?
Les inerties liées aux capacités de production installées, aux infrastructures
et à lʼaménagement du territoire laissent peu dʼinconnues à court et moyen
terme (15 ans) quant aux besoins et aux moyens de les satisfaire. De plus, sʼil
est un domaine qui a été lʼobjet constant de lʼattention des prévisionnistes et
prospectivistes, cʼest bien celui de lʼénergie. Notre avenir nʼest-il pas éclairé
de mille lumières grâce aux efforts de lʼAgence internationale de lʼénergie,
de la Commission européenne, de la Conférence mondiale de lʼénergie, des
centres universitaires, des commissions gouvernementales et des bureaux
dʼétude spécialisés ?
Toutefois, éclairés, le sommes-nous totalement et sans trompe-lʼœil par ces
exercices ? Au-delà des intentions diverses des modélisateurs, la modélisation
est-elle si innocente lorsque, sʼappuyant sur la formalisation la plus sophisti-
quée, elle livre ses chiffres sur la scène publique ? Cʼest en effet à lʼusage public
de la modélisation dans un contexte de délibération sur lʼaction à conduire
que ce texte est consacré, en prenant appui sur le traitement des enjeux du
climat. On se réfère parfois, dans le monde de la critique de cinéma ou de la
photographie, à lʼidée dʼune morale du regard. Je propose ici de réfléchir à ce
quʼon pourrait appeler une morale du cadrage de la modélisation économique
des enjeux climatiques en situation dʼexpertise, en considérant successivement
le moyen terme (10 à 20 ans) et la longue durée.
Le propos sera introduit par quelques questions sur la pratique de la modé-
lisation, en ayant particulièrement en vue lʼévolution récente vers des modèles
intégrés climat-économie. Puis le questionnement abordera le moyen terme en
décortiquant deux exemples dʼusage de la modélisation économique dans le
domaine énergie-climat. Le premier, international, remonte à 1992 et touche
à lʼaccueil fait aux États-Unis aux propositions de la Commission européenne
dʼalors en matière de politique de lʼeffet de serre. Le second, français, est
plus récent. Il concerne les travaux du groupe Énergie 2010-2020 animé par
le Commissariat général du Plan en 1996-1998 à la demande du ministre de
lʼIndustrie.
Sur ce fond dʼexpériences, la réflexion sʼélargira à la manière dont il est
tenu compte des générations futures éloignées dans la modélisation à long
terme. Lʼun des traits notables des modèles traitant du changement climati-
que est en effet leur longue portée temporelle. Présenter des trajectoires et
des bilans sur un siècle ou deux – voire bien au-delà1 – nʼeffrayant pas les
climatologues, certains économistes se sont enhardis à faire de même. Par
1. Par exemple, le géophysicien David Archer [2005] modélise le devenir du CO2 dʼorigine
fossile sur plusieurs dizaines de milliers dʼannées et conclut que la durée de vie moyenne du CO2 dans
lʼatmosphère est dʼenviron 30 000 ans, du fait que 15 à 20 % des émissions anthropiques doivent être
considérées comme demeurant dans lʼatmosphère « pour lʼéternité ». Lʼauteur le souligne lui-même,
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 205
exemple certains font valoir les bénéfices nets que des pays comme la Chine
ou la Russie retireraient durablement, à partir de 2100 jusquʼen 2200, du
changement climatique annoncé…
ces résultats sʼécartent de la vulgate scientifique qui a diffusé lʼidée dʼun pas de temps dʼenviron
une centaine dʼannées.
206 LES MODÈLES DU FUTUR
Les faits
2000, le coût de cette taxe pour les Américains aurait été de lʼordre de 0,4 %
de leur PIB, tandis que lʼEurope nʼaurait eu à supporter quʼun coût de 0,2 %.
Les auteurs évoquaient, dans leurs commentaires, les effets possibles dʼun
tel déséquilibre des coûts sur la compétitivité relative des deux régions. Ces
commentaires ont été repris par certains journaux américains, dont le New York
Times. Moquant la Commission européenne, cette presse souligna combien
peu vraisemblable et peu souhaitable aurait été le ralliement des États-Unis,
où lʼon nʼaime guère les taxes, à une mesure qui aurait si nettement avantagé
lʼEurope et si nettement pénalisé les États-Unis dans la compétition interna-
tionale ! On ne peut naturellement pas imputer les choix politiques américains
à une seule étude ni à quelques articles de presse. Néanmoins la diffusion
de ces résultats dans une période clé des négociations a renforcé le camp de
ceux qui étaient hostiles à la fois à toute taxe sur le carbone et à toute action
significative de limitation des émissions de gaz à effet de serre. Finalement,
ni les États-Unis ni le Japon nʼont voulu de cette proposition de taxe et la
Commission, qui lʼavait avancée de manière conditionnelle, y a finalement
renoncé avant le Sommet de Rio.
Lʼhistoire de ce travail dʼexpertise ne sʼest pas arrêtée là. Lʼarticle en
question a été soumis à la revue Energy Policy, revue académique de réfé-
rence pour les spécialistes du domaine, et publié en janvier 1993 [Manne et
Richels, 1993], six mois après le Sommet de Rio. Il sʼagissait du même article
présentant les mêmes résultats, à une exception notable près, celle de la figure
comparant le coût respectif de la taxe en Europe et aux États-Unis (voir la
figure 2 ci-contre). La situation était désormais complètement inversée ! Les
États-Unis apparaissaient comme les grands gagnants – relatifs – de lʼintro-
duction coordonnée dʼune taxe sur le CO2. Pour lʼEurope, lʼordre de grandeur
du coût était considérablement modifié, puisque ce dernier était multiplié par
quatre : à lʼhorizon 2010, ce coût passait, entre les deux versions de lʼarticle,
de 0,3 à 1,2 point de PIB. Les auteurs ne mentionnaient pas quʼils avaient
modifié leurs résultats initiaux sur ce point, mais en donnaient indirectement
lʼexplication.
% du PIB
% du PIB
non pas additives3. Ce point avait été soulevé par plusieurs collègues, notam-
ment de lʼOCDE, lors du processus de relecture de lʼarticle avant publication.
Les auteurs avaient donc modifié leur modélisation sur ce point pour prendre
en compte les coûts économiques des distorsions supplémentaires imputables
à la nouvelle taxe projetée, surtout en Europe. Considérant lʼimpôt comme
distorsif dès le premier dollar versé, le coût de distorsion dʼune taxe carbone
devenait considérablement plus élevé en Europe quʼaux États-Unis.
La publication finale nʼa soulevé à ma connaissance aucun commentaire
dans la presse américaine sur les avantages considérables que les États-Unis
auraient pu retirer dʼune taxe sur le carbone dans sa compétition avec lʼEurope.
Le Sommet de Rio était déjà loin.
3. Cette théorie ne voit dans la fiscalité en place que le moyen de collecter les ressources
financières nécessaires au financement de dépenses publiques. Les marchés sont supposés être tous
parfaitement concurrentiels et répondre au mieux aux préférences des consommateurs.
210 LES MODÈLES DU FUTUR
Lʼépisode est instructif sur les enjeux dʼune expertise économique inter-
nationale. Il éclaire aussi en creux certains éléments dʼune morale de la
modélisation en situation dʼexpertise. Commençons par une observation
factuelle : lorsque des négociations internationales sʼaccélèrent ou approchent
dʼune échéance convenue, différents groupes dʼintérêts mettent en circulation
toutes sortes dʼétudes encore sous la forme de drafts, dans le but de peser sur
le résultat final. Ces documents prétendent souvent apporter des révélations
sur une réalité jusquʼalors ignorée, mais nʼont pas fait lʼobjet dʼune revue
critique par des pairs.
Ces jeux dʼinfluence ne concernent pas seulement des experts de troi-
sième catégorie, membres douteux dʼofficines prêtes à démontrer tout ce que
veulent leurs clients. Les économistes impliqués dans le cas cité comptent
parmi les plus réputés et influents sur la scène du changement climatique. Ils
ont depuis régulièrement contribué au travail du GIEC (Groupe dʼexperts
intergouvernemental sur lʼévolution du climat4). Le besoin dʼune réflexion
sur lʼusage de la modélisation économique en contexte dʼexpertise concerne
bien le cœur de la profession.
5. De tels coûts négatifs se présentent lorsque les actions de réduction des émissions de gaz
à effet de serre contribuent à dʼautres objectifs comme la réduction de la pollution locale ou la
pénétration de techniques éco-efficaces rentables dans les conditions économiques courantes mais
insuffisamment connues.
6. Par exemple, les modélisateurs pourraient être invités à utiliser lʼIDH (lʼindicateur du
développement humain) du Programme des Nations unies pour le développement ou dʼautres
indicateurs cherchant à cerner le caractère durable du développement.
212 LES MODÈLES DU FUTUR
lʼÉtat et dʼune redéfinition de ses modes dʼaction allant dans le sens dʼune plus
large confiance dans les mécanismes régulateurs de marché. Il sʼaccompagnait
également de la contraction de lʼhorizon temporel des différents acteurs sous
lʼeffet des pressions et sanctions concurrentielles. Dans ce scénario lʼénergie,
y compris la production électrique, était un bien ordinaire laissé à la régulation
du marché. Le deuxième scénario, appelé « État industriel », correspondait au
retour dʼun État interventionniste dans le domaine économique et industriel au
nom dʼune identification des intérêts à long terme de la nation avec la force
et la compétitivité de son industrie. La conception des différentes politiques
publiques, par exemple les politiques dʼenvironnement (effet de serre), y
était systématiquement utilisée pour favoriser la compétitivité et lʼessor de
lʼindustrie française, dans les limites autorisées par les règles européennes
et celles de lʼOrganisation mondiale du commerce. Lʼénergie demeurait un
bien stratégique pour la souveraineté nationale, dérogeant de ce fait aux lois
ordinaires du marché. Le troisième scénario, désigné comme « État protec-
teur de lʼenvironnement », faisait prioritairement de lʼÉtat le gardien des
valeurs de protection de la santé de la population, de prévention des risques
technologiques et de préservation de lʼenvironnement aussi bien à lʼéchelle
locale que planétaire. Il laissait davantage aux entreprises, aux organisations
professionnelles et aux partenaires sociaux le soin de piloter les mutations
économiques compatibles avec le cadre fixé. En résumé, S1 était un scéna-
rio de plus grand laisser-faire des marchés, S2 un scénario dʼune politique
volontariste de lʼoffre, et S3 un scénario de maîtrise conjointe de lʼoffre et
de la demande pour les rendre compatibles avec les objectifs sociaux et envi-
ronnementaux du pays.
Ces trois scénarios ont été traduits sous la forme dʼhypothèses technico-
économiques9 de façon à être aussi plausibles, complets et cohérents les uns
que les autres. Aucun de ces scénarios nʼétait considéré comme tendanciel.
Aucun ne constituait le scénario de référence qui aurait renvoyé les autres au
statut de variantes.
La priorité ayant été donnée à lʼexploration des conséquences de trois
évolutions sociopolitiques, un jeu unique dʼhypothèses a été retenu concer-
nant la croissance économique (un taux annuel moyen de 2,3 % sur toute la
période), la croissance démographique et les prix internationaux de lʼénergie
(un pétrole à 24 dollars9510 le baril de 2005 à 2020). Le taux dʼactualisation
utilisé pour les choix dʼinvestissement énergétique et le calcul des coûts a été
9. Ces hypothèses technico-économiques ont été introduites dans deux cadres de modélisation
économique permettant de déterminer des équilibres offre/demande pour les divers secteurs productifs
et pour les différents marchés de lʼénergie. Lʼun était un modèle technico-économique du secteur
énergétique et lʼautre un modèle dʼéquilibre général calculable.
10. Ce chiffre de 95 en indice exprime le « millésime » de la valeur du dollar pris comme
référence : ici, des dollars de 1995.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 215
Nucléaire ou gaz ?
11. On notera donc que S3, le scénario « environnement », nʼétait pas du tout un scénario de
sortie ou de gel du nucléaire.
216 LES MODÈLES DU FUTUR
Sur le fond, que la France, sous lʼemprise dʼun vent libéral, puisse préférer
se détourner du nucléaire pour le gaz était une perspective nouvelle venant dʼun
rapport officiel préparé au sein de la sphère publique ! Elle a suscité quelques
levées de boucliers dans lʼadministration et chez les partisans du nucléaire.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 217
12. Placé auprès du Premier ministre, ce conseil a été créé par Lionel Jospin en 1997.
218 LES MODÈLES DU FUTUR
13. La proposition soumise pendant lʼété 1998 par la présidence autrichienne du Conseil des
ministres européen aboutissait à un potentiel maximal dʼéchanges pour chaque pays dʼenviron 2,5 %
de ses émissions de 1990. En novembre 2000, à la conférence de La Haye, les Européens se sont
encore présentés en exigeant la fixation de plafonds stricts sur les échanges, ne renonçant à cette
exigence quʼaux tout derniers moments de la négociation.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 219
14. Dʼoù lʼimportance des enjeux attachés, dʼun côté, à la définition conjointe par les décideurs et
par les experts dʼun cadrage précis des questions posées aux experts et, de lʼautre côté, à la publicité
des travaux des experts, y compris des avis minoritaires. Sur ces points, voir Godard [2003].
15. Une troisième option aurait été de miser sur la bonne volonté des autres États en supposant
quʼils accorderaient à la France le surcroît de quotas supplémentaires nécessaires (30 %) au moment
de négocier les objectifs à lʼhorizon 2020, alors quʼeux-mêmes devraient consentir des réductions
significatives. Peu crédible, cette dernière option aurait de toute façon placé la liberté de choix des
Français sous la tutelle des autres pays.
220 LES MODÈLES DU FUTUR
sur le bilan intertemporel des coûts et des avantages comme manière de définir
lʼaction qui convient.
Cependant, tant lʼutilitarisme que les critiques qui lui sont adressées au
nom de lʼéquité et dʼune théorie des droits rencontrent des problèmes redou-
tables lorsquʼil sʼagit dʼaborder les relations avec les générations futures
éloignées. Jʼen retiendrai trois : celui du postulat de permanence, à travers le
temps historique, des entités politiques pertinentes (les États…) ; celui de la
non-existence des générations futures ; celui de leur non-identité.
Le problème de la non-identité
lʼidée de justice est construite à partir des plaintes ou reproches que pourraient
formuler, si elles en avaient la possibilité, les personnes futures à lʼencontre
des générations présentes. La question posée est la suivante : comment des
personnes vivant dans un avenir lointain pourraient-elles être en position de
reprocher quoi que ce soit aux générations antérieures quant à lʼétat du monde
reçu en héritage ? Admettons que cela soit possible et que ce reproche putatif
soit anticipé par les générations antérieures. Admettons que, soucieuses de
justice, ces dernières changent leurs comportements en conséquence. Cʼest
alors toute lʼhorlogerie des relations de procréation qui se trouverait éga-
lement modifiée. Les personnes hypothétiques futures qui auraient adressé
des reproches à leurs ancêtres ne seraient jamais venues à lʼexistence et les
reproches nʼauraient pas pu être formulés. Dʼautres personnes seraient nées
à la suite dʼautres choix des générations antérieures. La théorie du reproche
est frappée dʼincohérence logique. Un double lien doit être élucidé : le lien
entre dommage et droit, et entre dommage et identité.
Remarquons que la notion de dommage est elle-même dépendante de celle
de droits, comme lʼavait montré Ronald Coase [1960] : tant que les droits
respectifs nʼont pas été définis par une institution, il est impossible de qualifier
une situation en termes de dommages occasionnés par lʼun et subis par lʼautre,
sauf à recourir à lʼidée hasardeuse dʼun droit naturel hors de lʼhistoire et de
lʼinstitution. Or lʼusage, pour les générations futures, de lʼidée de droits est
problématique, cela a été montré plus haut. On ne saurait, par exemple, faire
état du droit à la vie des générations futures.
Ensuite, comme Axel Gosseries [2004] lʼa démontré à propos de lʼaffaire
Perruche en France, lʼidée de dommages subis par une personne devient
impropre lorsque lʼattribut quʼon serait tenté de qualifier ainsi est insépa-
rable de lʼidentité des personnes concernées. Les personnes souffrant dʼun
handicap congénital ne peuvent pas faire reproche à leurs parents de leur
avoir occasionné un dommage. En effet, si les parents avaient pris certaines
dispositions pour éviter la naissance dʼun enfant handicapé, les personnes
nées sans ce handicap auraient été des personnes différentes de celles qui sont
handicapées. Lʼexpression « mettre au monde » signifie bien cette solidarité
la plus intime entre les humains et le monde qui leur est donné et qui résulte
de toute une histoire à la fois naturelle et humaine. Quel que soit lʼétat du
monde transmis, lʼidentité des personnes futures qui habiteront ce monde-là
nʼen est pas détachable.
En conséquence, si lʼon assoit lʼidée de justice sur celle de légitime repro-
che, il nʼest pas valide de spéculer sur les bénéfices et les dommages que pour-
raient retirer les générations futures de telle ou telle évolution qui résulterait
des décisions de leurs ancêtres. En effet, pour entrer dans la comptabilité des
dommages et des avantages attribuables aux actions des générations antérieu-
res, lʼanalyse devrait se rapporter à des personnes futures à lʼidentité définie
224 LES MODÈLES DU FUTUR
16. Dans les modèles, cela se traduit par le fait que la fonction dʼutilité collective prise en compte
reste la même dans les différents cas de figure examinés.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 225
RÉFÉRENCES BIBLIOGRAPHIQUES
ARCHER D. E. (2005), « The fate of fossil fuel CO2 in geological time », Journal of Geophysical
Research, vol. 110, septembre.
BECKERMAN W. et PASEK J. (2001), Justice, Posterity and the Environment, Oxford University
Press, Oxford.
BIRNBACHER D. (1994), La Responsabilité envers les générations futures, PUF, « Philosophie
morale », Paris.
COASE R. H. (1960), « The problem of social cost », Journal of Law and Economics, vol. 3,
octobre, p. 1-44.
COMMISSARIAT GÉNÉRAL DU PLAN (1998a), Énergie 2010-2020 – Rapport de l’atelier « Trois
scénarios énergétiques pour la France », Paris, septembre.
– (1998b), Énergie 2010-2020. Les chemins d’une croissance sobre, rapport du groupe présidé
par Pierre Boisson, La Documentation française, Paris.
COMMISSION MONDIALE SUR LʼENVIRONNEMENT ET LE DÉVELOPPEMENT (1988), Notre avenir à tous,
Éditions du Fleuve, Montréal.
DUPUY J.-P. (1992), Le Sacrifice et l’envie. Le libéralisme aux prises avec la justice sociale,
Calmann-Lévy, Paris.
– (2000), « Philosophical foundations of a new concept of equilibrium in the social sciences :
projected equilibrium », Philosophical Studies, vol. 100, n° 3, p. 323-345.
– (2002), Pour un catastrophisme éclairé. Quand l’impossible est certain, Le Seuil, Paris.
FORSÉ M. et PARODI M. (2004), La Priorité du juste. Éléments pour une sociologie des choix
moraux, PUF, « Sociologies », Paris.
GODARD O. (1998), « Annexe 1. Les scénarios énergétiques de la France 2010-2020 », dans
COMMISSARIAT GÉNÉRAL DU PLAN, Énergie 2010-2020. Les chemins d’une croissance
sobre, rapport du groupe présidé par Pierre Boisson, La Documentation française, Paris,
p. 317-404.
226 LES MODÈLES DU FUTUR
10
Emmanuel Paris
ces couloirs seront en quelque sorte notre fil directeur : une fois spécifiés les
liens entre changement climatique et développement durable dans lʼespace
médiatique français, nous analyserons la façon dont les médias produisent
une représentation principalement menaçante du changement climatique et
rassurante du développement durable ; nous examinerons ensuite les lobbies
et les associations comme lieux de production de conformismes estampillés
« changement climatique » et « développement durable » ; enfin, nous trai-
terons des parcours de deux expositions traitant du changement climatique
et du développement durable et les réactions critiques quʼils ont suscitées
auprès de leurs visiteurs.
Violence climatique
Bien souvent les médias français, tout à leurs efforts pour construire un
couloir de la persuasion qui à la fois fasse peur et rassure, qui insiste sur la
violence climatique pour mieux la relativiser, oublient – ou choisissent de ne
pas traiter – des questions pourtant fondamentales en matière de changement
climatique et de développement durable : ils ne rendent tout simplement pas
compte des injustices sociales engendrées par ces deux phénomènes. Les
relations Nord-Sud sont ainsi peu traitées, alors que nombre de travaux mon-
trent lʼinégalité face au risque climatique selon que lʼon vit dans lʼhémisphère
Nord ou lʼhémisphère Sud [Van Ypersele, 2006]. Il en va de même quant au
développement durable : les exemples de « bonne conduite » montrés par les
médias mettent souvent en scène des Français appartenant aux classes aisées,
capables dʼen assumer le coût financier. Ces représentations médiatiques font
fi de la difficulté des populations pauvres à mettre en œuvre les préceptes
dʼun mode de vie écologique, quand les études de lʼInstitut français de lʼen-
vironnement (lʼIFEN) et de lʼAgence de lʼenvironnement et de la maîtrise de
lʼénergie (lʼADEME) pointent régulièrement lʼinégale prise de conscience de
la nécessité de changer son mode de vie selon que lʼon habite dans des quartiers
défavorisés ou dans les centres-villes [Dobré et Caraire, 2000].
Ce que nous avons appelé « couloirs de la persuasion médiatique » – que
nous aurions pu aussi désigner comme « vision conformiste » ou « ordre
culturel dominant » – est tel que les médias peuvent donc en venir à nier les
réalités sociales du changement climatique et du développement durable dans
la mesure où elles ne cadrent pas avec leur perception de ce qui fait consensus.
LES COULOIRS DE LA PERSUASION 233
Cʼest vrai quand nos médias traitent de ces sujets dans lʼhexagone, mais cʼest
encore plus flagrant quand ils traitent de ces phénomènes à lʼétranger. La
couverture médiatique française du premier anniversaire de lʼinondation de
la Nouvelle-Orléans par lʼouragan Katrina est à cet égard édifiante. Tout en
continuant à propager la vision dʼune violence climatique synonyme dʼinsé-
curité, les médias ont privilégié les reportages aux côtés de représentants des
forces de lʼordre chargées de réprimer les comportements inciviques. Ils ont
insisté sur un supposé « chacun pour soi » – affirmation après tout normale
au pays de lʼargent roi et des self-made men – et ont passé sous silence les
actes individuels et collectifs de résilience, les multiples solidarités qui se
sont mises en place spontanément pour reconstruire les quartiers et palier les
déficiences de lʼÉtat fédéral [Bordreuil et Lovell, 2006].
Les lobbies
Les associations
Ces documents peuvent être rendus publics par les associations – la plupart
animées par quelques bénévoles dont ce nʼest pas le métier principal – alors
même que les journalistes ne le feraient pas dʼeux-mêmes, notamment en
raison des investissements lourds du groupe Total-Elf-Fina ou EDF auprès des
centrales dʼachat dʼespaces publicitaires. Le réseau « Sortir du nucléaire » a
par exemple récemment dévoilé un rapport dʼétudes EDF sur lʼEPR indiquant
quʼil nʼest pas dimensionné pour supporter un scénario 11-Septembre ; ce
rapport a été repris par nombre de titres de la presse écrite dans des articles
consacrés aux débats publics organisés pour discuter des enjeux de ce nouveau
réacteur. En 1999 déjà – soit deux ans après sa création –, le réseau avait rendu
public lʼincident du Blayais sur la base dʼinformations émanant dʼemployés
de la centrale (les terrains contigus au bâtiment abritant le réacteur avaient
été inondés durant la tempête de décembre 1999 par des vagues qui étaient
passées par-dessus la digue).
Il sʼagit ici dʼun second type dʼélargissement du cercle des experts habilités
(par les médias, par le sérail lui-même) à accéder à lʼespace médiatique où se
forgent les représentations collectives du changement climatique et du rôle que
doit y jouer le nucléaire. Il concerne surtout des ONG, en particulier anglo-
saxonnes, qui jouent un rôle central dans la communication des associations au
sujet du changement climatique. Cette place dominante peut sʼexpliquer par la
culture du lobbying de ces organisations ; Greenpeace définit son management
par « secteurs à couvrir », et il sʼagit pour chaque responsable dʼinfluer sur
tout acteur public – décideur, relais dʼopinion – concerné par la thématique
environnementale quʼil a en charge. À la fois très populaire (lʼONG revendi-
que 85 000 adhérents payants, à comparer aux 15 000 adhérents de « Sortir
du nucléaire ») et élitiste (seuls quelques militants employés à plein temps
interviennent au nom de lʼassociation), Greenpeace fait donc le lien entre
les petites organisations à la vie associative peu fournie, très parisiennes,
bénéficiant de facilités dʼentrée dans lʼespace médiatique, tel RAC-France,
et une nébuleuse dʼassociations en province. Ces dernières sont souvent
constituées de riverains des sites environnementaux ou industriels affectés
par le changement climatique ou qui constituent un risque environnemental.
On peut y voir un héritage de lʼengagement des Français dans les structures
collectives de proximité, particulièrement puissant durant les années 1970. Si
les adhérents de ces associations à lʼancrage local nʼont pas le même capital
socioculturel que ceux des petites structures proches des centres de décision
à Paris, ils utilisent tout comme eux les ressources offertes par les nouvelles
technologies de lʼinformation et de la communication (les NTIC) pour inter-
venir dans lʼespace médiatique dédié à la mise en signification du changement
climatique [Ollitrault, 1999]. Lʼexpérience vécue y est une forme dʼexpertise
revendiquée comme équivalente, voire supérieure, à lʼanalyse logique des
travaux des contre-experts.
236 LES MODÈLES DU FUTUR
La défiance éprouvée par les visiteurs à lʼégard des récits proposés par
les deux expositions sʼexplique par ailleurs par la condition dʼisolement dans
laquelle ils se sont vite trouvés une fois sur le parcours, alors que précisément
ils étaient venus à lʼexposition pour en sortir. De plus de quatre-vingts à regar-
der passivement mais ensemble le film quelques mètres plus tôt, les visiteurs
de « Climax » pouvaient devenir actifs mais discriminés puisque répartis en
tout petits groupes de nombre insuffisant, à raison de cinq tables pouvant
accueillir chacune deux ou trois personnes, dans la salle du « simulateur ».
Quant à « Nouveaux paris… », la ventilation des sous-thèmes sur trois étages
avec, pour chacun, une scénographie alvéolaire des contenus séparait de fait
les visiteurs.
Cette conception nʼétait pas celle du forum, puisquʼil sʼagissait en lʼoccur-
rence dʼune communication décidée unilatéralement et à laquelle une foule
pouvait sʼexposer, mais en silence. Lʼoral ne primait pas dans les parcours
de « Climax » et de « Nouveaux paris… », lʼune préférant à la discussion la
visualisation dʼimages numérisées animées et lʼinteractivité avec des interfaces
complexes, lʼautre la lecture de cartes, de maquettes et de graphiques. Cette
observation soulève un problème de fond : peut-on débattre de lʼinquiétude
quʼinspire le changement climatique et de la confiance qui émane de la mul-
tiplication dʼactions labellisées « développement durable » sans se parler
(au-delà des relations interpersonnelles) des raisons pour lesquelles chacun
se sent inquiet et/ou confiant ?
Notre enquête a permis dʼavoir accès à certains écrits envoyés a posteriori
par des visiteurs de « Climax » aux acteurs du processus de conception-réalisa-
tion de lʼexposition : « Très convaincu de lʼimportance de la sensibilisation du
grand public au changement de climat, […] je suis allé à lʼexposition “Climax”
une première fois, pour préparer une visite avec mes petits-enfants. Jʼai été
si étonné, pour ne pas dire effaré, par le contenu de lʼexposition, que jʼy suis
retourné une deuxième fois pour prendre des notes en vue de faire part de
mes réactions aux organisateurs ; nʼayant eu le temps de transcrire ces notes
manuscrites que quinze jours après cette seconde visite, jʼai eu des scrupules
devant leur sévérité et suis allé une troisième fois à la Villette. Voici mes
240 LES MODÈLES DU FUTUR
un tel scénario, car « ce que le film décrit est très peu probable » et « cet
événement cinématographique risque de jeter le trouble dans une opinion
publique encore peu avertie », concluant que « la science cède vite le pas à
la science-fiction » (L’Express, 24 mai 2004). Discréditer la science-fiction,
« impure » parce quʼelle jetterait le discrédit sur la science climatologique en
optant pour la déraison (en lʼoccurrence, mettre en scène une glaciation alors
quʼun réchauffement est plus probable) : cette prise de parole de Jean Jouzel
dans lʼespace public médiatique cherchait effectivement à faire autorité. Or ce
point de vue nʼest pas partagé par toute la communauté scientifique : Myles
Allen, un climatologue anglais tout aussi renommé au Royaume-Uni, prenait
quelques jours après lʼexact contre-pied à propos des effets supposés de ce
film de science-fiction sur sa discipline, les qualifiant de « vertueux » dans
la mesure où ce film pouvait être un très bon support pédagogique (Nature,
n° 429, mai 2004). Deux années plus tard, le parti pris du film Le Jour d’après
ne semble dʼailleurs plus si déraisonnable aux climatologues français, lʼhypo-
thèse dʼun arrêt brutal du Gulf Stream redevenant pertinente après la parution
de travaux sur lʼécoulement anormalement rapide des glaciers arctiques dans
lʼocéan Atlantique (Le Monde 2, 12 août 2006).
Le fait pour un climatologue de renom comme Jean Jouzel de rejeter
dʼemblée un film traitant du changement climatique parce quʼil ne montre
pas ce qui est considéré par la discipline, à ce moment-là, comme le futur
probable illustre une caractéristique forte de la communication du change-
ment climatique et du développement durable dans les médias français. Ce
scientifique est invité par le système médiatique à sʼexprimer non pas pour sa
compétence de savant, mais comme personne susceptible dʼavoir une opinion
à propos dʼun produit de communication, quand bien même il ne serait pas
rôdé à la critique des médias. Ainsi, producteur premier dʼinformations au
sujet du changement climatique, le scientifique occupe pourtant une position
précaire dans lʼespace public tant il est contraint dʼemprunter des cadres de
perception qui ne sont pas les siens.
La régression est sans fin, puisque les médias eux-mêmes sʼavèrent occuper
une position précaire dans lʼespace public. Communiquant au sujet du change-
ment climatique et/ou du développement durable, ils produisent des cadrages
interprétatifs à visée consensuelle absolument contradictoires, susceptibles
par conséquent de donner lieu à des contestations radicales. Le groupe TF1,
première chaîne de télévision en termes dʼaudience, peut ainsi tout à la fois
programmer des émissions environnementalistes prescrivant des comporte-
ments respectueux, telles Ushuaïa ou Terre mère (sur LCI), et la retransmission
de courses de Formule 1, véhicules extrêmement énergétivores.
242 LES MODÈLES DU FUTUR
CONCLUSION
RÉFÉRENCES BIBLIOGRAPHIQUES
BERNSTEIN M. et JASPER J. M. (1998), « Les tireurs dʼalarme dans les conflits sur les risques
technologiques. Entre intérêts particuliers et crédibilité » (1996), Politix, n° 44, 4e trimestre,
p. 109-134.
BONNEFOY Y. (dir.) (1999), Dictionnaire des mythologies et des religions des sociétés
traditionnelles et du monde antique, Flammarion, Paris.
BOURDIEU P. (1982), Ce que parler veut dire. L’économie des échanges linguistiques, Fayard,
Paris.
BORDREUIL S. et LOVELL A. (2006), « La Nouvelle-Orléans, un nouvel élan », Libération,
22 septembre, p. 28-29.
CHIRAC J. (2002), Discours de M. Jacques Chirac, Président de la République devant l’Assemblée
plénière du Sommet mondial du développement durable, service de communication de
lʼÉlysée, Paris.
244 LES MODÈLES DU FUTUR
DESMOULINS L. (2002), « French public policy research institutes and their political impact
as another illustration of the French exception », dans MCGANN J. et WEAVER R. (dir.),
Think Tanks and Civil Societies. Catalysts for Ideas and Action, Transaction Publishers,
New York, p. 139-167.
CHAMPAGNE P. (1991), « La construction médiatique des malaises sociaux », Actes de la
recherche en sciences sociales, n° 90, p. 64-75.
DE CHEVEIGNÉ S. (2000), L’Environnement dans les journaux télévisés. Médiateurs et visions
du monde, CNRS Éditions, Paris.
DOBRE M. et CARAIRE C. (2000), La Sensibilité écologique des Français à travers l’opinion
publique, Institut français de lʼenvironnement, Paris.
GROSSMAN E. et SAURUGGER S. (2004), « Les groupes dʼintérêt français : entre exception
française, lʼEurope et le monde », Revue internationale de politique comparée, vol. 11,
n° 4, p. 523-532.
HALL S. (1994), « Codage/décodage », Réseaux, n° 68, novembre-décembre, p. 29-39.
HULOT N., RAHBI P. et ZARACHOWICZ W. (2005), Graines de possibles : regards croisés sur
l’écologie, Calmann-Lévy, Paris.
LAHALLE M.-P. (2005), « Climax / expo simulation / changement climatique », présentation de
lʼexposition le 18 mai 2005 lors du séminaire de lʼIDDRI sur les risques climatiques, en
ligne sur http://www.iddri.org/iddri/telecharge/climat/risques_climatiques/s05-2_lahalle.
pdf
LE ROY LADURIE E. (1967), Histoire du climat depuis l’an mil, Flammarion, Paris.
MACÉ E. (2002), « Le traitement médiatique de la sécurité », dans MUCCHIELLI L. et ROBERT
Ph. (dir.), Crime et sécurité. L’état des savoirs, La Découverte, Paris, p. 33-41.
MICHELIN N. (dir.) (2005), Nouveaux Paris. La ville et ses possibles, Éditions du Pavillon de
lʼArsenal et A. & J. Picard, Paris.
MILLER C. A. (2000), « The dynamics of framing environmental values and policy : four
models of societal processes », Environmental Values, n° 9, p. 211-233.
MONS L. (2006), Les Enjeux de l’énergie. Pétrole, nucléaire, et après ?, Larousse, Paris.
OLLITRAULT S. (1999), « De la caméra à la pétition Web. Le répertoire médiatique des
écologistes », Réseaux, n° 98, p. 153-185.
PARIS E. (2003), « Décrire, illustrer, convaincre. Les usages médiatiques contradictoires des
images de la modélisation climatique », Annales des Ponts et Chaussées, n° 107-108,
juillet-décembre, p. 63-72.
RICŒUR P. (1991), Temps et récit, tome 1. L’intrigue et le récit historique, Le Seuil, « Points-
essais », Paris (1re édition 1983).
ROQUEPLO P. (1993), Climats sous surveillance. Limites et conditions de l’expertise scientifique,
Economica, Paris.
VAN YPERSELE J.-P. (dir.) (2006), Changements climatiques. Impasses et perspectives, Syllepse,
Paris.
VÉRON E. (1981), Construire l’événement : les médias et l’accident de Three Miles Island,
Éditions de Minuit, Paris.
WATSON R. T. et THE CORE WRITING TEAM (dir.) (2001), Climate Change 2001 : Synthesis
Report. Contribution of Working Groups I, II, and III to the Third Assessment Report
of the Intergovernmental Panel on Climate Change, Cambridge University Press,
Cambridge.
WOLTON D. (1998), Penser la communication, Flammarion, Paris.
Introduction 245
Les auteurs
Amy est directeur de recherche au CNRS et directrice adjointe du Centre Alexandre
Dahan Koyré, où elle dirige le master « Histoire des sciences, technologies, sociétés »
Dalmedico de l’EHESS. Spécialiste de l’histoire des sciences et des milieux mathématiques
dans leur contexte politique et culturel, ses travaux ont porté dernièrement sur
la seconde moitié du xxe siècle : mathématiques appliquées, interactions des
mathématiques avec d’autres disciplines, théorie du chaos, modèles et pratiques
de modélisation, changement climatique... Elle a écrit ou assuré la direction de
plusieurs ouvrages dont les plus récents sont Les Sciences pour la guerre, 1940-
1960, en collaboration avec D. Pestre (Éditions de l’EHESS, Paris, 2004), et
Jacques-Louis Lions, un mathématicien d’exception entre recherche, industrie
et politique (La Découverte, Paris, 2005). ([email protected])
Michel est maître de conférences à l’université de Paris-IX Dauphine et chercheur
Armatte associé au Centre Alexandre Koyré, coresponsable du séminaire de l’EHESS
intitulé « Histoire du calcul des probabilités et de la statistique ». Sa thèse
soutenue en 1995 a pour sujet « l’histoire du modèle linéaire en statistique et
économétrie ». Il a publié de très nombreux articles sur l’histoire de la statis-
tique (xixe et xxe siècle) et de l’économétrie. Ses thèmes actuels de recherche
englobent la modélisation des systèmes complexes (climat et modèles intégrés).
Il conduit également plusieurs dispositifs nationaux d’enseignement numérique
en économie et gestion. ([email protected])
Christian est professeur à l’Institute of Physical Resource Theory de la Chalmers
Azar University of Technology (Göteborg, Suède), où il est titulaire de la chaire
« Énergie et environnement ». Physicien de formation, ses recherches portent
sur les stratégies d’atténuation du changement climatique (modélisation des
systèmes, évaluation des technologies, analyse des politiques). Il siège dans les
comités éditoriaux de plusieurs journaux scientifiques et a été auteur principal
au sein du GIEC (Groupe d’experts intergouvernemental sur l’évolution du
climat). Il a été conseiller du Premier commissaire européen sur l’environnement
et est actuellement conseiller du ministre suédois de l’Environnement, membre
de la commission Pétrole auprès du Premier ministre suédois. (christian.azar@
fy.chalmers.se)
Vincent est ingénieur du corps du GREF, chercheur du CIRAD, affecté au CIRED. Il
Gitz est spécialiste de la modélisation intégrée du lien entre occupation des sols et
cycle du carbone. ([email protected])
Imprimé en France