Homo Numericus (French Edition) - Daniel Cohen - 2022 - ALBIN MICHEL - E2e1f9b3e6204755529a24c361f

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 208

© Éditions Albin Michel, 2022

ISBN : 9782226477774
En pensant à Suzanne.
« And you know that you can trust her
For she’s touched your perfect body with her mind. »

Leonard Cohen
Introduction

Dans l’un des épisodes les plus marquants d’une série britannique à succès,
Black Mirror, une jeune femme perd son mari, tué dans un accident de voiture,
le jour où elle apprend qu’elle est enceinte de lui. Grâce à l’intelligence
artificielle qui épluche les conversations téléphoniques, vidéos et mails de son
défunt compagnon, celui-ci est ressuscité numériquement, de manière parfaite,
avec ses intonations, ses intuitions, les réponses aux questions qu’elle se pose…
La force de la série tient au fait qu’elle ne semble qu’un cran en avance sur les
mondes possibles. Elle explore notre capacité à accepter l’emprise des nouvelles
technologies davantage que les limites de celles-ci, prenant comme hypothèse
que les obstacles sont désormais moins techniques que sociaux et
psychologiques.
L’idée que l’on puisse ressusciter les morts en puisant dans leur « historique »
est totalement angoissante et parfaitement crédible. Les logiciels propulsés par
l’intelligence artificielle (IA) plongent dans la personnalité de leurs utilisateurs.
En reconnaissant les intonations de leur voix, la complexion de leur visage, en
identifiant les arêtes de leur vocabulaire, ils saisissent les humeurs et les
aspirations de chacun. Bon nombre de recrutements pour un emploi ou une
université se font désormais en ligne, l’IA présélectionnant, dans une liste de
prétendants qui peut se chiffrer en dizaines de milliers de personnes, les rares
candidats qui auront la chance de rencontrer, dans la dernière ligne droite, un
examinateur humain. L’amour n’échappe pas à cette moulinette. Comme le
montre magnifiquement la sociologue Eva Illouz, des logiciels tel Tinder
permettent d’industrialiser la relation amoureuse en réduisant le temps passé à se
faire la cour, limitant l’amour au « just fuck » ! Les émotions, les désirs et les
peurs passent sous la coupe de nouveaux algorithmes qui transforment de fond
en comble les relations affectives. Une nouvelle économie, une nouvelle
sensibilité, de nouvelles idéologies : à l’image de la grande transformation
qu’avait produite la révolution industrielle, la révolution numérique est en train
de provoquer une remise à plat radicale de la société et de ses représentations.
Dans la société nouvelle qui s’annonce, il ne s’agit plus d’acheter des objets,
des aspirateurs ou des machines à laver, mais de consommer ses propres
fantasmes, individuels ou collectifs. En termes économiques, on peut dire que la
révolution numérique « industrialise la société postindustrielle » : ce terme
désignant un monde où l’essentiel de l’activité ne consiste plus à cultiver la terre
ou à fabriquer des biens manufacturés mais à s’occuper des humains eux-mêmes,
de leur corps et de leur imaginaire. En ligne, tout est fait pour que se divertir,
s’éduquer, se soigner ou se faire la cour soit accessible à moindre coût…
De manière totalement imprévue, la pandémie du Covid a servi de catalyseur
à cette grande transformation. Les gagnants de la crise ont été les Amazon,
Apple, Netflix, des firmes dont la capitalisation boursière a explosé durant le
confinement. Elles ont permis de télétravailler, de se fournir en marchandises
sans devoir aller dans une boutique, de se distraire sans se rendre dans un théâtre
ou une salle de concert. Chacun a pu comprendre la visée du capitalisme
numérique : elle est de réduire au maximum le coût des interactions physiques,
dispensant de se rencontrer en face à face. Pour générer du rendement, il
dématérialise les relations humaines, les privant de leur chair.
Les algorithmes jouent à l’échelle de la société dans son ensemble le rôle qui
fut hier celui de la chaîne de montage dans l’organisation du travail. Ce n’est pas
seulement la gestion des corps qui est optimisée, c’est la psyché des humains qui
est « taylorisée ». Les moteurs de recherche guident les usagers du Net vers des
sites de rencontres ou d’opinions censés leur convenir, les enfermant en pratique
dans de nouveaux ghettos numériques. Alors qu’il est obsédé par la recherche
d’une gestion « efficiente » des relations humaines, le capitalisme nouveau crée,
de manière totalement contradictoire, un Homo numericus irrationnel et
impulsif. « Trop d’images, de sons et de sollicitations provoquent des déficits de
concentration, des symptômes d’hyperactivité et des conduites addictives », écrit
ainsi Michel Desmurget dans un livre bien nommé : La Fabrique du crétin
digital. Loin de faire advenir une nouvelle agora, un lieu de discussion où les
idées circulent et s’échangent, les réseaux sociaux provoquent une radicalisation
totalement imprévue du débat public. Les discours haineux contre ses
adversaires sont devenus la norme de ces nouvelles « conversations ». Ce ne sont
pas des informations que l’on cherche sur le Net mais des croyances que l’on
consomme comme un bien ordinaire, chacun trouvant dans le grand magasin
numérique la vérité qui lui convient, comme dans la pièce de Pirandello.
Sauf à verser dans un déterminisme qui voudrait que la technologie détienne,
à elle seule, la clé des civilisations, la transformation en cours ne peut se
comprendre si l’on ne saisit pas le processus historique dont elle constitue un
moment. La révolution numérique porte à son paroxysme la désintégration des
institutions qui structuraient la société industrielle, qu’il s’agisse des entreprises
elles-mêmes, des syndicats, des partis politiques ou des médias. Ce processus est
lui-même le produit direct du choc libéral des années quatre-vingt, qui a voulu
étendre la place du marché et de la compétition dans toutes les dimensions
possibles, sans médiations, sans corps intermédiaires. Le télétravail, qui pourrait
être le legs le plus durable du Covid, s’inscrit dans un long processus de
déstructuration des firmes industrielles en faveur de l’externalisation des tâches
et de l’individualisation des rémunérations. Mais la société numérique se nourrit
aussi, de manière subliminale, de la contre-culture des années soixante et de sa
critique de la verticalité du pouvoir et des institutions. Vaincu par la révolution
libérale, l’esprit des sixties erre comme un fantôme dans les réseaux sociaux,
leur donnant un ton résolument antisystème alors même qu’ils sont devenus le
système. Comme le sociologue américain Fredric Jameson le disait de la
postmodernité, la transition actuelle offre une forme de « compensation » à
l’échec politique de la révolution culturelle en adoptant son langage. Le vieil
Isaac pourrait en dire : c’est la voix de Dylan et la main de Thatcher 1.
L’homme numérique qui hérite de cette filiation étrange est à la fois solitaire
et nostalgique, libéral et antisystème. Il est pris dans le piège d’une société
réduite à l’agrégation d’individus voulant échapper à leur isolement en
constituant des communautés fictives. L’idée d’une société offrant à chacun de
s’engager seul dans mille conversations parallèles est toutefois un mythe
épuisant à porter. Les Gilets jaunes ont bruyamment fait entendre que la solitude
sociale était le mal le plus profond qui soit, la cause même des suicides selon
Durkheim, le père de la sociologie française, et que les liens virtuels ne
guérissaient pas du désir de vivre en chair et en os parmi les humains. « Les
hommes vivent au-dessus de leurs moyens psychiques », disait le psychanalyste
Pierre Legendre. La formule est forte et peut être généralisée : en vérité l’homme
vit au-dessus de ses moyens tout court, qu’ils soient psychiques ou écologiques.
Les catastrophes qui s’égrènent depuis le début du siècle montrent que quelque
chose ne va pas du côté du « monde réel ». Coup sur coup, le Covid puis la
guerre en Ukraine ont rappelé à leur manière que la vie n’était pas un jeu vidéo.
La bonne nouvelle, c’est que nous ne vivons pas dans une série de science-
fiction. Les technologies n’ont pas pris le contrôle de nos vies. Elles prolongent
et amplifient les tendances de la société, donnant corps à nos pulsions latentes,
mais ne les inventent pas.
À sa manière, perverse, la révolution numérique dessine aussi en creux un
chemin exaltant : celui qui mène à un monde où toute parole mériterait d’être
écoutée, sans vérité transcendante en surplomb. Elle explore une nouvelle
manière de vivre qui est sans précédent dans l’histoire des civilisations, celle
d’une société se voulant à la fois horizontale et laïque : sans la verticalité qui
prévalait encore dans la société industrielle, sans la religiosité des sociétés
agraires, plus proche peut-être des chasseurs-cueilleurs, les superstitions en
moins si c’est possible.

La route est longue pour simplement comprendre ce qu’une telle utopie


signifie. Les réseaux sociaux donnent des instruments pour l’accomplir, mais à
condition d’en réinventer tous les usages. Il faut relever ce défi, fournir cet effort
d’imagination inouï de penser une société désirable avec les moyens que donne
celle que l’on veut quitter.
Note
1. Genèse 27, 22 : « La voix est la voix de Jacob mais les mains sont les mains d’Esaü. »
PREMIÈRE PARTIE

L’ILLUSION NUMÉRIQUE
I.

Le corps et l’esprit
Terminator

Archimède voulait un levier pour soulever la terre. L’âge numérique, comme


les révolutions industrielles qui l’ont précédé, vise à son tour un objectif simple :
rendre le travail humain plus « productif ». La différence fondamentale avec les
révolutions du passé tient toutefois en ceci : c’est l’homme lui-même qui est à la
fois le levier et la masse à soulever. Un dialogue passionnant et effrayant entre
deux éminents spécialistes de l’intelligence, Yann Le Cun et Stanislas Dehaene,
qu’on croirait autant influencés par la science-fiction que par la biologie, donne
à voir ce qui se trame :

« SD : L’interface entre le cerveau et les machines, personnellement, j’y


crois beaucoup. Je crois que le brancher au moyen d’interfaces rapides, sur
des systèmes supplémentaires, lui permettra d’être plus efficace. Et cette
combinaison sera difficile à battre pendant longtemps.
– YLC : Oui !
– SD : On greffe au cerveau une puce qui injecte des signaux sensibles à la
direction du champ magnétique et soudain le rat s’oriente mieux dans
l’espace, comme le font les pigeons.
– YLC : Je ne crois pas au remplacement, mais au déplacement.
L’évolution cosmique va vers toujours plus de complexité. L’intelligence
évolue mais il n’est pas nécessaire qu’elle reste strictement humaine. »

À lire ce dialogue, on pourrait faire croire à l’influence du film Terminator sur


la pensée savante. Sauf que l’idée de permettre aux cerveaux humains de
communiquer avec des machines n’est plus illusoire. En 2018, un implant placé
dans le cerveau d’un tétraplégique lui a permis d’actionner par la pensée un
exosquelette qui l’aide à marcher 1. Les armées du monde entier ne sont pas les
dernières à s’intéresser à cette promesse d’un mélange de chair humaine et de
silicium… Le journal Le Monde 2 a fait état d’un incroyable rapport sur le
« soldat augmenté », bénéficiant de l’intégration de puces sous la peau
permettant d’envoyer ou de recevoir des informations à distance sur un théâtre
de guerre. À l’horizon 2030, ces évolutions pourraient se traduire par « des
opérations des oreilles pour entendre des fréquences très élevées ou très basses,
ou encore par des implants permettant de prendre le contrôle d’un système
d’armes ».
Conscient des débats que pourrait susciter cette évolution, le Comité d’éthique
de la défense, composé de dix-huit membres civils et militaires, prend soin
d’énoncer une vingtaine de recommandations. Pour chaque « augmentation » des
soldats, une analyse « bénéfices/risques » devra être menée qui inclura la prise
en compte des effets secondaires que pourraient avoir sur le corps « un certain
nombre d’ondes ou de composants électroniques ». La réversibilité de ces
augmentations devra être aussi étudiée. Sera prohibée « toute augmentation dont
on estime qu’elle serait de nature à […] provoquer une perte d’humanité ou
serait contraire au principe de respect de la dignité de la personne humaine ». Le
comité éthique des armées fixe aussi comme interdit toute « augmentation
cognitive [qui] porterait atteinte au libre arbitre dont le militaire doit disposer
dans l’action au feu ». De même devraient être proscrites « les pratiques
eugéniques ou génétiques ainsi que les augmentations qui mettraient en péril
l’intégration [du soldat] dans la société ou son retour à la vie civile ». Nous voilà
rassurés !
Il faut prendre au sérieux ces moments de l’histoire où la science-fiction
rencontre l’imaginaire militaire. Les champs de bataille ont de tout temps fourni
des théâtres d’expérimentation aux technologies les plus révolutionnaires.
Internet lui-même ou le GPS sont des exemples récents sortis des cartons du
département de la Défense des États-Unis. Mais les technologies ne s’imposent
pas dans le vide, il faut qu’elles remplissent un besoin social. Les Google
Glasses étaient une merveille technique qui a fait flop. Facebook à l’inverse était
un gadget pour étudiants immatures (permettant de sélectionner les plus jolies
filles du campus) qui a conquis le monde !
Dans les deux cas il faut s’interroger sur le pourquoi. Décrire la manière dont
la société émergente bouleverse nos vies et nos mentalités demande d’éviter
deux pièges symétriques. Le premier est d’attribuer aux technologies une force
autonome qu’elles n’ont généralement pas. Le second est, à l’inverse, de sous-
estimer leurs capacités disruptives, les chemins de traverse qu’elles conduisent à
emprunter en réponse souvent aux déséquilibres qu’elles provoquent elles-
mêmes. L’écart peut être gigantesque entre les intentions initiales des inventeurs
et l’usage qui finit par s’imposer. L’incertitude où l’on se trouve face à des
inventions aussi radicales que l’intelligence artificielle, comme hier avec
l’imprimerie ou la télévision, tient entre autres choses essentielles à un fait
simple : les sociétés ne sont pas des êtres inanimés. Les mouvements sociaux,
politiques, la conscience universelle en changent la portée.

Décrire la révolution numérique n’est pas faire le récit d’un destin annoncé ou
subi. C’est en explorer les virtualités, en mesurer les risques, pour se donner les
moyens de la dominer. Là est le véritable enjeu.
Notes
1. Grâce à l’équipe du professeur Benabid à Grenoble. L’interface directe cerveau-ordinateur
peut être plus ou moins invasive, via des électrodes plantées directement en contact avec le
cerveau ou simplement par un casque muni de capteurs.
2. Le Monde, 4 décembre 2020.
Raison et émotions

Hier, avec le travail à la chaîne, l’homme devenait machine. Aujourd’hui,


avec l’intelligence artificielle, c’est la machine qui devient humaine. Elle peut
accroître nos capacités cognitives ou mécaniques, mais elle peut aussi conduire à
se passer de nous. Il n’y a plus de poinçonneurs à l’entrée des métros, et sans
doute n’y aura-t-il plus bientôt de caissiers à la sortie des hypermarchés. Face à
la formidable puissance des ordinateurs et de l’intelligence artificielle, quel est
l’avantage que les hommes feront valoir ? Faudra-t-il planter des électrodes dans
leurs cerveaux pour les aider à tenir leur place ? Où l’homme va-t-il se
spécialiser dans les tâches que la machine ne sait pas faire : aimer, rire ou
pleurer, au risque de laisser les algorithmes prendre en charge l’intelligence
collective du système ? Répondre à ces questions n’exige rien de moins que de
reprendre celles que la philosophie et la biologie explorent depuis des siècles :
qu’est-ce que l’homme, non plus relativement aux dieux ou aux animaux, mais
face aux techniques qu’il a lui-même produites ?
Constat simple : l’homme est corps et esprit, la machine n’est ni l’un ni
l’autre. L’homme est esprit, tout d’abord : il produit, spontanément, des théories
sur le monde. Dès l’âge de 9 mois, un bébé a assimilé les lois de la gravitation :
il jette ses jouets pour vérifier qu’ils tombent bien comme prévu. Un enfant fait
très tôt la différence entre les objets inanimés et les êtres vivants. En voyant
deux ou trois éléphants, il saisit immédiatement le concept de cet animal étrange
et peut le reconnaître dans ses livres d’images. La machine ne sait pas faire ces
choses spontanément. Elle a besoin de scanner plusieurs millions d’éléphants
pour en reconnaître un seul. Un conducteur totalement inexpérimenté sur une
route de montagne sait qu’il doit éviter le ravin, même s’il n’a jamais fait
l’expérience d’y tomber auparavant. La machine a besoin de millions de crashs
virtuels pour comprendre qu’il faut garder la voiture sur la route. Elle n’est pas si
brillante qu’on pourrait l’imaginer !
La spécificité des humains est de produire des théories sur tout : sur le vent,
les étoiles, sur eux-mêmes… La vie est trop courte pour que notre
compréhension du monde puisse être déduite des seules expériences vécues. Il
faut des concepts pour se repérer dans un monde rempli de mystères. Comme le
rappelle Richard Thaler, un économiste qui a reçu le prix Nobel pour ses travaux
en économie comportementale, les humains ont un temps et une intelligence
limités. Ils emploient des règles intuitives pour juger et décider. Nous ne vivons
pas dans un monde comme celui de Bill Murray dans le film Un jour sans fin
(1993). Le personnage que ce dernier incarne se réveille chaque matin pour
revivre la même journée. Une fois qu’il a compris la totalité des possibilités du
monde, il peut agir en connaissant les conséquences de ses actes et gagner le
cœur de sa collègue, interprétée par Andie MacDowell. Dans L’Insoutenable
Légèreté de l’être, Milan Kundera fait poser à son héros, Tomas, une question de
même nature : « Vaut-il mieux être avec Tereza ou rester seul ? L’homme ne
peut jamais savoir ce qu’il faut savoir car il n’a qu’une vie et il ne peut la
comparer à des vies antérieures ni la rectifier dans des vies ultérieures. » La vie
humaine est comme une pièce de théâtre que l’on doit jouer sans l’avoir jamais
répétée, conclut Kundera. On ne peut pas revenir en arrière pour corriger ses
erreurs. Nous devons agir sur la foi de nos seules intuitions.
La théorie de l’esprit

Les humains ne pensent pas seuls, mais avec les autres, en conversation avec
eux. Francis Wolff parle de la nature « dialogique » de l’homme 1. C’est dans les
discussions avec autrui, lorsque nous sommes sollicités par la parole de notre
interlocuteur, que nous nous sentons éveillés. La raison est aiguisée lorsque nous
cherchons à construire des arguments pour convaincre les autres, qui nous
permettent de lutter contre nos propres préjugés. C’est d’ailleurs sous la forme
d’un dialogue imaginaire avec nous-mêmes que nous organisons solitairement
notre pensée. Le stade du miroir, où l’enfant se reconnaît dans le reflet qui lui est
renvoyé, est à cet égard crucial : il se voit lui-même comme il comprend qu’il est
vu par les autres. Les humains partagent ce trait avec les primates. Un
chimpanzé devant un miroir retire le confetti qu’on lui a mis sur le front. Il y a
aussi chez le singe une zone du cerveau qui s’allume lorsqu’on lui montre un
film où ses congénères apparaissent. On notera pour sourire une curiosité
soulignée par le biologiste Alain Prochiantz : face à un western de Sergio Leone,
les macaques réagissent davantage que les humains 2 ! On a observé une
activation forte des aires préfrontales chez un singe à qui l’on montre Le Bon, la
Brute et le Truand, qui est totalement absente chez Sapiens. Mais cela en dit sans
doute davantage sur les westerns de Sergio Leone que sur nos cousins
simiesques.
« Je sais que tu crois que je pense à toi » exprime une pensée (en partie
contradictoire) que seuls les humains peuvent concevoir. L’anthropologue Robin
Dunbar a parfaitement résumé ce qui est en jeu 3. L’intentionnalité dite du
premier ordre se définit comme la capacité de réfléchir au contenu de son propre
esprit, comme en témoigne l’utilisation des verbes supposer, penser, s’interroger,
croire, etc. La plupart des mammifères et des oiseaux entrent probablement dans
cette catégorie. Plus intéressants sont les cas dans lesquels l’individu est capable
de se représenter l’état mental de quelqu’un d’autre, de dire : « Je sais que vous
aimez l’abricot. » Cette capacité définit un niveau plus élevé d’intentionnalité,
conventionnellement appelé du second ordre. C’est l’équivalent du stade que les
enfants atteignent vers l’âge de 6 ans lorsqu’ils acquièrent pour la première fois
ce que les spécialistes de sciences cognitives appellent la « théorie de l’esprit ».
Ils comprennent que les autres personnes peuvent avoir des idées différentes des
leurs.
« Je sais que tu crois que je pense à toi » caractérise une intentionnalité
d’ordre trois. Jusqu’où peut-on aller comme ça ? L’économiste George
Loewenstein a donné l’exemple très parlant d’une intentionnalité d’ordre quatre :
vous vous êtes cassé la cheville et vous aimeriez que votre collègue vienne vous
chercher en voiture [niveau 1]. Vous supposez qu’elle sait que vous souffrez [2].
Mais elle-même n’est pas sûre que vous sachiez si elle le sait [3]. Sur la foi de
cette ignorance supposée, elle ne vous vient pas en aide. Et c’est ce que vous lui
reprochez : de feindre d’ignorer votre situation pour ne pas vous aider [4] 4 (avec
les ordres successifs d’intentionnalité indiqués entre crochets).
Dunbar défend l’idée que les humains peuvent aspirer à une intentionnalité
d’ordre cinq. Le cinquième ordre équivaut à pouvoir dire : je suppose [1] que
vous croyez [2] que je veux [3] que vous pensiez [4] que j’ai l’intention de vous
menacer… [5].
Le génie de Shakespeare nous fait atteindre ces sommets. Dans Othello,
Shakespeare utilise quatre états d’esprit : Iago veut qu’Othello croie que
Desdémone aime Cassio et que ce dernier aime celle-ci. Mais Shakespeare lui-
même doit persuader le public de croire en tout cela. Et de plus, ce qui n’est pas
la moindre des choses, il doit imaginer tout lui-même, il doit être capable de
travailler – au minimum – avec une intentionnalité du sixième ordre : il veut que
le public comprenne que Iago veut qu’Othello etc. Seul un humain (pas
n’importe lequel) est capable d’un tel exploit.
Dans ces jeux de miroir avec la pensée d’autrui, une qualité émerge qui est
exclusivement humaine : c’est de produire de la fiction. Les animaux ne
pourraient tout simplement pas comprendre ce qu’est une histoire – non
seulement parce qu’ils n’ont pas le langage pour cela, mais parce qu’ils ne
seraient pas capables de saisir ce que c’est. S’ils avaient un langage, ils
prendraient l’histoire qu’on leur raconte pour argent comptant, incapables de
saisir le récit d’un monde qui n’existe pas. Avec des capacités cognitives
limitées à l’intentionnalité de second ordre, un chimpanzé pourrait écrire et
penser : « Iago va sortir… », mais il ne pourrait pas comprendre qu’en fait, Iago
voudrait qu’on croie qu’il va le faire… Seuls les humains peuvent produire une
littérature du genre de celle que nous associons à la culture. Comme l’écrit
magnifiquement Nancy Huston, dans L’Espèce fabulatrice : « Aucun
groupement humain n’a jamais été découvert tranquillement à la manière des
autres animaux sans religion, sans tabous, sans rituels, sans généalogie, sans
contes, sans magie, sans histoire, sans recours à l’imaginaire, c’est-à-dire sans
fictions. » Le premier avantage comparatif des humains, dans le langage des
économistes, se joue ici : l’homme peut inventer un monde qui n’existe pas. Le
problème est qu’il peut y croire aussi.
Car l’homme est à la fois créatif et crédule.
Notes
1. F. Wolff, Le Monde à la première personne. Entretiens avec André Comte-Sponville, Paris,
Fayard, 2021.
2. A. Prochiantz, Singe toi-même, Paris, Odile Jacob, 2019.
3. R. Dunbar, How Many Friends Does One Person Need ?, Londres, Faber and Faber, 2011.
4. Les théoriciens des jeux en ont analysé les implications dans les modèles dits à k-niveaux
(Level-K theory).
L’« erreur » de Descartes

Pour comprendre le rôle potentiel des machines face aux humains, il faut
ajouter un autre élément décisif : l’homme n’est pas seulement esprit, à la
différence des machines il pense dans un corps. Comme le résume parfaitement
Miguel Benasayag : « C’est dans le corps que s’inscrivent les passions, les
pulsions, la mémoire de longue durée, que se réincarne la mémoire de mes
parents ou de mes grands-parents 1. » L’idée de l’homme fonctionnant comme un
automate comme on l’a cru au XVIIIe siècle, ou comme un assemblage d’unités
d’informations, comme le proposent les théoriciens de la cybernétique, n’est plus
de mise chez les chercheurs. « Ce sont les émotions qui nous guident vers la
nourriture ou un partenaire sexuel », dit ainsi Benasayag. Au-delà de ces besoins
charnels, l’espèce humaine a un désir « physique » de savoir. À l’inverse, le
stress inhibe les capacités d’action. Un individu ayant subi un choc émotionnel
intense, par exemple un bombardement, sera pris de panique à la vue d’une
allumette 2…
Dans un livre intitulé L’Erreur de Descartes, Antonio Damasio montre que
c’est l’émotion qui confère aux êtres vivants la possibilité d’agir. Pour illustrer
son propos, Damasio fait le récit du cas médical, survenu au XIXe siècle, d’un
certain Phineas Gage dont les archives ont permis de reconstituer le destin. Gage
était chef d’équipe dans les travaux de construction de voies ferrées lorsque, à
25 ans, sa tête est transpercée par une barre de fer à la suite d’une erreur
accidentelle de maniement d’un explosif. L’extrémité qui a traversé le crâne pèse
6 kilos ! Pourtant, Gage survit et deux mois plus tard il semble rétabli. Il
récupère le toucher, l’audition, la vision, mais c’est son humeur qui a changé. Il
devient irrévérencieux et profère des jurons (ce qu’il ne faisait jamais
auparavant), il ne manifeste plus de respect pour ses amis. « Le corps de Gage
sera bien vivant, mais c’est une nouvelle âme qui l’habitera. » Il apparut ainsi au
corps médical qu’à la suite d’une lésion cérébrale, on pouvait perdre le respect
des conventions sociales alors même que ni les fonctions intellectuelles ni le
langage n’avaient été altérés.
Une autre altération surprenante de sa personnalité est également survenue.
Gage forme quantité de projets mais ne parvient à en mener aucun. Sa capacité
d’anticiper l’avenir a complètement disparu. Un patient de Damasio, Eliott,
victime d’une tumeur cérébrale, a connu la même concomitance de troubles :
malgré des capacités mentales intactes, il lui était impossible de prendre des
décisions, de planifier efficacement son activité dans les heures à venir. La
lésion du cortex préfrontal en était à nouveau responsable. Eliott était en mesure
de connaître mais non de ressentir. Il pouvait élaborer des plans sophistiqués
mais n’arrivait plus à décider lequel choisir. Prévoir un avenir incertain,
programmer nos actions en conséquence, tout autant que réguler notre vie en
société semblent ainsi dépendre intimement de notre capacité à éprouver des
émotions, des chagrins d’amour ou de la haine, du stress ou de l’apaisement…
Les humains doivent « ressentir » les choses avant de décider ce qui est bon pour
eux. La plupart des questions d’importance comme « Faut-il accepter cet emploi,
dans cette ville… », ne se règlent pas à l’aide d’une liste comparée d’avantages
et d’inconvénients. Elles se décident par les émotions qu’elles impriment à notre
corps. C’est lui qui donne son avis, qui dit : « Vas-y ! »
Spinoza avait raison

S’il dénonce dans un premier livre « l’erreur de Descartes », Damasio


explique dans un second ouvrage que « Spinoza avait raison ». Baruch Spinoza
est le penseur qui éclaire de la manière la plus éclatante cette unité insécable du
corps et de l’esprit. Pour lui, l’homme n’est pas gouverné par la raison mais par
le désir, ce qu’il désigne comme l’effort pour « persévérer dans son être ». Le
désir n’est pas la passion : celle-ci naît d’un désir inapproprié, lié à des idées
« inadéquates ». Si j’aime et que je meurs de jalousie, c’est que la relation n’est
pas bonne. La sagesse consiste à convertir nos passions en actions qui nous
fassent progresser, qui augmentent notre capacité d’agir, en comprenant ce qui
est bon pour nous. Spinoza a proposé une typologie des affects à partir d’une
dichotomie simple : la joie et la tristesse. La joie éclate quand l’homme
augmente ses capacités d’agir. La tristesse survient à l’inverse lorsqu’il se sent
privé de celles-ci. Les hommes ignorent le plus souvent les causes qui les
conduisent à désirer ceci ou cela. Ils sont toutefois parfaitement capables
d’associer leurs désirs à des causes extérieures ou intérieures. L’amour est ainsi
défini par Spinoza comme une joie qu’accompagne l’idée d’une cause
extérieure 3. Le lien intime entre le corps et l’esprit se noue dans cette association
entre une émotion et l’idée qui l’accompagne, qui lui donne son sens et nous
définit comme humains.
Pour les biologistes tel Damasio, les émotions sont des mécanismes
régulateurs. La tristesse nous rappelle la valeur de la vie, la peur nous alerte sur
le danger. À la suite de Paul Ekman (dont les théories ont inspiré le merveilleux
film de Disney-Pixar Vice-versa), on retient généralement six émotions
primaires : la joie, la tristesse, la peur, la colère, la surprise et le dégoût. Ekman
montre qu’elles se retrouvent dans toutes les cultures. Il a lui-même étudié des
tribus de Papouasie-Nouvelle-Guinée et montré à ses interlocuteurs des photos
de visages exprimant chacune des six émotions de base : toutes ont été
immédiatement reconnues. Il en déduit que les émotions primaires sont
prédéterminées, ce que confirme aussi le fait que des aveugles congénitaux, sans
expérience visuelle, sourient et pleurent exactement comme les voyants.
L’immersion en société fabrique ensuite des émotions morales. La culpabilité,
la honte ou la gratitude jouent à leur manière un rôle régulateur dans la vie en
société. La culpabilité survient lorsqu’on s’inquiète des conséquences de ses
propres actes sur autrui 4. La honte marque le poids du jugement social, elle
exprime la peur d’un divorce entre ses valeurs personnelles et celles d’autrui. La
gratitude enfin témoigne de la reconnaissance à l’égard d’autrui, qui favorise
l’empathie, la compassion, la générosité. Les émotions morales sont les
régulateurs de la vie en société 5.
Les limites du raisonnement humain

Enclins que nous sommes à ressentir ces faisceaux d’émotions, nos


raisonnements ne sont pas aussi analytiques que nous voudrions le croire. Notre
propension acharnée à produire des théories, à mettre en récit le monde qui nous
entoure tout autant que nous-mêmes, finit par nous trahir. Le psychologue
Daniel Kahneman, qui a reçu lui aussi le prix Nobel pour ses travaux en
économie comportementale, oppose ainsi la « pensée causale », habitée par la
recherche de causes aux événements qui se produisent, et la pensée statistique
qui analyse les faits « tels qu’ils sont » 6. La pensée causale est rassurante, elle
est toujours garantie de succès, explique Kahneman. Votre voisin vous donne
l’impression d’être préoccupé et vous aurez vite fait d’en imaginer la cause : sa
femme l’a quitté, il a perdu son emploi… En en parlant à votre concierge, vous
trouverez vite la confirmation de votre intuition, quelle qu’elle soit. Nous ne
raisonnons pas de manière « neutre », à la recherche d’une vérité absolue. Nous
partons des conclusions en lesquelles nous croyons pour chercher le chemin qui
les valide.
La pensée causale est une consolation car elle rend le monde intelligible, mais
elle nous tend le piège d’une pensée faussement cohérente. Des affirmations
triviales comme « Il a échoué parce qu’il manquait d’expérience » ou « Ils ont
réussi parce qu’ils avaient un leader charismatique » nous semblent beaucoup
plus intéressantes qu’un constat statistique froid qui conclurait : « Compte tenu
des facteurs X et Y, ils avaient une chance sur trois de réussir leur examen. » Le
raisonnement causal nous fait penser que le monde est beaucoup plus prévisible
qu’il ne l’est vraiment. Nous raillons les experts quand ils se trompent, mais sans
mesurer que leur tâche est souvent beaucoup plus complexe, plus incertaine, que
nous ne sommes prêts à l’admettre.
Cette attitude reflète notre appétence pour la pensée « rapide » et notre
détestation de la pensée analytique, laborieuse, qui exige de compiler des
chiffres, de produire des tests, d’être attentifs à éviter des conclusions hâtives.
Dans un livre où il fait le bilan de son œuvre, Kahneman a donné un nom à ces
deux systèmes de pensée : le système 1 est celui qui va vite ; le système 2 est
celui qui fait l’effort de pondérer les arguments, de vérifier les preuves 7. La
plupart du temps, nous nous en remettons au système 1, qui nous fait chercher
des interprétations désirables plutôt que celles qui découleraient des faits.
L’esprit humain, à qui l’on doit la science moderne, la biologie et la mécanique
quantique, est surtout enclin à des raisonnements simplistes. Nous avons
toujours besoin d’être pour ou contre quelque chose, nous préférons sauter aux
conclusions et nous y tenir.
Nous ne rechignons certes pas à chercher les preuves de nos idées, mais cette
quête est sélective. Elle procède par élimination de celles qui nous embarrassent.
Le système 1 s’appuie sur des raccourcis qui permettent de ramener un problème
compliqué à un problème simple, au risque de faire des erreurs de
raisonnement 8. Ainsi, à la question de savoir quelle est la probabilité que, dans
un groupe donné, une personne chaleureuse soit une femme et un esprit
rigoureux un homme, la plupart des personnes interrogées répondent par leurs
stéréotypes sans même prendre le soin de vérifier combien le groupe contient de
femmes et d’hommes, ce qui aurait au moins le mérite de conditionner leurs
préjugés à un calcul de probabilité. C’est au système 2 de faire ce calcul, mais il
est lent et paresseux, presque toujours endormi.
Notes
1. M. Benasayag, La Tyrannie des algorithmes, Paris, Textuel, 2019.
2. Le livre The Affect Effect recense 23 théories pour expliquer le lien possible entre affect et
cognition !
3. Symétriquement, la haine est une tristesse qu’accompagne l’idée d’une cause extérieure. La
satisfaction est une joie qu’accompagne l’idée d’une cause intérieure. Le remords est une
tristesse qu’accompagne l’idée d’une cause intérieure.
4. Les émotions primaires surgissent dès la première année, les émotions morales
n’apparaissent qu’à partir de 2 ans, entre 18-24 mois. Dès 21 mois, les tout-petits ont le sens du
juste et de l’injuste.
5. Depuis les travaux de l’anthropologue Ruth Benedict sur le Japon, on distingue le couple
culpabilité/fierté du couple honte/honneur. Le premier désigne la valeur morale qu’on assigne
(directement) à ses propres actes, le second tient à l’idée que l’on se fait du jugement des autres.
Voir R. Benedict, Le Chrysanthème et le Sabre (1946), Arles, Éd. Philippe Picquier, 1998.
6. D. Kahneman, O. Sibony, C. Sunstein, Noise, A Flaw in Human Judgement, tr. française
Odile Jacob, Paris, 2021.
7. D. Kahneman, Système 1, système 2 : Les deux vitesses de la pensée (2011), trad. française
Flammarion, Paris, 2016.
8. D. Kahneman, A. Tversky, « Judgment under uncertainty : heuristics and biases », Science,
1974.
L’intelligence artificielle

La machine n’a pas de corps, pas de sentiments. Elle n’a pas d’esprit non
plus : elle n’a pas l’imagination créatrice des humains. Comme l’explique
parfaitement Marc Mézard, elle ne sait pas extrapoler ses connaissances à des
situations inconnues 1. Elle a toutefois quelques armes à faire valoir. Elle peut
faire des opérations qui sont totalement inaccessibles au commun des mortels,
comme parcourir en une fraction de seconde des millions de pages à la recherche
d’une citation. Dans le cas des jeux d’échecs ou de go, une IA peut apprendre en
quelques heures à explorer des champs de possibilités qui excèdent les capacités
des meilleurs joueurs du monde. La machine peut jouer un nombre incalculable
de parties, infiniment plus qu’aucun humain ne pourra jamais le faire. Yann Le
Cun, commentant la défaite de l’un des plus grands joueurs de go, a eu ce
commentaire éclairant : « Les humains ne jouent pas bien au go », entendant par
là que le jeu est en fait trop sophistiqué pour que les humains dévient des
grandes lignes établies par la tradition. L’IA, au contraire, peut jouer un nombre
quasi infini de parties pour « découvrir » des stratégies gagnantes, comme Bill
Murray dans Un jour sans fin. L’IA est une intelligence de mémorisation : elle
fonctionne par un apprentissage des situations possibles, sans concepts pour les
théoriser.
Serge Abiteboul a résumé la « pensée algorithmique » à partir d’un exemple
parlant, celui des fourmis. À la recherche de nourriture, elles utilisent un
algorithme assez simple pour s’orienter dans l’espace. Des fourmis éclaireuses
partent au hasard dans plusieurs directions. Quand l’une a découvert de la
nourriture, elle revient au bercail en laissant, comme le Petit Poucet, la trace de
son chemin : une perte de « phéromones » qui attirent les autres fourmis. Celles-
ci suivent la première en laissant à leur tour des phéromones qui « renforcent »
l’attractivité du chemin. Si un chemin est plus court, celles qui l’empruntent
feront davantage d’allers-retours, renforçant l’attractivité de celui-ci. Sans
aucune conscience de soi ou du groupe, au sens même très éloigné que les
humains peuvent donner à ce terme, les fourmis offrent une solution à la seule
question qu’elles se posent : où aller pour se nourrir. De la même manière, les
algorithmes notent qu’un chemin est plus prometteur qu’un autre, sans rien
comprendre de ce qu’il signifie. Les algorithmes associent des préférences pour
Proust et Dostoïevski sans aucune connaissance littéraire, ils se contentent de
noter que les amateurs de l’un sont aussi ceux de l’autre. C’est une intelligence
idiote qui est à l’œuvre en réalité.
Apprendre à apprendre

L’IA permet à une machine de métal et de fils électriques de reconnaître une


image, de transcrire la voix d’une langue à l’autre, d’automatiser la conduite
d’une voiture, de jouer aux échecs, au go, aux jeux vidéo… Grâce à la
croissance exponentielle de la puissance de calcul des ordinateurs, des progrès
spectaculaires ont été obtenus en construisant des algorithmes qui imitent la
structure du cerveau humain 2. Celui-ci contient 86 milliards de neurones, autant
que d’étoiles dans notre galaxie. Mais ce n’est pas tant leur nombre qui compte
que la qualité des connexions établies entre eux 3. Chaque neurone est connecté à
un millier d’autres à travers des jonctions appelées synapses, utilisées avec une
fréquence et une intensité variables. Les connexions non utilisées sont éliminées
et, à l’inverse, lorsque deux neurones sont excités en même temps, les synapses
créent ou renforcent les liens les unissant. Ils forment la base de notre mémoire
et de notre personnalité, gardant la trace des moments qui ont ponctué notre vie 4.
D’où vient l’IA moderne ? Les premiers experts ont d’abord privilégié une
logique « arborescente ». Celle-ci essaie de définir l’arbre de toutes les
combinaisons possibles : si je joue A, je pourrai ensuite jouer B ou C. Avant de
jouer A, il faut donc comprendre ce que veulent dire B et C, ce qui amène à
réfléchir aussi à ce que signifient D, E, F et G que rendront possible B et C…
Les spécialistes parlent de ce projet de recherche comme d’une bonne vieille IA,
une « GOFAI » pour « good old fashioned AI ». C’est grâce à cette capacité de
raisonnement que la machine Deep Blue a battu le champion d’échecs Garry
Kasparov, évaluant la possibilité d’environ 200 millions de positions de
l’échiquier par seconde, en utilisant une technique relativement classique de
recherche arborescente.
Cette méthode s’est toutefois révélée beaucoup trop fastidieuse, même pour
des ordinateurs. Plutôt que de chercher à reproduire tous les enchaînements
possibles d’un coup joué sur un échiquier, les spécialistes de l’IA ont changé de
braquet en essayant d’imiter la manière dont le cerveau humain s’éduque lui-
même. C’est la méthode dite du « deep learning », qui s’est inspirée des réseaux
neuronaux pour comprendre les processus d’apprentissage des humains. Chaque
fois que l’ordinateur découvre une stratégie qui le fait progresser (en le menant à
gagner la partie), il se souvient des connexions gagnantes, à la manière des
synapses chez les humains, et peut construire sa propre courbe d’expérience. On
éduque la machine à reconnaître un chat en lui en montrant des millions et en lui
donnant une « récompense » quand elle réussit. Idem pour les parties d’échecs.
L’apprentissage dit « non supervisé » va plus loin encore. Il laisse la machine se
débrouiller toute seule (sans bibliothèque préalable de parties gagnées) en
donnant seulement le résultat « oui » ou « non » lorsqu’elle gagne. C’est cette
méthode qui est à l’origine des réussites de AlphaGo Zero qui a triomphé des
meilleurs joueurs de go mondiaux. Tout récemment, on a aussi appris qu’une IA
conçue par une start-up parisienne, NukkAI, avait battu les huit meilleurs
joueurs de bridge du monde. Ce jeu de cartes complexe était « l’un des derniers
remparts à résister à l’IA 5 »…
Yann Le Cun, l’un des pionniers du domaine, a ainsi élaboré de tels réseaux
neuronaux pour concevoir un système automatique de reconnaissance des
signatures de chèque. En 2012, le physicien canadien Geoffrey Hinton a utilisé
le « deep learning » pour gagner un concours international de reconnaissance
d’images de chats. Il a vite été débauché par Google sur son projet Google Brain.
C’est le début de l’afflux des chercheurs vers cette méthode. En 2014, le projet
DeepFace, le programme de Facebook, parvient à reconnaître un individu sur
deux photos différentes avec un taux de réussite de 97,35 %, le même taux qu’un
humain ! Facebook, disposant de la plus grande galerie de photos du monde,
peut désormais vous proposer de retrouver des amis que vous pourriez avoir
perdus de vue, avec apparemment un taux de succès élevé. Les erreurs dans la
reconnaissance vocale sont également devenues très faibles, sous le seuil des
5 % 6.
Les machines mues par l’IA sont donc extraordinairement puissantes lorsque
les règles du jeu sont claires : reconnaître un chat ou un écureuil puisque des
millions de photos déjà identifiées lui permettent de s’entraîner, jouer aux échecs
puisqu’à la fin la partie est gagnée si le roi adverse est mat. Pour Yann Le Cun,
toutefois, « les machines si puissantes soient-elles n’ont ni sens commun ni
conscience », du moins « pas encore », précise-t-il… Le sens commun, c’est
arbitrer dans des situations ambiguës, lorsqu’il n’existe pas de bonne ou de
mauvaise réponse écrite dans un livre. Une machine pourrait tuer un humain
pour aller chercher une tasse de café pour cet humain lui-même s’il apparaissait
comme un obstacle à la réalisation de sa mission… Comme Phineas Gage après
que la barre de fer lui a traversé le cerveau, la machine ne saisit pas les subtilités
du jeu social : comment dire non à quelqu’un sans lui faire de peine ? Tient-on
de la même manière un verre en cristal et une barre de fer ? Peut-on se jeter sans
risque du cinquième étage ? Il lui manque trois fois rien : ce que nous les
humains appelons les émotions.
« Je considérerais que ma carrière est un succès, concluait Le Cun, si nous
réussissions à construire des machines aussi futées qu’un rat ou qu’un écureuil. »
Les IA sont moins intelligentes qu’un chat, dont le cerveau compte 760 millions
de neurones et 10 000 milliards de synapses et a fortiori que le chien avec ses
2,2 milliards de neurones. Pour lui, ce n’est qu’une question de temps qui
exigera au préalable de construire des machines qui approcheront la frugalité
énergétique du cerveau humain… Celle-ci tient au fait que seuls un petit nombre
de neurones sont actifs en même temps. Cette parcimonie est la voie à explorer
pour les systèmes du futur. Le cerveau n’en demeure pas moins un gros
consommateur d’énergie à l’échelle de son propriétaire. Si les humains n’avaient
pas inventé la cuisson et avaient gardé une alimentation à base de feuillages et de
baies sauvages comme les grands singes, il leur faudrait consacrer neuf heures
par jour à se nourrir pour assurer l’apport énergétique nécessaire à la physiologie
de leur cerveau. Sans la capture du feu prométhéen, l’aventure humaine eût été
tout autre.
La sagesse

Il semble donc possible d’esquisser ce que pourrait être un partage des tâches
« efficient » entre l’homme et la machine. Aux humains celles qui exigent du
« bon sens », dans les relations avec les autres humains notamment, et aux
machines celles qui exigent un travail statistique, laborieux. Aux humains, la
sensibilité de la relation à autrui, amoureuse ou commerciale, aux machines le
calcul des conditions qui rendent probables qu’une rencontre réussisse. Aux
humains enfin, la créativité en sciences ou en arts, et aux machines les tâches
routinières qui mettent en œuvre des protocoles pour gérer les situations
ordinaires 7.
Tout cela semble bel et bon : pourquoi s’ennuyer à répondre mille fois à la
même question si un robot peut le faire ? Pourquoi se priver des bases de
données qui permettent d’évaluer les chances qu’une liaison amoureuse ou
professionnelle aboutisse ? Le problème est celui-ci. Les humains sont
malléables, ils s’adaptent à leur environnement. Ce qui fait leur force dans le
monde naturel devient une immense faiblesse dans un système construit pour les
manipuler. Si les algorithmes prennent en charge la pensée statistique, le
système 2 de Kahneman, le risque est qu’ils laissent les humains prisonniers du
seul système 1, celui de l’imagination et des préjugés, qui les éloignent de la
« sagesse »… Dans le langage de Spinoza, celle-ci correspond à un « troisième
genre de connaissances », un système 3 pourrait-on dire dans celui de
Kahneman. Elle advient lorsque nous avons accès intuitivement à la
connaissance vraie, qui fait que nous savons sans réfléchir que racine de quatre
vaut deux, dans un dépassement des systèmes 1 et 2. Ce n’est pas la voie où nous
entraînent les réseaux sociaux qui tendent bien davantage à nous bloquer au
niveau 1 de nos affects, à nous enfermer dans nos préjugés.
Notes
1. M. Mézard, Le Débat, no 207, 2019-5, résume la question par un exemple éclairant. Un
algorithme peut être capable de simuler parfaitement la trajectoire d’un ballon de football à
condition qu’on lui ait fait digérer des millions de tirs de même nature. Il sera toutefois incapable
de corriger la trajectoire prédite si le ballon en percute un autre. La connaissance scientifique n’a
pas ce problème : elle transpose le savoir à des situations inédites, elle est modulable.
2. Max Tegmark donne cette analogie : depuis cinquante ans, le coût de l’information a baissé
dans une proportion qui ferait que la ville de New York ne coûterait que 10 centimes à son
propriétaire si le même rabais lui était appliqué – elle serait 10 000 milliards de fois moins chère
qu’elle ne vaut en réalité. Le coût du calcul se réduit d’un facteur deux tous les dix-huit mois.
« Soit 1 million de millions (10 puissance 18) depuis la naissance de [ma] grand-mère », ajoute-t-
il.
3. Contrairement à une légende, le cerveau d’Einstein ne pesait que 1,23 kg, contre une
moyenne de 1,4/1,5 kg.
4. Toute la chaîne des êtres du vivant, du ver de terre comportant exactement 302 neurones à
l’orang-outan qui en compte 32 milliards, fonctionne sur ce modèle…
5. Marianne, 15 avril 2022.
6. Y. Le Cun, Y. Bengio et G. Hinton, « Deep learning », Nature, vol. 521, mai 2015, p. 436.
7. L’IA peut certes peindre ou composer une musique, mais elle ne sait pas si c’est beau : seul
l’humain peut en décider.
II.

Abêtir et punir
Une pensée sauvage

Quoi qu’il en soit, la révolution numérique est en marche. Elle prend sa place
dans la longue file des innovations radicales qui ont bouleversé la manière de
penser des humains. À l’origine, l’invention de l’écriture avait marqué d’un
sceau irrémédiable la rupture entre la « pensée sauvage », comme l’appelle Lévi-
Strauss, et les sociétés où l’Histoire, comme processus cumulatif, se met en
place grâce à l’écrit. À l’orée du monde moderne, l’imprimerie avait elle aussi
provoqué une véritable révolution intellectuelle, favorisant la liberté de penser et
contribuant à l’essor de la Réforme.
On pensait que l’intelligence artificielle tiendrait sa place dans cette glorieuse
lignée, qu’elle nous aiderait à mieux penser individuellement et collectivement,
qu’elle multiplierait les expériences collaboratives telles que Wikipédia. Il
semble hélas possible d’affirmer que cette promesse ne sera pas tenue. La
transformation en cours fait naître un individu marqué par la crédulité et
l’absence d’esprit critique. On attendait Gutenberg mais c’est une télévision 2.0
qui est en train de s’imposer.
Dans un classique de la sociologie contemporaine, Bowling Alone, le
sociologue américain Robert Putnam avait montré que l’immense poussée
d’individualisme qui a saisi les sociétés occidentales après guerre devait
beaucoup à la télévision. Le temps considérable passé devant son poste (4 heures
et 50 minutes par jour en moyenne !) a conduit à négliger les amis, la famille, la
vie associative, ce qu’on appelle le « capital social » d’un individu. La télévision
a balayé toutes les communautés, des clubs de bowling aux associations de
parents d’élèves qui faisaient le ciment de la vie sociale des Américains.
L’ouvrage magnifique de Michel Desmurget, La Fabrique du crétin digital,
analyse sous cet angle les dérèglements produits par la révolution actuelle. Les
chiffres donnés donnent le vertige. Dès 2 ans, les enfants passent presque
3 heures par jour devant leurs écrans. Entre 8 et 12 ans, le temps passé devant les
tablettes et les portables s’élève à 4 heures et 45 minutes en moyenne
quotidienne. De 13 à 18 ans, c’est 6 heures et 45 minutes par jour qui leur sont
consacrées. On atteint donc un chiffre où les adolescents passent 40 % de leur
vie éveillée devant un écran ! La vie psychique et affective de ces jeunes est
rythmée par des vagues de morosité et d’euphorie, modelée par des pratiques
addictives comme la sexualité en ligne, se traduisant par des effets délétères sur
leur alimentation et des risques fréquents d’obésité. Comme l’analysent aussi
Bruno Patino dans La Civilisation du poisson rouge 1 ou Gérald Bronner dans
Apocalypse cognitive 2, la capacité d’attention des adolescents est fortement
entamée par le zapping, l’impulsivité, l’impatience… Lire un livre, qui suppose
d’accorder à l’auteur le temps d’installer des personnages ou un raisonnement,
est constamment empêché par un rapport compulsif au portable, lequel rend
quasiment impossible de rester concentré sur quoi que ce soit d’autre.
Marshall McLuhan, grand prêtre du sujet, disait : « Medium is the message » :
les médias sont leurs propres contenus, c’est la télévision qu’on regarde et non
tel film en particulier. De même on ne sait pas ce qu’on regarde sur le portable :
le « scroll », le déroulement indéfini des écrans, nous enchaîne de manière
totalement addictive. C’est le scroll lui-même qui nous happe, que ce soient des
images d’un enfant regardant Le Roi Lion ou des infos sur la guerre en Ukraine.
Les vidéos que nous enregistrons nous donnent aussi accès à un rembobinage à
la demande de nos propres vies. Comme dans Un jour sans fin, on peut revivre
sans cesse la même journée. Nous pouvons « éditer » notre vie comme on le fait
désormais avec le génome.
La consultation compulsive des portables est labellisée d’un terme à présent
célèbre : le FOMO, le fear of missing out qui exprime cette inquiétude lancinante
de passer à côté de quelque chose, qu’il s’agisse d’une « information », d’un
gossip, d’une opportunité. L’iPhone fabrique déjà, sans attendre la synthèse
annoncée du silicium et du biologique, une véritable fusion homme-machine…
L’interface tactile crée un lien relationnel, addictif entre les deux, à l’image des
drogues dures qui prennent possession du cerveau et l’assujettissent au besoin de
leur consommation. Une étude allemande citée par Gérald Bronner a montré que
la sonnerie du téléphone convoquait exactement la même zone du cerveau que
lorsque le prénom de la personne est prononcé 3 ! Même lorsque le portable est
éteint mais à portée de vue, le besoin de l’allumer, de le sentir entre ses mains est
irrépressible, tel le shoot que le cerveau de l’héroïnomane lui commande de
prendre.
La capacité d’attention des adolescents au monde réel a atteint un plus bas
historique. Selon une étude citée par Patino, la durée d’attention a diminué d’un
tiers entre 2008 à 2015, passant de 12 secondes à 8 secondes ! Desmurget donne
aussi l’exemple des Canadiens (un peuple qui figure pourtant haut dans les
classements traditionnels du bien-être et de l’ouverture d’esprit) parmi les
premières victimes. Leurs espaces immenses et leurs hivers rigoureux en ont fait
de grands consommateurs de la culture numérique, ce qui semble avoir
fortement réduit leurs capacités d’attention. La manière de raisonner change
aussi de nature. Le « test and learn », littéralement « expérimenter et
apprendre », a remplacé l’explication logique, à la manière de l’IA elle-même.
Aux États-Unis, l’écriture cursive n’est plus obligatoire depuis longtemps,
contrairement à l’usage du clavier qui l’est devenu. Or l’écriture cursive joue un
rôle clé dans le développement du cerveau et de la motricité. Les humains n’ont
certes pas toujours écrit, mais la disparition d’une pensée écrite pourrait avoir
des conséquences totalement imprévues sur leur manière de réfléchir.
Sean Parker, qui présida Facebook, n’hésitait pas à admettre que la firme ne
cherchait rien d’autre qu’à « exploiter la vulnérabilité de la psychologie
humaine ». Tout l’enjeu de l’ensemble de ces réseaux sociaux, de Facebook à
TikTok, est de gagner cette grande « bataille de l’attention », quelles qu’en
soient les conséquences psychiques pour les populations ciblées. Une ancienne
employée de Facebook, Frances Haugen, a révélé dans un document intitulé
« Facebook files » que la société créée par Mark Zuckerberg n’ignorait rien des
troubles psychiques qu’elle provoquait. Cette lanceuse d’alerte, diplômée de
Harvard et qui avait passé deux ans chez Facebook, a fait parvenir au Wall Street
Journal une série de documents compromettants. Haugen, citée par Le Monde
(du 28 octobre 2021), explique ainsi que les recherches de Facebook avaient
identifié le fait que le contenu qui « polarise, divise ou incite à la haine provoque
davantage d’engagements » et que la firme s’en servait sciemment. Elle montrait
aussi que ses dirigeants étaient parfaitement au courant des désordres psychiques
créés par sa filiale Instagram chez les adolescentes de moins de 13 ans mal à
l’aise dans leur corps. Cela ne les a nullement empêchés de cibler ladite
population 4. Petite victoire de Frances Haugen à ce jour, Facebook a
momentanément suspendu son projet d’Instagram pour les moins de 13 ans.
Un nombre impressionnant de travaux montrent les conséquences cognitives
catastrophiques de ce phénomène. Une étude expérimentale a ainsi testé l’impact
d’un smartphone sur un public qui auparavant n’en disposait pas. En moins de
trois mois, elle a enregistré une dégradation très nette de leur capacité
d’attention, leurs tests à des exercices d’arithmétique se sont dégradés. Leur
« impulsivité » a été augmentée, à proportion presque mécanique du temps passé
sur leur smartphone. Une étude symétrique conduite par une équipe de Stanford
a désactivé l’accès à Facebook pendant un mois. Le temps libéré a permis de
voir davantage sa famille et ses amis, de regarder aussi davantage la télévision…
In fine, l’amélioration du bien-être des personnes testées a été significative, au
point qu’une fois l’expérience terminée leur consommation numérique est restée
significativement plus basse. Selon l’étude, un mois sans Facebook réduit
l’anxiété et les symptômes dépressifs d’un quantum équivalent en termes de
bien-être à un gain de 30 000 dollars 5 !
À l’image du tabac, le risque d’addiction aux réseaux sociaux n’est plus à
prouver. La différence est que le tabac a pu apparaître comme l’ennemi d’une
société qui valorisait de plus en plus le corps et la santé. La société numérique
immerge à l’inverse ses participants dans le monde virtuel, comme dans le film
Matrix, jusqu’à ce que rien ne permette plus de distinguer le réel du simulacre.
Elle abolit les défenses critiques de ses usagers en les privant du recul nécessaire
pour mettre en perspective les émotions qu’elle provoque. Une « désinhibition
numérique » semblable à celle que produisent les drogues ou l’alcool est à
l’œuvre sur les réseaux sociaux, où l’on s’autorise tous les écarts aux normes de
la vie sociale ordinaire 6. Comme le dit très bien Nathalie Heinich, les réseaux
excitent la compétition pour attirer l’attention et « induisent la surenchère dans la
singularisation, par la provocation, l’exagération, le défoulement, voire la
jouissance à dire l’indicible, à montrer l’irreprésentable. Cette surenchère
extrémiste induit de puissantes réponses émotionnelles, notamment la colère et
l’indignation, qui sont immédiatement exprimées par des like ou des retweet et
que la technologie amplifie automatiquement, sans médiation, mise à distance ou
temporisation ».
À suivre le psychanalyste Serge Tisseron, « l’intimité surexposée menace la
construction de soi » par la volonté permanente de se mettre en scène de manière
avantageuse, dans une compétition effrénée avec autrui nourrie par une quête
pathologique de reconnaissance. La pulsion qui pousse chacun à exhiber sa vie
intime aboutit à une image de soi profondément déformée. Chez les jeunes
enfants, la surexposition aux écrans perturbe leur capacité à entrer en relation
avec autrui. La réalité virtuelle les éloigne d’une perception sensible du monde
physique et de l’environnement social : le réel devient fade 7.
Just fuck

Eva Illouz a analysé la transformation que le monde numérique impose à la


vie amoureuse d’une manière qui éclaire admirablement la transformation de
notre sensibilité 8. Plusieurs centaines de millions de personnes, écrit-elle, ont
utilisé « leur téléphone comme une sorte de club pour célibataires ouvert à toute
heure du jour ». La société bourgeoise disposait de ses maisons closes pour
canaliser la libido que la morale réprouvait. La société numérique ouvre grand
les fenêtres de ces bordels virtuels où la sexualité se déchaîne. Un tiers du temps
passé sur Internet est consacré à la pornographie. Une enquête de l’IFOP en
2017 a estimé que 63 % des garçons et 37 % des filles ont consulté des sites
pornographiques. Pour les jeunes, c’est tout le rapport à la sexualité qui est
perturbé, rendant très difficile ensuite pour ces adolescents la conduite d’une vie
amoureuse respectueuse de l’autre. Selon un documentaire diffusé sur M6,
« 44 % des ados ayant des rapports sexuels déclarent reproduire des pratiques
qu’ils ont vues dans le porno. Les filles se sentent “obligées” de faire certaines
choses, certaines positions sexuelles et les garçons pensent qu’il faut absolument
les demander 9. »
Illouz examine Tinder comme la matrice de cette sexualité nouvelle. Elle
l’analyse comme le moyen de réduire l’amour au « just fuck », sans temps
« perdu » à se faire la cour, sans gestion affective des conséquences de la
relation sexuelle. La « coucherie d’un soir » n’a certes rien de très original dans
l’histoire humaine, mais ce qui est nouveau est la place qu’elle occupe désormais
dans l’imaginaire des adolescents. Hier « le rapport sexuel marquait la fin de la
cour amoureuse, aujourd’hui il est le début d’une histoire incertaine ». Comme le
dit une personne (Claire) interrogée par Illouz, la sexualité à l’heure du
numérique dispense du tracas de devoir gérer « le bagage affectif de l’autre ».
Barthes dans Fragments du discours amoureux avait magnifiquement illustré la
manière dont cette inquiétude nourrit la passion amoureuse. Va-t-il me rappeler ?
Ai-je été rude ? C’est cette inquiétude ontologique que Tinder fait disparaître. Le
sexe sans lendemain crée un état psychique où chacune des deux parties se croit
en parfaite maîtrise, sans dépendance à l’égard d’autrui, soit à peu près le
contraire de ce qu’implique une relation amoureuse. En distinguant radicalement
le sexe et le sentiment amoureux, la sexualité numérique fait perdre la capacité
de reconnaître l’autre dans son intégralité, comme un corps et un esprit, dans une
relation où chacun attend de la personne aimée qu’elle lui ouvre les portes d’une
vie à inventer.

L’amour selon Tinder provoque un vide existentiel que l’intéressé doit


combler en multipliant les rencontres dans une fuite en avant qui est
parfaitement représentative des comportements addictifs que la société
provoque. La sexualité en ligne organise une formidable compétition qui n’est
pas très différente de celle qui s’observe dans le reste de l’économie. Les sites de
rencontres accomplissent le néolibéralisme sexuel que Michel Houellebecq avait
décrit dans son premier livre, Extension du domaine de la lutte. Il y ramenait, de
manière très darwinienne, la vie en société à l’organisation d’une immense
bataille pour trouver un partenaire.
C’est au plus profond de nos vies, dans nos sentiments amoureux, que cette
idéologie ultralibérale aura trouvé, grâce à Tinder, l’un de ses accomplissements
les plus marquants.
Notes
1. B. Patino, La Civilisation du poisson rouge, Paris, Grasset, 2019.
2. G. Bronner, Apocalypse cognitive, Paris, PUF, 2021.
3. Ibid.
4. Frances Haugen explique aussi que Facebook a bien modifié ses algorithmes avant la
campagne présidentielle de 2020, pour réduire le quantum de « fake news » qu’ils laissaient
passer. Sitôt l’élection terminée, toutefois, l’entreprise les aurait immédiatement reconfigurés
comme auparavant. Selon elle, c’est peut-être ce qui a facilité l’assaut du Capitole le 6 janvier
2021. Et on ne sait s’il faut en rire ou en pleurer, mais un message en anglais affirmant que
« tous les vaccins contre la Covid sont expérimentaux, les personnes vaccinées faisant partie de
l’expérience », a été vu plus de 3 millions de fois, alors qu’il aurait dû être supprimé. Cause du
bug : l’outil automatique a cru que le message était écrit en roumain…
5. H. Allcott, L. Braghieri, S. Eichmeyer, M. Gentzkow, « The welfare effects of social
media », Stanford University, 2019.
6. J. Soler, cité par G. Bronner, op. cit.
7. B. Jarry-Lacombe et al., Pour un numérique au service du bien commun, Paris, Odile Jacob,
2022.
8. E. Illouz, La Fin de l’amour, Paris, Le Seuil, 2020.
9. N. Chuc, Le Figaro, mis en ligne le 9 janvier 2022.
Le capitalisme de surveillance

Un autre épisode très impressionnant de Black Mirror est celui qui relate
l’histoire d’une jeune fille obsédée par sa notation sociale, mesurée par le
nombre d’étoiles qui lui ont été attribuées par ses proches ou ses collègues, à la
manière dont sont notés les conducteurs d’Uber ou les locataires d’Airbnb. Dans
la série, toute personne rencontrée peut manifester son accord ou sa
désapprobation à votre égard, la joie ou la tristesse que vous lui inspirez, en vous
accordant une bonne ou une mauvaise note. La vie « bonne » est celle qui permet
de gagner le maximum d’étoiles, celles-ci ayant en pratique remplacé l’argent,
qui vise le même objectif de situer les personnes dans l’espace social. Dans cette
aventure fantasque, la jeune héroïne veut s’inviter au mariage d’une amie très
bien notée dont elle espère tirer le maximum de points. Mais rien ne se passe
comme prévu. Une série de mésaventures, un avion raté, une voiture en panne et
la colère qui s’ensuit lui font perdre son précieux patrimoine et la conduisent en
prison. Elle oublie alors toute précaution oratoire, injurie son codétenu, piochant
dans un vocabulaire de charretier dont on ne la croyait pas capable. Dans son
visage et son attitude, on comprend toutefois qu’un immense soulagement est à
l’œuvre : elle est libre.
La manière dont le personnage de cet épisode se soumet à la tyrannie de la
notation est la forme romancée d’un processus de surveillance générale qui se
met bel et bien en place sur le Web. En même temps que les individus sont
« crétinisés » par les usages des réseaux sociaux, le système dans son ensemble
gère la vie sociale de manière parfaitement rationnelle. En Chine, un « score
citoyen » note déjà les personnes, qu’il s’agisse de leurs accidents de voiture, de
leur absentéisme au travail, de leur consommation d’alcool, de leurs retards de
paiement et « naturellement » des propos tenus dans leurs blogs 1. Les pays
démocratiques qui se croient à l’abri d’une telle dictature algorithmique ne le
sont pas. Grâce aux logiciels de reconnaissance faciale, on saura bientôt tout de
vos déplacements. Il ne sera prochainement plus nécessaire de valider un titre de
transport, une puce multifonction installée dans votre corps s’en chargera.
Malgré toutes les précautions qui commencent à être prises sur l’utilisation des
données, il sera très difficile d’empêcher un opérateur de vous proposer des
crédits bancaires avantageux ou une offre d’emploi à proportion des
informations qui auront été recueillies à votre sujet.
On ne peut s’empêcher de penser au célèbre livre d’Orwell, 1984. Dans le
roman, la société est mise sous surveillance de manière à éviter toute dissidence,
en prévoyant néanmoins des périodes durant lesquelles les cris de haine seront
autorisés. Nous vivons la prophétie d’Orwell d’une manière totalement
imprévue. Ce sont des consortiums privés qui surveillent les individus. Fabuleux
retournement par rapport à l’idée selon laquelle l’État était la menace suprême.
Dans le Big Brother version GAFA, toutefois, le but n’est pas de faire taire les
personnes mais au contraire de les pousser à révéler leurs désirs, leurs besoins,
leur propension à consommer. Tout est repéré : l’attention portée à un
programme télévisé, la manière de conduire une automobile. Dans la vie selon
les GAFA, le « soi intime » est perdu, la maison connectée faisant entrer une
masse de fournisseurs potentiels au cœur de la vie des familles 2.
Googlenomics

Dans un livre fondamental, L’Âge du capitalisme de surveillance, Shoshana


Zuboff fait le récit de cette prise de contrôle de la société par les GAFA. Elle
offre une comparaison passionnante entre Henry Ford et le fondateur d’Apple,
Steve Jobs. Henry Ford avait fait une « découverte » qui allait révolutionner le
monde industriel. Se promenant dans des abattoirs de viande à Chicago, il a une
illumination. La manière dont les pièces de bœuf se déplacent pour être
découpées par un boucher qui reste immobile lui fait comprendre le principe
qu’il allait appliquer aux chaînes de montage. Les voitures qui existaient
auparavant étaient des automobiles de luxe. Avec Ford, grâce au travail à la
chaîne, l’industrie automobile passe à l’ère de la production de masse. Une
révolution de même nature se répète avec Apple. Steve Jobs, en commercialisant
l’iPod, en octobre 2003, bouleverse l’industrie de la musique. Celle-ci
fonctionnait auparavant sur un modèle fordiste. Les grands labels disaient au
consommateur quels artistes acheter grâce à d’immenses campagnes de
promotion. Jobs s’est fait le tenant d’une nouvelle modernité, ouvrant à l’infini
les choix offerts aux clients.
Le parallélisme entre Jobs et Ford se retrouve aussi dans l’innovation en
matière de tarification qu’ils ont engagée. Ford avait dû lutter contre
l’absentéisme récurrent de ses ouvriers, en révolte sourde contre la
déshumanisation étourdissante du travail à la chaîne. Sa méthode, qui allait
lancer ce qu’on appellera le « fordisme », a été de doubler leur salaire pour les
intéresser à leur tâche, créant une boucle nouvelle où la hausse des salaires
entraîne celle de la productivité, qui rétroagit sur ceux-ci. De manière tout aussi
révolutionnaire, il est vite apparu à Jobs que l’idée de vendre les chansons à
l’unité, comme dans les premières versions d’iTunes, était une hérésie
économique, quand il ne coûterait rien à l’entreprise d’en vendre 100 ou 1 000
pour le même prix. Piquées au vif par le piratage qui se développait au marché
noir, les entreprises du numérique vont toutes adhérer à un nouveau modèle : le
streaming. Rien n’appartient à l’usager mais son droit d’usage est sans limites
pour un abonnement fixe. C’est ce que l’économiste Jeremy Rifkin a appelé
« l’âge de l’accès ». Ce ne sont plus des objets, fussent-ils dématérialisés, qui
sont achetés, mais l’appartenance à une communauté, un club virtuel où
l’ensemble de vos désirs est pris en charge.
La véritable innovation des GAFA, relativement au fordisme, s’est jouée
toutefois dans un autre registre, dans ce que Shoshana Zuboff appelle le passage
d’un capitalisme reposant sur l’extraction de plus-value à un autre fondé sur
l’extraction des données. Zuboff rappelle le temps lointain où les fondateurs de
Google, Larry Page et Sergueï Brin, professaient leur antipathie à l’égard de la
publicité. Lorsque la firme a été créée, en 1998, ils ne voulaient rien faire qui
compromette la crédibilité de leur moteur de recherche. Google pensait alors
louer ses services à quelques firmes telles que Yahoo ! La rupture est intervenue
lorsqu’ils ont compris qu’ils étaient assis sur une mine d’or, celle que procure
l’information accumulée sur les utilisateurs, ce qu’on appelle l’UPI : « user
profile information ». Ce tournant marque la transformation de jeunes libertaires
en ultracapitalistes ne manifestant aucun respect pour leur clientèle.
Les « Googlenomics » ont été pensés par un économiste, Hal Varian.
Professeur respecté à Berkeley, dont le livre d’introduction à la microéconomie a
été lu par plusieurs millions d’étudiants, il a été recruté par Google en 2002.
Varian a expliqué aux fondateurs de la firme comment les nouvelles théories de
« mises aux enchères », très à la mode chez les économistes, pouvaient être
appliquées à la publicité en ligne. Sous son inspiration, Ad Words, la nouvelle
régie publicitaire de Google, a été un triomphe. Devenue Ad Sense en 2010, la
firme a vu ses revenus exploser. Le moteur de recherche ne sert pas seulement à
faire de la publicité « passive ». Il prélève une espèce d’« impôt
révolutionnaire » sur les firmes pour qu’elles apparaissent en tête des
recommandations données aux usagers. Comme l’explique un producteur,
apparaître en page 2 de Google, c’est l’assurance d’une mort numérique.
Facebook, créé l’année où Google a été coté en Bourse, a immédiatement
compris comment s’enrichir à son tour. Sheryl Sandberg, qui avait créé Ad
Words, a été débauchée par la firme de Mark Zuckerberg pour en faire un autre
géant de la publicité en ligne. C’est pour Zuboff le moment où l’« extraction des
données » sur les consommateurs a remplacé l’« extraction de plus-value » des
ouvriers. Tout est fait pour entrer dans l’intimité des usagers. Les deux firmes se
sont rejointes pour faire un lobbying féroce afin d’éviter une régulation des
captures de données. Elles sont aussi parvenues à convaincre les autorités de la
concurrence de les laisser racheter leurs rivaux. Google a ainsi racheté YouTube
pour 1,65 milliard de dollars. Au moment de son acquisition, YouTube
employait à peine soixante-cinq personnes, dont la majorité étaient des
ingénieurs hautement qualifiés. Cela équivaut à une valorisation de plus de
25 millions de dollars par employé. En avril 2012, Facebook a acquis Instagram
pour 1 milliard de dollars. L’entreprise employait treize personnes. Cela
représente environ 77 millions de dollars par travailleur. En 2014, Facebook a
acheté WhatsApp pour 19 milliards de dollars. WhatsApp avait alors un effectif
de cinquante-cinq personnes, ce qui donne une évaluation de 345 millions de
dollars par employé !

On ne peut qu’être stupéfait de voir tant d’intelligence, tant de savoirs, mis au


service d’un seul objectif, dérisoire au vu des moyens que l’intelligence
artificielle est susceptible d’offrir : la publicité en ligne ! On veut croire qu’il en
existe d’autres usages. Concernant les GAFA eux-mêmes, il est clair que leur
terrain de jeu n’y restera pas éternellement cantonné. Facebook a voulu créer sa
propre monnaie, le Libra, concurrençant non seulement les banques
traditionnelles mais le pouvoir régalien des banques centrales. L’expérience a
provisoirement échoué (elle survit sous un autre nom, le Diem), mais ne pourra
manquer de resurgir d’une manière ou d’une autre. En attendant, Facebook
migre vers le métavers, le « méta-univers », où il voudrait que s’installent des
pans entiers de la vie sociale : les réunions publiques ou professionnelles, les
jeux grandeur nature, les voyages imaginaires… Une immense transformation se
prépare, qui ne peut se réduire à seulement « crétiniser » les humains mais dont
tout reste à penser. Il avait, aussi, fallu du temps pour que l’imprimerie produise
tous ses effets, entre autres raisons parce que l’immense majorité de la
population était analphabète lorsque Gutenberg a imprimé sa première bible.
Notes
1. A. Mitchell et L. Diamond, « China’s surveillance state should scare everyone », The
Atlantic, 2 février 2018.
2. La société numérique permet aussi, bien sûr, une surveillance de type policier très classique.
Ce n’est pas un hasard si la Chine dispute la prééminence numérique aux États-Unis.
III.

En attendant les robots


La mort des rois

Le confinement durant l’épidémie de Covid a fait découvrir l’immense


potentiel que recélaient les nouvelles technologies. Le télétravail est
soudainement apparu, pour un bon tiers des personnels, comme une option
immédiatement praticable. La télémédecine a connu son envol lorsqu’on a
constaté que la relation malade/soignant n’exigeait pas la présence systématique
du patient au cabinet médical. Une nouvelle manière de concevoir le monde
productif a surgi, très éloignée des pratiques antérieures. Se rencontrer en face à
face, avec ses collègues ou ses clients, est devenu une option parmi d’autres.
Pour comprendre cette complicité étonnante entre l’apparition du virus et le
capitalisme numérique, il faut revenir en arrière. L’économiste français Jean
Fourastié avait, dès 1948, proposé une analyse des transformations économiques
qui donne une clé essentielle pour comprendre la mutation que le Covid a
accélérée. Fourastié annonçait comme « le grand espoir du XXe siècle » le
passage d’une société industrielle à une société de services. L’homme,
expliquait-il, a travaillé la terre pendant des millénaires, puis la matière pendant
les deux derniers siècles. Dans la société de services dont Fourastié annonçait
l’éclosion, l’homme allait travailler l’homme lui-même. Son grand espoir était
que l’économie parvienne enfin à s’humaniser dans un monde où chacun
s’occuperait d’autrui, comme coach, éducateur ou soignant. Face à cette
excellente nouvelle, Fourastié pointait toutefois un « problème », qui à ses yeux
n’en était pas vraiment un : cette économie de services engendrerait une
croissance beaucoup plus lente. Si le produit que je vends est le temps que je
passe avec mon client, comme aide-soignant ou comme éducateur, alors
l’économie doit stagner, sauf à travailler plus pour gagner plus.
Dans un livre splendide, Performing Arts : The Economic Dilemma, William
Baumol et William Bowen avaient, indirectement, prolongé les intuitions de
Fourastié à partir d’un exemple éclairant, celui des spectacles vivants. Leur
constat de départ est simple : il faut, expliquent-ils, le même temps pour jouer
aujourd’hui une pièce de Shakespeare que le jour de sa création. Le temps est
suspendu à la parole des acteurs : Richard II entend les « tristes récits de la mort
des rois » à la même vitesse immuable. Mais parce qu’il est privé de « gains de
productivité », le théâtre devient de plus en plus cher relativement aux autres
secteurs de l’économie, ceux qui bénéficient de techniques nouvelles pour
réduire le temps de travail nécessaire à leur production. Toujours apparaît cette
« maladie des coûts » qui rend cher de monter des ballets, des opéras, parce
qu’ils ne disposent d’aucun levier qui leur permettrait de générer des gains de
productivité. Le New York Philharmonic Orchestra a ainsi vu ses tarifs
multipliés par cinq, sur un siècle, après prise en compte de l’inflation. C’est ce
qui explique pourquoi la fréquentation des théâtres baisse régulièrement et
pourquoi les artistes vivent mal. Ils exercent fréquemment un autre métier,
d’enseignant le plus souvent, et malgré le salaire des stars, leur place dans
l’échelle des revenus se maintient difficilement au niveau moyen.
Cette pathologie se résume à une comparaison : les objets coûtent de moins en
moins et c’est l’homme qui devient la denrée la plus chère, et ce d’autant plus
que les humains doivent se rencontrer à plusieurs sur un même lieu. Il est par
exemple beaucoup plus coûteux aujourd’hui d’aller au théâtre que d’acheter une
bible alors que c’était le contraire au temps de Shakespeare. Ce constat se
retrouve pour tous les arts vivants. C’est parce qu’il est désormais beaucoup plus
dispendieux d’embaucher une troupe de comédiens, de payer le loyer d’une salle
capable d’accueillir en centre-ville un public nombreux, que tout coûte plus cher
à un secteur comme le théâtre dont l’homme est la principale « matière
première ». Tel fut le constat sans appel de Baumol et Bowen au terme de leur
analyse. Elle a provoqué un choc et sensibilisé l’État américain à la nécessité
d’accorder une hausse importante des aides publiques à la culture. Cela n’a pas
empêché que le cours « naturel » de l’histoire se produise. Par la radio, la
télévision et aujourd’hui Netflix et autres produits en ligne, le spectacle vivant a
été cannibalisé par tous les supports qui ont permis au comédien qui narre les
« tristes récits de la mort des rois » d’être entendu autant de fois que possible par
un public toujours plus vaste, sans l’obliger à se déplacer.

Il est possible de dire que la révolution en cours offre une solution de même
nature à la société de services dans son ensemble. C’est bien l’homme dont il
s’agit, comme le disait Fourastié. Mais un humain dont tout est désormais fait
pour « optimiser » la relation qu’il entretient avec les autres.
L’industrialisation des services

Les services : ils peuvent se définir comme l’ensemble des activités où le


client et le prestataire doivent se rencontrer pour que la production ait lieu. Le
coiffeur doit couper les cheveux de son client « en présentiel » (pour
l’instant…), comme le comédien de théâtre doit jouer devant son public.
« L’industrialisation des services » est une expression a priori contradictoire qui
permet de désigner le processus de rationalisation visant à réduire au maximum
le coût de cette interaction. Il y a plusieurs méthodes. La télévision est l’exemple
d’une technologie qui démultiplie le nombre de clients d’un même prestataire.
C’est ce qu’on appelle réaliser des économies d’échelle. Mais il y en a d’autres :
on peut par exemple remplacer le producteur par un algorithme et laisser le
client se débrouiller seul, un cas de figure de plus en plus fréquent ! C’est le cas
lorsque vous devez gérer sans assistant vos réservations en ligne ou vos comptes
bancaires. Une troisième méthode est celle que propose la télémédecine. Il reste
un prestataire et un client face à face, mais pas nécessairement au même endroit.
Seules les rencontres indispensables sont maintenues. La question centrale est
évidemment de savoir comment se décide ce qui est « indispensable ».
Esther Duflo dans son livre Économie utile pour des temps difficiles coécrit
avec Abhijit Banerjee donne un exemple troublant de la révolution
algorithmique : celui de sa sœur, directrice d’une ONG, qui n’a pas d’assistant
humain. La machine IBM Watson s’occupe de toutes les tâches ordinairement
confiées à un assistant : prendre ses rendez-vous, réserver ses billets d’avion,
rassembler les pièces informatiques de la comptabilité. Comme le souligne à ce
propos l’économiste Kathryn Shaw, ceux qu’on appelle parfois les « knowledge
workers », les professions intellectuelles, passent en réalité beaucoup de temps à
faire autre chose que leur cœur de métier. Selon son estimation, 60 % du temps
d’un chercheur, par exemple, est détourné de son travail de recherche par des
tâches administratives. L’étape qui s’annonce avec l’intelligence artificielle est
celle où l’algorithme pourra prendre des initiatives : réserver votre hôtel
lorsqu’elle aura enregistré que vous avez un rendez-vous dans une autre ville,
proposer des comptes rendus de réunions auxquelles vous avez participé,
communiquer avec d’autres machines pour préparer une conférence…
Un autre exemple est celui des centres d’appels. En grande partie, ces centres
ont été délocalisés vers des pays pauvres, anglophones pour les États-Unis ou
francophones pour la France. La codification précise de ces tâches, confiées à
des personnes n’ayant aucune connaissance des questions qu’on leur pose, a été
possible en vertu d’un principe dit de Pareto, selon lequel l’éventail des
questions posées est en fait très limité. Par exemple, si la question la plus
fréquente représente 50 % du total, la seconde sera à 25 %, la troisième à 12,5 %
et ainsi de suite. Trois questions couvrent ici plus de 85 % des cas de figure.
C’est ce travail de codification qui a permis hier de délocaliser les call centers à
des prestataires étrangers et qui permet aujourd’hui à un ordinateur de prendre la
place des humains.
C’est la raison pour laquelle nous passons un temps incalculable à taper 1 ou 2
ou 3 pour obtenir la réponse d’une machine (ma télévision est cassée, que dois-je
faire ?) avant d’atteindre le graal d’un humain, qui ne surgira qu’en tout dernier
recours. Et encore, souvent, la personne qui vous répondra répétera le même
protocole numérisé avant de vous diriger, si c’est indispensable, vers un
véritable technicien. Le dialogue émotionnel est l’un des défis qui reste à relever.
À lire Laurence Devillers, la reconnaissance des affects et leur simulation, grâce
à des indices sur la voix, le visage et la gestuelle, est l’étape en cours de
développement de ce qu’on appelle aussi les « chatbots », les agents
conversationnels 1.
La médecine est également directement concernée. Les algorithmes médicaux
sont capables d’extraire d’une bibliothèque quasiment infinie de données et
d’articles les éléments pertinents pour analyser tel ou tel symptôme. Les
dermatologues savent déjà tirer parti des millions d’images qui ont été analysées
et diagnostiquées, ce qui leur permet de trouver immédiatement des références
appropriées. Il s’agit surtout ici d’une aide au diagnostic, personne ne songe pour
l’instant à remplacer un médecin par un algorithme. Plus menacés sont les
radiologues. Leur métier consiste à prendre des radios et à en proposer une
interprétation à leurs collègues. L’IA pourra faire elle-même ce premier
diagnostic, à charge pour le médecin qui l’a ordonné d’entendre l’avis des
quelques spécialistes qui auront survécu à la purge numérique s’il l’estime
nécessaire.
L’automédication est un autre champ, à la marge de la légalité, qui prospère.
Vous avez un peu de température et un mal de gorge : un aide-soignant
numérique vous rassure et vous conseille de prendre un bon grog et deux cachets
d’aspirine. Si vous êtes toujours souffrant le lendemain, allez voir un médecin.
La bonne nouvelle est que ces algorithmes serviront aussi à requalifier des
emplois d’aides-soignants, lesquels deviendraient des intermédiaires efficaces
entre le patient et le médecin.
L’industrialisation des services imite aussi le processus de rationalisation
qu’on observe dans les usines, sauf qu’ici c’est le consommateur qui est
directement « taylorisé ». Des centres commerciaux sans personnels sont déjà en
place, pour l’ouverture du dimanche notamment. Vous entrez, vous vous servez
et vous sortez. Des mécanismes de reconnaissance faciale permettront de vous
identifier, débitant la carte de crédit que vous aurez préalablement enregistrée
(on peut imaginer que vous aurez la possibilité, si vous le souhaitez vraiment, de
valider les dépenses qui vous sont facturées). L’idée d’entrer dans un centre
commercial totalement déshumanisé fait froid dans le dos, mais l’étape suivante
est déjà en place, avec Amazon, qui dispensera de se déplacer physiquement.
La voiture autonome

Être conduit par un algorithme n’est pas encore passé dans les mœurs mais le
moment approche. Presque vingt ans se sont écoulés depuis que, sous l’égide de
la DARPA (Defense Advanced Research Projects Agency), une quinzaine de
véhicules autoconduits ont tenté de parcourir deux cents kilomètres en partant de
la ville de Barstow, en Californie, au cœur du désert de Mojave 2. Aucun des
véhicules n’y est parvenu, la plupart s’interrompant quelques kilomètres après la
ligne de départ. Un an plus tard, le 8 octobre 2005, les résultats étaient beaucoup
plus probants. Le parcours incluait une centaine de virages, trois tunnels et un
col de montagne. Une Volkswagen Tavares, conçue et dirigée par Sebastian
Thrun de l’université de Stanford, gagnait la course au terme d’une épopée de
sept heures. Google s’est vite mis à la pointe de la recherche en débauchant, en
2008, Sebastian Thrun et son équipe. Le résultat a été à la hauteur : en 2012, la
flotte de Google a parcouru 30 000 miles sans accident sur des autoroutes reliant
les grandes métropoles, ou dans les embouteillages de celles-ci. Le succès des
voitures autonomes n’a cessé de grandir ensuite, jusqu’au triomphe de Tesla, le
fabricant de voitures 100 % électriques dirigé par Elon Musk, connu aussi pour
ses navettes spatiales.
Les progrès de la voiture autonome sont manifestes et pourtant il reste difficile
d’admettre que la sécurité des passagers soit confiée à un algorithme dont la
moindre faille pourrait leur coûter la vie. Même si les risques sont
statistiquement moindres que pour un humain, il est patent que l’on n’utilise pas
les mêmes critères pour juger de la fiabilité d’un conducteur de bus et d’un
algorithme. Une machine qui renverse un piéton qui n’aurait pas respecté le feu
sera jugée beaucoup plus sévèrement qu’un humain. En fait, les voitures
autonomes ne seront véritablement à leur aise que lorsque celles conduites par
des humains auront été interdites. Dès qu’elles auront atteint le monopole de la
circulation urbaine, elles pourront sans difficulté communiquer entre elles et
éviter les accidents et les embouteillages. C’en sera fini du plaisir de conduire, et
certains ne s’y résigneront pas, mais ainsi va la vie moderne.
Notes
1. L. Devillers, Les Robots émotionnels, Paris, Éd. de l’Observatoire, 2019.
2. M. Ford, Rise of the Robots, Technology and the Threat of a Jobless Future, New York,
Basic Books, 2015.
Le robot pensant

Le fantasme de robots anthropomorphes gagne de la place dans l’imaginaire


contemporain. Gill Pratt a fait une analogie avec le développement de la vision il
y a 500 millions d’années. La vue avait contribué à déclencher la multiplication
des espèces vivantes sur terre 1. Les robots sont peut-être en train d’atteindre ce
stade. Le taux d’erreur dans l’étiquetage du contenu des photos est tombé de plus
de 30 % en 2010 à moins de 5 % en 2016, et se situe désormais sous le seuil
d’erreur des humains. Les progrès de la reconnaissance vocale sont tout aussi
spectaculaires. Siri d’Apple, l’Assistant Google ou Alexa d’Amazon s’appuient
sur des interfaces nouvelles pour reconnaître les mots prononcés, interpréter leur
signification et répondre en conséquence. Pratt souligne également que les
machines numériques ont la capacité révolutionnaire de pouvoir instantanément
partager leurs connaissances entre elles.
Forts de ces avancées, les chercheurs travaillent à la création de robots au
toucher doux qui donnent un sentiment agréable à leurs interactions avec les
humains 2. Le Japon est en pointe dans tous ces domaines du fait d’un
vieillissement rapide de sa population. C’est un pays hermétique à l’immigration
alors que celle-ci offre dans la plupart des autres (aux États-Unis notamment) la
main-d’œuvre, souvent mal payée et corvéable, qui s’occupe des personnes
dépendantes. Tel est en fait le débat qui se cache derrière celui de l’immigration :
fermer celle-ci, c’est accélérer la robotisation du soin aux personnes âgées. Le
secteur bondissant de la domotique s’y prépare, en informatisant leur domicile
avec des capteurs pour surveiller leur état de santé et leurs chutes éventuelles. La
présence de robots dans les appartements des personnes âgées ou dépendantes
devrait aussi permettre aux soignants de contrôler à distance leurs malades pour
des tâches simples comme donner des médicaments, prendre la température, ou
tout simplement pour offrir aux personnels médicaux un champ de vision
intégral, dès lors que le robot pourra accompagner le patient dans les recoins de
sa vie.
Recruter et juger

L’usage de l’intelligence artificielle pour les procédures d’embauche ou de


recrutement est en train de se généraliser. Les universités utilisent déjà des
algorithmes pour évaluer les dossiers des candidats, prenant en compte les
établissements qu’ils ont fréquentés, donnant peut-être une prime à ceux qui font
état d’activités parascolaires. L’étape qui est déjà à l’œuvre dans le secteur privé
est de pouvoir faire passer un entretien algorithmique à l’impétrant, en jugeant
tant le fond que la forme : l’aisance de la diction, le sourire, l’empathie. Les
logiciels de recrutement que sont les outils de suivi de candidatures (OSC) –
applicant tracking systems en anglais – ont noué des partenariats avec la plupart
des sites professionnels tels Linkedin ou Monster.com. Vous serez bientôt
automatiquement contactés par des recruteurs, sans avoir la moindre démarche à
faire, autre que de disposer d’un CV en couleurs et en vidéo qui permettra de
vous évaluer.
Dans le film Elysium, une dystopie incarnée à l’écran par Matt Damon et
Jodie Foster, les algorithmes vont plus loin : la police et la justice sont confiées à
des robots qui suivent un protocole rigoureux. Le robot-juge calcule les
probabilités de récidive et fixe une peine en conséquence. Le robot offre à
Damon de faire appel auprès d’un humain, une proposition qu’il écarte toutefois,
de crainte que la sanction ne soit plus sévère. Ce n’est que de la science-fiction,
mais le livre Noise, rédigé par Kahneman et ses coauteurs 3, présente un
argumentaire très serré qui peut s’interpréter comme un plaidoyer pour une
justice algorithmique ! Le point de départ de leur analyse est la démonstration
implacable de la faillibilité du jugement humain. Les juges sont tout autant
contaminés par leurs humeurs que les autres humains. Une analyse de plusieurs
milliers de décisions de justice a montré qu’ils prennent des décisions plus
sévères le lundi qui suit la défaite de l’équipe locale de football (américain) ! En
France, une étude tout aussi exhaustive a montré que les juges sont plus cléments
le jour de l’anniversaire de l’accusé (Kahneman ajoutant avec malice que
l’hypothèse qu’ils le soient aussi le jour de leur propre anniversaire n’a pas été
testée). Les jurys sont également victimes de théories statistiques fausses. Ils
accordent, par exemple, plus difficilement l’asile à un migrant s’ils l’ont déjà
accordé à deux candidats auparavant.
Les juges sont également très sensibles à la température extérieure. Plusieurs
études sur des centaines de milliers de cas ont montré que les condamnations
sont plus sévères les jours de grande chaleur. L’influence du beau temps a
d’ailleurs été analysée aussi sur les comportements boursiers : la Bourse monte
quand il fait beau (mais pas trop chaud non plus sans doute). Une étude citée par
Kahneman a montré que les jurys dans les universités n’échappent pas à cette
influence de la météo. Lorsque le temps est moyen, les jurys sont très attentifs à
la qualité académique des dossiers : notes, qualité des mémoires. Lorsqu’il fait
beau, à l’inverse, ils sont plus sensibles aux qualités non académiques des
candidats… Les médecins sont tout aussi vulnérables. Après une longue journée
de travail, ils ont une propension beaucoup plus forte à prescrire des opiacés
qu’en début de journée, comme si leur propre fatigue s’appliquait aux patients
qu’ils examinent.
Face à ces erreurs de jugement, les algorithmes offrent une alternative qui ne
dépendra ni du temps passé à la tâche ni de la température extérieure. Une
équipe de chercheurs dirigée par Sendhil Mullainathan du MIT a entraîné l’IA
pour simuler des mises en liberté conditionnelle. L’équipe a eu accès aux mêmes
informations que les juges concernant notamment les antécédents du délinquant
en matière judiciaire. Pour éviter tout jugement stéréotypé, aucune donnée
concernant le genre ou la race n’a été fournie à l’ordinateur. Relativement aux
humains, l’IA améliore significativement la qualité des jugements. Les
libérations sous caution prononcées par l’IA auraient réduit de presque 25 % le
taux de criminalité, à taux d’incarcération constant. Les chercheurs du MIT ont
également montré que l’on pouvait réduire de 40 % ce taux d’incarcération, pour
un objectif de récidive donné. Dès que l’objectif est simple à énoncer en termes
statistiques, ici réduire le taux moyen de récidive, l’IA l’emporte sans ambiguïté.
Kahneman et ses coauteurs, après cette longue démonstration en faveur de
l’IA, mettent toutefois en garde contre les vertus de celle-ci. Les fantasmes d’un
film tel Minority Report, inspiré d’un livre célèbre de SF, donnent à penser qu’il
existerait au-dessus de nos têtes une science qui disposerait des moyens de
prédire parfaitement les comportements humains. Même dans des cas simples où
il s’agit de prédire des crises cardiaques, l’IA fait certes mieux que les médecins,
mais le résultat final reste médiocre. En fait, les médecins se trompent parce que
la capacité « objective » de prédire les crises cardiaques est faible, davantage que
du fait de leurs propres limitations. Le problème est tout autant dans le déni qui
saisit les experts que dans l’accusation contraire d’ignorance qui leur est
opposée.
La morale numérique ?

Le développement des voitures autonomes a obligé les constructeurs à se


poser des problèmes moraux auxquels ils n’étaient pas préparés. La question est
celle-ci : si la voiture autonome est confrontée au dilemme de renverser un
piéton pour ne pas en écraser deux autres, que fera-t-elle ? Prendra-t-elle en
compte le fait que le piéton en danger est jeune et les deux autres vieux ?
Intégrera-t-elle le fait que le piéton menacé est dans son droit sur les passages
cloutés ? Ces questions qui amusent ou qui font peur ne font que commencer.
Elles n’effraient nullement les théoriciens algorithmiques car elles les préparent
au monde qu’ils ont en tête : une société où un nombre croissant de décisions, y
compris lorsqu’il s’agit de soigner ou de juger, seront prises par des machines.
Comme le montre avec humour Martin Gibert dans son livre Faire la morale
aux robots, ces débats prennent souvent comme point de départ un dilemme
analysé par la philosophe Philippa Foot en 1967 : le dilemme du tramway.
Imaginons un tramway lancé à vive allure qui pourrait tuer cinq personnes d’un
coup s’il n’était détourné de sa course. Un aiguillage permettrait de le détourner
sur une autre voie, mais sur celle-ci il y a un autre cheminot tout aussi innocent
qui serait condamné. Que faire ? Pour y répondre, le MIT a créé un site web, le
« Moral Machine Experiment », qui permet de tester la morale préférée des gens,
selon leur âge, leur genre, leur éducation. En moyenne, les gens préfèrent sauver
le plus de personnes possible, et les jeunes en priorité. Parfois, toutefois, ce sont
les individus âgés que l’on souhaite épargner, dans les pays d’Asie et du Moyen-
Orient par exemple. Cette morale spontanée est dite utilitariste. Ses fondements
ont été posés au XVIIIe siècle par Jeremy Bentham. Elle considère qu’une action
est moralement justifiée si elle accroît la somme des plaisirs des personnes
concernées. Sauver cinq personnes en en tuant une seule est pour Bentham une
action souhaitable, morale. Un véritable utilitariste sera, à vrai dire, plus
spécifique : s’il s’agit de cinq vieillards d’une part et d’un jeune homme ou
d’une jeune femme d’autre part, le calcul précis pourrait être différent… C’est
cette morale dont se réclament le plus souvent les économistes. Ils conduisent à
des calculs macabres sur la « valeur » d’une vie humaine (le chiffre en France
est de 3 millions d’euros) qui permettent par exemple de décider si des travaux
coûteux sur une voie se justifient ou pas. Elle est le cas particulier d’une morale
dite « conséquentialiste », qui juge la valeur d’un acte à l’aune de ses
conséquences.
À l’autre bout de la morale de Bentham, on tient souvent en contrepoint celle
de Kant qui déduit l’action juste des principes qui la guident plutôt qu’en
considérant ses effets. Cette morale dite « déontologique » pose qu’il y a des
principes absolus qui doivent être respectés en toutes circonstances : par
exemple ne pas torturer autrui. Une manière de saisir ce qu’elle impliquerait
dans le cas du tramway est de suivre l’expérience de pensée proposée par une
autre philosophe américaine, Judith Jarvis Thomson. Dans son exemple, on ne
peut plus sauver les cinq personnes menacées en actionnant un aiguillage mais
on peut le faire en poussant sur la voie ferrée un autre quidam dont la chute ferait
dérailler le train et éviter la mort des cinq innocents… À supposer que la
personne qui doive prendre la décision soit elle-même trop petite pour faire le
sacrifice de sa propre vie, doit-elle sciemment pousser sur la voie l’homme plus
corpulent qui se tient à côté d’elle ? La plupart des gens à qui l’on poserait la
question y sont généralement opposés, même si, dans le cas de l’aiguillage, ils
ont pu répondre par la positive. Ils sont passés d’une morale utilitariste à la
morale « déontologique ». De ce nouveau point de vue moral, on ne peut pas
disposer de la vie d’un autre (disons sans son consentement), fût-ce pour en
sauver cinq fois plus. Il y a un principe en amont qui est le respect absolu de la
« dignité » de chacun, qui récuse le droit d’en faire un moyen au service d’une
fin.
Quelle morale choisir pour la conduite assistée par ordinateur ? Il existe une
troisième voie, explique Gibert, qui est celle de la « vertu ». Il ne s’agit plus de
fixer des paramètres utilitaristes ou kantiens mais de se comporter comme le
ferait une personne vertueuse dans une situation similaire. C’est ce qu’Aristote
appelait la « prudence » (phronesis : la raison pratique), à savoir la capacité
d’agir de la bonne manière au bon moment. Comment le sage répondrait-il à un
enfant qui croit au Père Noël : le laisserait-il à ses illusions (son bien-être,
approche utilitariste) ou lui enseignerait-il la vérité (l’approche principielle) ?
Sans doute qu’il apprécierait le choix du moment opportun et ferait un dosage
subtil entre les deux… Le problème pour l’IA est que cette approche consiste à
ajuster son comportement à un ensemble variable et contingent de circonstances
dont on voit mal comment les rassembler. Vous voudriez que votre voiture soit
conduite comme l’auraient conduite Martin Luther King ou Nelson Mandela ?
Comment disposer des données qui permettraient de saisir la manière dont ces
sages personnages arbitrent dans des situations imprévisibles ? Remplacer
voiture par diligence ou cheval ne suffira pas… Mais si l’on peut ressusciter les
morts, on ne peut douter qu’une solution à ce problème sera trouvée aussi.
Notes
1. Ce qu’on appelle l’« explosion cambrienne ». G. Pratt, « Is a cambrian explosion coming
for robotics ? », Journal of Economic Perspectives, août 2015.
2. Au centre Georgia Tech, cité par M. Ford, Rise of the Robots, op. cit.
3. D. Kahneman et al., Noise, A Flaw in Human Judgement, op. cit.
L’enjeu du siècle

« Une troublante passion anime l’humain : engendrer des doubles artificiels de


lui-même, à l’image de Dieu créant l’homme à sa propre image 1 », écrit Éric
Sadin. Ce dernier est l’un des meilleurs penseurs de l’intelligence artificielle
qu’il décrit comme une puissance aléthéique, alètheia désignant la vérité en
grec. Le nouvel âge anthropomorphique de la technique est très différent de celui
qui consistait à offrir aux humains un levier pour accroître leur puissance
d’action. L’intelligence artificielle fait beaucoup plus que d’organiser un rapport
efficient de l’homme à la matière : elle se substitue à l’homme pour appréhender
le réel, la machine étant désormais « réputée plus fiable que nous-mêmes ».
Sadin pose comme « l’enjeu du siècle » notre capacité à ne pas admettre « une
imposition unilatérale de la vérité qui clôt le bec à notre droit de parole ».
Historiquement, ajoute-t-il, les normes, les conventions, les préjugés se sont
forgés dans une multitude de lieux : rien n’est plus urgent que de garder vivantes
les institutions où s’élabore la vie sociale, qu’il s’agisse des écoles, des
parlements ou des tribunaux.
Rien n’est simple en fait, et heureusement pourrait-on dire, dans le
remplacement des humains par des algorithmes. Une enquête auprès de trois
mille dirigeants par le McKinsey Global Institute a révélé que l’adoption de l’IA
en dehors du secteur de la technologie restait embryonnaire. Il subsiste beaucoup
d’obstacles à franchir avant qu’un robot ne remplace un humain. Il leur manque
le « sens commun » dont parlait Le Cun. Distinguer un pot sale qui doit être
nettoyé d’un autre qui contient une plante est simple pour un humain. Les robots
ont encore du mal. Il existe des robots à usage unique, capables d’effectuer des
tâches spécifiques telles que le nettoyage des sols, mais pas encore de modèle
polyvalent capable par exemple de détecter et d’éliminer les déchets.
Les robots ne sont véritablement à leur aise que dans des espaces spécifiques
tels que les usines ou les entrepôts où tout est fléché à leur intention. Les cas
limites d’usines entièrement régies par des algorithmes sont toutefois
parfaitement fantasmatiques. Un exemple de cette déconvenue est celui d’Elon
Musk. En 2016, il avait annoncé que le nouveau modèle de sa Tesla, le modèle
trois, serait construit d’une manière totalement automatisée. Son nom de code,
« Alien Dreadnought », avait une connotation voulue de science-fiction. Des
technologies très avancées, très au-delà des pratiques courantes, avaient été
mises en œuvre. L’automation complète des tâches était censée permettre de
gagner de la vitesse. Les matières premières iraient d’un côté, les voitures de
l’autre, et au milieu on aurait des robots qui feraient tout à une vitesse très
rapide. L’usine qui était supposée être totalement opérationnelle à la fin de 2018
ne le fut pas. Au milieu de l’année 2018, il devint clair que la production créait
des problèmes qui ne pouvaient pas être résolus. L’opération fut décrite comme
un enfer, « à quelques semaines de la catastrophe ». L’automatisation totale fut
une erreur. « Humans are underrated 2 » fut la conclusion sibylline de Musk sur
Twitter. Alain Supiot dans une interview à L’Usine nouvelle a dénoncé de son
côté le « fantasme d’une mise en pilotage automatique des affaires humaines 3 ».
Il faut du temps pour qu’une technologie nouvelle trouve sa place. IBM
Watson est peut-être un formidable instrument, capable de remplacer les
humains pour de nombreuses tâches administratives, il reste que peu de gens
auront le culot de lui confier la charge a priori simple de régler leurs factures.
L’électricité est un exemple classique qui témoigne du temps qui peut séparer la
découverte d’une technique nouvelle et sa pleine utilisation. L’économiste Paul
David a ainsi montré qu’en 1919, la moitié des entreprises américaines
n’utilisaient toujours pas l’électricité, trente ans après la découverte du courant
alternatif. L’électricité a fini par éclairer les villes, puis les appartements, ce qui
est un gain direct en soi. Mais son usage plein et entier a dépendu de bien
d’autres applications subséquentes : la radio, la télévision, la machine à laver,
inventées plus tard. Le propre d’une technologie de rupture est d’offrir un
ensemble de possibilités qui dépassent l’entendement de ses inventeurs. La
machine à vapeur a servi initialement à pomper l’eau des mines, et il a fallu
plusieurs décennies avant qu’on comprenne qu’elle permettrait aux chemins de
fer de déplacer des milliers de passagers d’un endroit à l’autre. Les erreurs faites
par les inventeurs eux-mêmes sur l’utilité de leurs découvertes sont légion.
Edison a pensé que son phonogramme servirait à enregistrer le testament des
mourants. Bell a cru que le téléphone permettrait d’écouter un concert d’un
endroit à un autre !

L’incertitude actuelle sur les débouchés possibles de l’IA est une bonne et une
mauvaise nouvelle. Bonne car rien n’est écrit. Mauvaise parce que l’on ne sait
pas où l’on va. Nul ne peut dire aujourd’hui ce que seront les usages où elle
s’avérera le plus utile. La loi dite d’Amara, du nom de l’ancien président de
l’Institut du futur de Palo Alto, explique que nous avons tendance à exagérer les
impacts de court terme des nouvelles technologies mais à en sous-estimer les
effets de long terme. Si rien de massif ne se produira sans doute dans les cinq-
dix prochaines années, quid du temps (un peu) plus long ? La circulation dans
les villes, la gestion des comptes en banque, la santé passeront sans doute dans le
champ de la science algorithmique. Mais bien d’autres domaines seront aussi
transformés : l’interface cerveau-machine, la vie en métavers… Ce qui semble
écrit est que la révolution numérique va profondément reconfigurer la vie
sociale. Chacun sera sommé de réfléchir à la manière de remplacer des
collaborateurs humains par des assistants algorithmiques, d’organiser une
réduction drastique des rencontres en face à face, bouleversant radicalement le
rapport à autrui. C’est ce risque majeur de déliaison sociale qui est d’ores et déjà
en train de bouleverser nos sociétés, entraînant un lot incalculable de dégâts
psychologiques et sociaux.
Notes
1. É. Sadin, L’Intelligence artificielle ou l’enjeu du siècle, Paris, L’Échappée, 2018.
2. « Les humains sont sous-estimés. »
3. A. Supiot, « Restaurer un travail réellement humain est sur le long terme la clé du succès
économique », Usine nouvelle, 24 avril 2015.
IV.

Anomie politique
La croissance appauvrissante

La révolution numérique est censée améliorer les conditions d’existence des


sociétés avancées. Elle offre toutefois le paradoxe d’une technologie
« appauvrissante ». Aux États-Unis où elle est née, le salaire ouvrier n’a
pratiquement plus progressé au cours des cinquante dernières années 1. Cette
stagnation s’est accompagnée d’une explosion de la rémunération des plus
riches. Les travaux de Thomas Piketty et de ses coauteurs ont montré que la
moitié inférieure de la population a vu fondre sa part dans le revenu national,
celle-ci passant en cinquante ans de 20 % à 10 % du total. Pendant ce temps, le
1 % le plus riche faisait le chemin exactement inverse : sa part passait de 10 % à
20 % au cours de la même période ! Cette poussée des inégalités américaines
tranche spectaculairement avec les années d’après-guerre au cours desquelles la
croissance du pouvoir d’achat avait été quasiment identique à tous les étages de
la société.
La révolution numérique fait suite aux deux grandes épopées industrielles que
furent celles de l’électricité au siècle passé et de la machine à vapeur un autre
siècle auparavant. Ces deux révolutions avaient eu des impacts considérables sur
la société, mais très différents l’un de l’autre. La révolution électrique a fait
naître les grandes chaînes de montage dont l’effet a été de densifier les relations
sociales, de donner un pouvoir nouveau aux syndicats. La première révolution
industrielle, celle de la machine à vapeur un siècle auparavant, avait elle-même
créé les grandes usines modernes, le « factory system », mais l’impact social
avait été beaucoup plus brutal. Les paysans avaient dû quitter leurs
communautés d’origine pour aller en ville former une immense « armée de
réserve industrielle », pour reprendre l’expression de Marx. Pendant plus d’un
demi-siècle, la situation des classes laborieuses anglaises n’a cessé de se
dégrader 2. Les salaires des tisserands ont continûment baissé à mesure qu’ils
étaient remplacés par des machines, et cette baisse n’a cessé que lorsqu’ils ont
complètement disparu. Dans son ouvrage sur la condition de la classe ouvrière
en Angleterre publié en 1845, Engels, le coauteur de Marx, s’inquiétait de cette
« situation de la classe laborieuse, c’est-à-dire de l’immense majorité du peuple.
Que doit-il advenir de ces millions d’êtres ne possédant rien, qui consomment
aujourd’hui ce qu’ils ont gagné hier ? ».
La contradiction entre l’essor des technologies que l’on voudrait croire
toujours favorable au progrès économique et l’appauvrissement des classes
populaires au XIXe siècle n’a cessé de troubler les économistes. Robert Allen a
parlé de « pause d’Engels », en référence au passage cité, pour caractériser cette
explosion de misère au sein d’un monde réputé plus productif. La révolution
numérique en offre un nouvel exemple. Elle est au cœur d’une nouvelle
paupérisation ouvrière sans en être toutefois toujours la cause première. La
principale origine du dérèglement social contemporain, particulièrement aux
États-Unis, est la révolution libérale de Reagan. Sa cible a été le pouvoir des
syndicats. Ceux-ci ont toujours joué un rôle important en matière d’égalité
salariale, poussant à une forme de redistribution interne au profit des échelons
les plus bas de la hiérarchie sociale. En procédant à une externalisation des
tâches les moins qualifiées, les entreprises ont brisé cette aspiration. Philippe
Askenazy a montré dans sa thèse que les premières firmes à faire l’objet d’une
restructuration, d’un « re-engineering », étaient souvent les plus syndicalisées 3.
Dans le nouveau monde productif qui s’installe dans les années quatre-vingt, les
technologies de l’information et de la communication viennent en quelque sorte
après coup : elles rendent possible une organisation du travail où les tâches sont
déléguées à des firmes toujours plus éloignées. Le fax a été un premier
instrument révolutionnaire permettant de faciliter la transmission de données
d’une entreprise à l’autre. Puis dans le courant des années quatre-vingt-dix, avec
Internet, la mutation a été totale.
Dans ce nouveau système, les firmes les plus performantes deviennent les
opérateurs d’une mosaïque d’autres entreprises auxquelles sont déléguées les
activités les moins rémunératrices. L’apparition de firmes « superstars » et dont
le contenu en emplois est faible est l’expression la plus visible de cette
transformation. C’est le modèle dont les GAFA sont l’archétype mais qui est en
réalité beaucoup plus général. Dans chaque secteur, les cinq entreprises les plus
performantes ont considérablement augmenté leur part de marché. Or, à
l’exception de la finance, elles sont beaucoup plus économes en travail que leurs
concurrentes. Quel que soit le secteur considéré, moins une firme emploie de
personnels, plus elle réussit. Les économistes parlent de « scale without mass »,
d’économies d’échelle sans pesanteur. Netflix ou Google peuvent doubler leur
chiffre d’affaires sans avoir besoin de doubler leur personnel. La surprise est que
ce modèle semble s’imposer partout, pas seulement dans le secteur des
industriels numériques. Aux États-Unis, les cent premières entreprises
produisaient un tiers de la valeur ajoutée globale. Leur part s’élève à 50 %
aujourd’hui 4. Ce sont ces firmes « superstars » qui contribuent pour beaucoup à
faire baisser la part des salaires dans la valeur ajoutée.
Tous les pays ne sont pas également frappés par cette révolution. La France,
par exemple, résiste à la baisse de la part salariale dans le revenu global. Elle le
doit à une bonne et à une mauvaise raison. La mauvaise est qu’elle ne dispose
pas comme les États-Unis de beaucoup d’entreprises à la frontière des mutations
technologiques. La bonne raison est que ses institutions sociales, comme le
salaire minimum ou la protection sociale en général, ont permis de mieux
résister à l’érosion de la rémunération du travail. La France a été ainsi moins
impactée par la hausse des inégalités, sans être toutefois totalement épargnée 5.
La France a cependant été frappée comme la plupart des pays avancés par un
ralentissement général de la croissance qui n’a cessé de se confirmer, décennie
après décennie. Partout s’observe un essoufflement général des gains de
productivité qui se traduit à terme, inéluctablement, par un ralentissement de la
progression des salaires 6. Le revenu des ménages, corrigé par sa taille, ne
progresse plus guère, alors qu’il doublait tous les quinze ans dans les années
soixante. En France comme aux États-Unis, la cause générale de ce
ralentissement est indissociable de la « maladie des coûts » dont parlait Baumol :
il est beaucoup plus difficile de générer des gains de productivité dans une
société de services que dans une société industrielle. L’enjeu de la révolution
algorithmique est certes de « résoudre » ce problème, mais elle commence tout
juste, et du point de vue des travailleurs qui en subissent les effets, le remède
peut être pire que le mal.
La conséquence majeure déjà visible de cette transformation du système
productif est l’affaissement continu des emplois intermédiaires. Partout dans les
pays avancés, en France comme aux États-Unis, ils ont vu leur part se réduire 7.
Les emplois « créatifs », tout en haut de l’échelle sociale, ont été les mieux
traités. Ce sont les traders, les joueurs de foot, les producteurs d’algorithmes qui
sont les grands gagnants du monde contemporain. Tous ceux qui peuvent utiliser
les techniques numériques pour augmenter sans limites la taille de leur public
ont bénéficié du nouveau monde qui s’installe. À l’autre bout de la chaîne, en
bas de l’échelle sociale, ce sont les activités « sensibles » d’aide à la personne,
de premiers de « corvée », qui ont le plus augmenté en nombre, tout en restant
très mal payées. Cette polarisation entre les deux extrêmes accomplit la logique
annoncée des avantages comparatifs des humains face aux machines, la
sensibilité et la créativité. La force implacable des économies d’échelle enrichit
sans limites les premiers tout en paupérisant les seconds privés de gains de
productivité.

La conséquence politiquement la plus importante de ce processus est l’érosion


continue de la classe moyenne. Les tâches administratives et commerciales dont
le rôle était de faire le lien entre le haut et le bas d’une entreprise ont toutes
reculé, comme si les firmes n’avaient plus besoin de ces emplois situés au milieu
de la hiérarchie pour fonctionner efficacement. Pour les classes moyennes tout
comme pour les classes populaires, privées des perspectives de promotion qui
leur étaient promises, c’est le théâtre d’immenses désillusions qui a surgi. La
perte de confiance en elles-mêmes et en leur avenir social est un choc d’une
violence extrême pour les personnes touchées.
Notes
1. Le salaire de l’ouvrier blanc sans qualification (« white male without college education ») a
perdu 13 % en pouvoir d’achat (après correction de l’inflation) en cinquante ans.
2. Entre 1780 et 1840, les estimations indiquent une forte hausse de la productivité du travail
(le ratio entre la production et le nombre d’heures travaillées) de presque 50 %. La hausse du
salaire réel, corrigé de l’inflation, a pourtant été inférieure, en moyenne, à 10 %, presque quatre
fois plus faible. Tout change ensuite. Entre 1840 et 1880, la productivité du travail a augmenté de
90 %, et les salaires réels de 120 %, chiffres donnés par R. Allen dans Engels’ Pause. A
Pessimist Guide to the British Industrial Revolution, Oxford University, 2007.
3. P. Askenazy, La Croissance moderne : organisations innovantes du travail, Economica,
2002.
4. M. Pak, P. A. Pionnier et C. Schwellnus offrent un excellent tour d’horizon de ces questions
dans Économie et statistique, no 510-512, un numéro consacré au 50e anniversaire de la revue,
qui offre elle-même une magnifique synthèse des évolutions des cinq dernières décennies.
5. G. Cette et al., Économie et statistique, no 510-512. La part du revenu du top 1 % est
toutefois passée de 7 % du revenu total à 10 %. Le pouvoir d’achat du 1 % le plus riche a
augmenté de 2,2 % l’an contre moins de 1 % pour les 99 % restants. Voir, dans le même numéro,
B. Garbinti et J. Goupille-Lebret.
6. La productivité du travail, qui résume le progrès des techniques, est passée d’un rythme de
croissance de 4,5 % l’an de 1960 à 1975 à 2,1 % de 1974 à 1992 à 1,1 % de 1993 à 2008 pour
venir quasiment mourir, à un rythme de +0,6 % l’an de 2008 à nos jours.
7. A. Resheffet, F. Toubal, La Polarisation de l’emploi en France, Paris, Cepremap, Éd. Rue
d’Ulm, 2019.
Le suicide ouvrier

Dans leur grand livre Deaths of Despair, « les morts de désespoir », les
économistes Anne Case et Angus Deaton ont fait le récit du désespoir
grandissant des classes populaires américaines, coincées entre un monde
industriel en voie de disparition et un monde numérique qui ne veut pas d’elles.
Il y eut au XIXe siècle un célèbre rapport du docteur Villermé sur la misère des
classes laborieuses, qui mettait en garde contre l’épuisement psychique et
physique des classes laborieuses françaises. Le livre de Case et Deaton en est
l’équivalent pour ce début de XXIe siècle. L’un des auteurs, Angus Deaton, Nobel
d’économie, avait écrit un livre intitulé La Grande Évasion qui analysait le recul
de la mort en Occident grâce aux grandes inventions médicales du XXe siècle : les
antibiotiques, les progrès de la lutte contre la rage, le choléra… Le livre rédigé
avec Anne Case est comme un codicille désespérant du précédent ouvrage. Aux
États-Unis, ce que la médecine a offert, la société l’a repris.
Le livre est une plongée dans les traumatismes américains. Il met en récit la
découverte d’un fait statistique brutal : la hausse de la mortalité d’une catégorie
sociale bien précise : les Blancs, d’âge compris entre 45 et 54 ans, sans diplôme
de l’enseignement supérieur, ceux qu’on appelle parfois les « petits Blancs ». Le
terme « deaths of despair » employé par Case et Deaton regroupe le suicide, la
drogue et l’alcool. L’ensemble de ces morts a été multiplié par trois en moins de
trente ans. Privées d’avenir, subissant les conséquences d’une solitude sociale
croissante, les classes populaires américaines sont tombées dans le piège d’une
consommation effrénée d’opiacés, encouragée par des laboratoires sans
scrupules.
La hausse de la mortalité au cours des dernières décennies a été un choc
totalement imprévu. La baisse de la morbidité des adultes faisait partie des
tendances irrésistibles du XXe siècle, que ni les années trente ni la guerre
mondiale n’ont entravée. À part la grippe espagnole de 1918, dont le Covid est
en partie l’écho, la tendance semblait inéluctable. Dans cette épidémie cachée
qu’a représentée la consommation d’opiacés, l’absence de diplôme de
l’enseignement supérieur a été l’un des marqueurs les plus fondamentaux. C’est
comme si ce manque d’éducation « était devenu l’équivalent d’un badge où la
lettre “licence” était barrée d’une diagonale rouge », pour reprendre une formule
d’Anne Case. Pour la génération née en 1980, les Blancs non diplômés du
supérieur ont enregistré un taux de suicide quatre fois plus élevé que le reste de
la population.
Les cas analysés par Case et Deaton sont la partie visible d’un phénomène
plus général d’abandon que subissent les classes populaires. Dans son film Gran
Torino, Clint Eastwood a fait le portrait d’un personnage archétypique de ce
monde qui s’effondre. Les emplois d’hier offraient aux ouvriers une
appartenance sociale forte, leur permettant de faire véritablement partie d’une
entreprise telle que Ford ou GM dont ils étaient fiers. Daron Acemoglu a résumé
le problème comme étant celui de la disparition des « good jobs », ces emplois
bien payés et assortis de perspectives de promotion 1. La disparition des grandes
firmes industrielles a brisé ces possibilités d’ascension. Le même constat a été
fait par Beaud et Pialoux pour la France : la possibilité de promotion sociale
offerte aux ouvriers a disparu. Un ouvrier n’a quasiment plus aucune chance de
devenir cadre 2.
La société postindustrielle a fait éclater la structuration des anciens espaces
professionnels. La manie de tout externaliser a rejeté les emplois d’entretien, de
conducteurs, de représentants commerciaux vers des firmes indépendantes
offrant des salaires les plus faibles possibles. Les ouvriers non qualifiés dans les
secteurs du service ne sont plus immergés dans les relations sociales denses qui
caractérisaient les entreprises industrielles. Ce sont ces mêmes acteurs qui sont
surreprésentés dans le mouvement des Gilets jaunes : conducteurs, aides-
soignantes, très présents sur les ronds-points, alors que les représentants des
syndicats ont souvent été tenus à distance.
Retour à Durkheim

Pour comprendre les causes de ces morts de désespoir, il faut revenir à Émile
Durkheim et à son ouvrage Le Suicide publié en 1897. C’est un livre d’une
subtilité exceptionnelle qui fonde la sociologie française et plus généralement la
possibilité même d’une science de la société. Le fait qu’un phénomène aussi
singulier que le suicide fasse preuve de formidables régularités, d’une année à
l’autre notamment, montre qu’il obéit à des lois générales que le sociologue peut
étudier. Durkheim prend grand soin de montrer que le suicide est un phénomène
social bien davantage que psychologique. Il note par exemple que les groupes
sociaux qui sont surreprésentés dans les hôpitaux psychiatriques ne sont pas les
mêmes que ceux qui se suicident. Les femmes par exemple se suicident
beaucoup moins que les hommes, alors qu’elles sont plus nombreuses à faire
l’expérience de la dépression. De même, quand on examine les chiffres par
religion, les juifs se suicident peu alors qu’ils sont proportionnellement plus
nombreux à fréquenter les établissements de santé mentale… Ce qui cause le
suicide, ce n’est pas l’individu lui-même mais la société. C’est la perte de lien
avec le monde social qui le pousse à mettre fin à ses jours.
Durkheim analyse d’abord ce qu’il appelle le « suicide égoïste », qui touche
les personnes que la modernité a coupées de leurs attaches. Au XIXe siècle, ce
sont les paysans contraints d’abandonner leurs terres pour travailler en ville qui
en sont les premières victimes. Un siècle plus tard, comme le montrent Christian
Baudelot et Roger Establet dans l’actualisation de ces statistiques, les choses
sont exactement inverses, c’est dans les campagnes que les suicides sont les plus
nombreux, mais la cause reste la même : c’est la solitude sociale qui en est la
cause 3. Des pans entiers de la population, parmi les classes populaires, ont perdu
le contact avec le reste du monde social. Comme le rappellent aussi Baudelot et
Establet, Durkheim n’était nullement dans une attitude passéiste. Il voyait toutes
les promesses de la modernité. Mais cela ne lui interdisait pas de montrer le
lourd coût humain qui devait être payé.
Au-delà de la solitude sociale, Durkheim souligne le rôle d’un autre facteur,
proche mais d’une autre portée, ce qu’il appelle l’« anomie sociale », le
sentiment que la société n’obéit plus à des lois connues. Lorsque l’ordre du
monde devient inintelligible, le suicide monte. L’exemple le plus frappant, à
l’époque où écrit Durkheim, est celui du divorce. Il prive les personnes touchées
de repères, des moyens de théoriser leur place dans le monde. Il en résulte un
état de trouble, d’agitation et de mécontentement. Les régions où le divorce avait
progressé le plus vite ont été également celles où le suicide a le plus monté.
L’homme célibataire, selon Durkheim, ne peut se projeter dans l’avenir. Il reste
enfermé dans un présent qui ne révèle rien d’autre que des « espérances », un
sentiment bien plus vague que la projection dans l’avenir.
L’anomie contemporaine

Comme le montre Luc Rouban, chercheur au CEVIPOF (Centre de recherches


politiques de Sciences Po), c’est bien sur ce terrain de la solitude sociale que les
fractures françaises sont les plus profondes 4. À la question de savoir si la France
est une nation unie ou déchirée entre communautés, seuls 42 % répondent
qu’elle est unie, et 53 % qu’elle est un archipel de communautés, validant
l’hypothèse de Jérôme Fourquet 5. Le prisme économique joue lui-même un rôle
faible : les réponses ne varient guère, que l’on soit libéral ou dirigiste. En
creusant la question, le CEVIPOF fait toutefois apparaître une seconde réalité
que celle d’une France éclatée en idéologies ou en communautés rivales. Une
part grandissante de la population est surtout gagnée par cette « anomie sociale »
dont parle Durkheim, ce sentiment d’avoir perdu son appartenance à la société,
de ne plus comprendre le rôle qu’on y joue.
Le CEVIPOF a ainsi interrogé les Français sur leurs liens sociaux en un sens
très large. « Avez-vous le sentiment d’appartenir avant tout à la communauté
nationale, à une communauté de personnes qui partagent vos valeurs (religieuses
ou autres), à une communauté de personnes qui parlent la même langue ou qui
ont les mêmes origines géographiques que vous, à une communauté de
personnes qui partagent les mêmes goûts, le même mode de vie, ou avez-vous le
sentiment de n’appartenir à aucune communauté ? » Malgré l’éventail très
ouvert de réponses proposées, 45 % des Français disent n’appartenir à aucune
communauté. Ce groupe « anomique » est écrasant dans les classes populaires
où les enquêtés sont 65 % à ne déclarer aucune appartenance, alors qu’il tombe à
25 % dans les classes supérieures. Ce sont, sans surprise, les électeurs du mal
nommé Rassemblement national qui sont les plus « anomiques », à 54 % d’entre
eux, alors que ceux de La France insoumise sont au même niveau que les
électeurs de LREM, à 34 %. Dans les années soixante, c’est l’extrême gauche
qui tenait le haut du pavé, aujourd’hui c’est l’extrême droite : hier on voulait
sortir d’une société étouffante, aujourd’hui c’est le contraire, on veut trouver le
moyen d’y appartenir.
Jérôme Fourquet et Jean-Laurent Cassely ont écrit un livre passionnant sur le
désarroi des ouvriers, qui donne toute la mesure du processus de désocialisation
dont ils sont les victimes 6. Ils décrivent le passage d’un monde où l’usine était le
cœur vivant de l’identité ouvrière à un autre où ce sont les centres commerciaux
qui jouent ce rôle. Exemple emblématique de cette évolution, ils notent qu’au
lendemain de la première manifestation des Gilets jaunes, le 18 novembre 2018,
une délégation décide de bloquer non pas la préfecture, mais les grilles d’accès à
Disneyland pour en réclamer l’entrée gratuite. Cette anecdote illustre le
basculement d’une société industrielle vers une société de services, où le
prolétariat peu qualifié se trouve parmi les caissières de supermarché, les aides-
soignants dans les Ehpad ou les livreurs d’Uber Eats. La France compte
aujourd’hui moins de 10 % de la main-d’œuvre recensée dans le secteur
industriel, un chiffre qu’on observe aussi aux États-Unis ou au Royaume-Uni. La
désindustrialisation a vidé des territoires entiers de leurs forces vives. L’industrie
s’accommode de territoires éloignés où le coût du foncier est faible : ce sont les
marchandises qui se déplacent. La tertiarisation a produit une géographie
entièrement nouvelle. Les emplois sont au cœur des métropoles, au plus près du
client. Les ouvriers, après avoir été chassés des usines, ont été expulsés des villes
où le prix des logements est inabordable et doivent subir des temps et des coûts
de transports toujours plus élevés.
Au-delà des emplois eux-mêmes, c’est toute la sociologie des classes
populaires qui a été affectée. Le géographe Arnaud Frémont l’avait appréhendé
par le triptyque : « usine-cité-stade ». La désindustrialisation a détruit la vie
ouvrière dense, dans et hors l’usine, dont le Parti communiste était l’expression
politique. Les cités ouvrières ont été vendues à la découpe ou détruites. Les
municipalités les ont parfois reprises pour les aménager en logements sociaux,
occupés par des populations socialement fragiles, précaires ou au chômage. Les
clubs de football jouaient également un rôle essentiel dans la culture ouvrière,
souvent soutenus par les grands groupes industriels. Les Verts de Saint-Étienne
en étaient l’un des exemples marquants. Aujourd’hui le « sponsoring » continue,
mais il n’est plus au service de la population locale. Le FC Sochaux, soutenu par
la famille Peugeot depuis 1928, avait créé un lien très fort entre le constructeur
et les ouvriers. Le Club a été cédé depuis, la firme préférant sponsoriser le
tennis, un sport « qui convient mieux à nos valeurs, qui est international, et qui
touche tant les hommes que les femmes » (et que le groupe a finalement
abandonné aussi). La désindustrialisation a provoqué un choc qui est vite devenu
irréversible dans les régions les plus touchées. Lorsque les habitants les plus
mobiles, les plus qualifiés, quittent les zones industrielles, celles-ci perdent
rapidement la masse critique permettant d’attirer des services sophistiqués, dans
le domaine de la santé ou de l’éducation notamment. L’étau de la solitude
sociale se referme sur ceux qui restent.
Notes
1. D. Acemoglu, « Good jobs and bad jobs », Journal of Labor Economics, 2001.
2. S. Beaud et M. Pialoux, Retour sur la condition ouvrière, Fayard, 1999. Comme le montrent
aussi Goux et Maurin, un grand nombre de jeunes ayant une éducation supérieure ont dû se
résoudre à prendre des emplois moins qualifiés qu’espérés, rivalisant de facto avec des jeunes
moins éduqués qui ont ainsi subi une concurrence imprévue, poussant leurs rémunérations à la
baisse, Économie et statistique, no 510-512.
3. C. Baudelot et R. Establet, Suicide, l’envers de notre monde, Paris, Fayard, 2006.
4. L. Rouban, La France : une république désintégrée, Paris, Sciences Po-CEVIPOF, 2021.
5. J. Fourquet, L’Archipel français, Le Seuil, 2019.
6. J. Fourquet et J.-L. Cassely, La France sous nos yeux. Économie, paysages, nouveaux
modes de vie, Paris, Le Seuil, 2021.
Une révolution politique

Ce sentiment d’isolement, de détresse sociale, va avoir d’immenses


conséquences dont l’élection de Donald Trump en 2016 marquera le point
d’orgue sur le terrain politique. Cette victoire a pris les observateurs par surprise,
en faisant triompher ce mouvement qu’on appelle le « populisme » et dont le
Brexit, l’élection de Salvini en Italie et de Bolsonaro au Brésil ont été d’autres
moments saillants.
Avec cette élection, la polarisation de la vie politique américaine a atteint un
sommet, portant à incandescence la guerre que se livrent deux Amériques qui
ont perdu tout respect l’une pour l’autre. À la question : « Seriez-vous mécontent
que votre enfant épouse un démocrate ? », les républicains étaient 5 % à
répondre positivement en 1960, ils sont désormais 50 % dans ce cas… La même
détestation s’observe pour des questions portant sur l’intelligence ou l’honnêteté
du camp adverse 1. La polarisation politique se retrouve dans la géographie des
votes. Les comtés qui ont voté républicain ou démocrate l’ont fait beaucoup plus
nettement qu’il y a trente ans. Les électeurs de Biden et de Trump ne vivent plus
dans la même Amérique. Les démocrates sont majoritairement dans les grandes
villes, et ceux qui vivent dans les petites villes ou les zones rurales ont voté pour
Trump (même si l’électorat républicain traditionnel qui l’a rejoint vit aussi en
ville 2). Plusieurs études ont montré que l’élection de Trump a été intimement
corrélée à la poussée de solitude sociale des classes populaires dont Case et
Deaton ont fait le tableau désespéré. Un excellent prédicteur du vote en sa faveur
est le mal-être de ses électeurs 3. Le signe le plus clair que les questions de
déliaison sociale sont devenues centrales se mesure à la poussée écrasante des
questions identitaires dans le débat politique. On parlait hier un langage de
classes sociales, d’ouvriers, de bourgeois et de redistribution. On parle
aujourd’hui d’« identités », qu’elles soient raciales ou nationales.
Dans son livre Pourquoi les pauvres votent à droite ?, Robert Frank faisait le
portrait désabusé de l’ancienne ville ouvrière de Wichita, qui avait été à
l’aéronautique ce que Detroit était à l’automobile. Avec la fermeture des usines
qui lui donnait son identité ouvrière, elle est devenue la capitale de la nouvelle
droite, habitée semble-t-il par l’unique obsession de devenir le front de
l’opposition à l’avortement… Ce hiatus entre la désindustrialisation qui pose de
façon patente la question sociale et la réaction politique qui s’est déplacée sur le
terrain culturel est un mystère que chacun essaie de résoudre à sa manière. Pour
des auteurs comme Inglehart et Norris, la question culturelle est un retour de
bâton, un « backlash », de la part de ceux qui n’ont toujours pas digéré la
révolution culturelle des années soixante, et qui l’expriment dans leur vote pour
la droite 4. Ce qui ne va pas toutefois dans cette explication est que le vote pour
l’extrême droite n’est nullement le seul fait des personnes âgées comme le
suggèrent Norris et Inglehart. Les jeunes ne sont pas moins nombreux à y
adhérer. Voir dans le passage à l’extrême droite les derniers feux d’une
génération dépassée par les pratiques culturelles des nouvelles ne colle pas.
Une autre explication est que la lutte des classes qui portait hier sur des
questions de redistribution se joue désormais sur le terrain de l’immigration.
Celle-ci est prise comme un fait objectif, majeur, qui a déstructuré les identités
ouvrières et que les partis de gauche, en vertu de leur tropisme internationaliste,
ne sont pas parvenus pas à admettre 5. Cette explication a au moins le mérite de
coller au plus près du discours des principaux intéressés eux-mêmes, qui font de
la xénophobie leur principal cheval de bataille. Les partis qui incarnent à droite
ce nouveau populisme partagent en effet tous une forte coloration xénophobe, y
compris dans les pays scandinaves, pourtant mieux protégés de la crise et de la
montée des inégalités. Les Démocrates de Suède, le Parti du peuple danois, les
Vrais Finlandais, le Parti de la liberté d’Autriche (FPÖ), Aube dorée en Grèce, la
Ligue en Italie, tous se sont construits sur un discours xénophobe. Le FN devenu
Rassemblement national est tout à fait emblématique de ce mouvement.
Ce n’est pas toutefois le seul point qui les unisse. La xénophobie est par
exemple parfaitement corrélée à l’homophobie. Pour Tabellini et ses coauteurs,
cela tient à un phénomène cumulatif. Une fois la question de l’identité posée,
elle se nourrit d’autres considérations que celles qui l’ont fait naître. Il devient
toutefois en ce cas possible d’inverser l’argument et de dire que le thème de
l’immigration est lui-même l’effet d’une autre cause. Dans son livre L’Archipel
français, Jérôme Fourquet a ainsi analysé la corrélation entre le vote pour le FN
et la présence d’une communauté musulmane, en repérant les prénoms des
enfants dans chacune des communes. Les votes pour le FN sont plus faibles dans
les communes où les prénoms musulmans sont rares, montent à proportion de la
hausse de ceux-ci, atteignent un sommet et redescendent lorsque ces prénoms
dépassent le tiers des naissances. Ce retournement est lui-même facile à
interpréter : quand les musulmans sont nombreux, les racistes sont partis. Le
point le plus intéressant toutefois est de considérer les communes où il n’y a
littéralement aucun enfant portant un prénom musulman. Leur vote pour le FN
est certes plus faible qu’en moyenne, mais pas tant que ça. Il recueille presque
17 % des voix, pour un score national de 23 %. C’est le signe que quelque chose
d’autre que la xénophobie et le racisme s’exprime dans le basculement de la
politique vers des questions identitaires.
La réponse que nous apportons dans le livre Les Origines du populisme est
proche de l’explication que donne Durkheim du suicide 6. L’anomie sociale,
l’aversion à l’égard du reste de la société qui résulte elle-même de la raréfaction
des liens sociaux, créent une pulsion identitaire qui l’emporte sur les questions
classiques de classes sociales et de redistribution. Sous une apparente continuité
avec l’électorat de la droite traditionnelle, les partisans de Le Pen sont
profondément méfiants, non seulement à l’égard des institutions mais aussi vis-
à-vis d’autrui. À la question « Pouvez-vous faire confiance à un inconnu
rencontré par hasard ou pensez-vous qu’on n’est jamais assez prudent ? », ils
sont pathologiquement nombreux à choisir la méfiance. Le rayon de celle-ci est
large : elle s’applique non seulement aux inconnus mais aussi aux collègues, aux
voisins. La méfiance de l’extrême droite est beaucoup plus aiguë que celle de la
droite classique. Cette dernière est traditionaliste, propriétaire : elle se méfie des
classes dangereuses. La méfiance des électeurs frontistes est plus profonde, elle
reflète leur difficulté à faire société dans un monde qui fragmente toujours
davantage les destins individuels.
La haine de la démocratie

La violence nouvelle de chaque camp politique à l’égard de l’autre est


également la marque d’un profond déclin de l’idéal démocratique 7. À la
question : « La démocratie est-elle le meilleur des systèmes ou un autre système
pourrait-il être aussi bon que la démocratie ? », plus d’un Français sur trois
considère qu’un autre système pourrait être aussi bon 8. Le jugement des
électeurs sur leurs représentants est cruel : pour 87 % des citoyens européens et
88 % des citoyens américains, « la plupart des responsables politiques défendent
surtout leurs intérêts et ne se préoccupent pas des gens comme moi ». En termes
de taux de confiance, les hôpitaux et les PME sont à 75 %, le Parlement à 35 %
et les partis politiques à 15 % ! Les responsables politiques sont considérés
comme corrompus par 77 % des citoyens européens, avec un record à 91 % en
Hongrie et en Pologne, et par 79 % des Américains. La radicalisation de la vie
politique se retrouve dans une abstention grandissante et un vote jamais atteint
pour les partis les plus radicaux.
Cette méfiance politique se retrouve aussi dans la perte d’influence des partis.
Lors de l’élection présidentielle française de 2022, ils ont tous quasiment disparu
de l’écran radar des électeurs. Macron, le Pen, Mélenchon et Zemmour ont en
commun d’avoir créé un parti à leur image, sauf Le Pen qui en a hérité, et dont
ils ont été à ce jour les seuls candidats (avec Jean-Marie). Cette transmutation
traduit la rencontre entre une opinion qui ne supporte plus les corps constitués et
une V e République où tout se résume à l’élection d’un homme ou d’une femme.
Cette tendance à la désinstitutionnalisation de la vie politique est présente dans
un très grand nombre de pays. L’un des éléments « structurants » si l’on ose dire
des partis populistes, tels le Mouvement 5 étoiles ou la Ligue en Italie, est qu’ils
construisent des « partis anti-partis ». Une étude détaillée de Cars Mudde
distingue deux gradations dans cette attitude 9. La première est la critique des
partis de gouvernement du fait de l’échec des politiques menées par ceux-ci.
C’est ce qui s’est produit lorsque, en Grèce par exemple, le Parti socialiste a été
remplacé par un parti plus à gauche, Syriza, qui a toutefois fini par devenir un
parti de gouvernement à son tour.
Une critique plus radicale récuse l’idée même de partis. Les responsables
politiques sont réputés corrompus, davantage attachés à assurer leur carrière que
le bien de leurs concitoyens. La solution, selon ce raisonnement, est de créer des
mouvements emmenés par un leader charismatique, qui résout l’opposition entre
les masses et les élites par une fusion entre le chef et le peuple d’une manière qui
fleure bon les années trente. Comme le souligne Mudde, la différence tient
toutefois au fait qu’à l’époque la démocratie était encore une idée neuve, en
Italie ou en Allemagne notamment : la détestation des partis allait de pair avec la
détestation plus générale d’une démocratie encore jeune. C’est aujourd’hui de
l’intérieur de la démocratie que se développent les discours contre les partis.
Ceux-ci, qui sont censés faire vivre la démocratie, ne sont plus considérés
comme démocratiques.
Michel Offerlé, dans la conclusion à la réédition de son livre sur les partis, se
fait ironiquement l’écho de cette accusation : « Les appareils verticaux sont en
crise : l’électeur veut qu’on parle vrai, il ne se détermine plus sur les grandes
idéologies mais sur les enjeux et sur les images… En témoigne aussi la crise du
militantisme. Le retour à l’individualisme implique des engagements moins
englobants… À lire ce résumé, ajoute en souriant Offerlé, on aura senti le
souffle de l’air du temps 10… » Mais les partis, à le suivre, « meurent
longtemps ». Leur rôle n’est pas si simple à remplacer. Lorsqu’un ouvrier votait
pour le Parti communiste, il adhérait à ses valeurs centrales, l’appropriation
collective des moyens de production, mais aussi à l’égalité hommes-femmes, à
l’internationalisme, qui mettait son monde intérieur en ordre avec le monde tout
court. Les partis donnent une clé de compréhension qui aide leurs adhérents à
vivre dans un monde complexe. Quelle que soit la manière dont de nouvelles
« organisations politiques » vont chercher à occuper l’espace abandonné par les
partis traditionnels, la faiblesse de ceux-ci amplifie celle des institutions,
entreprises ou syndicats, qui structuraient l’espace social.
La crise des partis ajoute l’anomie politique à l’anomie sociale.
Notes
1. M. Gentzkow, « Polarization in 2016 », Stanford University, 2020.
2. Les travaux d’Antoine Levy (MIT) expliquent que telle est la raison pour laquelle les
républicains tiennent le Sénat alors qu’ils sont minoritaires en voix. La règle consacrant deux
sénateurs par État, quelle que soit sa densité de population, favorise outrageusement les
territoires peu peuplés. La race est également un marqueur toujours aussi fort. 57 % des Blancs
ont voté Trump, 72 % des non-Blancs ont choisi Biden, même si Trump fait mieux que prévu,
notamment parmi les Latinos, qui lui ont offert sa victoire en Floride. L’autre clivage majeur est
celui de l’éducation. Les deux tiers des Blancs sans diplôme de l’enseignement supérieur ont
voté pour Trump. Ils représentent 31 % de l’électorat américain. C’est un résultat digne de celui
de Marine Le Pen en France.
3. G. Ward et al., « (Un)happiness and voting in the US presidential election », Journal of
Personality and Social Psychology, 2021.
4. R. Inglehart et P. Norris, Cultural Backlash. Trump, Brexit and Authoritarian Populism,
Cambridge University Press, 2019.
5. C’est notamment la thèse exposée dans « Identity, beliefs and political conflict » par G.
Bonomi, G. Tabellini et P. Gennaioli, Quarterly Journal of Economics, 2021.
6. Y. Algan, E. Beasley, D. Cohen et M. Foucault, Les Origines du populisme, Paris, Le Seuil,
2019.
7. Y. Algan, S. Guriev, E. Papaioannou, E. Passari, « The European trust crisis and the rise of
populism », Brookings Papers on Economic Activity, 2017.
8. D. Reynié (dir.), Où va la démocratie ? Une enquête internationale de la Fondation pour
l’innovation politique, Paris, Plon, 2017. Tous les chiffres suivants sont issus de cet ouvrage
collectif.
9. C. Mudd, « The paradox of the anti-party party. Insights from the extreme right », Politics,
vol. 2, no 2, 1996.
10. M. Offerlé, Les Partis politiques, « Que sais-je ? », PUF, 2022.
Vox populi

La naissance de la galaxie Internet a porté la promesse d’un nouveau régime


démocratique, d’une véritable agora planétaire. Les mouvements planétaires
comme Me Too, Black Lives Matter, Extinction Rebellion, font partie de cette
communauté internationale nouvelle dont les faits d’armes les plus glorieux sont
d’avoir rendu possibles des insurrections contre des dictatures. Le
Printemps arabe en 2010 ou la révolution en Ukraine en 2014 sont sortis de leurs
entrailles. Des mouvements sociaux nouveaux, d’Occupy Wall Street aux Gilets
jaunes en France, en sont aussi les exemples.
Les réseaux sociaux ne parviennent pas pourtant à produire un véritable
espace délibératif. « Au lieu d’entretenir le vivre ensemble, [ils] entretiennent les
fractures, les clivages, les émiettements dont souffre la société
contemporaine 1. » La démocratie est à la fois un mode de gouvernement et un
art de vivre ensemble. Les réseaux sociaux sont dévorés par une économie qui
exige le spectaculaire, la détestation de ses rivaux. Comme le dit Edgar Morin,
« Nous assistons depuis deux décennies dans le monde et également en France à
la progression du manichéisme, des visions unilatérales, des haines et des
mépris ». La révolution numérique n’est évidemment pas la cause directe de
cette tension qui se propage dans la société, mais elle lui offre une caisse de
résonance sans précédent. Samuel Paty a été dénoncé sur les réseaux sociaux
comme ennemi de l’islam et cela a suffi pour qu’un assassin se réveille et décide
de passer à l’acte.
Il y a certes des idéologues qui entretiennent les tensions mais la nouveauté de
la période que nous vivons doit beaucoup à la logique intrinsèque de l’espace
numérique. Pour le philosophe Cyrille Bret, interrogé par Le Monde, la
brutalisation de la vie politique contemporaine doit en grande partie à cette
violence en ligne où le contradicteur est un ennemi qu’on n’hésite plus à
menacer. En termes freudiens, on pourrait dire que les réseaux sociaux
dissocient le surmoi et le ça, sans médiation du moi. Il y a les réseaux du surmoi,
Facebook et Instagram, où l’on se montre le plus beau possible, où l’on multiplie
les selfies souriants, où l’on photographie tout y compris la nourriture. Et il y a
le ça, le siège des pulsions, laissé à lui-même, masqué par l’anonymat, libérant
les haines et cruautés qui sommeillent dans la société.
Même dans des cercles aussi innocents que celui des amateurs de tennis, on ne
peut qu’être frappé par la violence qui s’y exprime, les fans de Nadal faisant
preuve d’une haine obscène à l’égard des admirateurs de Federer ou Djokovic.
Un aimable site de vulgarisation scientifique américain avait dû fermer ses pages
de commentaires, submergé par les attaques des créationnistes qui ne
supportaient pas ses articles. Une anecdote résume la force de la culture
nauséabonde qui circule sur le Net. Un logiciel de Microsoft, s’autoéduquant sur
les réseaux sociaux américains, de manière « non supervisée », était vite devenu
raciste, « white supremacist », en absorbant la culture diffusée sur les sites qu’il
avait fréquentés. C’est sur ces réseaux (et dans les prisons) que se fait le
recrutement des islamistes bien davantage que dans les mosquées. À chaque fois,
il s’agit de prendre sa revanche sur une société qui vous ignore, de ne reculer
devant rien pour attirer l’attention sur soi, y compris dans la mise en scène de sa
propre mort, une fois commis le meurtre d’autrui.
Il serait évidemment absurde d’imputer aux seuls comptes Facebook la
montée du populisme. Les années trente ne les avaient pas attendus. Pour autant,
leur rôle est réel. Une expérimentation a ainsi pu établir la responsabilité directe
des réseaux sociaux dans cette culture de la haine. Une étude portant sur trois
mille personnes a analysé les effets d’une désactivation de leur compte Facebook
pendant un mois 2. Au terme de cette diète, les penchants extrémistes des
abonnés avaient considérablement chuté. Mieux, lorsqu’ils ont été autorisés à
revenir sur le réseau, leur consommation du réseau social a beaucoup baissé
comme s’ils s’étaient guéris de leurs comportements addictifs. Après
l’expérience, 80 % des personnes ont reconnu que la désactivation leur avait fait
du bien…
La sagesse des foules

L’élection de Trump s’est illustrée par l’entrée des fake news, les informations
fausses, dans le débat politique. Des sites notoirement connus pour propager les
fausses nouvelles (sur lesquels on recense moins de 50 % d’informations
répertoriées « sérieuses ») ont soutenu Trump de manière totalement
disproportionnée. Dans le mois qui a précédé l’élection, une centaine de fake
news en sa faveur ont été partagées plus de 30 millions de fois sur les réseaux
sociaux, contre seulement une quarantaine favorables à Hillary Clinton, pour
seulement 7,6 millions de partages 3. Comment saisir ce paradoxe imprévu d’une
technologie faite pour rendre possible de converser avec autrui, d’échanger des
idées, bref de nourrir le débat démocratique, qui en est venue à instaurer un
régime presque exactement inverse, de fake news, de violence et de haine ?
Kahneman et ses coauteurs offrent une première manière de saisir ce
paradoxe, en revenant à un article intitulé « Vox Populi » publié en 1907 par
Francis Galton. Galton est lui-même un personnage sulfureux. Neveu de Darwin,
il s’était vite fait le propagandiste du « darwinisme social », théorie selon
laquelle l’œuvre de la sélection naturelle devait être continuée par l’homme lui-
même, idée qui est au fondement de l’eugénisme et du nazisme. Quoi qu’il en
soit de ses penchants épouvantables, Galton avait publié un article qui donnera
lieu ensuite à de nombreuses vérifications, permettant de mesurer ce que James
Surowiecki, l’auteur qui a redécouvert l’article de Galton, appellera la « sagesse
des foules ».
Galton avait demandé d’évaluer le poids d’une pièce de bœuf, accrochée en
place publique, à un rassemblement comptant 787 villageois. Aucun d’entre eux
n’était parvenu à donner le poids juste, mais – chose extraordinaire – la moyenne
des réponses s’est révélée formidablement précise (à 1 kilo près). Des résultats
identiques ont été obtenus dans une foultitude de contextes. On a demandé de
deviner le nombre de fèves contenues dans un bol transparent, de donner la
distance entre deux métropoles, le nombre de crimes commis dans une ville, la
longueur d’une frontière entre deux pays… Chaque fois, la moyenne des
réponses s’est révélée extrêmement précise. Pour les statisticiens, il s’agit d’une
application possible de la loi des grands nombres : la moyenne d’un échantillon
tend, sous certaines hypothèses, à converger vers le chiffre exact. Deux auteurs
ont poussé l’expérimentation un cran plus loin : ils ont demandé à une même
personne de donner une seconde opinion après sa première estimation. La
moyenne des deux est meilleure que l’une ou l’autre, ce que les auteurs de
l’étude ont appelé « la foule en nous 4 ».
Pour comprendre ce qu’il advient avec les réseaux sociaux, il faut analyser ce
qui se passe lorsqu’on autorise les différentes personnes rassemblées pour
l’enquête à se parler entre elles. Dès que l’on met à leur disposition des
informations sur les estimations proposées par autrui, par exemple celles d’une
douzaine de personnes prises au hasard, les résultats agrégés deviennent
extrêmement mauvais. Les foules qui étaient sages tombent dans le piège de ce
que l’on appelle les « cascades informationnelles » où les idées de quelques-uns
trouvent un écho beaucoup trop large, réduisant considérablement la qualité du
jugement moyen. Si j’apprends que mon voisin a fait telle estimation du poids du
morceau de bœuf, j’hésiterai à donner ma propre appréciation et me rangerai à
celui que je crois mieux informé. En m’écoutant, mes propres voisins se
rallieront à mon avis…
In fine, c’est l’opinion d’une personne qui s’imposera, laquelle, quelles que
soient ses compétences, n’est qu’une voix parmi d’autres. Son opinion fera taire,
du haut de son expertise supposée, la multitude de points de vue dont les erreurs
se seraient compensées en moyenne si on les avait laissés s’exprimer librement.
Comme l’a démontré A. Banerjee dans un article fondamental intitulé « les
comportements moutonniers » (herd behavior), il n’est pas irrationnel pour un
individu isolé de se ranger à une opinion qu’il perçoit comme de meilleure
qualité. Mais si le processus aboutit de facto à faire taire les opinions timides,
une immense perte informationnelle en résulte pour la collectivité.
Kahneman et ses coauteurs font état de très nombreuses situations réelles qui
confirment ce résultat. Analysant les résultats de la délibération d’un jury, ils
montrent comment ceux-ci tendent souvent à donner des jugements beaucoup
plus radicaux que prévu. Le plus éloquent de ses membres prend l’ascendant sur
les autres et étouffe le bruit des petites différences dont pourtant peut jaillir un
jugement équilibré 5. Lorsque les membres d’un groupe s’écoutent les uns les
autres, les indécis se rangeront à ce qu’ils interpréteront comme l’opinion
dominante, leurs vertus « modératrices » seront étouffées. Il n’est pas nécessaire
d’aller plus loin pour comprendre comment les réseaux sociaux ont fini par trahir
leur promesse originelle.
Croyances et informations

Un autre facteur a contribué à la dégradation du débat public : la diminution


du nombre de journalistes. Aux États-Unis, ils ont été réduits de moitié depuis
les années quatre-vingt. Il s’ensuit une perte considérable de la qualité de
l’information fournie. Sous la concurrence permanente des réseaux sociaux, la
profession a progressivement changé de nature. Dans le nouveau monde
numérique, une « news » devient vite obsolète, délogée par une autre encore plus
prometteuse. Cette obsolescence programmée change radicalement la pratique
journalistique. La recherche de « scoops » qui attirent l’attention et provoquent à
leur tour des cascades informationnelles en leur faveur devient beaucoup plus
intéressante que la recherche coûteuse d’une information qui risque de se perdre
dans le flux de l’actualité. Au lieu de produire, par exemple, une analyse
détaillée du budget présenté à l’Assemblée, un journaliste sera beaucoup plus
intéressé à trouver le fait saillant qui permet de dénoncer l’exercice budgétaire
dans sa totalité et d’attirer l’attention sur sa propre analyse.
Comme l’a montré Julia Cagé dans sa thèse, la hausse du nombre de supports
conduit paradoxalement à un appauvrissement de la qualité des informations
reçues par chacun de leurs lecteurs 6. Sous le coup d’une concurrence plus rude,
chaque média s’appauvrit. Ce faisant, même si la masse d’informations est
globalement augmentée, celle que les usagers consomment individuellement
devient plus faible. En étudiant la presse quotidienne régionale française, Cagé a
ainsi montré que l’apparition d’un nouveau média dans un bassin géographique
conduisait in fine à accroître l’abstention politique ! Sa conclusion était claire et
iconoclaste. Ce ne sont pas les médias qu’il faut soutenir, cela ne peut que
contribuer à augmenter la pression concurrentielle, mais la qualité de
l’information, en soutenant en amont les agences de presse.
Mais le point fondamental est que les réseaux sociaux ne sont en réalité pas du
tout intéressés par l’information au sens ordinaire du terme. Ce qu’ils produisent
en ligne sont des croyances qui flattent la sensibilité de leurs membres. La
distinction entre informations et croyances est un point crucial qui a été souligné
par Roland Bénabou et Jean Tirole dans leurs travaux 7. Leur approche est
différente de l’analyse où chacun s’en remet à l’opinion des autres, faute de
certitudes. Bon nombre d’exemples qu’ils étudient montrent que les gens croient
vraiment aux idées qu’ils professent, même dans les cas extrêmes où la prudence
devrait être de mise. Ainsi durant la crise des subprimes, de nombreux
investisseurs ont acheté leur propre maison au sommet de la bulle, ce qui prouve
qu’ils croyaient vraiment à la durabilité du boom.
Les croyances n’aident pas à interpréter le monde, elles aident à y vivre. Je
suis heureux de croire au Père Noël, c’est une idée réconfortante, et cela me
chagrine d’apprendre qu’il n’existe pas. Aussi longtemps que je le pourrai, je
chasserai la mauvaise nouvelle 8. Les gens traitent de manière totalement
asymétrique les bonnes et les mauvaises nouvelles : ils écartent les mauvaises et
se concentrent sur les bonnes. Il a ainsi été montré que les investisseurs non
professionnels vérifient la valeur de leur propre portefeuille quand la Bourse est
haussière et répugnent à le faire quand elle baisse… Ils cherchent à fuir les
informations qui les gênent. C’est un mécanisme très différent des effets
moutonniers où chacun copie l’autre faute d’informations pertinentes : ici, on
oblitère sciemment celles qui vous gâcheraient la vie. Lorsqu’on demande à un
panel de personnes où elles pensent se situer dans tel ou tel domaine (humour ou
beauté), la grande majorité répondra qu’elles sont dans le premier ou le
deuxième quart. Personne ne se situera dans les deux derniers où, par définition,
doivent pourtant se trouver la moitié des gens 9. Chacun veut garder confiance en
soi, penser qu’il est désirable, apprécié pour sa beauté, son intelligence ou son
humour !
Jouer au loto et acheter des polices d’assurance

Dans un monde de rationalité pure, les croyances devraient être réfutables. Je


crois qu’il va faire beau, je consulte la météo, j’apprends qu’il va faire froid et je
mets un manteau. J’apprends que la terre se réchauffe, j’en déduis qu’il faut
agir… Les choses ne se passent pas comme ça. Si je suis républicain et que je lis
une étude montrant que le réchauffement climatique est un danger mortel, je ne
change pas d’opinion. Je récuse la portée de l’étude, je me convaincs qu’elle
n’est pas sérieuse, qu’elle a été financée par des partis écologistes dont l’opinion
est biaisée. Un républicain qui admet le réchauffement climatique devient un
renégat, obligé à l’exil politique 10. Si l’on songe aux controverses mortelles qui
ont accompagné la révolution copernicienne, on voit bien ce qui est en jeu.
Admettre que la Terre tourne autour du Soleil s’accompagne d’une remise en
cause radicale de tout un système de pensée. C’est le rapport aux Écritures, aux
vérités révélées qui est ébranlé.
Si, pour reprendre les conclusions d’une étude américaine, une opinion
apparaît comme étant de sensibilité démocrate parce qu’un média réputé de
gauche l’a soutenue, l’idée en question se propagera aux autres démocrates et
générera une hostilité instinctive auprès des républicains. Il en va évidemment de
même lorsque l’opinion est censée émaner de républicains. Comme le concluent
les chercheurs qui ont mené cette analyse, des opinions a priori centristes
peuvent rapidement devenir l’enjeu de batailles sanglantes entre des camps
opposés.
Marcel Proust avait magnifiquement résumé le problème : « Les faits ne
pénètrent jamais le monde où vivent nos croyances, ils n’ont pas fait naître
celles-ci ; ils ne les détruisent pas ; ils peuvent leur infliger les plus constants
démentis sans les affaiblir, et une avalanche de malheurs ou de maladies se
succédant sans interruption dans une famille ne la fera pas douter de la bonté de
son Dieu ou du talent de son médecin. » Les croyances ont une tout autre
fonction que de nous éclairer sur le monde, elles sont un trésor qui nous aide à
vivre, intérieurement et avec les autres. Nous choisissons nos croyances comme
un consommateur dans un grand magasin, au gré des modes et de l’offre
disponible dans les rayons.
Nos croyances sont, dans le langage du psychologue Robert Abelson, un actif
que nous voulons faire fructifier et qu’il faut protéger des vents contraires.
L’économiste George Loewenstein donne un exemple très intéressant qui illustre
cette propriété. Imaginez que l’on vous offre le choix entre un gâteau
aujourd’hui et un autre dans un mois. Vous choisirez presque certainement le
gâteau aujourd’hui, la consommation présente est toujours plus désirable que la
consommation future. De même, symétriquement, si vous devez payer dix euros
de contravention aujourd’hui et qu’on vous propose de la payer dans un mois,
vous choisirez certainement de la reporter. Imaginons à présent que vous soyez
soumis au choix suivant : soit subir une décharge électrique aujourd’hui, soit la
reporter dans un mois. Tout, dans le raisonnement économique, devrait conduire
à la reporter. Pourtant, c’est souvent le contraire qui se produit 11. La plupart des
gens préfèrent la subir aujourd’hui, pour en finir ! Car vous ne voulez pas que la
décharge annoncée gâche votre imaginaire.
D’autres paradoxes économiques s’éclairent par cette perspective. Pourquoi
les gens achètent-ils à la fois des billets de loterie et des polices d’assurance ?
S’assurer, c’est avoir peur du risque, jouer au loto, c’est l’inverse : c’est l’aimer.
La réponse que les économistes ont toujours peiné à donner est immédiate dans
le cadre renouvelé par Loewenstein : je veux à la fois rêver d’un avenir radieux,
ce que promet le ticket de loterie, et me sentir protégé contre les accidents de la
vie, ce que procurent les assurances. Même si elle apparaît totalement
contradictoire avec les canons de l’analyse économique, la vie de l’esprit dispose
bel et bien de règles rigoureuses qui visent toutes au même résultat : faire rêver,
chasser les idées tristes.

Les croyances sur soi-même ou sur le monde ne sont pas des informations
« objectives » mais un bien que vous chérissez, qui vous donne de la joie et que
vous voulez protéger des mauvaises nouvelles (le Père Noël n’existe pas,
désolé !). La réalité n’est pas le bien que nous cherchons à atteindre, elle est au
contraire l’obstacle à la satisfaction que procurent les rêves. L’offre numérique
met à disposition une capacité quasiment infinie à trouver les idées qui vous
conviennent. Vous pensez que le 11 Septembre est un coup monté par la CIA ?
Vous trouverez sur le Net un million de personnes qui pensent comme vous.
Leur pensée soutiendra la vôtre. Le Net fabrique un monde selon nos désirs.
C’est à peu près la promesse des drogues dures, le remède et la cause du
désespoir contemporain.
Notes
1. B. Jarry-Lacombe, Fr. Euvé, H. Tardieu et J.-M. Bergère, Pour un numérique au service du
bien commun, Paris, Odile Jacob, 2022.
2. H. Allcott et al., American Economic Review, 2020. L’expérimentation a proposé, contre
rémunération, à un groupe de 2 743 personnes de se déconnecter de Facebook, quatre semaines
avant les élections américaines de mi-mandat de 2018.
3. M. Gentzkow, « Polarization in 2016 », art. cit.
4. E. Vul et H. Pashler, « Measuring the crowd within », Psychological Science, 2008.
5. Voir M. Ottaviani et P. N. Sorensen, « Information aggregation in debate : who should
speak first ? », Journal of Public Economics, 2001.
6. J. Cagé, Essays in the Political Economy of Information and Taxation, Paris, EHESS, 2013.
7. R. Bénabou et J. Tirole, « Mindful economics : the production, consumption and value of
beliefs », Journal of Economic Perspective, 2016. R. Bénabou, « Groupthink : collective
delusions in organizations and markets », Review of Economic Studies, 2013.
8. Se pose évidemment la question du principe de réalité. Est-ce que je me mets en danger en
croyant telle ou telle absurdité ?
9. Selon une étude citée par Bénabou, plus de 80 % de la population est affectée par ce biais
d’optimisme.
10. Loewenstein et Molnar montrent que vous êtes véritablement désireux que les autres
pensent comme vous, le fait moral à vos yeux qu’ils soient dans l’erreur vous agace. Selon la loi
dite de Cunningham, l’un des fondateurs de Wikipédia, l’une des meilleures manières d’avoir
une bonne réponse est d’en proposer une mauvaise : cela déclenche immédiatement le désir d’y
répondre.
11. G. Loewenstein et A. Molnar, « Thoughts and players : an introduction to old and new
perspectives on beliefs », Carnegie Mellon University, 2021.
DEUXIÈME PARTIE

LE RETOUR DU RÉEL
V.

L’imaginaire social
La loi des 150 amis

Internet à ses débuts a été accueilli comme la promesse d’une nouvelle


intelligence collective, la plateforme d’une démocratie réinventée. Au lieu de
cela, les réseaux sociaux ont donné lieu à un formidable abêtissement de la vie
politique et à un accroissement du mal qu’ils étaient censés guérir : la solitude
sociale. Comment une telle désillusion a-t-elle été possible ? La réponse tient
pour beaucoup au malentendu né de l’illusion libérale. Pour celle-ci une société
peut s’auto-instituer en agrégeant des individus isolés, sans médiation, sans rites
de passage, sans corps intermédiaires, pourvu qu’on leur donne les moyens de
« communiquer » entre eux. Or toute l’histoire des sociétés est au contraire
pétrie par la vie des institutions, Églises ou partis, sectes ou entreprises, qui
imprègnent les consciences des individus et leur offrent les moyens de s’élever
au-dessus des seuls réseaux que leurs interactions sont susceptibles de produire.
Un excellent point de départ pour saisir le rôle de ces institutions est donné
par les travaux de l’anthropologue Robin Dunbar, l’auteur qui nous a fait visiter
avec Shakespeare les niveaux d’intentionnalité humains. Ils permettent de
comprendre l’immense difficulté de penser l’utopie d’une société où chacun
pourrait potentiellement dialoguer seul avec chacun. Dunbar part d’une
observation statistique explosive : il existe, explique-t-il, une corrélation
significative entre la densité des relations sociales des différentes espèces et la
taille de leur cerveau ! Les primates, tels les babouins, les macaques, les
chimpanzés, vivent dans des environnements sociaux sophistiqués et sont
également ceux dont le néocortex est le plus gros. Car le cerveau ne fait pas
seulement penser, il est le facteur central qui permet de vivre en société. Le
raisonnement darwinien conduit sans doute à préciser cette corrélation : les
espèces dont la survie exige une action collective, pour échapper aux prédateurs
plus rapides et plus puissants, ont fini par être conduites par la sélection naturelle
à un cerveau plus grand.
Pour Dunbar, l’intentionnalité progresse également avec la taille du cerveau.
Selon ses calculs, Homo erectus, il y a 2 millions d’années, serait parvenu à une
intentionnalité d’ordre 3 au vu de la taille estimée de son cerveau. Il est le
premier à avoir pu concevoir la phrase : « Je sais que tu crois que je pense à
toi. » Il est possible que l’intentionnalité d’ordre 4 ait été atteinte il y a
500 000 ans, chez les humains archaïques. La dernière étape, il y a 300 000 ans,
est franchie lorsque l’homme moderne entre en scène, atteignant l’intentionnalité
d’ordre 5. C’est le moment à partir duquel l’espèce humaine accède à la culture
et à la religion.
Si on extrapole le lien entre le volume du cerveau et la densité de la vie
sociale des primates, quelle est la taille des communautés humaines qui peut être
prédite ? Le nombre obtenu est connu comme la « loi de Dunbar » : la socialité
maximale des humains serait de 150 personnes ! Une liste impressionnante de
structures sociales obéit à cette règle. L’unité de base de l’armée romaine, le
manipule, comptait ainsi 150 soldats 1 ; la taille des villages anglais telle qu’elle
a été estimée par les scribes de Guillaume le Conquérant, dans un recensement
dit du Domesday, en 1086, trouve un nombre remarquablement proche de 150.
Même chose au XVIIIe siècle, pour les villages anglais. Les huttérites et les amish,
deux groupes religieux nord-américains (les premiers vivent dans le Dakota, les
seconds en Pennsylvanie et ont été popularisés par le film Witness interprété par
Harrison Ford), scindent leurs communautés dès qu’elles dépassent le seuil de
150 membres. Dans un domaine tout à fait différent, Dunbar et son collègue
Russell Hill ont fait une enquête sur le nombre de cartes de vœux envoyées à
Noël… Ils trouvent pareillement une moyenne de 150 ! Du côté des entreprises,
le fondateur de Gore-Tex a toujours insisté pour que les unités de production
dans son entreprise ne dépassent pas cette taille optimale de 150 personnes. Des
estimations du même ordre ont été faites dans les communautés de savants. Le
nombre de chercheurs dont un individu est capable de suivre les travaux se situe
aussi entre 100 et 200.
Facebook, aujourd’hui, fait-il beaucoup mieux que ça ? Une enquête du Pew
Research Center a montré que les utilisateurs de Facebook ont en moyenne 338
amis. Facebook doublerait-il ainsi les capacités psychiques de notre cerveau ?
C’est peu probable : si l’on se restreint, au-delà des amis nominalement affichés,
au sous-ensemble de ceux avec lesquels une communication réelle est établie, on
n’est sans doute pas très loin du maximum de 150. Cela n’empêche évidemment
pas la Toile, comme son nom l’indique, de lier une fourmilière de réseaux qui
s’emboîtent : 150 multiplié par 150 plusieurs fois peuvent rapidement couvrir la
terre entière.
Une enquête ancienne de Stanley Milgram, réalisée au milieu des années
soixante, avait établi ce qu’il appelait un « degré de séparation » mesurant le
nombre d’intermédiaires nécessaires pour transmettre une information en
provenance d’un individu A vers un individu B inconnu du premier. Milgram
avait demandé à des fermiers du Kansas de faire parvenir une lettre à un citadin
du Massachusetts qui leur était a priori totalement inconnu. Dans l’un des
exemples, le fermier A avait envoyé la lettre à son pasteur, qui l’a envoyée à son
collègue de Cambridge lequel connaissait directement l’individu B.
L’expérience a montré qu’en général, le nombre de contacts nécessaires était
proche de six. La même expérience a été faite avec Facebook. Le nombre de
contacts moyen entre deux utilisateurs sans liens a priori entre eux est proche de
quatre 2. Facebook fait donc gagner deux étapes dans la mise en relation du
monde. C’est certes utile, mais ça ne suffit pas, en soi, à façonner une société
nouvelle ! Toute l’histoire des civilisations est de développer des systèmes
d’alliances, d’interdépendances, de se nourrir de la culture ou de la religion pour
assembler les humains bien au-delà du seul jeu de leurs interactions, si
optimisées qu’elles soient.
C’est ce qui manque à ce jour à la révolution numérique.
Notes
1. Pour être précis, le manipule oscille selon les époques entre 120 et 200 soldats.
2. Les estimations varient de 4,7 à 3,5 selon les études.
Bonobos et chimpanzés

La Fontaine aurait pu écrire la fable « Le Chimpanzé et le Bonobo » pour


éclairer les possibilités du monde social exploré par nos cousins simiesques. Les
bonobos font l’amour, les chimpanzés la guerre. Le bonobo est émotif, sensible.
Sa sexualité prolixe est un facteur d’apaisement. Les chimpanzés sont plus
agressifs, leurs relations sociales plus tendues. Comment s’explique une telle
différence ? Le biologiste Alain Prochiantz note que ces deux espèces sont
quasiment identiques sur le plan de leurs génomes : ils ne diffèrent que de 0,4 %.
Pourquoi leurs caractéristiques sociales sont-elles si différentes ? Selon
l’anthropologue Evan MacLean, cité par Prochiantz, l’économie joue un grand
rôle. Les espèces se sont développées de part et d’autre du fleuve Congo. Les
chimpanzés ont été du mauvais côté, où la nourriture était rare, les bonobos ont
bénéficié d’un environnement plus favorable. Selon MacLean, l’abondance
relative de nourriture explique l’attitude plus coopérative, plus sociale, des
bonobos. À l’inverse, le chimpanzé n’est pas prêteur, c’est là son moindre
défaut. Celui qui a découvert une nourriture ne la partage quasiment pas avec ses
congénères. Les femelles chimpanzés sont beaucoup plus individualistes, elles
ne font pas d’alliances entre elles 1.
Si la fable du bonobo et du chimpanzé contient une part qui puisse nous
intéresser, ce serait pour dire que l’abondance rend la coopération plus
« naturelle » et la disette la société plus « compétitive ». Le fait que les
mouvements hippies ou ceux de Mai 68 soient apparus au cœur d’une société
d’abondance confirme la prévalence en ce cas du thème bonobien « Faites
l’amour pas la guerre »… Que la révolution conservatrice prenne pied durant les
années de vache maigre est également logique selon ce raisonnement. Ce qui
cloche évidemment dans cette théorie est que les sociétés avancées ne sont pas
plus pauvres dans les années quatre-vingt qu’elles ne l’étaient dans les années
soixante. Cela ne rend pas nécessairement la fable fausse, mais exige d’en
préciser le concept. Chez les humains, tout (ou presque) est relatif, du moins
dans les sociétés qui se sont hissées au-dessus d’un certain seuil de subsistance.
On n’est pas riche ou pauvre dans l’absolu mais relativement à autrui, ou
relativement à ses attentes. Il faut donc conclure que ce sont leurs propres
conditions d’existence sociales qui font que les humains penchent vers l’une ou
l’autre de leurs potentialités, dans une boucle où l’on peut être, selon les
sociétés, de type bonobo ou chimpanzé…
Confiance et réciprocité

Le débat chimpanzé/bonobo intéresse beaucoup les économistes car il pose les


données d’une question dont dépend leur propre discipline : l’être humain est-il
spontanément « coopératif », la société le rendant « compétitif », ou est-ce le
contraire comme le pensait Hobbes : l’homme est un loup pour l’homme que la
société rend plus pacifique ? Pour Mancur Olson, à qui l’on doit le concept de
« free-rider », de passager clandestin, dès que la taille d’un groupe devient trop
grande et que les relations à autrui deviennent anonymes, les humains perdent le
ciment de l’affection qui les lie entre eux et l’égoïsme devient la règle. Elinor
Ostrom, qui reçut le prix Nobel d’économie pour ses travaux sur les biens
publics, montre pourtant qu’il existe de très nombreuses situations où l’espace
public est respecté par les communautés concernées, sans autre motif que
l’adhésion spontanée de ses membres au respect du bien commun. Il n’est pas
toujours nécessaire de prévoir des amendes ou des peines d’emprisonnement
pour que les citoyens obéissent aux lois. Un texte de Nicolas Jacquemet et ses
coauteurs montre ainsi que, malgré la fraude, les contribuables paient leurs
impôts d’une manière que le calcul économique pur ne permet pas de
rationaliser 2. Le bénéfice de la fraude est en effet incomparablement supérieur
au coût du redressement fiscal, lorsque celui-ci est pondéré par la probabilité
d’être pris la main dans le sac. Les contribuables, du moins la grande majorité
d’entre eux, ont un comportement que seuls la « morale » et l’esprit de
responsabilité civique peuvent expliquer.
Il existe de fait de nombreuses preuves expérimentales qui montrent que le
souci d’autrui est « inné », comme le langage lui-même, et non le rouage d’un
calcul sophistiqué pour obtenir une récompense différée en étant gentil avec
quelqu’un 3. Comme le dit Leon Festinger, à qui l’on doit le concept de
dissonance cognitive, un individu ne peut pas créer un concept de soi en
l’absence d’une identité de groupe. Trahir son groupe, c’est se trahir soi-même.
Un jeu, dit de « l’ultimatum », montre qu’une logique de l’honneur habite notre
relation à autrui et nous définit nous-même. Dans ce jeu, on demande à deux
personnes qui ne se connaissent pas et ne se reverront jamais de diviser
10 dollars entre elles. La première, disons A, décide de l’allocation x pour elle-
même et de 10 – x pour l’autre, appelée B, mais c’est la seconde qui doit dire si
elle l’accepte ou pas. Si elle refuse, les 10 dollars sont brûlés, si elle accepte
l’offre, le partage se fait.
Si elle était habitée par un calcul économique strictement opportuniste et
rationnel, B devrait accepter la part offerte par la personne A, quelle que soit
celle-ci. Pour B en effet, le choix est « quelque chose ou rien ». Même si A ne
lui propose qu’un dollar, gardant les neuf autres pour elle-même, ce devrait
toujours être quelque chose à prendre. Le jeu montre qu’il n’en est évidemment
rien. B ne peut accepter l’humiliation d’un partage trop défavorable. La colère,
l’indignation guide ses choix davantage que le calcul rationnel. L’expérience
permet d’ailleurs de montrer, à l’inverse, l’influence de la bonne humeur sur la
conduite de cette négociation. Si l’on montre une vidéo comique aux deux
participants et qu’ils rient ensemble des mêmes gags, le participant A devient
aussi généreux avec B qu’il le serait avec un ami de longue date. Le rire, et
surtout le rire collectif, a cette particularité de transformer des étrangers en amis.
Un concept clé qui émerge également de ce type d’expériences est la notion
de réciprocité. Une autre expérience de « laboratoire », le Trust Game, illustre ce
qu’elle recouvre. Deux personnes, chacune derrière un écran d’ordinateur, sont
confrontées à la situation suivante. Le premier joueur, le « sender », Monsieur
S., se voit offrir au début de l’expérience une somme de 50 dollars. Il peut partir
avec et l’expérience est en ce cas terminée. Mais il peut aussi envoyer tout ou
partie de la somme à l’autre joueur, le « receiver », Monsieur R. En ce cas, il
multiplie par trois la somme envoyée. Monsieur R. peut à son tour partir avec la
somme triplée qui lui a été envoyée, le jeu est alors interrompu. Mais il peut
aussi, sans contrepartie, renvoyer tout ou partie de son gain à Monsieur S., et le
jeu est alors véritablement terminé.
Un agent économique « rationnel », confronté à ce jeu, devrait raisonner ainsi.
Si j’envoie « mes » dollars à l’autre, il recevra une somme certes triplée, mais
quel intérêt aura-t-il ensuite à me les renvoyer ? Aucun : il ne me connaît pas, ne
me reverra jamais. S’il est lui-même rationnel, il n’a aucun intérêt à m’être
agréable… Sachant cela, je n’envoie rien. Quel est le résultat de l’expérience ? Il
est à nouveau opposé. Une grande majorité des participants envoie une partie de
la somme qui leur est allouée, et dans les deux tiers des cas en sont récompensés.
Pourquoi renvoyer de l’argent alors que c’est parfaitement inutile d’un point de
vue égoïste ? Le raisonnement économique traditionnel n’a pas de réponse 4. Les
psychologues et les philosophes parlent de réciprocité, un concept à mi-chemin
entre altruisme et individualisme 5. Elle désigne l’envie de répondre à la
générosité par la générosité, sans autre récompense que celle d’être digne de la
confiance qu’on vous a accordée 6.
Le Trust Game permet aussi, comme le jeu de l’ultimatum, de tester
l’influence de la bonne humeur sur la coopération. Lorsque l’opérateur reçoit
une dose d’ocytocine, une molécule qui met de bonne humeur, l’esprit de
réciprocité augmente. Le « bonheur » rend bel et bien l’humain davantage
disposé au partage ! Mais la bonne humeur a aussi des effets surprenants : elle
peut anesthésier l’esprit critique. Gordon Pennycook et ses collègues ont étudié
la réaction des gens à des déclarations dénuées de sens 7. Des phrases pseudo-
profondes comme « L’intégralité calme les phénomènes infinis » ou « Le sens
caché transforme la beauté abstraite inégalée » sont proposées à des sujets. La
propension à être d’accord avec de telles déclarations est un trait connu sous le
nom de réceptivité aux « bullshits », les « conneries » 8. La bonne humeur
l’augmente. Une autre conséquence surprenante de la bonne humeur est de
modifier le sens moral. Dans l’exemple du « tramway », celui qui permet
d’instruire la morale des robots, les sujets placés dans une humeur positive,
induite par le visionnage d’une vidéo de cinq minutes, devenaient trois fois plus
susceptibles de pousser leur voisin sur la voie ferrée pour éviter la mort des cinq
passagers.
En compagnie d’étrangers

Dans son livre The Company of Strangers, Paul Seabright relève cette
formidable propension des humains à faire confiance à des inconnus 9. D’autres
espèces, souligne-t-il, collaborent avec des congénères sans liens de parenté –
« les épinoches, les chauves-souris, les lions » – mais seulement de manière
occasionnelle. Certaines espèces ont évidemment besoin les unes des autres,
comme les requins et leurs poissons-pilotes, mais il s’agit de complémentarités
écologiques entre espèces qui ne communiquent pas entre elles.
La propension à la réciprocité avec des inconnus est le socle du monde social.
Elle n’en est toutefois que la condition nécessaire, pas suffisante. Sans
institutions adaptées, elle peut aussi bien conduire à la sainteté qu’à la vendetta
perpétuelle. La réciprocité conduit à une séquence « Tu donnes, je te rends », ou
à une autre : « Tu me trahis, je me venge »… Quand la spirale du soupçon est
lancée, comment empêcher qu’elle dégénère ? Au sein même des couples, il est
difficile parfois d’interrompre une querelle. Dans un livre très drôle Faites vous-
même votre malheur, Paul Watzlawick montre comment un couple peut chuter
dans l’abîme s’il ne dispose pas des moyens de dire « Je n’aime pas ton porridge
mais je t’aime toi ». Il faut pouvoir disposer d’un « métalangage », un langage
sur le langage, pour se comprendre vraiment. Il suggère par exemple de dire que
« le porridge a un goût amusant », pour faire comprendre à son conjoint que
c’est bien du petit déjeuner qu’il parle et non de leur relation amoureuse.
À l’échelle de la société dans son ensemble, des régions entières, en Sicile ou
en Albanie, ont été décimées par le cycle éternel de la vendetta 10. Pour le briser,
il faut des institutions au-dessus des individus à qui l’on confie le « monopole de
la violence légitime », pour reprendre la formule de Max Weber. La capacité de
produire un ordre social grâce à la seule réciprocité des participants est tout aussi
fantasmatique que l’idée inverse selon laquelle la société pourrait tenir par la
seule coercition. La logique de l’intérêt ne suffit pas davantage à faire société. Si
vous étiez face à quelqu’un dénué de tout sens de l’honneur, seulement
opportuniste dans son désir de faire un profit, comment tout simplement faire
affaire avec lui sans redouter qu’il cherche à vous escroquer ? Quand vous êtes
dans un avion, vous ne voulez pas faire confiance à l’intérêt bien compris de la
compagnie aérienne pour assurer votre sécurité. Vous voulez penser qu’il y a un
corps professionnel, celui des pilotes, qui a ses traditions, qu’une logique de
l’honneur est garante de l’intégrité morale de ses membres. Les truands eux-
mêmes ont leurs codes, même si ça ne suffira pas à leur confier la gestion du
monde.
« Appartenir » à une institution

Une institution, qu’il s’agisse d’une compagnie aérienne ou d’une mafia, est
bien davantage que le « nœud de contrats » que les économistes aiment à décrire,
vision selon laquelle chacun agirait en vue d’une gratification immédiate ou
différée. Herbert Simon, l’un des grands savants qui allaient contribuer au
développement de l’intelligence artificielle et qui a reçu le prix Nobel
d’économie en 1978, a fortement critiqué cette idée. Une entreprise, explique-t-
il, est un lieu qui donne un sens à la vie de ses membres et non un espace où les
peines qu’on subit sont récompensées par un salaire 11.
Dans l’introduction au livre collectif Sociologie de l’institution, Jacques
Lagroye et Michel Offerlé soulignent l’immense variété des manières par
lesquelles un individu « appartient à une institution ». Que ce soit à une
entreprise, un syndicat ou un parti politique, il s’agit toujours d’adhérer à une
manière de penser. Pour Mary Douglas, l’institution fournit à ses membres « des
catégories de pensée, établit leur conscience de soi, et fixe leur identité ».
Bourdieu souligne aussi la force des rites de passage : « L’investiture exerce une
efficacité symbolique tout à faire réelle en ce qu’elle transforme réellement la
personne. » Foucault va plus loin encore. Il attribue au « pouvoir disciplinaire »
de l’institution la capacité de normaliser les êtres, de leur inculquer une identité
spécifique, d’exercer sur eux « la contrainte d’une conformité à exercer ».
Les travaux d’Erving Goffman mettent toutefois en garde contre une
interprétation trop rigide de leur rôle. Même dans les cas extrêmes que sont les
asiles, « l’individu est un être capable de distanciation, c’est-à-dire capable
d’adopter une position intermédiaire entre l’identification et l’opposition à
l’institution ». Pour Goffman, un agent qui se contente d’embrasser les buts de
l’institution « avec trop de chaleur » peut en fait s’avérer gênant, mortifère
même, pour celle-ci. Des policiers trop zélés, des bureaucrates trop tatillons, des
surveillants de collège trop stricts, n’aident pas l’institution qu’ils croient
défendre. La perspective de Goffman souligne formidablement la subtilité de la
relation qui s’instaure entre l’institution et celui qui y adhère.
Comme l’a également mis en évidence Albert Hirschman, les membres d’une
institution disposent de plusieurs possibilités de participer à la vie du groupe.
Hirschman les résume par une trilogie : « Exit, voice et loyalty ». Exit : on peut
quitter l’institution. Voice : on peut essayer de la rénover (en prenant la parole).
Loyalty : on se soumet à ses règles sans discuter. Dans l’ouvrage dirigé par
Lagroye et Offerlé, Yann Raison du Cleuziou analyse ainsi très finement la
manière dont Mai 68 a bouleversé l’ordre des Dominicains en sollicitant ces trois
registres à la fois. Imprégnés par les événements de Mai, certains jeunes ont
réclamé des réformes adaptées aux temps nouveaux (voice), tandis que les
anciens, habités par le respect de l’ordre des choses n’ont pas voulu qu’on leur
réponde (loyalty), d’autres enfin choisissant l’exit, vers d’autres ordres ou tout
simplement en dehors de l’institution religieuse.
Les travaux de Roland Bénabou illustrent parfaitement la manière dont la
tension entre le credo collectif et le calcul individuel peut s’installer au cœur de
certains groupes sociaux 12. Dans les nombreux exemples qu’il analyse, la
possibilité de quitter le groupe, « l’exit », joue un rôle clé. Dans les
communautés traditionnelles où aucune sortie n’est possible, la loyauté est la
seule manière de vivre sereinement. De même, si vous êtes matelot sur le
Titanic, mieux vaut penser que le capitaine sait ce qu’il fait : en douter ne fera
pas avancer la cause et vous empêchera de bien remplir votre mission. On peut
ajouter aussi qu’un coût d’entrée élevé explique la loyauté à une institution. Si
vous avez dépensé beaucoup d’efforts pour y appartenir, que ce soit un corps de
marines ou de hauts fonctionnaires, il est inéluctable que vous vouliez adhérer à
ses valeurs, au-delà même de ce qu’étaient déjà les vôtres avant d’y entrer. Vous
auriez sinon l’impression d’avoir gâché pour rien les meilleures années de votre
vie 13. Si toutefois il existe une sortie facile de l’institution, qu’il s’agisse par
exemple d’un couple ou d’une entreprise, vous serez plus enclins à vous
exprimer (voice) ou à la quitter (exit) 14.

Quelle que soit la manière dont ces fils d’appartenance se nouent entre eux,
analyser les civilisations humaines exige de saisir toute la subtilité des logiques
où se mêlent les affects moraux, les convictions religieuses ou laïques, et les
mécanismes de sanctions qui régissent le monde social. Comme le résume
parfaitement Paul Seabright, le point fondamental des institutions est de
« permettre à un petit nombre de régulations d’aller loin dans l’organisation de la
société ».
Quelle place occupe la révolution numérique ?
Notes
1. E. MacLean, « Unraveling the evolution of uniquely human condition », PNAS, vol. 113,
no 23, 2016.
2. N. Jacquemet, Comment lutter contre la fraude fiscale ?, Cepremap, Éd. Rue d’Ulm, 2020.
3. Le livre de S. Asma et R. Gabriel, The Emotional Mind : the Affective Roots of Culture and
Cognition, Harvard University Press, 2019, analyse nombre des débats que nous reprenons ici.
4. L’un des traits constants du bonheur est de pouvoir faire confiance à autrui. Les Français
sont moins heureux en moyenne, en grande partie parce qu’ils souffrent d’un manque de
confiance assez systématique en les autres.
5. Francis Wolff dans Plaidoyer pour l’universel (Paris, Fayard, 2019) montre que la
réciprocité est au fondement de l’éthique : des esprits simplement dotés de raison dialogique
s’accorderaient sur des règles de réciprocité.
6. Voir J. Elster, Le Désintéressement, Paris, Le Seuil, 2011.
7. Cité dans S. Asma et R. Gabriel, The Emotional Mind, op. cit.
8. Les conneries sont devenues un terme philosophique depuis que Harry Frankfurt, professeur
à Princeton, a publié On Bullshit.
9. P. Seabright, The Company of Strangers, Princeton University Press, 2004.
10. I. Kadaré en fait le récit désespérant dans son livre Avril brisé.
11. H. Simon, « Organizations and markets », Journal of Economic Perspective, 1991.
12. R. Bénabou, « Groupthink : collective delusions... », art. cit.
13. Les économistes appellent « sunk cost fallacy », littéralement « l’erreur des coûts
échoués », cette disposition à vouloir récupérer les fruits d’un investissement même dans les
situations où cela devient irrationnel. Si par exemple vous allez voir une pièce de théâtre et
qu’elle vous ennuie, vous irez pourtant jusqu’au bout du spectacle si vous avez payé un prix
élevé pour la voir. Si au contraire vous avez été invité, vous sortirez à l’entracte. L’une ou l’autre
de ces attitudes n’est pas « rationnelle ».
14. Une étude a ainsi montré que les divorces étaient plus fréquents en haut de cycle
économique : les femmes qui travaillent sont plus promptes à demander le divorce quand le
marché de l’emploi est en tension.
Quatre sociétés possibles

Pour situer le monde numérique sur la grande échelle de l’histoire humaine, il


faut revenir aux différentes manières dont les sociétés sont parvenues à
assembler les hommes. Distinguons deux axes possibles. Du point de vue des
interactions individuelles, tout d’abord, les sociétés peuvent être de type vertical
ou horizontal, selon qu’elles sont organisées suivant des principes hiérarchiques
ou égalitaires. Du point de vue de leur imaginaire ensuite, elles peuvent être
religieuses ou laïques, selon qu’elles se soumettent à des lois divines ou
scientifiques. Cela donne quatre combinaisons possibles : égalitaire/religieuse,
hiérarchique/religieuse, hiérarchique/laïque, et enfin horizontal/laïque. C’est de
ce dernier type que la société numérique est en train d’accoucher, dans la plus
grande douleur. Faisons un tour des manières dont les autres types se sont
déployés dans l’histoire afin de saisir tant l’originalité que la difficulté
d’existence de la « civilisation » qui se cherche aujourd’hui.
Les chasseurs-cueilleurs

À l’origine, les sociétés de chasseurs-cueilleurs offrent le modèle de sociétés à


la fois horizontales et religieuses. Plusieurs cercles concentriques forment leur
socialité. Le groupe le plus large est celui de la tribu qui compte entre 500 et
2 500 personnes, adultes et enfants compris. Au plus proche, les familles élargies
dont le nombre oscille entre 30 et 50 personnes. C’est entre ces deux cercles que
le noyau dense des relations sociales est institué, à l’échelle du clan, qui contrôle
les zones de chasse et les rituels religieux telles les cérémonies de passage à
l’âge adulte. Il est l’incarnation de l’unité de la société. Lorsque le clan devient
trop gros, il se scinde en clans nouveaux qui continuent leur aventure dans
d’autres directions. Les premiers hommes migrent au gré de leur découverte de
ressources naturelles ou de gibiers à exploiter. Mais ils migrent aussi, et peut-
être surtout, parce qu’ils s’interdisent de franchir un seuil au-delà duquel leur
organisation politique ne tiendrait plus.
L’image d’Épinal de sociétés sans intelligence politique, écrasées par la loi de
Dunbar fixant à 150 le nombre maximum de relations directes, ne permet pas
toutefois de saisir la formidable inventivité politique de nos grands ancêtres.
David Graeber et David Wengrow ont écrit un livre lumineux qui met en garde
contre l’idée selon laquelle les sociétés dites primitives partageraient toutes une
même forme de société égalitaire, comme s’il en allait d’une nature immuable 1.
Il existe en réalité autant de sociétés de chasseurs-cueilleurs conformes à un
modèle horizontal que d’autres où les hiérarchies sont fortes. On trouve ainsi de
nombreux exemples de ces sociétés dominées par une aristocratie guerrière
disposant d’esclaves, ceux-ci ayant été saisis lors de razzias contre des tribus
rivales. Le paléolithique supérieur, qui couvre la période qui s’étend de 50000 à
15000 avant notre ère, fait ainsi apparaître nombre de sépultures princières et
d’imposants édifices, temples en pierre, monuments en os de mammouth, qui
remettent en question l’idée que les premières sociétés humaines se limitaient à
de petites unités égalitaires.
Pour saisir la diversité des situations rencontrées, Graeber et Wengrow
s’inspirent de l’œuvre de l’anthropologue Gregory Bateson, fondateur de l’école
de Palo Alto. Bateson a introduit l’idée de « schismogenèse » pour caractériser
cette spécificité des sociétés humaines à se définir en opposition l’une à l’autre
(une forme inversée du mimétisme cher à René Girard). La rivalité entre
Athènes et Sparte en est l’exemple parfait. Elles sont l’une à l’autre ce que la
mer est à la terre, le cosmopolitisme à la xénophobie, la démocratie à
l’oligarchie… Or cette opposition se retrouve quasiment dans les mêmes termes
sur la côte pacifique de l’Amérique du Nord. Les sociétés du Sud-Ouest
ressemblent au modèle égalitaire canonique. C’est tout le contraire qui s’observe
au Nord-Ouest, dans la région de l’actuelle Vancouver. La société y est contrôlée
par une aristocratie qui pratique l’esclavage. En miroir inversé, le groupe
« californien » au Sud l’ignore totalement. Il est profondément pacifique,
consommant des glands et des pignons alors même que le saumon, qui est la
denrée principale au Nord, n’y est pas moins abondant.
Le point le plus fascinant porte sur la capacité d’une société donnée à changer
de modèle au passage des saisons ! En 1944, Claude Lévi-Strauss avait écrit un
article sur les Nambikwaras, une population de petite taille installée dans la
savane du Mato Grosso brésilien. Pendant la saison sèche, celle de la chasse, la
société adoptait les manières spartiates d’une société militaire. Des chefs de
guerre prenaient l’ascendant sur le reste de la population en faisant preuve d’un
« autoritarisme qui n’aurait pas été jugé acceptable en toutes autres
circonstances ». Mais dès que la saison humide revenait, et avec elle « le confort
et l’abondance », la société changeait brusquement de nature. Les chefs de
guerre ne commandaient plus rien, tout juste la renommée acquise pendant la
période de chasse leur permettait-elle de profiter de la bienveillance de quelques
fidèles.
Beaucoup d’exemples attestent de cette saisonnalité des relations sociales.
Chaque fois que l’on découvre de somptueux monuments surgis de sociétés que
l’on croyait réduites à la plus simple expression, on peut supposer que c’est à
l’occasion de regroupements saisonniers qu’ils ont été bâtis. Marcel Mauss et
Henri Beuchat avaient publié un Essai sur les variations saisonnières des
sociétés eskimos qui faisait le même diagnostic. On trouve la même réversibilité
chez les Indiens des Plaines. Ceux-ci avaient abandonné leur vie agricole pour
redevenir nomades après l’arrivée européenne, domestiquant les chevaux
échappés des campements des nouveaux occupants. Pendant la période des
chasses au bison, les petits groupes de Cheyennes et de Lakotas se rassemblaient
en larges congrégations sur un modèle très coercitif où tout contrevenant pouvait
être fouetté ou incarcéré. Mais tout changeait dès que la période de chasse était
révolue. Après être passés du stade clanique au stade étatique en novembre, ils
revenaient au modèle égalitaire au printemps… Cette saisonnalité de la vie
sociale fait encore partie de nos existences, bien qu’elle ne soit plus que l’ombre
d’elle-même. La période des « grandes vacances » traduit ce désir puissant de
changer de vie avec le passage des saisons.
Les sociétés agraires

Grâce aux travaux des archéologues, il a été possible de dater rigoureusement


l’apparition des premières récoltes sur le croissant fertile du Moyen-Orient, il y a
environ 12 000 ans. Il est habituel de penser que l’agriculture a déclenché la
sédentarité. À suivre toutefois Jacques Cauvin, il semble possible que ce soit
l’inverse 2. De fait, il est beaucoup plus plausible que ce soient des sociétés déjà
sédentaires qui parviennent à comprendre qu’une graine abandonnée dans un
champ fait fleurir une plante plusieurs mois plus tard.
L’agriculture va produire une secousse explosive : la croissance
démographique. Alors que les femmes des sociétés de chasseurs-cueilleurs
avaient une fertilité relativement faible, du fait de la contrainte de se déplacer qui
provoquait une limitation naturelle aux naissances, les sociétés d’agriculteurs
font l’expérience d’une hausse exponentielle de leur population. Elle sera leur
malédiction. Ce qu’on appellera la « loi de Malthus » se met inexorablement en
place : la poussée démographique absorbe les surplus que l’agriculture a libérés.
L’abondance laisse place à la famine. La révolution agricole n’a pas permis aux
humains d’être mieux nourris mais d’être plus nombreux. La quantité l’a
emporté sur la qualité, exemple fondamental et emblématique du besoin pour les
humains de comprendre collectivement les conséquences de leurs actes
individuels.
Il y a 300 000 ans environ, lorsque l’homme moderne commence son
aventure, sa population se comptait en centaines de milliers, au maximum un
million. Une première rupture intervient entre l’an 40 000 et l’an 35 000 avant
J.-C. La population humaine atteint 4 ou 5 millions. Commence alors, avec
l’agriculture il y a 10 000 ans, une nouvelle trajectoire. Elle dépasse les
10 millions lorsque apparaissent les grandes civilisations du Moyen-Orient, puis
les 100 millions lorsque celles-ci disparaissent, autour de l’an 1000 avant J.-C.
La population humaine franchit ensuite tous les paliers pour atteindre
250 millions à l’âge du Christ, le milliard en 1800, 2 milliards en 1930,
8 milliards aujourd’hui et sans doute 10 milliards en 2050 3. La population
mondiale doublait tous les 1 000 ans pendant les huit derniers millénaires, elle
s’est mise à doubler tous les siècles, puis tous les demi-siècles !
Avec l’invention de l’agriculture, la densité humaine n’a cessé de croître,
poussant constamment les sociétés aux limites de leurs équilibres psychiques et
politiques, balayant les limites prédites par la loi de Dunbar. Quels sont les
mécanismes sociaux qui ont permis d’absorber une telle explosion
démographique ? L’une des solutions est le modèle hiérarchique, qui fait partie
des possibilités du monde avant même l’agriculture mais va vite devenir la
forme dominante des relations sociales. Herbert Simon en a parfaitement
expliqué la logique. À partir de la taille moyenne d’un clan, disons de 150
personnes, et en supposant que chacune de ces 150 personnes en commande 150
autres, lesquelles font de même et ainsi de suite sur plusieurs niveaux, on peut
rapidement gérer des niveaux de population spectaculaires. Six niveaux
hiérarchiques (le chiffre de Milgram) où chaque nœud commande 150 personnes
(celui de Dunbar) suffisent à créer une société contenant 76 milliards
d’humains ! La capacité à monter de telles cathédrales est le formidable saut que
les sociétés hiérarchiques, pour le meilleur et pour le pire, ont fait accomplir à
l’humanité.
Ces sociétés agraires vont dessiner pendant presque 10 000 ans l’ordre social
dont nous sommes tout juste en train de sortir. Les hiérarchies qu’elles
construisent ne sont pas seulement des techniques d’organisation, elles
impriment aussi une mentalité. Son poids le plus lourd et le plus significatif est
dans la relation entre les sexes. Les sociétés préagraires faisaient ressortir une
certaine variété de situations concernant la situation des femmes, qui ne
tournaient pas toutes à leur désavantage 4. L’agriculture va bouleverser les
rapports entre les sexes. Un profil social nouveau se met en place : les hommes
font le travail extérieur, les femmes le travail intérieur. Les sociétés agraires
dévalorisent les femmes, les cantonnant au rôle d’agents reproducteurs.
La religion meurt longtemps

La transformation des sociétés humaines de la chasse et la cueillette vers


l’agriculture va s’accompagner d’une transformation radicale de leur imaginaire
religieux. Yves Lambert, à la manière de Graeber et Wengrow, met en garde
contre une lecture trop linéaire de l’histoire des religions 5. Nombre d’entre elles
ont réussi à s’adapter aux transformations du monde, comme le chamanisme par
exemple. L’idée que l’agriculture soit mécaniquement la cause d’un changement
des pratiques religieuses a été également contestée par Jacques Cauvin qui a
proposé une inversion de la causalité : à ses yeux, c’est le bouleversement des
croyances religieuses qui a en réalité précédé l’invention de l’agriculture 6.
Quelle que soit la manière dont elle s’est produite, la rupture est nette entre les
deux mondes.
Lambert a étudié en détail les sociétés de chasseurs sibériennes, peu denses,
nomades, sans chef, correspondant au type idéal, égalitariste et de petite taille,
des sociétés préagraires. Pour celles-ci, tout est « immersion dans la nature,
échange de force vitale entre les humains et les animaux », écrit-il. L’animal lui-
même est mis sur un pied d’égalité avec l’homme : il est doté d’une âme et d’une
force vitale équivalente à celles des humains. Les animaux sont censés
s’organiser en clans, comme les humains. La chasse est conçue comme un
échange réciproque dont le chaman est le médiateur : « On obtient du gibier,
préalablement négocié avec les esprits animaux sous l’entremise du chaman et,
en contrepartie, les animaux prélèvent la force vitale des humains : la maladie, la
vieillesse et la mort sont le prix des prises de gibiers. »
Ces croyances chamaniques se retrouvent chez les Inuits, les Pygmées, les
Bushmen, les Aborigènes australiens. Pour ces sociétés, il est inconcevable de se
nourrir d’animaux qu’on a domestiqués. Seul peut être consommé le gibier qui a
été chassé. La vie religieuse ne comporte ni prière ni sacrifice. Pour Alain
Testart, il y a une absence absolue de liens hiérarchiques entre les humains ou à
l’égard de dieux. « Les hommes ne sont pas réputés inférieurs à une classe
d’êtres que l’on appelle les dieux ailleurs. Ils ne sont pas non plus supérieurs à
une autre classe d’êtres dépendants et inférieurs dont il serait légitime de prendre
la vie pour l’offrir aux dieux. » On tient ici le cas typique d’une société à la fois
égalitaire et religieuse, le premier type de notre classification.
L’évolution vers l’élevage et l’agriculture bouleverse radicalement l’ensemble
de ces croyances. Elle donne aux humains un sentiment inédit de supériorité sur
les animaux. Le respect se porte désormais vers les ancêtres, à qui l’on doit
d’avoir créé le monde tel qu’il est. Alors que les sociétés chamaniques
n’hésitaient pas à abandonner les vieillards dont la « force vitale » déclinait, les
sociétés de cultivateurs mettent le culte des aînés au sommet de leurs valeurs. Le
monde n’est plus classé selon l’habileté à la chasse, mais selon la séniorité des
chefs. L’agriculteur demande aux cieux la pluie, la tranquillité. Les sociétés
agricoles font naître la prière et le sacrifice que les sociétés de chasseurs-
cueilleurs ignoraient.
Cette conscience religieuse tend ensuite à s’étatiser avec l’apparition des
grandes civilisations antiques, en Égypte, en Mésopotamie, sur les rives de
l’Indus et du Gange, ou sur la bordure pacifique andine. On passe d’une religion
orale agraire à une religion polythéiste, étatique, avec de grands temples et des
liturgies complexes. « À mesure que la société se hiérarchise, la société tend à
hiérarchiser son image », écrit ainsi Jean Bottéro 7. Nous sommes au cœur du
processus qui allait conduire au deuxième type de sociétés humaines : verticales
et religieuses. Les sacrifices animaux se multiplient, les mets étant présentés aux
dieux pour finir sur la table des prêtres, lesquels deviennent une caste
spécialisée, souvent héréditaire. L’écriture contribue aussi à renforcer le pouvoir
sacerdotal. L’étatisation des prêtres crée un fossé entre la religion officielle et la
religion populaire. Une séparation silencieuse se creuse entre le culte officiel,
qui magnifie l’empereur, seul promis à l’immortalité avec quelques hauts
dignitaires, et la religion du peuple qui conserve certaines des formes des
religions orales antérieures, fondées sur le culte des ancêtres.
Pour Karl Jaspers, un nouveau décentrement du monde religieux se produit
dans la courte période de temps qui va de 600 à 200 avant J.-C., au cours de
laquelle les religions basculent vers un nouveau régime, où l’éthique individuelle
prend une place inédite. C’est le changement de modèle que proposent
Confucius et Lao Tseu en Chine, le Bouddha en Inde, Zoroastre en Iran, les
prophètes d’Israël, ou Homère et Socrate en Grèce… L’unité qui existait
auparavant entre le cosmos, l’ordre social et le bien-être humain se distend. Pour
Jaspers, c’est le moment où l’humanité s’éveille à elle-même. Les sociétés
humaines ne sont plus définies par leur héritage, celui des grands ancêtres
humains ou divins, mais par des règles éthiques que les hommes s’assignent à
eux-mêmes. Le bonheur n’est plus d’accepter la nature comme elle est, mais
dans la capacité des hommes à se donner leurs propres critères d’existence.
Les conditions où apparaissent ces religions sont proches. Elles naissent toutes
dans des périodes de troubles où les anciens pouvoirs vacillent. Confucius vient
au monde à l’époque dite des Royaumes combattants, lorsque la chute de la
dynastie Zhou ouvre un cycle de conflits entre les différentes seigneuries. C’est
pour restaurer l’ordre que Confucius va fonder une nouvelle éthique, celle de
l’homme de bien, qui va du bon père de famille au souverain juste, qui détourne
de la violence chaotique de l’aristocratie. Les prophètes d’Israël commencent à
rédiger la Bible dans le chaos provoqué par la destruction du Temple et leur exil
babylonien 8. Le miracle grec naît sur fond de guerres ravageuses entre les cités,
sous la menace de l’Empire perse. Les religions prennent acte du fait que les
civilisations peuvent périr. Le lien entre la piété et l’État est repensé. Les moines
bouddhistes ou les étudiants dans les yeshivas explorent des manières nouvelles
d’être pleinement humains : ils augurent de ce que Louis Dumont appellera
l’« individu hors du monde », qui annonce selon lui l’individualisme
contemporain.
Les traits qu’on dirait aujourd’hui philosophiques de ces religions ne doivent
toutefois pas tromper : elles restent habitées par la présence des dieux. Ce sont
des religions de salut qui démocratisent surtout la promesse de la vie éternelle
autrefois réservée aux pharaons et autres empereurs. Alors même qu’elles
surgissent dans une période de déclin des grands empires du passé, elles
serviront curieusement d’aliment à une réinvention de l’idée impériale, avec le
christianisme à Rome et le confucianisme en Chine. Pour autant le ver est dans
le fruit : le monde religieux et le monde politique ne sont plus parfaitement
alignés l’un sur l’autre.
Avec la chute de l’Empire romain, ce sont deux pouvoirs, deux systèmes de
valeurs concurrents, qui vont se disputer le gouvernement des âmes : le pouvoir
ecclésiastique et le pouvoir aristocratique. Le premier prêche l’égalité des
hommes devant Dieu, le second exactement le contraire. Comme le dit le
sociologue Philippe d’Iribarne, cette contradiction est particulièrement intense
en France qui pousse très haut le niveau d’hypocrisie nécessaire à sa résolution,
où tout le monde est égal à l’église et cesse de l’être à l’instant où il en sort.
C’est cette dualité du monde féodal qui va être transformée par les temps
modernes qui commencent à partir du XVe siècle.
Ce bouleversement annonce le monde dans lequel nous vivons encore.
Notes
1. D. Graeber et D. Wengrow, Au commencement était…, trad. française, Les liens qui
libèrent, Paris, 2021.
2. J. Cauvin, Naissance des divinités, naissance de l’agriculture, Paris, CNRS éditions, 2010.
3. Comme le montre Michael Kremer, le taux de croissance de la population ne cesse lui-
même de croître, ce qui est la formule d’un processus explosif. M. Kremer, « Population growth
and technological change », Quarterly Journal of Economics, 1993.
4. L’idée d’un partage rigide des tâches où l’homme est chasseur et la femme cueilleuse est
contestée par les recherches anthropologiques qui ont mis au jour de nombreuses preuves de
femmes chasseuses. Voir Vivek Venkataraman, « Women were successful big-game hunters »,
The Conversation, 10 mars 2021.
5. Y. Lambert, La Naissance des religions. De la préhistoire aux religions universalistes,
Paris, Armand Colin, 2007.
6. Dans son livre Naissance des divinités, naissance de l’agriculture, Éditions du CNRS,
1994, il montre, par la datation que permet le carbone 14, que l’apparition de pratiques
religieuses nouvelles a été antérieure à l’agriculture. Alain Testart est plus prudent dans Avant
l’histoire, Paris, Gallimard, 2012.
7. J. Bottéro, Lorsque les dieux faisaient l’homme, Paris, Gallimard, 1989.
8. Le judaïsme a lui-même connu deux étapes. Il reposait initialement sur deux piliers : le
Temple et la Torah. Être juif a longtemps signifié faire des offrandes à Dieu, en faisant procéder
par les prêtres à des sacrifices animaux, comme dans la plupart des religions antiques. Avec la
seconde destruction du Temple par les Romains, les rabbins prennent le pouvoir sur les prêtres.
Être juif, désormais, c’est étudier la Torah et ses commentaires. Le lien avec les religions
antiques est définitivement rompu. Le récit d’Eckstein et Botticini montre que l’obligation de
lecture (très coûteuse dans la société agraire de l’époque) allait provoquer une chute brutale du
nombre de Juifs. Leur livre La Poignée d’élus est le récit de cette attrition qui ne s’interrompra
qu’avec le développement de villes telles Bagdad et Cordoue, où les Juifs trouveront comment
valoriser dans ce monde urbain nouveau leur idéal religieux.
L’âge séculier

Les valeurs ecclésiastiques vont être ébranlées par la révolution scientifique


de Descartes et Galilée. Galilée disait que pour décrypter l’œuvre de Dieu, il
suffisait de changer d’alphabet, en utilisant les mathématiques plutôt que le latin.
Le christianisme transmet aux Occidentaux l’idée selon laquelle « la terre est
l’écriture autographe de Dieu », pour reprendre une formule de Pierre Legendre.
Le cogito cartésien, manifeste d’une modernité où l’homme héroïque, traversé
par le doute et la solitude existentielle, se tient seul face à des cieux devenus
vides, est la conclusion logique de ces évolutions de la psyché religieuse. Le
philosophe Charles Taylor a décrit avec brio la manière dont les temps modernes
vont ainsi faire naître ce qu’il appelle l’« âge séculier », ce monde nouveau qui
est encore le nôtre au sein duquel la religion, sans disparaître, n’est plus qu’une
option parmi d’autres manières de vivre 1.
La montée des États absolutistes transforme également de façon radicale les
valeurs aristocratiques. La déconstruction de l’ordre nobiliaire a emprunté un
chemin étrange, interne aux rivalités de pouvoir entre les classes dominantes. Le
contrôle d’une aristocratie féodale est le principal enjeu des transformations que
la monarchie imprime. Les aristocrates vont être happés par une société de cour
qui va changer les valeureux guerriers qu’ils étaient en serviteurs du pouvoir
royal. Au lieu de guerroyer, les nobles doivent lire Le Livre du courtisan de
Castiglione qui leur apprend l’art de respecter des règles sociales de plus en plus
contraignantes. Comme le montre le sociologue Norbert Elias, la cour devient le
siège de transformations radicales en matière de mœurs et d’intimité. La rage, la
violence, le ressentiment doivent faire l’objet d’un autocontrôle rigoureux. Il
devient progressivement inconvenant de se moucher dans la nappe ou de
déféquer dans les lieux publics, même si le roi lui-même restait entouré de ses
courtisans quand il s’asseyait sur la « chaise percée » ! Les exigences du
raffinement permettent aussi à l’aristocratie de se différencier socialement de la
bourgeoisie montante qui toutefois rapidement l’imite, ou s’y essaie comme
M. Jourdain.
Mais c’est bien la bourgeoisie qui aura le dernier mot et qui allait, comme dira
Marx, « noyer dans les eaux glacées du calcul égoïste l’esprit de chevalerie ».
Albert Hirschman a écrit un livre devenu un classique pour comprendre
comment l’amour de la gloire, encore décrite par Corneille comme l’unique
raison de vivre, allait progressivement laisser place à une autre passion : la
« cupidité », rebaptisée « intérêt » pour les besoins du monde moderne. Le
basculement vers la mentalité bourgeoise peut s’interpréter comme le passage
d’une passion, celle de l’héroïsme, à une autre, celle du profit, tout aussi intense
que les précédentes mais qui est vantée par ses thuriféraires comme ayant la
vertu de pouvoir engendrer l’ordre et la stabilité. La cupidité est une « passion
compensatrice » : elle endigue les autres. Spinoza avait eu le pressentiment de
cette mutation lorsqu’il écrivait qu’« un sentiment ne peut être contrarié ou
supprimé que par un sentiment contraire et plus fort que le sentiment à
contrarier ». L’amour du gain a ce mérite, aux yeux de la morale bourgeoise,
d’être prévisible. C’est cet argument qui inspirera Adam Smith quand il
expliquera qu’il vaut mieux dépendre de l’intérêt de son boulanger que de sa
bienveillance.
Le contrôle social qui s’étend à la population dans son ensemble va toutefois
s’exercer de manière beaucoup plus rude que ne le suggèrent les théoriciens du
marché. Comme le rappelle Charles Taylor en référence aux travaux de Michel
Foucault, les temps modernes vont inventer un régime disciplinaire nouveau où
les délinquants, les fous et les pauvres sont chassés de l’espace public. La
charité, qui était auparavant inconditionnelle, devient beaucoup plus sévère : il
faut désormais que les pauvres travaillent pour la mériter. La bouffée d’air que
représentaient les carnavals est progressivement proscrite. Érasme qui fut l’un
des auteurs qui érigeront la « civilité » en impératif nouveau, accusait dès 1503
le carnaval d’être non chrétien, de porter les traces de l’ancien paganisme.
Pendant le carnaval, tout devient possible. Les femmes peuvent incarner des
hommes, les enfants commander les adultes, les domestiques faire trimer leurs
maîtres, les ancêtres revenir d’entre les morts, des rois peuvent être couronnés
puis détrônés.
Les livres de Michel Foucault, de l’Histoire de la folie à Surveiller et punir en
passant par Naissance de la clinique, ont méticuleusement décrit le processus
qui, à intensité variable, va caractériser un nouveau type idéal d’organisation de
la société, celui de « sociétés disciplinaires ». Foucault consacre un passage
célèbre de Surveiller et punir à la description du panoptique de Bentham dans
lequel le fondateur de l’utilitarisme explique comment une prison modèle doit
permettre de surveiller à partir d’un poste d’observation idéal l’ensemble des
prisonniers dans leurs cellules. La perfection morale d’un autocontrôle auquel
les élites doivent s’astreindre a pour envers une discipline dure imposée par
l’autorité centrale au bas de la société.
La mentalité industrielle

C’est dans ce formidable dérèglement de valeurs que naît le monde dont nous
sommes les héritiers directs et que la révolution numérique est en train de
bouleverser. Tout au long du XVIIIe siècle, les Lumières vont s’efforcer de
traduire dans un langage laïque l’idée de providence divine en l’inscrivant dans
une promesse nouvelle, celle du progrès. Les Lumières exportent aussi, dans le
domaine politique, l’idée de souveraineté, en transférant son dépositaire du
pouvoir royal au peuple. Via Adam Smith, ami et continuateur de David Hume,
l’idée de nature est ensuite transférée à la sphère des marchés. Smith théorise
l’idée qu’il existe des prix « naturels » vers lesquels « gravitent » les prix
courants selon des lois auxquelles le souverain lui-même doit se soumettre, à
l’image des lois de la nature. Ces idées sont au cœur d’une pensée séculière qui
forgera l’horizon du XIXe siècle.
Mais la révolution industrielle héritera aussi du modèle disciplinaire qui s’était
mis en place pour contrôler la plèbe. L’usine, l’école, les hôpitaux deviennent les
lieux où l’on met la vie collective sous surveillance. L’usine ou l’école ne sont
certes pas inventées au XIXe siècle. Les manufactures ont existé depuis la nuit des
temps (des manufactures d’esclaves dans l’Antiquité en passant par les
manufactures de porcelaines de Colbert). Mais le travail préindustriel se faisait
surtout à la campagne, dans ce qu’on a appelé un protocapitalisme. Le capitaliste
se contentait alors d’apporter des matières premières aux ménages et de
récupérer le travail fini, rémunéré à la pièce. La manière dont le XIXe siècle a
industrialisé la vie sociale prend un tour nouveau en enfermant dans des lieux
clos les publics concernés.
Ronald Inglehart 2, un sociologue américain, a parfaitement illustré cette
contradiction entre les aspirations à l’émancipation que font naître les Lumières
et la réalité d’un monde économique et social où l’obéissance règne. À ses yeux,
la révolution industrielle a trahi l’esprit des Lumières. La rupture du monde
agraire vers le monde industriel marque surtout la transition d’un ordre religieux
vers un ordre séculier. On croyait en Dieu, on croit désormais en la Raison. Les
ingénieurs remplacent les prêtres. Cette mutation reste toutefois inscrite dans une
conception profondément hiérarchique de la société. La chaîne de
commandement qui va du PDG et de l’ingénieur à l’ouvrier en passant par le
contremaître est aussi stricte que celle qui allait du roi à ses barons et de ceux-ci
à leurs paysans. De religieuses, les autorités deviennent laïques, mais l’idéal
d’émancipation des Lumières est brisé, chacun restant assigné à une place fixe
dans un nouvel ordre aussi inégalitaire que le précédent. Les sociétés
industrielles ont bâti le troisième type de relations sociales : laïques et
hiérarchiques.
Ce n’est qu’avec le passage à une économie postindustrielle que le trait
humaniste dont se réclament les sociétés avancées peut s’épanouir. L’affirmation
de soi (la self-expression) s’impose comme l’élément fondateur d’une société
centrée sur l’épanouissement individuel. L’éducation de masse offre à chacun les
moyens intellectuels d’une pensée indépendante. L’État-providence coupe le lien
de dépendance matérielle entre les enfants et les parents. Les communautés de
nécessité se muent en « affinités électives ». Éducation, urbanisation,
démocratisation, bouleversement des rapports de domination hommes-femmes :
tout concourt à une société d’autonomie et de tolérance. La société
postindustrielle favorise ainsi le retour de l’idéal des Lumières, d’une société
constituée de sujets autonomes, affranchis de l’ancien ordre agraire. C’est cette
espérance que la contre-culture des sixties a portée.
La critique qui s’exprime dans les années soixante, dans ce qu’on appelle en
France « Mai 68 », vise la verticalité de l’ordre social. La conception
hiérarchique de la société, tant à l’usine que dans la famille ou à l’école, devenait
inacceptable. Pour le sociologue Daniel Bell, cette contestation est elle-même le
résultat de ce qu’il avait désigné comme les « contradictions culturelles du
capitalisme ». Le capitalisme, explique-t-il, est traversé par une tension
permanente entre la sphère de la production, qui est habitée par un idéal d’ordre
et de renoncement, et celle de la consommation, du marketing et de la publicité,
qui offre des images « de glamour et de sexe, et [fait] la promotion d’une
manière hédoniste de vivre ». L’une pousse à l’obéissance, l’autre à la débauche.
Dans l’esprit de Bell, ces « contradictions culturelles » héritent des tensions
internes à la bourgeoisie elle-même, déchirée entre ses exigences du « calcul et
de l’ordre » et son appétit faustien de richesses sans limites. Elle veut concilier
l’ordre moral dont dépendent ses valeurs fondamentales, la propriété et
l’autorité, et le désordre économique qu’elle provoque elle-même, en
révolutionnant constamment les processus de production et de consommation.
Vient un moment où ces deux dimensions ne parviennent plus à cohabiter. La
révolution culturelle des années soixante est le moment où cet équilibre est brisé,
lorsque la jeunesse, éprise de liberté et d’autonomie, réfute le monde qui lui est
légué.
La crise des années soixante-dix allait toutefois fonctionner comme un brutal
rappel à l’ordre des contestataires, un « retour au réel » diront ses ennemis. En
lieu et place du monde d’égalité promis, elle va précipiter la révolution
conservatrice de Reagan et Thatcher, signant le triomphe d’une valeur déifiée :
l’argent. La période qui s’est ouverte dans les années quatre-vingt a été nourrie
de l’illusion libérale d’une société conçue comme une collection d’agents
solitaires et rivaux, interagissant par le seul intermédiaire du marché pour
constituer une immense société d’actionnaires.
C’est l’époque où triomphent les idées de Milton Friedman, qui battent en
brèche l’idée de l’entreprise comme un habitat social au profit de celle selon
laquelle les dirigeants de ces firmes doivent être au service exclusif de leurs
propriétaires 3. Le livre Markets and Hierarchies écrit par Oliver Williamson,
Prix Nobel d’Économie, avait éclairé les termes de l’alternative tels qu’ils se
donnaient à voir à l’époque. Il faut choisir entre un monde qui est celui des
« organisations » où la subordination est la règle, et un autre qui est régi par le
marché, qui permet par exemple d’être « autoentrepreneur » et seul maître à son
bord mais en dépendant entièrement des clients et du marché… Pour ces auteurs,
il semble qu’il n’y ait pas de troisième terme.

À de nombreux égards, la révolution numérique offre à la révolution néo-


libérale les moyens de s’affirmer. Elle aiguise la concurrence entre les
prestataires et donne aux entreprises les moyens de penser un nouveau type
d’organisation faisant la part belle à l’externalisation et à la sous-traitance. Mais
elle hérite aussi de la rencontre entre la morale libertaire des années 60-70 et le
monde de la recherche en informatique qui promeut l’open source, la gratuité et
l’absence de liens hiérarchiques. Les campus américains où la protestation
contre la guerre du Vietnam et la morale bourgeoise avait été la plus forte sont
les pionniers du monde numérique en train de surgir. La révolution informatique
s’est directement réclamée de cette contre-culture en voulant offrir à chacun les
moyens de s’affranchir des hiérarchies passées.
C’est cet héritage qui conduit la société nouvelle et ses réseaux sociaux à
expérimenter, quasiment à leur insu, quelque chose d’inédit dans l’histoire
humaine : l’esquisse d’une société égalitaire qui ne croit qu’en elle-même, sans
autorité transcendante, qu’elle soit religieuse ou civile. Elle découvre un
continent jusque-là inexploré des civilisations humaines, le dernier modèle
possible : horizontal et laïque.
La manière dont cette espérance se réalisera réservera toutefois une bien
mauvaise surprise : elle détruira les modalités d’inclusion que la société
industrielle avait créées.
Notes
1. C. Taylor, L’Âge séculier, Paris, Le Seuil, 2011.
2. R. Inglehart, Modernization and Postmodernization : Cultural, Economic, and Political
Change in 43 Societies, Princeton, Princeton University Press, 1997.
3. M. Jensen et W. Mekling, « Theory of the firm : Managerial behavior, agency costs and
ownership structure », Journal of Financial Economics, 1976.
Le triomphe de l’endogamie

Dans un texte incroyablement prospectif, « Les sociétés de contrôle », Gilles


Deleuze avait annoncé, à l’orée des années quatre-vingt-dix, un
bouleversement décisif : la fin des sociétés disciplinaires. Elles laissent place, à
ses yeux, à un régime nouveau qu’il désigne comme celui de « sociétés de
contrôle », un terme qui anticipe parfaitement le « capitalisme de surveillance »
dont parlera Shoshana Zuboff. Dans la société disciplinaire, écrit-il, l’individu ne
cessait de passer d’un milieu clos à un autre : d’abord la famille, puis l’école,
puis la caserne, puis l’usine, de temps en temps l’hôpital, et éventuellement la
prison. Dans la société nouvelle, tout se passe hors les murs de l’institution.
La recherche de peines de « substitution » pour la petite délinquance et
l’utilisation de colliers électroniques sortent les détenus de la prison. Dans le
régime des écoles, le contrôle continu et la formation permanente forgent un
nouveau paradigme de l’étudiant perpétuel. À l’hôpital, une nouvelle médecine
« sans médecin ni malade » s’installe… Dans le monde du travail, l’entreprise
remplace l’usine et « on nous apprend que les entreprises ont une âme, ce qui est
bien la nouvelle la plus terrifiante du monde »… Ce sont des « exemples assez
minces, ajoute Deleuze, mais qui permettent de mieux comprendre ce qu’on
entend par crise des institutions, c’est-à-dire l’installation progressive et
dispersée d’un nouveau régime de domination ».
L’exemple d’entreprises « qui ont une âme » est parfaitement représentatif du
changement de mentalité qui surgit au tournant des années quatre-vingt. Dans le
monde contemporain, les entreprises sont un point nodal dans la construction des
identités sociales. L’invention du fordisme, au début du XXe siècle, avait ainsi
profondément transformé l’imaginaire de son époque. C’est au cœur du monde
industriel dense qu’il avait créé que le syndicalisme avait pu triompher. Dans le
nouveau régime qui s’installe dans les années quatre-vingt, tout est fait à
l’inverse pour briser l’unité du monde social. La vente par appartements des
grands ensembles industriels vise notamment à casser le contre-pouvoir
syndical 1. Les bureaux d’études ont regroupé les ingénieurs et les travailleurs
diplômés entre eux. Les services de nettoyage ont fait de même pour les
personnes non qualifiées. Tout a été fait pour organiser l’entre-soi des classes
sociales, sans plus aucun lien « organique » entre les différents étages de la
société.
Une étude sur la montée des inégalités américaines a montré que l’explosion
de celles-ci au cours des trente dernières années est intimement liée à ce
processus 2. Alors que les écarts de revenus entre les extrêmes ont retrouvé les
niveaux du XIXe siècle, annulant en quelques décennies la formidable
compression qui s’était observée au XXe, les inégalités au sein même des
entreprises ont relativement peu bougé. Ce sont les inégalités d’une entreprise à
l’autre, entre les bureaux d’études et les services de nettoyage, qui ont explosé.
Hier, les ingénieurs et les personnes chargées de l’entretien appartenaient à la
même firme, les augmentations de salaires des premiers impliquant celles des
autres du fait quasi mécanique qu’ils étaient liés entre eux par les mêmes grilles
de salaire. L’atomisation nouvelle des personnels en autant de mondes séparés
ne produit plus de péréquation des richesses. La « percolation » de celles-ci
annoncée par Reagan et Thatcher a été scientifiquement bloquée, dès le début
des années quatre-vingt, par cette orchestration de la distanciation sociale.
L’entre-soi

Un monde va basculer : en limitant leur périmètre aux strates sociales les plus
homogènes possible, les entreprises ont puissamment contribué à forger
l’imaginaire social contemporain. Elles font, à leur manière, droit à l’attente
d’une société horizontale où le tutoiement est la règle mais en la limitant à des
groupes très restreints. La réciprocité, la confiance sont bien présentes : les
entreprises ont désormais une âme, mais uniquement pour ce qui concerne la
relation entre pairs. Aucune considération n’est plus apportée aux autres étages
de la société qui deviennent comme invisibles.
L’un des termes qui est parfois retenu pour décrire cette manière de faire
société est celui d’« homophilie ». L’expression a été utilisée en 1954 par Paul
Lazarsfeld et Robert Merton, deux célèbres sociologues américains, pour
caractériser les propensions de chaque groupe social à se regrouper entre soi.
Leur analyse montrait cette tendance à l’œuvre dans les cercles d’amitié, de
voisinage, les clubs sportifs, selon toutes les dimensions sociologiques possibles
que sont les religions, les âges, les professions, les niveaux d’éducation… Le
terme « homophilie » est toutefois trompeur. Il donne l’impression que chaque
strate de la société aspire à rester ensemble alors que bien souvent c’est la
ségrégation sociale qui renferme chaque groupe sur lui-même. Si les pauvres se
retrouvent entassés dans les mêmes ghettos urbains, ce n’est certainement pas
par désir de rester entre eux mais parce qu’ils n’ont pas d’autre choix. Si les
enfants de groupes sociaux favorisés se retrouvent dans des classes où ils ne
fréquentent que leurs pairs, c’est parce que la stratégie sociale des parents les y
conduit. Comme le montrent les travaux de Pierre-André Chiappori, les couples
sont de plus en plus « assortis » du fait de l’importance grandissante que les
parents accordent à l’éducation des enfants 3. Les femmes éduquées épousent les
hommes éduqués pour maximiser les chances de réussite scolaire de leur
progéniture. Cela ne laisse d’autre choix aux femmes moyennement éduquées
que d’épouser des conjoints de même niveau d’éducation, et ainsi de suite
jusqu’en bas de l’échelle sociale. Le terme d’endogamie sociale est bien plus
adapté à décrire le processus en cours que celui d’homophilie.
La propension spontanée des classes sociales à se retrouver parquées dans
leurs propres ghettos n’a certes rien de neuf, mais ce qui est troublant est la
vitesse à laquelle elle s’est accélérée. En 1970, deux Américains sur trois
vivaient dans des quartiers de « classe moyenne ». En 2009, moins de deux
personnes sur cinq vivaient dans un quartier dont la moyenne des revenus était
proche de la moyenne nationale. Indépendamment même des réseaux sociaux,
c’est sur ce terreau d’une ségrégation croissante de la société que la méfiance
grandit.
Une étude d’Alberto Alesina et Katya Zhuravskaya avait ainsi montré, en
étudiant les rivalités ethniques au sein de différents pays, la manière dont la
ségrégation aiguise la méfiance envers autrui et les institutions publiques. Les
auteurs ont distingué deux types de situations. Dans un premier groupe de pays,
la diversité ethnique est uniformément répartie sur l’ensemble du territoire : il y
a dans chaque région le même pourcentage de populations, disons, de type bleu
ou rouge. Dans l’autre, on observe une différenciation régionale très marquée :
les bleus et les rouges vivent chacun « entre soi », dans des régions bien
distinctes. Leur étude conclut sans ambiguïté que le second type, celui où
prévaut la ségrégation, produit une méfiance intergroupe beaucoup plus forte.
Chacun vit avec le fantasme d’une rivalité qui peut dégénérer en guerre civile.
Les partis mettent souvent de l’huile sur le feu pour tenir leurs troupes. Une
étude de Banerjee et Pande a montré que le vote ethnique est l’une des raisons de
la faible qualité du personnel politique indien, laquelle rejaillit aussi sur la
qualité des institutions publiques, corrompues et mitées par le clientélisme 4.
Le paradoxe central du monde contemporain peut ainsi se résumer de la
manière suivante. L’entre-soi règne, accomplissant de manière étroite la
promesse d’horizontalité qui se cherchait dans les années soixante. Ce faisant,
les inégalités explosent, aucune force de rappel ne liant plus les différentes
couches sociales comme le faisaient hier les grandes entreprises industrielles.
Dans le domaine des mentalités, une boucle perverse se met en œuvre entre la
ghettoïsation de la société et la méfiance générale à l’égard d’autrui. Celle-ci
n’est pas directement causée par les réseaux sociaux : elle est le résultat de
forces lourdes qui ont commencé à se mettre en œuvre bien avant qu’ils
n’apparaissent. Mais loin de créer des ponts entre les communautés, ils donnent
un écho assourdissant à la méfiance publique, poussant à l’extrême
l’incommunicabilité des différents groupes sociaux.
Notes
1. P. Askenazy, La Croissance moderne..., op. cit.
2. N. Bloom et al., « Firming up inequality », Quarterly Journal of Economics, 2019.
3. P.-A. Chiappori, « Theory and empirics of the marriage market », Annual Review of
Economics, 2020.
4. Corrélation n’est pas raison comme disent les statisticiens. Il est concevable que ce soient
les pays où la tolérance est forte qui rendent possible l’intégration des groupes, la ségrégation
étant la conséquence de politiques discriminatoires. Il existe toutefois des méthodes
économétriques pour contourner cet obstacle. En exploitant le fait que les minorités qui vivent
près des frontières ressemblent à celles qui vivent de l’autre côté de celles-ci (de manière
exogène), les auteurs vérifient que la causalité va bien dans le bon sens. Cf. A. Banerjee et R.
Pande, « Parocchial Politics : Ethnic Preferences and Politician Corruption », CEPR, Discussion
Paper, 2007, cité par A. Alesina et K. Zhuravskaya, « Segregation and the quality of government
in a cross-section of countries », American Economic Review, vol. 101, no 5, 2011.
La mentalité postmoderne

Cette désagrégation sociale produit une mentalité nouvelle : une culture de


l’entre-soi qui s’apparente à une forme de néotribalisme. Michel Maffesoli, un
sociologue se réclamant du courant « postmoderne », auteur d’un ouvrage
intitulé Le Temps des tribus, en a fait un récit exalté. À ses yeux, « la personne
cherche à accéder à un soi plus vaste : soi de la tribu, soi de la nature ou soi de la
religiosité ». Les identités intangibles auxquelles le petit enfant était assigné,
« identité sexuelle : homme ou femme, n’ont plus cours, pas davantage que les
identités professionnelles, dans une formation qu’il doit exercer tout au long de
sa vie. Identités idéologiques enfin, l’intégrant dans un clivage fonctionnel :
politique, intellectuel 1… ». Aux représentations héritées de la société
industrielle, elle-même héritière par bien des aspects des sociétés agraires, une
mentalité remontant au tribalisme des chasseurs-cueilleurs serait-elle en cours ?
Il faut se méfier des comparaisons faciles, mais ces formules, qui se veulent
provocatrices, frappent par leur coïncidence avec le monde numérique en train
d’advenir.
Les théories postmodernes ont connu un moment fondateur avec la
publication en 1979 du livre de Jean-François Lyotard, La Condition
postmoderne. Ce dernier interprétait notre époque comme celle qui marque
l’épuisement des grands mythes qui avaient porté le monde moderne, ceux de la
Révolution française ou de l’idéalisme allemand, de la décolonisation ou de
l’émancipation sexuelle, dans lesquels l’homme était devenu « l’agent héroïque
de sa propre libération ». La mentalité postmoderne prospère au milieu des
ruines des « grands récits » qui ont structuré la modernité. L’époque où le héros
recherche la vérité laisse place à l’incrédulité. L’universalisme s’efface au profit
d’une pluralité de langages, scientifiques, politiques, culturels, où l’hétérogénéité
des discours devient la règle. Où peut résider la légitimité d’un discours de
vérité ? Dans la discussion, comme le pense le philosophe Jürgen Habermas ?
Elle suppose le problème résolu, à savoir que le destinataire et le destinateur
d’une vérité s’entendent sur la possibilité d’une unanimité entre esprits
raisonnables. Dans la science, les progrès de la médecine par exemple ? Non
plus. Le savoir lui-même tend à devenir marchandise. Il n’est plus à lui-même sa
propre fin, il est un moment du processus de production. Pour Lyotard, rien n’y
fait : il faut se résoudre à admettre les multiplicités de « méta-argumentations ».
Reprenant ces thèmes, Fredric Jameson avait interprété le postmodernisme
comme l’esprit d’un « capitalisme tardif 2 ». Lorsque la société est saturée de
biens à consommer, il ne reste plus qu’à les « esthétiser » : rendre les voitures ou
les télévisions plus élégantes, plus baroques pour entretenir la flamme. La
nostalgie de la période « héroïque » où l’accès à des biens nouveaux incarnait
l’idée de progrès laisse place à un capitalisme davantage obsédé par la publicité
que par la production. Le moment postmoderne, selon Jameson, incarne cette
étape où le capitalisme se détourne des biens matériels pour produire surtout des
fantasmes individuels et collectifs. Nous jouissons de notre capacité à simuler
des sociétés alternatives, sans avoir à payer le coût de les expérimenter vraiment.
Dans le postmodernisme, le « vrai devient un élément du faux » comme
l’annonçait déjà Guy Debord dans La Société du spectacle. Au sein de ce monde
où la nature a disparu, l’apocalypse elle-même figure désormais comme « un
élément décoratif » 3.
La postmodernité est interprétée par Jameson comme le moment où la culture
triomphe définitivement de la nature, qu’il s’agisse de la nature de la nature (les
forêts, les rivières…) ou de la nature de l’homme. Dans le modernisme,
explique-t-il, subsistaient encore quelques zones résiduelles du « vieux, du plus
ancien, de l’archaïque ». La modernité est un moment où continuent de coexister
des réalités issues de périodes radicalement différentes de l’histoire. On trouve
des artisans survivant au milieu des cartels de la grande industrie, des champs de
paysans mitoyens d’usines modernes. Kafka par exemple est l’expression du
hiatus entre le monde moderne et une bureaucratie impériale dépassée. À l’ère
postmoderne, cette survivance de l’archaïsme est balayée.
Éloge de l’archaïsme

Il est difficile de résister à la conclusion que la société numérique donne corps


à cette mentalité postmoderne. L’avènement d’un monde de postvérité, néotribal,
chacun cultivant son propre « métadiscours » colle parfaitement à ce qui se joue
sur les réseaux sociaux. Difficile aussi de ne pas être profondément inquiet de ce
supposé dépassement de la modernité. Comment conserver l’aspiration à
l’horizontalité de la société postindustrielle sans basculer dans les travers d’un
monde d’entre-soi ? La première chose à faire pour briser les forces centrifuges
de la société est sans doute de ne pas enterrer trop vite les formes « archaïques »
qui produisaient hier de la cohésion sociale, que ce soient les syndicats, les partis
politiques ou les entreprises elles-mêmes. Les tâches à accomplir sont immenses
pour maintenir ou réinventer le rôle de ces acteurs. Plusieurs volumes ne
suffiraient pas à en donner la liste mais la ligne est claire : contrairement aux
idées développées dans les années quatre-vingt, on n’insistera jamais assez sur le
fait que l’entreprise est un lieu de vies partagées, que les syndicats sont
essentiels à leur régulation, que la « gig économie » doit se soumettre au droit
social 4, que la vie démocratique a besoin de partis et que la vérité a besoin de
savants !
Cela ne dispense évidemment pas d’une réflexion sur les instruments que le
numérique peut offrir. On aimerait pour commencer que la société de contrôle
contemporaine s’exerce davantage sur les entreprises que sur les individus 5. On
peut ainsi imaginer de généraliser la notation environnementale et sociale des
entreprises, et d’imposer par exemple une notation AAA pour accéder à la
commande publique. Ce AAA exigerait non seulement que la firme elle-même
soit conforme aux critères requis mais aussi et surtout que ses sous-traitants le
soient également, ce qui imposera par ricochet que ce soit aussi le cas des sous-
traitants des sous-traitants… Il ne deviendrait ainsi plus possible d’externaliser
les problèmes sociaux. Ce n’est évidemment qu’un petit bout du problème mais
qui montre comment la puissance de la société numérique pourrait être mise au
service de la cohésion sociale. C’est en retrouvant le fil qui relie les différentes
strates de la société qu’un syndicalisme nouveau peut surgir, qui déborde le
cadre strict de la vie au sein de l’entreprise. C’est dans la compréhension de la
géographie sociale nouvelle, entre les groupes sociaux, les entreprises et les
territoires, que se trouvent les moyens de créer un nouveau modèle inclusif.
Des idées de même nature pourraient être mises en place pour endiguer la
postvérité. Pour traquer les fake news, des agences de presse renforcées
devraient disposer des moyens de certifier les sites d’information. Un site serait
ainsi de qualité A, B ou C en fonction des sources qu’il fait circuler. Tout
utilisateur en serait immédiatement averti. Il faut réfléchir aussi aux moyens de
protéger les individus du harcèlement numérique. Les appels à la haine ou au
meurtre publiés sur un site doivent engager la responsabilité de celui-ci. Il faut
créer aussi des droits individuels nouveaux, par exemple le droit à l’oubli
numérique qui permettrait de protéger, pour autant que ce soit juridiquement
indiscutable, l’e-réputation des personnes.
Une réflexion sur la vie politique est tout aussi indispensable. Pour reprendre
la formule de Michel Offerlé, l’élection présidentielle française se résume
désormais à « un chef et Internet », et réduit la démocratie à donner un chèque
en blanc tous les cinq ans à une seule personne, ce qui devient totalement
étouffant. Tous les pays ne sont pas impactés de la même manière. Le régime
parlementaire britannique, par exemple, est plus robuste : il oblige les deux
partis à forger en leur propre sein des synthèses susceptibles de rallier une
majorité. Une réflexion spécifique à la France sur les limites du présidentialisme
est nécessaire mais la question s’étend en fait à tous les pays démocratiques. Les
électeurs réclament de l’horizontalité dans la vie politique comme dans la vie
sociale. Le numérique leur offre un instrument d’expression mais non un moyen
de se faire entendre. Comme le dit très bien Gilles Mentré : « Tout a été
démocratisé, l’accès au savoir, à la culture… sauf la démocratie elle-même 6. » À
ses yeux, le remède est simple : « Votons plus et la spirale peut s’inverser, en
utilisant toutes les potentialités que donnent les blockchains et autres
méthodes qui offrent fiabilité et confidentialité. » À le suivre, tout doit être
ouvert au champ de l’expression politique : des débats planétaires comme la
COP devraient permettre à des ONG d’organiser des consultations en temps réel
et à l’autre bout, à l’échelle locale, il devrait être possible de décider si l’on veut
réaliser tel ou tel projet urbanistique.
Au-delà des modalités du vote, la difficulté est toutefois de savoir si l’on peut
traiter les sujets un par un. L’immigration, l’environnement, l’Europe peuvent-ils
faire l’objet d’un vote séparé ? La démocratie n’est pas seulement une procédure
spécifique, le vote, mais un espace délibératif qui doit mettre en récit une
politique générale. C’est pour cela que les formes réputées archaïques que sont
les parlements et les partis ont encore de beaux jours devant eux. Cela
n’empêche évidemment pas de réfléchir à des manières nouvelles de faire
irruption dans leurs débats. Au Royaume-Uni, le droit de pétition à partir de
100 000 signatures permet d’organiser des débats à Westminster. Cette modalité
pourrait être généralisée grâce au vote électronique, en combinant l’aspiration
citoyenne à une expression directe et la vie des institutions en charge de produire
une vision cohérente de l’action publique.
Quels que soient les remèdes à y apporter, on voit se dessiner le paradoxe
central de la société numérique. Elle fait naître une aspiration à la discussion
ouverte mais s’avère incapable d’organiser la confrontation nécessaire d’idées
contraires. Elle fait vivre le désir d’une société horizontale et laïque, mais en
enfermant chaque couche sociale dans un silo propre. La disparition des corps
intermédiaires, partis ou syndicats, si elle devait continuer sa course, priverait le
monde numérique des moyens de construire une société inclusive. Ce n’est
qu’en cherchant à rendre compatibles ces deux exigences, horizontalité et
cohésion, que les instruments numériques peuvent devenir utiles.

De manière totalement imprévue, la vie politique a été également bouleversée


par le retour d’un terme que la postmodernité a cru dépassé : celui de « nature ».
Nous vivons une époque où les catastrophes écologiques et sanitaires se
multiplient, et elles n’ont rien de « décoratif »… Au défi interne de comprendre
la réalité sociale, la société numérique doit accepter de porter une responsabilité
très éloignée de son imaginaire : préserver la planète.
Notes
1. M. Maffesoli et B. Perrier, L’Homme postmoderne, Paris, Les Pérégrines, 2012.
2. F. Jameson, Le Postmodernisme ou la logique culturelle du capitalisme tardif, Paris,
ENSBA Éditeur, 2007.
3. Perrine Simon-Nahum l’interprète comme un nouveau nihilisme : Les Déraisons modernes,
Éditions de l’Observatoire, 2021.
4. La Californie a été la première à obliger Uber à intégrer comme salariés ses prestataires.
5. L’idée de notation sociale des entreprises a déjà commencé, mais reste embryonnaire,
surtout elle n’a aucun impact juridique sur la vie des entreprises.
6. G. Mentré, Démocratie. Rendons le vote aux citoyens, Paris, Odile Jacob, 2022.
VI.

Winter is coming
Les crises du XXIe siècle

Au cours du printemps 2020, on a vu des canards à la Comédie-Française, des


jaguars à Santiago du Chili, des éléphants se promener en liberté à Bombay.
Paris, New York, Londres et Milan se sont arrêtés de travailler. « Comme un
organisme placé sous anesthésie, l’économie n’assure plus que ses fonctions
vitales », écrivait l’INSEE pour caractériser le mois d’avril 2020. Le Covid nous
a plongés dans le film Je suis une légende avec Will Smith ou Le Survivant avec
Charlton Heston. Dans les deux cas, le héros est le seul survivant d’une crise
sanitaire qui a détruit l’humanité…
Pour la mentalité postmoderne, le choc a été rude. Il existe donc bien un
monde réel, celui des épidémies, des guerres, dans lequel vivent « vraiment » les
humains ! Le Covid a provoqué des incertitudes existentielles dont les sociétés
modernes avaient perdu l’habitude de parler en public : la vie, la mort, le souci
d’autrui. Il ne s’agissait pas de régler une crise « technique » comme un bug
informatique ou une faillite bancaire. Elle a été un « fait social total », pour
paraphraser Marcel Mauss. Elle a testé la cohésion de la société tout entière,
mettant en jeu des registres fondamentalement différents des crises passées. Le
langage utilisé pour caractériser la crise a lui-même constamment évolué. On a
parlé d’économie de guerre puis de solidarité. L’organisation de l’espace public
a été bouleversée. L’État a dû prendre en charge les temps de vie professionnels
et familiaux (en décidant d’envoyer les enfants à l’école ou non). Passé le
premier confinement, il est vite apparu que la gestion de la crise exigeait une
coproduction de l’État avec l’ensemble des acteurs sociaux, ménages et
entreprises, personnels de santé.
Le Covid a fourni une expérience naturelle pour mesurer la solidité des liens
qui font tenir une société. La résilience face au virus a été intimement liée à la
confiance des populations envers leurs institutions publiques, qu’il s’agisse du
gouvernement ou de la communauté scientifique 1. La confiance horizontale,
celle des individus à l’égard d’autrui, et la confiance verticale, celle des citoyens
à l’égard des autorités publiques, ont chacune joué un rôle crucial. Plus la
confiance horizontale était forte, plus ont été faibles les interdits légaux. En
Suède où la confiance interpersonnelle est parmi les plus élevées du monde, les
restrictions publiques ont été minimales. La France, où la confiance horizontale
est faible, a relativement bien vécu le premier confinement pour une
raison symétrique aux Suédois : les Français attendaient de l’État qu’il les
protège du faible civisme supposé de leurs concitoyens. Le confinement a
souligné la force des liens qui font tenir la société : rencontrer ses collègues au
travail, ses amis dans un café, ses amis à l’école. Chacun a pu mesurer les
dangers d’une vie enfermée dans le seul cocon familial, privé de la diversité des
expériences sociales qui construisent notre identité 2.
Malgré le désir de se retrouver, le télétravail est pourtant devenu, après le
confinement, une aspiration générale. Au-delà de la découverte des solutions
techniques mises en œuvre pendant la crise, Zoom et autres Teams, il s’est
installé dans les consciences comme une alternative, fût-elle partielle, au travail
régulier. Comme le dit Paul Krugman, la pandémie a été l’occasion, pour de
nombreux employés, de réfléchir à leur situation personnelle. « Beaucoup de
ceux qui ont pu travailler à domicile ont réalisé à quel point ils détestaient
commuter. Certains qui travaillaient dans l’hôtellerie et la restauration ont
réalisé, pendant leurs mois de chômage forcé, à quel point ils détestaient leur
emploi. » Bon nombre de personnels ont renoncé à reprendre leur job antérieur.
Les Américains parlent de great resignation pour qualifier la crise du Covid.
C’est dans ce contexte que le télétravail est apparu à certains comme un espace
de liberté. Les tentations de la société numérique, de vivre grâce au télétravail
sans les contraintes de la vie professionnelle ordinaire, se sont révélées les plus
fortes.
Le virus a aussi été le théâtre d’un affrontement silencieux entre les deux
versants du monde contemporain qu’offrent la Chine et les États-Unis. Lors du
premier confinement, les valeurs « confucéennes » et le respect des contraintes
sanitaires des pays asiatiques ont fait pâlir d’envie les pays occidentaux,
incapables de mettre en place le dispositif « tester-isoler-tracer » réputé efficace.
Les États-Unis, dirigés par un Trump adepte de la postvérité, ont à l’inverse
enregistré des taux de mortalité beaucoup plus sévères. Avec la découverte de
vaccins, toutefois, le tableau d’honneur a été inversé. La politique « zéro Covid »
des Chinois est devenue extrêmement coûteuse. Shanghai a été entièrement
immobilisée malgré la protestation véhémente d’une population obligée de rester
terrée chez elle, quelles que soient ses difficultés à simplement se nourrir. Au
paroxysme de la dystopie numérique vue de Chine, des chiens-robots ont été mis
en service pour imposer le couvre-feu. L’Amérique de Trump pouvait pavoiser :
les vaccins mettaient de l’ordre dans le désordre qu’il avait créé. Les valeurs
schumpétériennes, celles de l’innovation, l’emportaient sur celles de Confucius.
Vaccins et antivax

L’Occident a dû néanmoins affronter un ennemi intérieur : les antivax. Avant


même la crise sanitaire, ceux-ci avaient construit un monde à part, nourri de fake
news comme celles qui établissaient une relation entre l’autisme des enfants et le
vaccin ROR (rougeole, oreillons, rubéole). Cette idée avait été clairement réfutée
par la communauté scientifique, l’auteur de l’article qui prétendait l’avoir établie
ayant été radié de l’ordre des médecins britanniques et interdit d’exercer. Cela
n’a pas empêché la fake news de circuler largement sur les réseaux sociaux.
Jusqu’où peut-on nier la réalité au nom de ses fantasmes ? Le Covid a été un
test grandeur nature de la force du principe de réalité dans un monde de
postvérité. Entre l’adolescent qui a peur des piqûres et les trumpistes qui
récusent le principe même d’une régulation de l’État, en passant par le joueur de
tennis Novak Djokovic qui a un rapport d’ordre mystique à son corps, les
variations sont en réalité considérables. Les trumpistes ont été les plus
véhéments, faisant du refus de la vaccination une cause politique. La polarisation
américaine explique pourquoi ce pays, qui avait commencé tambour battant son
programme de vaccination début 2021, avec l’élection de Biden, a fini par être à
la traîne des autres pays riches. Une étude sur la France a montré que les
communes les moins vaccinées étaient aussi celles où la participation politique
était la plus faible (en prenant en compte les autres caractéristiques de celles-ci,
âge ou densité de population notamment). Le refus des vaccins s’apparente bel et
bien à un abandon plus général de la vie dans la cité.
La France, durant la première phase de la crise, s’est par ailleurs caractérisée
par une chute brutale de la confiance dans la communauté scientifique 3. La
parole des experts a été dévaluée, leurs hésitations face à l’évolution de la crise
ayant été comprises comme une marque de faiblesse 4. Selon les enquêtes
menées début 2021, plus de 45 % des Français ne voulaient pas se faire vacciner,
un chiffre initialement comparable à celui des États-Unis. La France est toutefois
parvenue à surmonter son handicap antivaccinal suite notamment à la mise en
œuvre du passe sanitaire en juillet 2021. Une étude passionnante de Mathias
Dewatripont note toutefois que la même dynamique s’est observée en Espagne,
où le passe sanitaire a pourtant été rejeté par les tribunaux 5. Le meilleur élève de
la classe européenne a été en fait le Portugal, l’Italie faisant un score égal à celui
de la France. À l’inverse, les pays réputés respectueux de l’ordre public,
l’Allemagne ou les Pays-Bas, ont été longtemps à la traîne des pays du sud de
l’Europe. Le traumatisme du choc sanitaire initial a été en fait le principal
moteur de la vaccination, preuve que le réel impacte bel et bien les consciences,
du moins quand il existe une option de sortie. Le problème, si l’on songe aux
défis climatiques à venir, est que cet impact ne se produit qu’après que la crise a
frappé, jamais de manière préventive.
L’ère des catastrophes

« A fame, bello et peste, libera nos Domine » : « De la faim, de la guerre et de


la peste, délivre-nous Seigneur. » Cette prière du XIVe siècle a résonné
étrangement chez nos contemporains. À peine les Européens étaient-ils en train
de sortir de cette peste moderne que fut le Covid qu’ils entraient avec l’Ukraine
dans la guerre et la faim (de blé, de pétrole et de gaz). Au Moyen Âge, la crise
du XIVe siècle avait anéanti le système féodal, et la Renaissance avait pu advenir
ensuite. On aimerait se dire que les crises accélèrent la marche de l’Histoire, que
le Covid a permis la découverte de vaccins révolutionnaires, et que la guerre en
Ukraine démontrera l’inanité des guerres au XXIe siècle. Mais comment en être
sûr ?
La guerre en Ukraine est typique de ces catastrophes qu’on ne veut pas voir et
qui pourtant apparaissent, rétrospectivement, comme inéluctables. La manière
dont la possibilité même de la guerre a été niée montre bien que nos croyances
ne sont pas une manière de comprendre le monde mais de le fabriquer. Les
Européens ont cru en la paix non pas de manière objective, mais pour préserver
leur zone de confort. Henri Bergson, cité par Jean-Pierre Dupuy dans son livre
Pour un catastrophisme éclairé, avait exactement dit la même chose de la
Première Guerre mondiale. Elle avait été, selon Bergson, tout à la fois « comme
probable et comme impossible ». On ne saurait mieux dire de la crise
ukrainienne. Personne ne voulait y croire alors qu’elle s’avançait sous les yeux
de la communauté internationale. Les soldats russes massés aux frontières ne
signifiaient rien ! Les mises en garde américaines étaient malvenues ! Et puis la
catastrophe s’est déclenchée. Tout devenait clair. Le même raisonnement qui
rendait la guerre improbable la rendait après coup inéluctable…

La guerre ne s’est pourtant pas passée comme prévu. Poutine a surpris en


envahissant l’Ukraine mais la population ukrainienne a également stupéfié en ne
rendant pas les armes, en rendant impossible devant tant d’héroïsme que la
communauté internationale tergiverse sur le soutien à lui apporter. Ce « grain de
sable » que fut l’héroïsme ukrainien a changé la dynamique des événements.
C’est cette leçon de courage qui doit inspirer le monde face aux catastrophes qui
s’annoncent et que nous refusons de voir en face.
Notes
1. Une étude du Conseil d’analyse économique montre que la résilience des pays face à la
crise a été intimement liée à la qualité de la confiance des individus envers leurs institutions
publiques ou leurs propres concitoyens. Y. Algan et D. Cohen, « Les Français au temps de la
Covid : économie et société face au risque sanitaire », Conseil d’analyse économique, no 66.
2. Les violences conjugales ont explosé durant le confinement, expression des pathologies que
le confinement a révélées.
3. Y. Algan, D. Cohen, M. Foucault et S. Stancheva, « Trust in scientists in times of
pandemic », Proceedings of the National Academy of Science, 2021.
4. Il est difficile de faire admettre qu’il y a une différence à faire entre une recherche
scientifique toujours ouverte et les acquis des théories scientifiques (la gravitation, les microbes).
5. M. Dewatripont, « Vaccination in the midst of an epidemic », Bruxelles, CEPR, 2021.
L’horloge climatique

La grande catastrophe du XXIe siècle, prévisible, évidente et pourtant


irrépressible, est le choc climatique. Aucune mise en garde venue d’experts ne
suffit pourtant à convaincre d’agir. Il faut une multiplication d’étés caniculaires,
d’incendies menaçants, d’images d’ours polaires cherchant un coin de banquise,
pour que la menace climatique soit prise au sérieux. Les humains doivent
d’abord « ressentir » les choses pour se décider à agir avec le risque d’être au
bord de la catastrophe pour se convaincre de le faire.
Pendant ce temps, le CO2 remplit l’atmosphère comme l’eau remplit la
baignoire. Peu importe qu’il ait été émis il y a un siècle ou dix jours : ce qui
compte pour le climat est la quantité globale qui a été accumulée au fil des
temps. Les forêts et les océans capturent une (petite) partie de ce qui est émis
mais, malgré ces fuites, la baignoire climatique se remplit irrésistiblement. Vient
un moment où elle déborde. Selon les estimations du GIEC, 85 % de notre
budget carbone est déjà consommé. Pour prendre la mesure de la vitesse à
laquelle elle se remplit, on a presque autant émis de CO2 depuis 1990 (40 % du
total) qu’entre 1850 et 1989 1 ! Selon le rapport du GIEC d’avril 2022, la
baignoire débordera si nous ne parvenons pas à inverser la tendance avant 2025 !
Nous serons alors engagés irrémédiablement dans un réchauffement supérieur à
1,5 °C. La hausse des températures est d’ores et déjà de 1,09 °C au-dessus des
valeurs préindustrielles, ce dont témoignent les vagues de chaleur plus intenses
chaque été, l’augmentation des feux de forêts et des précipitations et l’élévation
du niveau de la mer 2.
Rapport après rapport, le GIEC met en garde contre les risques que le
réchauffement entraîne pour la vie sur terre. Désertification accrue, raréfaction
des eaux disponibles combinées à la menace de déluges nouveaux sont les fléaux
qui s’annoncent. Entre 3,3 et 3,6 milliards de personnes vivent dans un
environnement vulnérable au réchauffement. La moitié des espèces suivies se
déplacent vers le nord, ou grimpent en altitude pour échapper à la chaleur,
entraînant la hausse de maladies transmissibles dans des régions comme les
hauts plateaux africains qui en étaient protégés par un climat tempéré. L’Europe
du Sud serait aussi particulièrement touchée. Plus d’un tiers de la population
pourrait y être menacé par des crises hydriques. En France, le Sud pourrait
connaître des températures extrêmes pendant l’été, supérieures à 35 °C durant 20
à 30 jours. Les moustiques tigrés s’y multiplieront…
Même à supposer que les gouvernements mettent effectivement en œuvre les
mesures qu’ils ont annoncées, le réchauffement pourrait atteindre 2,8 °C avant la
fin du siècle. Le GIEC a donné dans son rapport d’avril 2022 la liste des mesures
qui doivent être prises pour éviter la catastrophe. Il faut transformer d’urgence le
modèle énergétique et basculer vers des énergies renouvelables 3. Il faut changer
radicalement nos habitudes alimentaires et donner beaucoup plus de place à la
consommation végétale, bouleverser nos moyens de transport en privilégiant le
train et repenser en conséquence l’organisation de l’espace 4. La transition
exigera aussi et peut-être surtout une réflexion en profondeur sur les inégalités
mondiales. Les 10 % les plus riches émettent à eux seuls 40 % du CO2 global,
dont les deux tiers proviennent des pays riches. Les 50 % les plus pauvres
n’émettent que 13 % des émissions. Un Afghan par exemple émet une tonne par
an, un Français quasiment dix fois plus (en intégrant les émissions faites pour
son compte dans les autres pays).
Effondrement

Qu’est-ce qui empêche les humains d’agir ? Le livre de référence pour


comprendre la logique faite de déni et de stupeur devant les crises écologiques
est Effondrement de Jared Diamond. Cet auteur d’une curiosité insatiable a décrit
méticuleusement la manière dont de nombreuses civilisations, l’île de Pâques,
les Mayas, les Vikings… se sont effondrées sous l’effet de crises écologiques
qu’elles n’ont pas su endiguer. Toutes ont été dévorées par leurs rivalités
intérieures et leur incapacité à admettre les failles de leurs civilisations.
La série Game of Thrones est une merveilleuse mise en images de ce risque
apocalyptique. Elle a été l’un des plus grands succès du nouveau monde des
séries. « Winter is coming » est l’expression culte qui traverse les différents
épisodes. L’hiver qui s’annonce n’est pas une saison parmi les autres mais un
mini-âge glaciaire, métaphore inversée du risque climatique. La série rend cette
menace palpable, si l’on ose dire, par le fait que l’hiver provoque le réveil d’une
armée de morts vivants, les Whitewalkers, surgis du Grand Nord et prêts à
envahir le royaume ! Comme dans la vraie histoire de l’île de Pâques, les
rivalités pour s’installer sur le trône rendent les seigneurs de la guerre totalement
insensibles au risque qui s’annonce, chacun persévérant dans son obstination à
prendre le pouvoir. L’un après l’autre, les principaux personnages de la série, les
meilleurs comme les plus pervers, sont assassinés dans une valse qui ne laisse
aucun espoir d’un happy end final ! Le héros, Jon Snow, est un Christ réincarné.
Il est assassiné puis ressuscité pour accomplir sa « mission ». Dans le dernier
épisode, qui clôt huit ans d’attente insoutenable pour les téléspectateurs, il doit
s’exiler dans le Grand Nord redevenu habitable : il y trouvera la liberté véritable.
Ce récit désigne parfaitement d’où vient le mal. C’est la rivalité entre les
humains qui les détourne de la conscience du danger. Il aurait fallu aux habitants
de l’île de Pâques un Jon Snow capable de s’offrir en sacrifice pour les alerter
des risques apocalyptiques qui les menaçaient. Mais suffit-il de les alerter du
danger du haut de sa croix pour détourner les humains de leur course mortifère ?
C’est dans le creux de cette question qu’est né un genre littéraire nouveau : la
collapsologie.
La collapsologie

Un livre à succès, Comment tout peut s’effondrer. Petit manuel de


collapsologie à l’usage des générations récentes, a donné à l’effondrement son
manifeste théorique 5. Les auteurs ont repris et actualisé l’analyse prémonitoire
réalisée par une équipe du MIT en 1972, le « rapport Meadows ». Vite traduit
dans de nombreuses langues, ce rapport avait annoncé que l’épuisement des
ressources non renouvelables obligerait les sociétés industrielles à une forte
correction de trajectoire. Le livre du MIT proposait une analyse extensive de
l’empreinte grandissante des humains sur les sols, l’eau, les forêts. Il a dû aussi
une grande partie de son succès au fait qu’il annonçait la fin prévisible des
énergies fossiles, ce qui en fit rétrospectivement l’annonciateur des chocs
pétroliers des années soixante-dix. Comme on le découvre aujourd’hui, ce n’est
pas toutefois la rareté des énergies fossiles qui pose problème. C’est en fait
exactement le contraire, c’est leur abondance ! C’est leur excès qui met en péril
l’écosystème terrestre. Si nous décidions d’utiliser l’ensemble des découvertes
de pétrole, nous émettrions 25 fois plus que notre budget carbone ne le permet.
Comme le montrent toutefois Servigne et Stevens, le message central du
rapport Meadows reste d’une actualité brûlante sur tous les autres problèmes
qu’il aborde. Ils rappellent tout d’abord la course folle de nos dépenses
énergétiques. Au cours du seul XXe siècle, à l’échelle de la planète, la
consommation d’énergie a été multipliée par 10, l’extraction des matériaux
industriels par 27, celle des matériaux de construction par 34. D’autres calamités
surgiraient avec la hausse du niveau de la mer. Le Bangladesh est l’un des pays
d’où pourraient venir le plus grand nombre de réfugiés climatiques : le tiers sud
du pays pourrait être noyé sous les flots. Les grands deltas du monde, en Égypte,
au Vietnam ou en Afrique de l’Ouest sont également menacés.
Les sociétés modernes sauront-elles s’arrêter avant l’abîme ? Comme le disait
Georges Bataille dans son livre La Part maudite, les sociétés tendent toujours à
aller au bout de leurs possibilités. Les civilisations qui sont parvenues à
s’autolimiter pour éviter un effondrement sont de fait très rares. L’exemple
donné par Diamond est celui d’une île minuscule du Pacifique, Tikopia, où les
habitants ont survécu pendant 3 000 ans aux limites de leurs capacités
forestières. Ce n’est pas rassurant… Servigne et Stevens donnent une longue
liste des raisons qui expliquent le déni général qui est opposé, aujourd’hui
comme hier, aux crises écologiques. Il est troublant de noter que les forces
émotionnelles en jeu sont exactement celles qui sont stimulées par les réseaux
sociaux !
La première cause est la prédominance du « système 1 » de Kahneman dans
notre pensée. Nos cerveaux sont très performants pour traiter les problèmes
immédiats, très mal à l’aise avec la pensée de long terme. Dan Gilbert,
psychologue à Harvard, avait ironiquement résumé les choses en disant : « De
nombreux écologistes disent que le changement climatique est trop rapide. En
fait il est trop lent, il n’arrive pas assez vite pour capter notre attention ! »
La deuxième explication proche de la précédente est l’effet dit d’habituation.
Nous nous habituons à tout, même à des conditions d’existence dégradées,
pourvu qu’elles surviennent lentement. L’exemple bien connu est celui de la
grenouille qui bondit hors de l’eau quand on la trempe dans une casserole
bouillante mais qui reste dedans, jusqu’à en mourir, quand on la fait chauffer
progressivement. C’est l’explication donnée par Diamond pour expliquer le
geste de celui qui a coupé le dernier arbre de l’île de Pâques. La conscience de
commettre un acte irréparable a été embrumée par l’habituation aux désastres
antérieurs.
La troisième explication est le pouvoir des mythes sur notre psyché. Celui du
progrès qui habite la civilisation occidentale fait penser qu’il y aura toujours une
solution technique pour sauver les humains. La découverte rapide de vaccins
contre le Covid ne peut qu’entretenir cette espérance. Nous levons les bras vers
le ciel des sciences et des techniques pour nous sauver du mal, à la manière de
Trump qui a joué le salut épidémiologique de l’Amérique sur la promesse d’une
découverte rapide de vaccins. La quatrième explication donnée par Servigne et
Stevens analyse le déni comme une émotion régulatrice, un processus salutaire
qui nous protège des « informations toxiques ». Nous savons tous que nous
devons mourir mais nous ne voulons pas y penser tous les matins.
La dernière explication du déni climatique retenue par Servigne et Stevens
tient au besoin de croire en une solution alternative. Pour réagir à une menace, il
faut certes que les gens en soient correctement informés mais il faut aussi et
surtout qu’ils croient en la possibilité de s’en sortir. C’est la théorie du
« groupthink » développée par Roland Bénabou. L’annonce de la catastrophe ne
suffit pas, il faut croire qu’un autre monde est possible pour la prendre au
sérieux.
Le catastrophisme éclairé

Jean-Pierre Dupuy avait écrit un livre, Pour un catastrophisme éclairé, qui


anticipait merveilleusement le rôle et les dangers de la collapsologie dans la
psyché contemporaine. Il faut, explique-t-il, véritablement croire en la
catastrophe si on veut l’éviter. La difficulté philosophique est évidemment de
comprendre comment croire à quelque chose d’inévitable si le but est de vouloir
l’empêcher… Toute la subtilité du livre est de nous amener à saisir la portée de
cette contradiction. C’est pour l’éclairer que Dupuy avait cité les propos d’Henri
Bergson à qui la guerre était apparue tout à la fois « comme probable et comme
impossible : idée complexe et contradictoire qui persiste jusqu’à la date fatale ».
Dans un autre registre, mais avec des intuitions proches, l’économiste Nouriel
Roubini parle de « cygnes blancs » pour comprendre le déclenchement des crises
financières, prenant le contrepied de la célèbre théorie des « cygnes noirs » de
Nassim Nicholas Taieb. Pour ce dernier, la crise se déclenche avec l’apparition
de ce qu’il décrit comme un cygne noir, à savoir un événement a priori
impossible et qui fait brutalement comprendre aux investisseurs que leurs
théories sont fausses. Pour Roubini, c’est le contraire : les signes avant-coureurs
des crises financières sont très souvent bien visibles, mais nous refusons de les
voir.
Yves Citton et Jacopo Rasmi ont écrit un livre roboratif sur la collapsologie,
où ils soulignent les ambiguïtés du catastrophisme 6. Un terme plus juste à leurs
yeux pour désigner le processus en cours serait celui d’effritement. Comme un
immeuble HLM qui se dégrade irrésistiblement lorsque la peinture s’écaille, que
l’ascenseur ne fonctionne plus. Le grand risque qui pèse sur notre civilisation
matérielle n’est pas de disparaître du jour au lendemain, mais de nous entraîner
vers des conditions de vie toujours plus difficiles, sans retour en arrière possible,
sauf pour les plus riches qui iront s’installer au nord, tandis que les populations
les plus pauvres des cités recouvertes par la crise perdront tout. « Nos sociétés se
délitent : voilà qui est sans doute bien moins saisissant et beaucoup plus banal
qu’annoncer le pillage des supermarchés à l’horizon de la décennie à venir. »
Leur point fondamental est surtout de montrer pourquoi l’idée d’effondrement
n’engage pas à l’action. On n’empêche pas la catastrophe, on s’y prépare. Elle
donne lieu à une pratique de survie : celle du survivalisme. Le collapsus en vient,
paradoxalement, à être désiré par ceux qui l’annoncent, comme la promesse des
temps messianiques. C’est en cela que les collapsologues sont souvent agacés
par la promesse que des solutions existent qui pourraient déjouer la crise
annoncée. Le catastrophisme s’inscrit, aussi, à sa manière dans le
postmodernisme. Tout est culture, disent les penseurs postmodernes. Pour penser
le risque apocalyptique, il faut donc admettre, voire désirer, que la civilisation
puisse disparaître aussi. Toute action au sein de celle-ci est futile à leurs yeux.
Notes
1. En cumulé, depuis 1850, l’Europe et l’Amérique du Nord ont émis 39 % du total, l’Asie
20 % et l’Afrique 7 %.
2. Les émissions de gaz à effet de serre sont 54 % plus élevées qu’en 1990. Leur taux de
croissance s’est certes ralenti, passant de 2 % en 2000-2009 à 1,3 % en 2010-2019 tandis que
l’intensité énergétique de la croissance (CO2/PIB) baisse de 2 % l’an. Le GIEC appelle à un
effort qui vise à réduire de moitié les émissions d’ici à 2030. Il faut que le pic de pollution soit
atteint au plus tard en 2025, et que les émissions régressent ensuite, pour devenir nulles en 2050
au plus tard afin de rester sous la barre des 1,5 °C. Pour les 2 °C, il faut atteindre cette cible en
2070.
3. Le coût de celles-ci a d’ores et déjà beaucoup baissé. Le coût de l’énergie solaire a chuté de
85 %, l’éolien de 55 %, les batteries au lithium de 85 %. Il manque évidemment des méthodes
efficientes pour les stocker, et les recherches sur l’hydrogène, sur les batteries innovantes doivent
être démultipliées.
4. En 2019, 34 % des émissions nettes venaient du secteur de l’énergie, 24 % de l’industrie et
23 % de l’agriculture (au sens large), 15 % des transports et 6 % des bâtiments. Si l’on impute
l’énergie à ses utilisateurs, 34 % des émissions nettes viennent de l’industrie, 16 % pour le
bâtiment, le secteur énergétique lui-même tombant à 12 %.
5. P. Servigne, R. Stevens, Comment tout peut s’effondrer. Petit manuel de collapsologie à
l’usage des générations récentes, Paris, Le Seuil, 2015.
6. Y. Citton et J. Rasmi, Générations collapsonautes, Paris, Le Seuil, 2020. Dupuy est lui-
même revenu sur les utilisations abusives du catastrophisme dans La Catastrophe ou la vie,
Paris, Le Seuil, 2021.
La société d’addiction

L’effort pour échapper au CO2 a parfois été comparé à la lutte contre le


tabagisme, tant pour la difficulté de s’en déprendre soi-même que pour le travail
de déni organisé par les lobbies. Même après que les études ont établi, sans
aucun doute scientifique possible, que la cigarette était une cause directe de
cancers du poumon, la cigarette n’a pas disparu de l’horizon. De même, on sait
désormais que les compagnies pétrolières n’ignoraient rien, dès les années
soixante, des risques climatiques liés aux énergies fossiles.
Mais l’addiction n’est pas seulement l’effet de l’offre disponible, elle répond
aussi à une demande. La consommation de substance addictive est engagée non
pas malgré ses inconvénients, dont la dépendance, mais en partie du fait de ceux-
ci. Être « accroc » à une substance ou à une série télévisée, c’est être soulagé de
problèmes existentiels lourds (« qui suis-je ? ») par un procédé où la mise en
danger de soi-même permet de détourner son attention des problèmes qui nous
minent. Comme l’analyse Christian Ben Lakhdar, la société d’addiction
contemporaine est un mélange de plusieurs ingrédients qui traversent toutes les
classes sociales 1. Il y a d’abord l’affaiblissement du lien social, qui mène à un
étiolement du contrôle sur soi lorsque la société ne joue plus son rôle régulateur.
C’est exactement l’analyse qui est faite par Case et Deaton lorsqu’ils étudient les
surconsommations d’opiacés des classes populaires américaines. Les drogues
aident les plus pauvres à « tenir le coup » dans une société qui les abandonne. Il
y a aussi, à l’autre bout du spectre social, les consommations de drogue liées au
culte de la performance, pour reprendre l’analyse d’Alain Ehrenberg, où la
drogue devient le moyen de surperformer, tel le trader fou qui fonctionne à la
cocaïne.
Pour les économistes, le tabagisme peut s’interpréter comme un jeu à somme
négative entre l’être que vous êtes aujourd’hui et celui que vous serez demain,
lequel paiera les conséquences de vos addictions présentes. C’est cette matrice
intellectuelle qui fixe l’analyse économique du risque climatique. A fait du mal à
B, il doit en payer le prix pour « internaliser » le dommage qu’il commet 2. C’est
le principe « pollueur-payeur ». Si vous nettoyez votre linge en haut d’une
rivière et la rendez impraticable à vos voisins qui pêchent en aval, vous leur
imposez un méfait, une externalité négative, dont vous ne payez pas les
conséquences. Il suffit, à suivre ce raisonnement, de tarifer le coût supporté par
votre voisin pour aboutir à une solution efficiente : soit vous arrêtez de laver
votre linge, et tout va bien, soit vous donnez à vos voisins les moyens de pêcher
ailleurs, et le dommage est réparé. Dans le cas du réchauffement climatique, ce
sont les générations futures à qui le mal est imposé. C’est en leur absence mais
en leur nom qu’on doit faire payer ceux qui polluent aujourd’hui, un point que le
philosophe Hans Jonas avait théorisé dans son idée du « principe
responsabilité ».
La métaphore du pollueur-payeur est intéressante mais en réalité pas
véritablement adaptée au réchauffement climatique. Le prix n’est pas une fin en
soi comme dans le principe pollueur-payeur où le dédommagement du pollué par
le pollueur suffit à régler le problème. La question n’est pas : « Polluez pourvu
que vous remboursiez ceux que vous gênez », c’est : « Ne polluez plus ! » Des
normes nouvelles interdisant par exemple, purement et simplement, les voitures
thermiques sont tout aussi et parfois plus utiles. Le problème principal de la
tarification du carbone est surtout qu’elle prend comme résolu celui qu’il faut
résoudre, à savoir que les populations y soient favorables. La Convention
citoyenne, réunie à Paris pour examiner la question, a donné une longue liste de
recommandations, allant de l’interdiction de la publicité à l’obligation du
recyclage, sans jamais mentionner la taxation du carbone.
Il y a plusieurs interprétations possibles à ce hiatus entre les économistes et les
populations concernées. L’une est de penser que ces dernières sont moins lucides
que les experts, ce qui est certainement ce que les experts eux-mêmes tendent à
penser. L’autre interprétation est que les classes populaires sont au contraire très
lucides sur la signification pour elles-mêmes des mesures qui doivent être prises.
Les taxes sur le carburant, comme celles sur le tabac, sont profondément
régressives : ce sont les plus pauvres qui supportent, en proportion de leurs
revenus, le poids le plus élevé. En théorie, il suffirait que les pouvoirs publics
s’engagent à dédommager les perdants pour résoudre ce problème, mais c’est
bien là que le bât blesse : la parole publique n’est plus crédible à leurs yeux.
Parler du climat en général, sans référence à la situation de chacun, ne
fonctionne pas. La sensibilité écologique reste contingente à beaucoup d’autres
paramètres : la légitimité de l’action publique, l’intensité du lien social, le souci
des générations à venir… La place du futur dans l’imaginaire de chacun n’est
pas la même d’un segment à l’autre de la société. Lorsque votre métier, votre
environnement urbain (le fait de vivre loin des grandes villes) vous condamne à
une mort sociale inéluctable, il est difficile de se hisser au-dessus de sa condition
présente au nom du bien-être des générations futures.
Car le climat n’est pas une nouvelle religion, ni même un ersatz de celle-ci
dans le monde laïque que nous habitons. Il n’échappe pas aux catégories
habituelles de la vie politique. Lorsqu’on examine les préférences des électeurs,
on note en ce domaine une dispersion des opinions qui est très proche de leur
position politique générale. Les électeurs de gauche sont favorables à la lutte
contre le réchauffement, les électeurs de droite beaucoup moins, les électeurs du
RN étant les moins intéressés. Ceux qui pariaient sur une ferveur unanime en
faveur du climat doivent déchanter. Pour la plupart des gens, l’écologie est une
chose importante, mais pas davantage que le système de santé ou le pouvoir
d’achat 3. La prise de conscience de la catastrophe climatique a certes augmenté.
Les sondages montrent que les trois quarts des Français pensent désormais que le
réchauffement est une menace sérieuse et qu’elle est la conséquence des actions
humaines. Mais entre ceux qui sont prêts à tout miser sur le progrès technique
pour trouver des solutions, et ceux qui veulent vivre dès aujourd’hui en mode
survivaliste, l’éventail d’opinions est si large qu’il est difficile de se rassurer sur
la capacité collective des humains à s’entendre sur les actions à mener.
Le problème se complique grandement du fait qu’il ne s’agit pas seulement de
réconcilier l’être que nous sommes aujourd’hui avec celui que nous serons
demain. La réconciliation doit avoir lieu ici et maintenant à l’échelle de la
planète tout entière. Les pays pauvres qui aspirent à rejoindre les pays riches ont
beaucoup de mal à admettre qu’ils devraient se priver de voiture et de viande du
fait des dommages dont les pays riches sont eux-mêmes les coupables. Les
Français peuvent se convaincre de tel ou tel remède, la sobriété ou le nucléaire,
si les Chinois, les Américains ou les Indiens n’y adhèrent pas, ça ne servira pas à
grand-chose. On aimerait penser que le climat offre aux humains l’accès à une
sorte de conscience universelle de leur commune dimension terrestre. On en est
très loin.
Comme l’expliquent très bien Bruno Latour et Nikolaj Schultz dans leur livre
Mémo sur la nouvelle classe écologique, il faut en réalité accepter l’idée que
l’écologie divise. Il faut, à les suivre, créer un nouveau « front de classe » qui
inclut tous ceux qui voient dans l’écologie une dimension essentielle de leur
identité sociale, que ce soient, en vrac : les jardiniers, les scientifiques engagés
dans la géoscience, les anthropologues, les investisseurs qui veulent s’assurer de
la valeur sociale de leurs investissements dans cinquante ans, tous les métiers qui
sont prêts à opposer la rationalité de leur emploi au « culte de la performance »
comme les personnels de santé, les enseignants, en sachant qu’ils doivent
affronter, démocratiquement, les autres.
Il faut surtout inventer une autre méthode que le catastrophisme pour se
convaincre d’agir. Comme le disent Servigne et Stevens, il ne faut pas distinguer
la réflexion de l’action : c’est en faisant les choses qu’on transforme son
imaginaire. Il faut commencer à vivre autrement, même si les gestes de départ
sont symboliques, pour faire l’apprentissage d’un monde à inventer. Il faut
ressentir non pas seulement de la tristesse face au monde qui se délite, mais de la
joie pour celui qui est possible. Le fumeur qui renonce au tabac doit penser qu’il
reconquiert les moyens d’une vie saine, sinon il ne fait que vivre dans le deuil
d’un bonheur perdu, et la rechute est inévitable.
Notes
1. C. Ben Lakhdar, Addicts. Les drogues et nous, Paris, Le Seuil, 2020.
2. La tarification du carbone permettrait aussi et peut-être surtout d’éviter un piège fatal : que
la montée en puissance des énergies renouvelables ne fasse baisser le prix des énergies fossiles,
contredisant l’objectif initial.
3. Au sortir de la crise du Covid, le classement des Français mettait le pouvoir d’achat en tête
des préoccupations, avec 44 % de citations, la santé avec 33 %, et le climat avec 32 %, alors
même que 77 % des Français se disent convaincus du risque climatique.
VII.

Dans cent ans


La société d’abondance

« Nous savons aujourd’hui que des peuples qualifiés de “primitifs”, ignorant


l’agriculture et l’élevage, vivant principalement de chasse et de pêche, de
cueillette et de ramassage des produits sauvages, ne sont pas tenaillés par la
crainte de mourir de faim et l’angoisse de ne pouvoir survivre dans un milieu
hostile. Leur petit effectif démographique, leur connaissance prodigieuse des
ressources naturelles leur permettent de vivre dans ce que nous hésiterions sans
doute à nommer l’abondance. […] Ils disposent de plus de loisirs qui leur
permettent de faire une large place à l’imaginaire, d’interposer entre eux et le
monde extérieur, comme des coussins amortisseurs, des croyances, des rêveries,
des rites, en un mot toutes ces formes d’activité que nous appellerions religieuse
et artistique. »
Ce magnifique texte de Lévi-Strauss fait un tableau réjouissant des sociétés
primitives que l’anthropologue Marshall Sahlins avait également célébrées. À les
lire, comme dans le jardin d’Éden, les sociétés de chasseurs-cueilleurs vivaient
dans l’abondance et l’insouciance, ne travaillant que deux à quatre heures par
jour pour assurer la subsistance de tous. Cette image idéale des sociétés d’hier
doit toutefois être prise comme cela : comme un mythe dont il ne faut pas être
dupe, mais qui montre l’incroyable inventivité des humains dans leurs manières
d’explorer le monde qu’ils veulent habiter. Les anthropologues sont revenus sur
la validité générale de ce tableau. L’idée selon laquelle les sociétés de chasseurs-
cueilleurs ignoraient l’effort et l’accumulation de richesses n’est pas universelle.
Les cueilleurs du nord-ouest de la Californie, par exemple, étaient connus pour
leur cupidité. Selon Graeber et Wengrow « leur existence s’organisait autour de
l’accumulation d’argent (sous la forme de monnaie coquillage) et de trésors
sacrés et l’éthique rigoureuse de travail qu’ils avaient développée était tournée
vers cette unique finalité ». Les hommes n’ont pas attendu l’agriculture pour
explorer toutes les possibilités de la vie sociale.
Si ces sociétés d’hier nous font signe, c’est parce que nous sommes en train de
nous arracher au poids des représentations que les sociétés agraires nous ont
léguées. La parenthèse de 10 000 ans où elles ont gouverné les vies humaines est
en train de se refermer… L’un des plus formidables rebondissements tient à la
place des femmes dans la société. Après dix millénaires au cours desquels ces
sociétés ont fabriqué un régime de subordination de celles-ci à l’impératif
démographique, la natalité a fini par s’effondrer, en Europe d’abord puis dans
l’ensemble du monde. Un projet, mené par les démographes de l’université de
Princeton, a donné une foule de résultats en ce domaine. En quelques décennies,
de 1870 à 1910, la baisse de la fertilité s’est observée dans presque tous les pays
européens, de manière concomitante et quasiment indépendante des variables
socio-économiques. Par exemple, l’Angleterre et la Hongrie engagent leur
transition au même moment, alors qu’elles sont très différentes en matière
d’éducation ou de mortalité infantile. La Bulgarie qui était illettrée et rurale a
commencé sa transition au même moment. Cette simultanéité ne laisse guère de
doute sur le fait qu’il s’agit d’un phénomène culturel beaucoup plus profond
qu’une simple réaction à l’évolution socio-économique qui serait liée par
exemple à l’urbanisation 1.
La même rupture s’est observée dans les pays en voie de développement. La
chute de la fécondité s’est manifestée en quelques décennies, passant de 5
enfants par femme en moyenne en 1950 à 2,4 aujourd’hui. L’explication donnée
par les démographes des Nations unies rejoint les conclusions du Princeton
Project sur la transition européenne. Ses sources sont culturelles. Les femmes du
monde entier ont vu à la télévision un modèle qui les a fascinées : celui de
femmes occidentales dont le mode d’existence (télévisuel) est devenu pour elles
une aspiration à la liberté. Les telenovelas brésiliennes se sont révélées plus
fortes que l’Église qui était pourtant parvenue à bloquer le planning familial 2.
C’est un changement de mentalité et non un changement d’incitations
financières qui explique la transition démographique. C’est un changement de
mentalité de même nature, un nouveau passage de la quantité à la qualité, qu’il
faut imaginer pour se projeter dans un avenir désirable.
Le grand espoir du XXI e siècle

Écrivant en 1928, le grand économiste anglais John Maynard Keynes avait


annoncé un grand espoir pour le XXIe siècle qui fait étonnamment écho à la
description que faisait Lévi-Strauss des « sociétés sauvages ». Dans un siècle,
écrivait-il, et nous y sommes presque, il « suffira de trois heures de travail par
jour pour satisfaire le vieil Adam en nous »… Ce texte porté par la beauté de son
style mérite d’être longuement cité.
« Le problème économique, la lutte pour la subsistance, a toujours été jusqu’à
présent le problème principal et le plus pressant de l’espèce humaine – pas
seulement de celle-ci, mais de l’ensemble du règne biologique depuis les débuts
de la vie sous ses formes les plus primitives. Nous avons été expressément
forgés par la nature – avec toutes nos impulsions et nos instincts les plus
profonds – dans le but de résoudre le problème économique. À supposer
toutefois qu’il n’y ait pas de guerres graves et pas d’augmentation importante de
la population, le problème économique peut être résolu, ou du moins en vue
d’une solution, dans un délai de cent ans. Le problème économique n’est pas – si
l’on regarde vers l’avenir – le problème permanent de l’espèce humaine. »
Un siècle a passé et la sortie de l’économie n’a toutefois toujours pas eu lieu.
La consommation est aujourd’hui quatre fois supérieure à ce qu’elle était dans
les années soixante, mais rien n’y fait ! C’est comme si le Smic valait
5 000 euros sans que les problèmes de base de la vie matérielle ne soient
résolus… Comment est-ce possible ? Une première réponse est que le
capitalisme sait aiguiser scientifiquement l’appétit de consommation des
populations, en proposant des biens dont la possession devient vite indispensable
alors même qu’ils étaient inconnus peu de temps auparavant. Cette inventivité du
capitalisme est sa force. On lui doit le cinéma, le téléphone, la machine à laver,
autant d’éléments qui, en première intention, contribuent au progrès humain. Le
problème est que, au-delà du besoin lui-même, il faut ensuite encore et toujours
aller plus loin : détenir le dernier modèle d’automobile, d’iPhone, pour ne pas
être déclassé… C’est la théorie célèbre du « Keep up with the Jones » qui
transforme la société en un champ de rivalités permanentes. On associe à
l’économiste Richard Easterlin ce paradoxe d’une richesse qui ne parvient
jamais à rendre les gens heureux, minés qu’ils sont par leur comparaison
constante à autrui.
Quelque chose de plus puissant s’est toutefois mis en œuvre depuis la
publication du texte de Keynes, qui accomplit presque silencieusement sa
prédiction. Si l’on s’en tient aux biens qui caractérisaient la consommation à
l’époque où Keynes a écrit son essai, la fin du travail s’est bel et bien produite !
Les parts de l’industrie et de l’agriculture ne représentent plus que 15 % des
heures travaillées dans un pays comme la France ou les États-Unis, contre 60 %
lorsque Keynes a publié son article. La disparition de la société industrielle a
bien eu lieu ! Il en reste les vestiges dont parlait Jérôme Fourquet, d’une société
où le centre commercial a remplacé l’usine comme lieu de construction de
l’imaginaire populaire. Mais tout ce qui faisait hier le cœur de la consommation
de masse, électroménager et télévision, ne représente plus qu’une part marginale
des dépenses. On n’achète plus des biens industriels pour le désir de les posséder
mais bien davantage pour les changer quand ils sont cassés. La chute
irrépressible de leurs prix rend en effet plus simple d’acheter une télévision
neuve quand l’ancienne est en panne, ce qui fait comprendre ici l’utilité d’une
tarification du carbone pour éviter ces gâchis.
La composition de la dépense privée permet de suivre la formidable
transformation des modes de consommation qui a eu lieu en un demi-siècle. Les
items que sont l’alimentation et le tabac cumulés aux produits industriels de
base, l’habillement et l’équipement du foyer, représentaient plus de la moitié des
dépenses en 1960. Ils en représentent moins d’un quart aujourd’hui 3. Les deux
postes qui ont, à l’inverse, explosé sont le logement et l’automobile, dont la part
cumulée a doublé au cours de la même période. À eux deux, ils représentent
40 % du total consommé aujourd’hui 4. Les Gilets jaunes ont fait comprendre
l’unité insécable entre ces deux postes. La réponse des classes populaires au
renchérissement des logements a été de préserver leur surface d’habitation en
s’éloignant toujours davantage de leurs lieux de travail. Hervé Le Bras a
souligné ce fait étonnant : malgré les immenses disparités de revenus entre les
plus riches et les classes moyennes et populaires, un item résiste à ces
inégalités : le nombre de mètres carrés occupés par les uns et les autres. Les plus
riches n’occupent pas beaucoup plus de surface que les pauvres : tout se joue
dans les lieux de résidence. Les uns sont dans les beaux quartiers, en centre-ville,
les autres doivent accomplir des distances beaucoup plus longues pour aller
travailler.
Ces questions ont peu de rapport avec celles auxquelles la croissance
industrielle traditionnelle apportait des réponses. Ce n’est pas en augmentant la
production de téléviseurs ou de machines à laver que les difficultés d’existence
des Français vont se régler. Pour sauver le climat et le pouvoir d’achat, c’est en
fait l’inverse qu’il faut faire : lutter contre l’obsolescence des biens, s’assurer
qu’ils sont constitués de matériaux recyclables, et en consommer moins. La
grande question du bien-être postindustriel est ailleurs : il s’agit d’occuper
l’espace social de manière beaucoup plus harmonieuse. La désertification des
territoires les moins dotés est à cet égard une question cruciale. Elle est
intimement imbriquée à celle des services publics. Lorsque l’État ferme un
bureau de poste, lorsqu’une gare cesse d’être desservie faute de rentabilité, c’est
une immense chape de plomb qui s’abat sur les communes concernées.
La place de la dépense publique est l’autre trait majeur de la société
postindustrielle. En France, sa part a presque doublé au cours des soixante
dernières années, passant de 14 % à 24 % de la consommation totale (quand les
dépenses publiques sont réimputées aux ménages). L’évolution la plus
spectaculaire est celle de la santé publique, qui a elle-même quasiment triplé,
passant de 5,5 % à 14 % de la dépense totale. Le fait que la santé ou l’éducation
soient principalement produites par le secteur public et payées par l’impôt crée
une confusion qui fait dire à peu près tout et n’importe quoi. Un raisonnement
classique est qu’il faut un secteur privé dynamique pour pouvoir payer les
dépenses publiques. Faut-il vendre des dentifrices pour payer les médecins ?
C’est évidemment idiot. On peut (par la pensée) imaginer une société où tout le
monde serait médecin ou aide-soignant, le pouvoir d’achat créé en travaillant
étant épargné pour pouvoir se soigner quand on sera vieux et ou malade. Ce
système peut aussi bien être public que privé. Ce qui compte n’est pas l’origine
de la production, mais le bien-être qu’elle apporte aux populations.
Le scandale d’Orpea, cette société responsable d’Ehpad où la maltraitance des
personnes âgées a choqué la France entière, pose de manière crue la question
fondamentale : qu’est-ce que l’on entend par productivité lorsqu’il s’agit de
s’occuper d’humains ? On peut imaginer réduire les coûts d’administration, à la
manière dont Watson, l’assistant créé par IBM, peut dispenser de recruter des
assistants. Mais in fine, quand il s’agit de s’occuper des personnes elles-mêmes,
tout gain de productivité menace de déshumaniser une activité dont le cœur est
le soin apporté par une personne à une autre. Dans le cas d’Orpea, le rapport
d’enquête fait froid dans le dos. Il a été noté que les repas manquaient de viande,
que les collations nocturnes n’étaient pas systématiques, si bien que des durées
de jeûne supérieures au plafond recommandé de 12 heures ont été souvent
observées. Tout a été fait pour limiter le personnel. Les résidents étaient couchés
à 16 heures, selon l’avocat des victimes, pour réduire le temps passé avec eux.
Des chaises roulantes ont été utilisées pour simplifier les déplacements des
patients avec l’effet prévisible qu’ils ont vite perdu leur motricité.

On ne peut pas gérer le rapport aux humains comme on le faisait avec les
matériaux de la société industrielle. Si la société numérique est le moyen
d’apporter de la productivité aux activités de service, il faut tracer des lignes
infranchissables dans la manière dont elle s’occupera des personnes. Les
hôpitaux, les maisons de santé et de soin, qui ont remplacé les usines comme lieu
central de la production, doivent disposer de la capacité technologique de penser
par eux-mêmes le parcours du patient sans se soumettre à un protocole de
rationalisation dont ils ne seraient que l’un des rouages. Tel est l’enjeu de la
civilisation qu’on veut créer.
Notes
1. A. Johnson Coale et S. Cotts Watkins, The Decline of Fertility in Europe, Princeton
University Press, 1986. La France, qui a été pionnière en ce domaine, avait entamé sa transition
démographique un bon siècle avant les autres pays européens, avant même que ne commence la
révolution industrielle et l’urbanisation de masse. L’Angleterre, à l’inverse, a enregistré son
déclin démographique bien après l’émergence de grandes villes industrielles.
2. Lire Eliana La Ferrera et al., « Soap operas and fertility », American Economic Journal :
Applied Economics, 4 (4), 2012.
3. Alimentation et tabac passent de 32 % à 19,5 %, l’habillement passe de 12 % à 3 % des
dépenses, l’équipement du logement régressant de 8,5 % à 4,5 %.
4. L’automobile passe de 10,5 % à 14 % des dépenses, le logement passe de 11,5 % à 26,5 %
(chauffage et éclairage inclus).
Retour sur la SF

Le film Elysium tend le miroir de la société qu’on voudrait absolument


empêcher d’advenir. Les élites ont migré vers une planète en orbite terrestre où
règnent la paix et la prospérité. Des robots et des drones militaires autonomes
s’occupent de la plèbe restée sur terre. Elysium pousse à l’extrême cette vision
d’une société où les riches disposent d’une domesticité abondante pour
l’ensemble de leurs besoins tandis que le peuple, à l’autre bout de la chaîne, est
pris en charge par des robots et des algorithmes.
La SF aime représenter un monde écrasé par la surpopulation, polarisé
socialement par l’exil vers d’autres planètes des riches ou des pauvres…
L’économie y joue un rôle sous-jacent central. Dans les récits de science-fiction,
les « corporations » sont souvent plus importantes que les États et les
gouvernements (quand ils sont même représentés !). Dans Ubik, le livre de Philip
K. Dick, l’auteur de Blade Runner, la monnaie s’appelle le « poscreds » et sert à
tout payer : la porte qui s’ouvre pour rentrer chez soi, le réfrigérateur pour se
nourrir, comme une manière de rappeler que tout a un prix, que tout geste est
mesuré à l’aune de sa valeur marchande. Dans le film d’Andrew Niccol Time
Out, la monnaie est le temps lui-même. On ne travaille pas pour de l’argent mais
pour des secondes, des heures, des années de vie. Les pauvres courent après le
temps, littéralement. Dans la première scène du film, un fils se précipite vers sa
mère pour lui offrir les minutes qui lui manquent, mais en vain. Elle meurt dans
ses bras pour une poignée de secondes. Le riche, c’est celui qui dispose d’une
vie qui se compte en siècles.
La SF ramène au début de l’économie politique moderne, au XVIIIe siècle,
lorsque les premiers penseurs que furent Quesnay, Smith, Malthus ou Ricardo
s’interrogeaient sur la source des richesses : est-ce la terre ou le travail ? La SF
répond de manière très moderne : ce sont les matières premières et les
technologies qui comptent, le travail humain supposé pléthorique (par le mythe
de la surpopulation) descendant très bas dans l’échelle des contraintes.
L’imaginaire de la SF n’est-il qu’un reflet de nos angoisses, ou annonce-t-il un
monde possible, un monde qui pourrait même s’en inspirer ? Jules Verne en son
temps avait parfaitement anticipé nombre des inventions qui allaient être
déployées ensuite. Son œuvre est d’ailleurs citée par l’économiste Robert
Gordon en témoignage de l’idée que la société de consommation qui s’est
affirmée tout au long du XXe siècle était prévisible dès le début de celui-ci. Les
grandes ruptures fondamentales que furent l’électricité et le moteur à explosion
étaient parfaitement visibles à l’orée du siècle passé tout comme les
microprocesseurs et l’intelligence artificielle aujourd’hui. Pour anticiper le
déroulement qu’elles annoncent, il suffit de généraliser à l’ensemble de la
société les ruptures qui sont déjà en germe.
On peut ainsi, en fermant les yeux, imaginer un monde où la reconnaissance
faciale dispensera de montrer son passeport dans les aéroports ou de faire la
queue à la caisse d’un supermarché, où la gestion algorithmique de la circulation
supprimera les embouteillages grâce à des voitures autonomes communiquant
entre elles, où des applications permettront l’automédication sauf dans les cas
graves dont le médecin sera immédiatement alerté, un monde où des banques
sans guichets monitoreront en temps réel vos comptes et dont les algorithmes
vous proposeront des crédits à des taux reflétant un score financier mis à jour
continuellement… Cette vision peut sembler d’autant plus irrépressible que les
technologies tendent désormais à être produites sans concertation avec leurs
principaux utilisateurs. Ford avait conçu le travail à la chaîne pour des usines
dont il était le maître d’œuvre. Aujourd’hui des applications comme Booking ou
Uber ont révolutionné des secteurs dont ils n’avaient a priori aucune
connaissance. Comme l’écrit Tristan Harris, le président du Center for Human
Technology, cinquante concepteurs prennent des décisions pour 2 milliards de
personnes.
Sagesse et beauté

Il est possible de se convaincre pourtant que l’imaginaire de la SF n’est pas le


bon. Ce qui est rare et précieux, ce ne sont pas les robots ou les matières
premières. Ce sont les humains, la qualité de leur vie sociale. En 1968, Robert
Kennedy avait prononcé un discours célèbre qui résonne toujours aussi
fortement aujourd’hui. « Le PIB ne tient pas compte de la santé de nos enfants,
de la qualité de leur instruction, ni de la gaieté de leurs jeux. Il ne mesure pas la
beauté de notre poésie ou la solidité de nos mariages. Il ne songe pas à évaluer la
qualité de nos débats politiques ou l’intégrité de nos représentants. Il ne prend
pas en considération notre courage, notre sagesse ou notre culture. »
Une étude d’une profondeur inégalée confirme admirablement les intuitions
de Robert Kennedy. Dans une comparaison internationale des déterminants de la
satisfaction dans la vie de différentes sociétés, Richard Layard et ses coauteurs
ont montré que les facteurs les plus subjectifs que sont la confiance en autrui, la
générosité et la santé sont des éléments du bien-être beaucoup plus décisifs que
le PIB lui-même 1. Sur une échelle de 1 à 10, doubler le revenu d’une personne
augmente son bien-être de 0,21 point. Une journée ensoleillée fait mieux ! Le
fait de vivre en couple plutôt que seul augmente à lui seul le niveau du bien-être
de 0,8 point. La confiance interpersonnelle, la générosité, sont des facteurs plus
cruciaux : la confiance est capable d’augmenter le bien-être d’un point complet
sur cette même échelle, cinq fois plus que le revenu. Une expérience en
laboratoire a d’ailleurs montré qu’on rendait les gens plus heureux en leur
donnant 100 euros à allouer à de bonnes causes qu’en leur offrant de dépenser
ces 100 euros pour eux-mêmes.
L’effet direct du revenu sur le bien-être n’est d’ailleurs pas une mesure
suffisante de son impact réel. Il doit être corrigé pour prendre en compte
l’« externalité négative » que représente l’enrichissement des autres. Dès lors
que la richesse ne consiste pas seulement à acheter des objets mais à occuper une
place dans la société, voire tout simplement à pouvoir louer le temps de travail
d’une personne qui s’occupe de vous, la contribution d’une augmentation de
revenu au bien-être est réduite par l’enrichissement d’autrui… Les choses rares
comme un logement bien placé en ville restent tout aussi difficiles d’accès
lorsque les autres habitants ont également un revenu en croissance. La richesse
est, en grande partie, une affaire relative : s’enrichir est une bonne chose, mais
surtout si les autres en sont privés ! La France est ici encore un pays étonnant
dont les origines du malheur se situent à ce niveau. Alors que les Français se
flattent d’adhérer à une « logique de l’honneur », l’analyse statistique montre
qu’ils sont en réalité très sensibles à la richesse matérielle, bien davantage par
exemple que les Anglais ou les Allemands 2. Une explication possible est que les
Français ont beaucoup de mal à vivre ensemble. L’argent est le dernier remède
d’une société qui peine à faire société.
Un point essentiel du livre de Layard porte sur les problèmes de santé
psychique. Elle est la principale cause des inégalités de bien-être. L’étude
propose une analyse d’une profondeur incroyable, en suivant tous les enfants nés
à Bristol entre avril 1991 et décembre 1992. Elle permet de suivre de manière
quasi exhaustive leur évolution, en fonction de tous les paramètres possibles : la
situation des parents, des écoles qu’ils fréquentent, y compris des enseignants
eux-mêmes. Sans surprise, la trajectoire des enfants dépend beaucoup du milieu
social des parents. Le fait que les mères travaillent, en revanche, n’influe pas sur
les résultats scolaires de leur progéniture. Ce qui compte bien davantage est leur
état émotionnel. Il influe directement sur celui des enfants même si, de manière
étonnante, la santé psychique des mères ne semble jouer aucun rôle sur leurs
notes à l’école. Un résultat fascinant de cette étude est de montrer que
l’enseignant joue un rôle très proche. Un bon professeur a un impact beaucoup
plus fondamental sur la construction émotionnelle de l’enfant que sur ses notes !
Un enseignant attentif améliorera évidemment les résultats en mathématiques ou
en littérature de ses élèves mais son empreinte en ces domaines est transitoire.
Ce qui reste, parfois toute la vie, est l’influence qu’il peut avoir sur la psyché des
enfants. Selon qu’il leur donne confiance ou pas en eux-mêmes, leur fournit les
ressources émotionnelles d’une relation apaisée avec autrui, l’enfant deviendra
un adulte accompli ou malheureux.
On ne peut s’empêcher de relire la lettre qu’Albert Camus avait envoyée à son
instituteur après avoir reçu le prix Nobel. « Quand j’ai appris la nouvelle, ma
première pensée, après ma mère, a été pour vous. Sans vous, sans cette main
affectueuse que vous avez tendue au petit enfant pauvre que j’étais, sans votre
enseignement, et votre exemple, rien de tout cela ne serait arrivé. »
L’amour maternel

C’est par des enseignants comme celui de Camus, des soignants dévoués à
leurs patients, un personnel politique intègre que s’organise la résistance à ce
qu’il faut bien appeler l’enjeu du siècle : la numérisation systématique des
relations humaines. De nombreuses études montrent l’inanité des projets qui
visent à substituer l’intelligence algorithmique à la sensibilité humaine. Michel
Desmurget, dont nous avons suivi l’étude du « crétin digital », a analysé les
cours en ligne, les MOOC. Une étude réalisée sur un million d’usagers a montré
qu’ils ont « relativement peu d’utilisateurs actifs, que l’engagement des
utilisateurs diminue considérablement, en particulier après les deux premières
semaines d’un cours ». Les MOOC ne sont pas davantage parvenus à attirer les
étudiants pauvres et sous-éduqués dont on pensait pourtant qu’ils en seraient les
principaux bénéficiaires : environ 80 % des personnes qui se sont inscrites aux
cours en ligne avaient déjà un diplôme universitaire.
Desmurget souligne également une autre limite fondamentale que la marée
numérique ne semble pas pouvoir franchir, même s’il ajoute « pour l’instant » :
c’est l’amour maternel. Les bébés font très nettement la différence entre la
relation humaine, typiquement celle de l’amour que leur donne charnellement
leur mère, et ce que peut leur offrir une vidéo de celle-ci. « Pour des raisons qui
restent encore à expliquer, indique-t-il, les stimulations n’ont pas du tout le
même impact selon qu’elles sont adressées aux nourrissons par des humains ou
des machines. » Desmurget cite ainsi une expérience menée par Pier Francesco
Ferrari, spécialiste du développement social chez les primates, qui voulait
analyser expérimentalement le fonctionnement de l’empathie 3. Pour gagner du
temps, Ferrari avait décidé de remplacer l’expérimentateur par une vidéo de
celui-ci. De manière tout à fait imprévue, le résultat fut catastrophique : tout se
passe comme si les neurones miroirs, qui sont au fondement de l’empathie,
étaient débranchés lorsqu’une personne en chair et en os est remplacée par un
film !
Une autre expérience renforce cette conclusion. Des enseignants ont essayé
d’apprendre le mandarin à des bébés américains âgés de 9 mois. Comme dans
l’expérience (involontaire) de Ferrari, les bébés ont été éduqués pour les uns par
un être humain, pour les autres par une vidéo du même professeur, enseignant
exactement les mêmes choses. Résultat : l’éducation par vidéo s’est révélée
totalement stérile. Il manque entre la vidéo et l’enfant ce lien imperceptible et
décisif qui conduit l’enseignant à s’interrompre lorsque l’enfant cligne des yeux,
à moduler sa voix face à l’émotion qu’il décèle chez l’élève. La vidéo ne
s’adapte pas aux messages émotionnels qu’envoie le bébé, et probablement, la
réciproque devient vraie aussi : le bébé comprenant que la vidéo est insensible à
ses propres émotions se désintéresse de celle-ci.
Cet exemple est emblématique des risques que la société numérique fait
courir. Elle coupe ce lien qui permet à un humain lorsqu’il est face à un autre de
penser que cet autre humain sait ou croit savoir ce qu’il ressent lui-même…
Desmurget concluait sa formidable étude de manière désabusée. Peut-être, écrit-
il, que des « robots anthropomorphes pourront un jour éduquer nos enfants à
notre place, interpréter leurs babillages, nourrir leur curiosité, veiller sur leur
sommeil, sourire à leurs mimiques, leur faire des câlins… L’enfant sans les
tracas, la descendance sans la charge d’élever. Google et ses algorithmes
s’occuperont de tout : le meilleur des mondes numériques » !
Notes
1. R. Layard et al., The Origins of Happiness, Princeton, Princeton University Press, 2018.
2. D. Cohen, C. Senik et al., Les Français et l’Argent, Paris, Albin Michel, 2021.
3. Celle-ci est déclenchée par des « neurones miroirs », grâce auxquels un sujet (humain ou
simiesque) déglutit lorsqu’il voit l’un de ses congénères boire un verre d’eau, ou a faim lorsqu’il
le voit manger. Nous intégrons le comportement d’autrui dans notre psyché, comme si l’action
des autres, la situation où ils se trouvent, était en partie la nôtre aussi.
En guise de conclusion

Les réseaux sociaux promettent la fin des hiérarchies et à certains égards y


parviennent, en créant une société de plus en plus fragmentée. On peut être
égaux, se tutoyer, mais à l’intérieur d’un cercle strictement homogène. Chacun
rejoint le groupe qui pense comme lui, fabriquant une espèce de « moi
augmenté » par la symbiose avec ses pairs. Un nouveau type de société surgit
qui ne repose ni sur l’individualisme contemporain ni sur le modèle hiérarchique
des sociétés passées. C’est un « individualisme collectif » qui voit le jour où l’on
épouse l’identité d’un groupe à son image. Alors que la méfiance se propage
partout, les réseaux sociaux développent une culture qui fait perdre toute pudeur
dans la mise en scène de soi-même lorsqu’on s’exhibe devant sa « tribu ».
Ce monde en devenir, déjà le nôtre, est celui d’une société qui crétinise et
punit. Dans l’un des épisodes de Black Mirror, parmi les plus pénibles à
regarder, la caméra d’un ordinateur observe un jeune homme qui a été filmé
pendant qu’il consommait un matériel pédocriminel qui lui a été fourni en ligne.
Gardien de la morale, l’algorithme le pousse au meurtre d’un autre coupable en
menaçant de dévoiler sa vie cachée. Cette séquence illustre la perversion de la
société numérique. Elle met sous tutelle un individu qu’elle rend addictif à ses
propres produits. Ces « contradictions psychiques » prolongent les
« contradictions culturelles » du capitalisme industriel, à savoir une incitation à
la débauche dans l’ordre de la consommation et une discipline de fer dans celui
de la production. Dans le capitalisme numérique, cette tension est poussée
jusqu’à l’absurde : à l’addiction compulsive d’un côté, à la surveillance des
moindres faits et gestes des individus de l’autre.
L’ordre industriel avait fini par éclater au cours des années soixante lorsque la
jeunesse en révolte avait tout autant récusé la discipline imposée dans les usines
et les universités que le caractère morne et répétitif de la société de
consommation elle-même. Le problème que les sixties n’avaient pas su résoudre
avait été de trouver une société alternative à installer. Les hippies et les
gauchistes avaient exploré de nouvelles façons de vivre en « communautés », du
Larzac à la banlieue de San Francisco. Las, comme l’a brillamment montré le
sociologue Bernard Lacroix, ce qui était magnifique durant l’été a viré au
cauchemar en hiver, comme dans ces sociétés de chasseurs-cueilleurs dont le
genre de vie bascule au changement des saisons 1. « Le soleil, tu vois, avec des
gens sympas : vivre d’une manière chouette, loin de la ville, sans la contrainte
d’aller bosser tous les jours », écrit ainsi l’un d’entre eux dans son cahier, en
date du 26 juillet 1971. Mais dans le même journal, daté du 19 janvier 1972, le
ton n’est plus le même : « Il fait très froid… Moi je ne marche plus ! J’suis pas
fait pour une vie de moine !… Je n’ai pas envie de m’enfermer avec des
animaux… Il y a plein de trucs à voir ailleurs et je ne veux pas m’en couper. »
Lacroix explique parfaitement pourquoi la plupart de ces communautés n’ont pas
résisté à l’usure du temps. Dans les sociétés archaïques, l’individu n’a quasiment
aucune option de sortie, son imaginaire intègre les contraintes du monde où il
doit vivre. Dans les communautés monacales, c’est l’entrée qui est coûteuse : il
faut prouver qu’on est digne d’y appartenir. Une fois adoubé, l’impétrant veut se
montrer à la hauteur des efforts accomplis, des attentes suscitées. Dans les
communautés qui se créent dans les années soixante et soixante-dix, on entre et
on sort comme on veut : aucun ciment ne fait tenir durablement ses membres.
Dès l’hiver, les volontés flanchent et tout doit être reconstruit.
C’est dans le creux de ces échecs que la révolution numérique a fleuri. Ses
pionniers ont souvent été d’anciens contestataires rêvant de créer un monde sans
hiérarchie, sans principe d’obéissance. À l’origine d’Internet, il y eut le réseau
Arpanet, créé par le département de la Défense américain, la légende étant qu’il
devait permettre de protéger le système de communication des armées d’une
attaque ennemie. Très vite pourtant, ce système va s’étendre aux universités qui
vont en faire un instrument clé de leurs interactions. Ce sont les campus
universitaires qui sont le laboratoire vivant des nouvelles technologies. Le
monde académique est lui-même le modèle implicite de la société qui se cherche
dans la révolution numérique. Comme les bonobos, les savants sont surtout une
espèce coopérative. Ils partagent les résultats de leurs recherches, et sont
toujours prompts à écrire des articles avec des coauteurs venus d’autres
universités, d’autres pays. À la manière des anciens Grecs dans la cité, ils
confient à tour de rôle les responsabilités administratives à leurs différents
membres, quasiment par tirage au sort.
Mais les universitaires sont aussi en compétition, parfois féroce ou mesquine,
pour publier l’article qui sera cité en premier sur tel ou tel sujet. La communauté
académique s’est d’ailleurs révélée beaucoup plus vulnérable qu’elle n’est prête
à l’admettre à la pression concurrentielle qu’a fait naître la révolution
numérique. Les classements en ligne des chercheurs, en fonction du nombre de
leurs citations, sont devenus monnaie courante. En un clic Google Scholar
permet de savoir où se situe un universitaire relativement à ses collègues. Cela
aiguise une rivalité intense qui n’avait pas cours auparavant. Une étude portant
sur l’université de Berkeley a montré le choc qu’a représenté la publication en
ligne du salaire de chacun, les moins bien dotés se sentant humiliés par la mise
en scène impudique de leur « valeur de marché ».
Ce qui soude pourtant cette communauté étrange est une dimension qui paraît
bien naïve vue de l’extérieur : quelque chose comme une foi commune en la
science. Un savant peut s’autoriser à énoncer tout ce qu’il voudra pourvu que sa
théorie soit falsifiable par des expérimentations ou opposables par les
raisonnements contraires de ses pairs. C’est le « métarécit » d’une science
possible qui soude les membres de cette communauté. La vie académique offre
un type idéal presque parfait de la « bonne société » qui est cherchée par la
révolution numérique : à la fois horizontale et séculière. Les hiérarchies y sont
faibles, du moins relativement au reste de la société : un jeune chercheur peut
interpeller à tout moment son maître durant un séminaire. Et elle est laïque dans
le refus constitutif de son identité, le rejet de toute vérité révélée. Son problème
est que le coût d’entrée y est très élevé, à la manière dont on appartenait hier à
un monastère médiéval. Combien de thèses, de lectures studieuses et
d’expérimentations minutieuses remplissent les cimetières des vies
universitaires… Et le modèle académique est profondément endogame, ne
reconnaissant comme légitime que le jugement des pairs. Il est à cet égard
parfaitement en phase avec la culture de l’entre-soi que le monde numérique a
installée, peut-être à son image.
Malgré ses faiblesses, l’Université donne pourtant le modèle réalisé d’une
société où chacun s’écoute et se respecte, habitée par une confiance commune
dans les valeurs qui la fondent. Le défi que le monde contemporain doit
relever est d’étendre cette idée à l’ensemble de la société. Il faut pour cela
reconstruire des institutions inclusives luttant contre les disparités sociales. Il
faut retrouver, dans la manière nouvelle où nous voulons vivre, le brassage
social que produisaient en leur temps les entreprises, les syndicats ou les
journaux à grand tirage. Il faut des universités où la mixité sociale s’impose,
quel que soit le prix à payer pour y parvenir.
Dans le domaine de la vie politique, il faut rechercher des formes
d’organisation qui soient inclusives, sans illusion sur la capacité des réseaux
sociaux de produire seuls une alternative aux partis traditionnels. Ceux-ci
avaient le mérite de concilier des univers sociaux différents, comme hier
l’ouvrier et l’instituteur à gauche, le bourgeois et le paysan à droite, et de
chercher un point d’équilibre entre le rêve et la réalité. La politique est ce terrain
mouvant où il n’y a aucun enjeu pour une personne donnée de penser ce qui lui
chante, aucun vote isolé ne comptant vraiment. Les effets collectifs des
croyances individuelles sont pourtant considérables, ce sont elles qui façonnent
le monde où nous vivons.

C’est contre la double dissolution numérique du rapport à autrui et au monde


réel qu’il faut lutter. Nous ne ressusciterons pas les morts et ne migrerons pas
vers une autre galaxie : c’est avec les vivants et sur cette planète qu’il faut
accepter de vivre.
Note
1. B. Lacroix, L’Utopie communautaire : Mai 68, l’histoire sociale d’une révolte, Paris, PUF,
1981.
REMERCIEMENTS

Ce livre a immensément bénéficié des relectures profondes et amicales de


Roland Bénabou et de Francis Wolff, des encouragements constants de Gilles
Haéri et d’Alexandre Wickham, ami éternel, des références précieuses
d’Alexandre Cadain, et du soin apporté par Marie-Pierre Coste-Billon et son
équipe au manuscrit. Je pense à Roger Godino et Henri Weber dont j’aurais
tellement aimé entendre les commentaires. Ce livre est dédié à Suzanne
Srodogora.
Table

Couverture

Copyright

Dédicace

Exergue

Introduction

PREMIÈRE PARTIE. L’ILLUSION NUMÉRIQUE


I. Le corps et l’esprit
Terminator
Raison et émotions
L’« erreur » de Descartes
L’intelligence artificielle
II. Abêtir et punir
Une pensée sauvage
Le capitalisme de surveillance
III. En attendant les robots
La mort des rois
L’industrialisation des services
Le robot pensant
L’enjeu du siècle
IV. Anomie politique
La croissance appauvrissante
Le suicide ouvrier
Une révolution politique
Vox populi

DEUXIÈME PARTIE. LE RETOUR DU RÉEL


V. L’imaginaire social
La loi des 150 amis
Bonobos et chimpanzés
Quatre sociétés possibles
L’âge séculier
Le triomphe de l’endogamie
La mentalité postmoderne
VI. Winter is coming
Les crises du XXIe siècle
L’horloge climatique
La société d’addiction
VII. Dans cent ans
La société d’abondance
Retour sur la SF

En guise de conclusion

Remerciements
Du même auteur
DU MÊME AUTEUR

Les Origines du populisme. Enquête sur un schisme, avec Yann Algan, Elizabeth Beasley et Martial
Foucault, Le Seuil, 2019.
Il faut dire que les temps ont changé… Chronique fiévreuse d’une mutation qui inquiète, Albin Michel,
2018.
Le monde est clos et le désir infini, Albin Michel, 2015.
Homo economicus, prophète (égaré) des temps nouveaux, Albin Michel, 2012.
Macroéconomie, avec Olivier Blanchard, Pearson Education, 2010.
La Prospérité du vice, une introduction (inquiète) à l’économie, Albin Michel, 2009 ; réédition Hachette,
« Pluriel ».
Trois leçons sur la société post-industrielle, 2006, Le Seuil, « La République des idées ».
La Mondialisation et ses ennemis, 2004, Grasset ; réédition Hachette, « Pluriel ».
Nos temps modernes, 2000, Flammarion ; réédition « Champs ».
Richesse du monde, pauvreté des nations, 1997, Flammarion ; réédition « Champs ».
Les Infortunes de la prospérité, 1994, Julliard ; réédition Presses Pocket, « Agora ».

Vous aimerez peut-être aussi