DE L'INFORMATIQUE - Savoir Vivre Avec L'automate
DE L'INFORMATIQUE - Savoir Vivre Avec L'automate
DE L'INFORMATIQUE - Savoir Vivre Avec L'automate
Michel Volle
17 avril 2006
2
Introduction
3
4 INTRODUCTION
pour l’économie antérieure : les nations dont la prospérité s’est fondée sur la
mécanique et la chimie connaissent toutes, aujourd’hui, une crise de l’éduca-
tion, de l’emploi, de la santé, de la retraite. Il ne suffit plus pour l’économiste
de raisonner en termes d’équilibre entre offre et demande : il doit remonter,
vers l’amont, jusqu’à la fonction de production et aux besoins.
* *
Un tel changement suscite naturellement la plus grande confusion dans
les idées, dans les valeurs. Je revois ce directeur général qui, alors que son
entreprise recevait déjà une part significative des commandes via le site Web,
disait en se pavanant comme un dindon « Moi, je ne crois pas à l’Internet ».
Je revois cet économiste, porteur d’un nom célèbre, dire avec un mépris
accablant « la fonction de production, c’est un concept d’ingénieur ; ce qui
compte, c’est l’offre et la demande 1 ».
Nos entreprises, nos institutions s’informatisent à l’aveuglette. Elles sont
comme une personne qui avancerait à reculons, poussée par une main po-
sée sur sa poitrine, et trébucherait sur le moindre obstacle. Lorsqu’on les
examine, et une fois surmontée l’impressionnante technicité du vocabulaire
et des méthodes, on découvre des absurdités qui surprennent ainsi que les
résistances, plus surprenantes encore, qui s’opposent à ce qu’on les rectifie.
Telle entreprise s’est organisée de façon à ne pas pouvoir connaître ses
clients ; telle autre, faisant confiance à l’héritage de son histoire, a depuis
longtemps renoncé à réfléchir à son processus de production ; telle autre
encore laisse son langage, ses classifications, se détériorer au hasard des ap-
plications informatiques et des dialectes locaux. Certaines, dans les services,
ne sauraient définir ni leur produit, ni moins encore les critères selon lesquels
on peut évaluer sa qualité. Alors que la moitié du temps des salariés se passe
devant le couple écran-clavier (voir page 201), la plupart des entreprises ne
se soucient guère de la relation entre l’utilisateur et son poste de travail.
* *
Que le passage d’un système technique à l’autre provoque des désordres,
qu’il mette en question les institutions antérieures, les rapports sociaux, qu’il
pose des questions de savoir-faire, de savoir-vivre et suscite le désarroi, cela
n’a rien de nouveau. Il en fut de même à la Renaissance et lors des débuts
de l’industrialisation. Les guerres de religion, les deux guerres mondiales
du xxe siècle, peuvent s’interpréter comme des épisodes particulièrement
violents d’une crise d’adaptation.
Mais pour tempérer cette crise, pour en sortir au plus vite, il faut avoir
compris ce que le nouveau système technique a de spécifique. La mécanique
et la chimie avaient, en s’aidant d’engrenages et de moteurs, permis de
soulager l’effort physique que la production réclame à l’être humain. L’au-
tomate vient maintenant soulager l’effort mental en prenant en charge la
surveillance et l’attention prolongées, les vérifications et calculs répétitifs,
1. Il ignorait apparemment que la fonction d’offre, quand elle existe, s’obtient par
un calcul à partir de la fonction de production et du coût des facteurs ; dans le cas du
monopole naturel, elle n’existe pas.
5
* *
On considère l’informatique comme une activité technique. C’est ce qu’elle
est en effet, puisqu’elle concerne l’action et demande un savoir-faire. Mais
elle constitue aussi une innovation intellectuelle dont l’ampleur, la profon-
deur et les implications se comparent à celles de l’invention de l’alphabet
par les Phéniciens vers 1000 avant notre ère (Bonfante et coll. [18]), puis
des mathématiques et de la philosophie par les Grecs.
S’écartant de la question « qu’est-ce que c’est ? », qui faisait de la dé-
finition le premier pas de la connaissance, elle pose en effet la question
« comment faire ? » et met ainsi l’Action sur le trône de la pensée, où elle
supplante l’Être qui l’occupait depuis Parménide (vie et ve siècles avant
JC).
Donner à la pensée une finalité essentiellement pratique, c’est un chan-
gement de perspective aussi radical que celui qu’introduisit Galilée (1564-
1642) lorsqu’il substitua, dans la construction de la connaissance, la dé-
marche expérimentale à l’argument d’autorité « magister dixit ». Ce chan-
gement est confronté à des oppositions aussi obstinées que celles que la
démarche expérimentale a rencontrées.
Les absurdités que l’on découvre dans les entreprises, dans les institu-
tions, s’expliquent en partie par l’inertie des structures et la sociologie des
corporations mais surtout par des conceptions du monde et de la réalité,
par des formes de pensée, des échelles de valeur héritées de l’histoire et
d’autant moins maîtrisées qu’elles sont plus prestigieuses. Lorsqu’on touche
aux structures en place, aux intérêts des corporations, cela suscite certes
des réactions violentes ; mais celles que l’on provoque lorsque l’on travaille
sur les distinctions entre le réel et l’imaginaire, entre l’essentiel et le secon-
daire, sont plus violentes encore car elles touchent à l’échafaudage souvent
bancal des valeurs sur lesquelles chacun appuie son propre discernement,
ses propres priorités. Les obstacles de nature philosophique, métaphysique,
sont plus difficiles à surmonter que les obstacles institutionnels : nous en
fournirons plusieurs exemples au cours de cet ouvrage.
* *
Pour examiner la relation entre l’action, la pensée et les valeurs chacun
dispose du laboratoire que constitue sa propre personne où se déroulent
des phénomènes d’une riche complexité. Mais comme ils sont quotidiens,
familiers, intimes, on ne croit pas qu’ils méritent l’attention du chercheur. Il
est pourtant utile, avant de s’interroger sur ce qui se passe dans l’entreprise,
6 INTRODUCTION
* *
Je ne prétends pas publier ici un traité complet sur l’informatique : ce
sujet inépuisable est bien de ceux à propos desquels on peut dire å βÐοσ
βραχÔσ, δà τèχνη µακρ , l’art est long mais la vie est courte. Cette re-
cherche ne s’arrêtera pas avec ce livre et quand je mourrai elle ne sera pas
achevée.
Je l’ai intitulé De l’Informatique pour indiquer le plus simplement pos-
sible de quoi il est question 3 . On verra d’ailleurs (page 198) que l’on peut
utilement donner au mot « informatique » un sens plus proche de son étymo-
logie que de l’usage courant. Le sous-titre « savoir vivre avec l’automate »
précise de quoi il est question : on peut lire aussi « savoir-vivre », avec un
trait d’union.
Je l’ai construit comme une mosaïque de développements simples, le sens
devant résulter de leur agencement. Cette technique m’a été suggérée par la
juxtaposition de tissus aux dessins divers dans les kimonos japonais anciens
et par les Mémoires de Saint-Simon : elle facilite la mise en rapport de faits
méconnus, de points de vue peu fréquentés, de notions étrangères à la mode
ou que l’on croit banales mais qui méritent pourtant l’attention.
Quel que soit le talent individuel chacun ne peut avoir sur l’informatique
qu’une vue partielle. Ainsi Donald Knuth lui-même s’est focalisé sur l’art de
la programmation, ce qu’indique d’ailleurs exactement le titre de son ouvrage
monumental (Knuth [105]). Dans les travaux des historiens, et fussent-ils de
qualité, on constate des lacunes : tel accorde plus d’importance au matériel
2. Il existe certes des entités prédatrices qui, tout en usurpant le nom d’« entreprise », se
sont fixé de tout autres buts que l’accroissement du bien-être des êtres humains (Verschave
[208]). Qu’une mission soit trahie ne change cependant rien à son énoncé : voir page 167.
3. Un titre court est signe de modestie : un manuel scolaire s’intitule Mathématiques
sans que son auteur prétende avoir épuisé le sujet. Certains estiment pourtant que la mo-
destie exigerait un titre contourné commençant par quelque chose comme Prolégomènes
à une introduction à...
7
qu’au logiciel (Ceruzzi [35]) ; tel autre néglige les logiciels d’usage courant
sur le micro-ordinateur (Campbell-Kelly [29]) ; presque tous, s’arrêtant au
seuil de l’époque actuelle, n’effleurent pas certains sujets qui sont pour nous
brûlants.
Mais comme il est impossible de décrire un objet réel, concret, sans le
considérer à partir d’un point de vue particulier, il serait vain d’en tenir
rigueur à un auteur : lorsqu’on s’enquiert, auprès des personnes qui font ce
genre de reproche, de la description qu’elles jugeraient « objective » elles
révèlent d’ailleurs souvent, et de façon réjouissante, un point de vue encore
plus étroit que celui qu’elles critiquent.
Mon propre point de vue est celui des utilisateurs de l’informatique,
de sa maîtrise d’ouvrage. Il est certes partiel mais ni plus ni moins légi-
time que celui des théoriciens de l’informatique, des experts en langages de
programmation, des architectes, des programmeurs.
Il se peut même que dans la conjoncture actuelle il soit l’un des plus
pertinents. L’informatique est pour les entreprises une ressource puissante
dont la maîtrise est digne de focaliser l’attention du stratège, de son diri-
geant suprême. Cependant la réflexion reste en retard car beaucoup de nos
dirigeants sont comme ces généraux français qui, dans les années 1930, pré-
féraient les chevaux aux blindés. Il en résulte des systèmes d’information
mal conçus, une informatique mal utilisée - d’où un malaise et, parfois, des
catastrophes qui scandalisent.
La responsabilité d’un sinistre incombe pratiquement toujours à la maî-
trise d’ouvrage, à l’entité utilisatrice : elle n’aura pas su dire ce qu’elle voulait
ni définir ses priorités, elle aura modifié en cours de route l’expression de
ses besoins, elle aura voulu régler un problème « politique » en se cachant
derrière un alibi technique, elle aura manqué de courage devant un fournis-
seur défaillant, elle n’aura pas voulu écouter ceux qui tentaient de l’alerter.
* *
Certains économistes ont mis en doute l’efficacité de l’informatique (voir
page 181), mais leurs analyses sont entachées par un défaut de perspective :
on ne doit pas reprocher à une technique encore nouvelle les errements que
provoque non cette technique elle-même, mais le manque d’expérience de
ses utilisateurs. Il ne convient pas non plus de lui reprocher la difficulté de
l’apprentissage même s’il faut savoir exiger une bonne ergonomie : apprendre
à lire et à écrire est des plus pénibles, pourtant personne ne songe à en tenir
rigueur aux inventeurs de l’alphabet.
Si l’informatique était inefficace, il suffirait à une entreprise de la suppri-
mer pour se porter mieux. Or c’est tout le contraire : une banque, une société
d’assurance, un transporteur aérien, un opérateur télécom etc. qui renonce-
raient à l’informatique cesseraient du même coup d’exister. Ce fait, d’une
évidence massive, suffit pour révoquer en doute des affirmations fondées sur
une utilisation imprudente de la statistique 4 .
4. Lorsqu’on veut évaluer l’efficacité d’une technique nouvelle il faut utiliser l’approche
monographique et non la statistique : les totaux et les moyennes additionnent des utilisa-
8 INTRODUCTION
* *
Je me suis intéressé à l’informatique à proportion des difficultés que j’ai
rencontrées en l’utilisant ou en conseillant mes clients. Il m’est pratiquement
impossible en effet de me servir d’un outil dont je ne comprends pas le
fonctionnement et dont je ne perçois pas comment il a pu être conçu. Ce
travers m’a souvent rendu ridicule, par exemple lorsque j’ai appris à conduire
une voiture ou à utiliser un traitement de texte ; mais il contraint à une
écologie de la pensée qui, sur le long terme, porte des fruits : le monde
s’éclaire lorsque son exploration progresse 5 .
« Comprendre », cela ne va pas jusqu’à reproduire exactement par la
pensée le fonctionnement de l’outil car celui-ci est soumis à d’innombrables
contraintes physiques : il s’agit seulement de ramener cet artefact aux prin-
cipes dont ses concepteurs ont voulu assurer la réalisation pratique. On
peut par exemple « comprendre » le fonctionnement du moteur à explosion
à partir de quelques éléments de chimie des hydrocarbures et de mécanique,
tout en faisant l’impasse sur les questions de métallurgie qu’il a fallu pour-
tant traiter pour mettre au point des alliages ayant les qualités nécessaires.
De même, lorsqu’on examine un logiciel, on fera souvent l’impasse sur les
« couches basses » diablement complexes où des électrons sont contraints
à fournir la matière première des bits, octets, données, bases de données,
fichiers et programmes.
Pour comprendre comment il a pu paraître nécessaire et naturel de
concevoir un artefact, il faut revenir à l’histoire et reconstituer la situation
qui fut celle de ses inventeurs. Les enseignements qu’apporte cette enquête
n’éclairent pas le seul passé : en faisant apparaître la dynamique du rapport
entre le cerveau humain et la nature, puis celle (à la fois institutionnelle
et culturelle) de l’innovation, elle invite à concevoir le présent comme un
point d’une trajectoire dont on pourra anticiper l’évolution, fût-ce de façon
qualitative et dans les grandes lignes.
Il est intéressant aussi d’observer ce qui se passe en soi-même lorsqu’on
apprend à utiliser un nouvel outil informatique, à le dépanner etc. qu’il
teurs plus ou moins adroits alors qu’il ne faut considérer que les plus adroits, ceux dont
l’habileté anticipe l’état de l’art futur.
5. Un exemple éminent de ce type de démarche est celui de Joseph Needham [145].
9
* *
Ces enquêtes demandent du travail mais elles sont tellement passion-
nantes que je m’étonne de ne pas voir davantage de personnes les pratiquer
comme hobby. L’attitude la plus fréquente, semble-t-il, est au contraire d’ou-
blier nos apprentissages pour faire comme si les outils dont nous disposons
étaient naturels : il est si simple d’utiliser un moteur que s’interroger sur son
fonctionnement et son origine paraît superflu. Ceux qui ont cette attitude
savent sans doute qu’il y a eu des innovations mais ils ne le « réalisent »
pas, ils font comme si l’innovation n’était pas réelle, ils vivent comme si ces
outils avaient toujours existé dans l’état où nous les connaissons et devaient
persister dans ce même état.
On rencontre souvent de ces personnes qui nient l’innovation, la nou-
veauté : « Au fond, disent-elles, rien n’a changé et le discours sur les nou-
velles technologies a été très excessif ». Il faut les secouer pour les sortir de
ce songe : le disque compact n’a-t-il pas supplanté le microsillon en vinyle?
le téléphone mobile, si rare dans les années 1980, n’est-il pas aujourd’hui
omniprésent ? le PC portable et la baisse du prix des ordinateurs n’ont-ils
pas changé notre rapport à l’informatique ? l’Internet ne procure-t-il pas
une ubiquité logique qui, voici vingt ans, relevait de la science fiction ? et
que dire, si l’on remonte dans l’histoire, du moteur à explosion, du moteur
électrique?
Il faut leur accorder que la « nouveauté » est relative. On s’inquiète des
prothèses que l’informatique propose : mais depuis des siècles nous portons
des lunettes, qui ne sont pas une prothèse négligeable. On s’inquiète de
l’abondance des textes publiés sur l’Internet : mais depuis des siècles nous
sommes submergés par la masse des textes publiés, et nous sommes loin de
pouvoir tout lire.
Ceux qui nient l’innovation, fait pourtant indéniable, ne veulent-ils pas
plutôt dénoncer le discours qui prétend que la technique pourrait « changer
l’homme » en mieux? Peut-être aussi veulent-ils dire : « Non, l’être humain
n’a pas changé, à preuve : je suis toujours aussi malheureux ». Mais ce sont
là de tout autres affaires ! Si le bien-être que procurent des outils efficaces
n’est pas indifférent, il ne suffit pas pour donner un sens à la vie : c’est
ailleurs qu’il faut chercher la source de la sagesse et du bonheur.
* *
* *
Le langage sert bien sûr à communiquer mais, tout comme l’architecture
qui peut aussi bien ériger une forteresse que construire un pont, il sert aussi
à se défendre et à attaquer. Ici l’obstacle ne réside pas dans les revendi-
cations d’un moi confus et souffrant, mais dans celles des corporations 7 :
les dirigeants, milieu social dont le théâtre est extérieur à l’entreprise ; les
managers, qui se partagent la légitimité et surveillent jalousement ses fron-
tières ; les agents opérationnels, divisés en métiers et spécialités etc. Chaque
spécialité utilise un vocabulaire spécifique : c’est sans doute nécessaire à
l’action professionnelle, qui exige la précision, mais cela sert aussi de signe
de reconnaissance, de mot de passe, d’arme pour tenir l’autre à distance.
Les corporations se jalousent et souvent se méprisent. Des mots par eux-
mêmes neutres comme « technicien », « intellectuel », « informaticien »,
« ingénieur » etc. reçoivent à l’occasion une connotation tellement péjorative
que l’on doit, pour s’en libérer, préciser à chaque fois en quel sens on les
utilise.
Alors qu’il faudrait une coopération, un dialogue entre diverses spéciali-
tés, l’entreprise est souvent l’enjeu d’un conflit entre des réseaux qui la para-
sitent. On se plaît à caractériser notre époque comme celle de l’« économie
de l’information » ; mais l’entreprise y rencontre, au delà des exigences de
la technique et du marketing, celles d’un « commerce de la considération »,
d’une « économie du respect » (voir page 177) sans laquelle l’économie de
l’information ne pourra pas tenir ses promesses ni le système d’information
contribuer à l’efficacité.
* *
Parmi les questions de savoir-vivre certaines sont triviales, comme la fa-
çon dont on doit utiliser le téléphone mobile dans un lieu public ; d’autres
sont moins aisées à discerner. Il en est ainsi de la façon dont nous devons au-
jourd’hui penser l’informatisation et en parler, dont nous devons agir envers
elle. Cette question se pose à chacun dans des termes correspondant à son
rôle : à l’utilisateur « de base », au manager, au dirigeant, à l’informaticien.
Un des premiers obstacles réside dans le vocabulaire. Un mauvais sort
- tellement systématique que l’on pourrait croire qu’il a été délibérément
organisé - a rempli le langage de l’informatique de « faux amis », de termes
qui, dans la langue courante, sont entourés de connotations étrangères à
leur acception technique précise (voir page 28). Il en résulte, entre les in-
7. Nous utilisons ce mot, par commodité, pour désigner le petit monde que forme une
spécialité professionnelle.
12 INTRODUCTION
* *
Nota Bene 1 : Le vocabulaire de l’informatique abonde en barbarismes
comme « orienté objets », « modèle métier » etc. S’opposer ici à l’usage
serait nager à contre-courant. J’utiliserai donc ces expressions bien que je
ne les aime guère.
Nota Bene 2 : À ce livre est associé un lexique. Pour éviter d’alourdir
un livre qui comportait déjà beaucoup de pages je l’ai mis sur la Toile, à
l’adresse www.volle.com/ouvrages/informatique/lexique.htm.
Remerciements
13
14 REMERCIEMENTS
Laurent Bloch m’a par ailleurs permis de m’apprivoiser à LATEX, que j’ai
utilisé ici.
Je remercie ceux qui m’ont aidé à corriger les premières versions du
texte : Jean-Philippe Carillon, Patrick Declairieux, Bernard Dierickx, David
Fayon de la Poste, Jean-Jacques Kasparian de l’INSEE, Thierry Leblond
du ministère de la défense, Alain Le Diberder de CLVE, Pierre Musso de
l’université de Rennes, Henri Nadel de l’université Paris VII, Lionel Ploquin
de la DGI, Raphaël Rousseau de Libroscope, Jean-Claude Serlet, François
de Valence et ma sœur Josette Volle dont la lecture soigneuse m’a permis
de corriger plusieurs coquilles (mais non pas toutes, je le crains).
* *
Pendant que j’écrivais me sont revenus les souvenirs d’utiles conversa-
tions avec plusieurs personnes. J’indique, quand je le connais, le nom de
l’entreprise où elles travaillaient alors :
François Andrieux à l’ANPE, Patrick Badillo au CNET, Michel Bernard
à Air Inter, Christophe Berthier à Bouygues Telecom, Jean-Michel Beving à
SAP, Sylvie Billard à l’ANPE, Christian Blanc et Gilles Bordes-Pagès à Air
France, Jean Bouvier à l’université Paris I-Sorbonne, Denis Braleret à Eute-
lis, Jacques Buisson à Arcome, Jérôme Cabouat au Club des maîtres d’ou-
vrage, François du Castel au CNET, Ghislaine Clot-Lafleur à l’ENSPTT,
Matthieu Colas-Bara à Khiplea, Laurent Collet à la MSA, Isabelle Contini
à l’ANPE, Philippe Cottin à la MSA, Jean-Pierre Coudreuse au CNET,
Nicolas Curien à France Telecom, François Darbandi à Bouygues Telecom,
Lionel David à l’ANPE, Suzanne Debaille à Arcome, Michèle Debonneuil
à l’INSEE, Xavier Debonneuil à la Société Générale, Michel Delsaux à Air
France, Philippe Desfray à Softeam, Alain Desrosières à l’INSEE, Gérard
Dubois au CNET, Jean-Claude Dupoty à Air France, Philippe Estèbe, Hervé
Facci à Eutelis, Abdelfatteh Fakhfakh à la Banque Internationale Arabe de
Tunisie, Martine Fiévet à l’ANPE, Jean-Paul Figer à Cap Gemini, Michel
Frybourg à l’Académie des Technologies, Michel Garcin à la French Ame-
rican Foundation, Édouard Gaulué à l’ENSG, Alain Fournier à Incomsat,
Roger Gauthier à Air France, Jacob Genelle à l’ENSG, Michel Gensollen
à France Telecom, Yann Gourvennec à France Telecom, Bernard Guibert
à L’INSEE, Jacques Guichard, Bernard Hennion et Dominique Henriet au
CNET, Jean-Pierre Huin à CENT, Francis Jacq à Eutelis, Jean-Marc Jan-
covici à X-Environnement, Gérard Jean à Altime, Jean Joskowicz à l’AFISI,
Yannick Jouannin à Nomia, Dimitri Kannounikoff à l’ENSG, Jean Laganier
à l’INSEE, Antoine Laurès à Arcome, René Lefebvre à l’ANPE, Mallory
Lejemble à l’ACOSS, Hervé Lereau à France Telecom, Lionel Levasseur au
CNET, Michel-Louis Lévy à l’INED, Witold Litwin à l’université Paris-
Dauphine, Christophe Longépé à la Société Générale, Edmond Malinvaud à
l’INSEE, René Mandel à Oresys, Michel Mangonaux à l’ANPE, Marie Mar-
chand à France Telecom, Alain de Mijolla à l’AFPA, Jacky Noviant à Air
France, Didier Ott à Bouygues Telecom, Jean-Louis Peaucelle à l’université
de la Réunion, Philippe Penny à Eutelis, Diane de Pierrefeu au club des
maîtres d’ouvrage, Philippe Plazanet à la Banque Indosuez, Alex Pringault
à Lagardère Active, Jacques Printz au CNAM, Yvon Quérou et Michel Ram-
15
Comment l’Automate
Programmable doué
d’Ubiquité assiste l’Être
Humain Organisé
17
18
Chapitre 1
Du côté de l’ordinateur
De tous les outils de l’informatique, l’ordinateur est celui qui nous est le
plus familier. Mais est-il bien nommé ? Non ; le mot « ordinateur » est un
de ces « faux amis » qui abondent dans le vocabulaire de l’informatique.
S’il ne présente aucun inconvénient pour l’informaticien qui sait exactement
ce que ce mot recouvre, il provoque des contresens dans le public et chez
les personnes cultivées mais inexpertes qui s’efforcent de comprendre l’in-
formatique.
Il serait dérisoire de tenter de déraciner un mot que l’usage a consacré,
mais nous proposerons ci-dessous, pour redresser le faisceau de ses connota-
tions, de lui associer mentalement l’expression « automate programmable ».
Un automate, c’est une machine qui accomplit exactement, et dans l’ordre,
les opérations pour lesquelles elle a été conçue. La liste de ces opérations
n’est pas nécessairement écrite sous la forme d’un programme : elle peut
résulter de l’enchaînement d’une série d’actions mécaniques. Le « canard
digérateur » de Vaucanson (1739) savait picorer des grains de maïs, les
broyer, les mêler à de l’eau et les rejeter ; il imitait ainsi le vrai canard qui
mange et rejette des excréments sans bien sûr lui ressembler en rien du
point de vue de l’anatomie. Le métier Jacquard (1801) est un automate qui
obéit à un programme inscrit sur un carton perforé, mais il ne sait accomplir
qu’un seul type d’opération : le tissage.
Il a fallu un étonnant effort d’abstraction pour oser mettre entre pa-
renthèses toute application possible et concevoir l’automate pur et absolu,
construit pour obéir à tout type de programme et commander à d’autres
19
20 CHAPITRE 1. DU CÔTÉ DE L’ORDINATEUR
machines l’exécution des opérations les plus diverses (hauts parleurs, écrans
et imprimantes de l’ordinateur ; bras articulés des robots ; ailerons des avions
en pilotage automatique ; commande des moteurs, suspension et freins des
automobiles etc.).
Cet automate absolu, c’est l’ordinateur. Il est essentiellement program-
mable ; on peut l’utiliser pour faire du traitement de texte, du dessin, du
calcul, de la musique, il est incorporé dans les équipements électroméca-
niques les plus divers. Le programme se substitue, de façon économiquement
efficace, aux engrenages et ressorts auparavant nécessaires pour commander
mécaniquement l’exécution d’une série d’actions.
* *
* *
Pour étudier les effets des TIC sur l’économie on doit situer la frontière
entre ce qui est appelé « TIC » et ce qui est appelé « reste de l’économie ».
La solution la plus courante consiste à considérer que les ordinateurs et
autres machines utilisant les techniques fondamentales, ainsi que les logi-
ciels, relèvent des TIC. Alors la frontière se situe au niveau B de la figure
1.1.
Certes, personne ne peut nier que les ordinateurs, commutateurs etc. ne
soient des représentants éminents des TIC. Cependant les évolutions de ces
machines résultent, pour l’essentiel, des progrès réalisés dans les techniques
* *
Dans la couche initiale, celle des techniques fondamentales, il ne s’agit
pas d’utiliser des ressources produites en amont, mais de créer des ressources
par la maîtrise des propriétés physiques du silicium et (osons le dire) par
la maîtrise des conditions mentales de la production et de l’utilisation des
langages de programmation, le terme « mental » désignant ici un ensemble
de dimensions intellectuelles, psychologiques et sociologiques.
Ainsi, alors que les deux autres couches résolvent un problème écono-
mique (il s’agit de faire au mieux avec les ressources dont on dispose), la
couche initiale considère la nature elle-même, sous les deux aspects de la
physique du silicium et de la « matière grise » des êtres humains, aspects
dont elle vise à faire fructifier la synergie. Dans la couche des techniques
fondamentales s’opère donc un changement du rapport avec la nature ; dans
les deux autres couches s’opère l’adaptation à ce changement.
Élargir, par des procédés de mieux en mieux conçus, les ressources que
fournit la nature, c’est une tâche analogue à la découverte ou plutôt à l’ex-
ploration progressive d’un continent nouveau que des pionniers transfor-
meraient et équiperaient pour produire des biens utiles. Or découvrir un
continent, puis l’explorer pour le mettre en exploitation, c’est transformer
les prémisses de la réflexion et de l’action économiques, c’est modifier les
conditions de la vie en société.
* *
Tout raisonnement économique s’appuie sur des exogènes : il suppose
données les techniques, ressources naturelles, fonctions d’utilité et dotations
initiales. Il en tire les conséquences, élucide les conditions de leur utilisation
optimale, mais ne tente pas d’expliquer leur origine. Sans doute la recherche
du profit n’est pas pour rien dans l’ardeur des pionniers ou des chercheurs ;
mais cette ardeur se dépenserait en pure perte si elle ne pouvait pas mettre
en exploitation une ressource naturelle féconde (ici le silicium, la « matière
grise », et leur synergie).
Le changement du rapport entre les êtres humains et la nature que l’on
rencontre donc dans les techniques fondamentales n’est ni économique, ni so-
ciologique, même s’il a des conditions comme des conséquences économiques
et sociales. L’innovation qui se déverse dans l’économie, dans la société, à
partir des techniques fondamentales est analogue à un phénomène naturel
extérieur à l’action humaine qu’il conditionne comme le font le climat, les
1.2. QU’EST-CE QU’UN ORDINATEUR? 23
* *
Ces deux « incarnations » de l’ordinateur sont datées. L’ENIAC (Elec-
tronic Numerical Integrator and Computer) ne ressemblait en rien aux or-
dinateurs ci-dessus (figure 1.4). 3
Les ordinateurs sont restés de très grosses machines jusqu’aux années
1960. Le remplacement des lampes par des circuits intégrés dans les années
1950 permit de réduire leur taille alors que leurs performances augmentaient,
mais ils occupaient encore beaucoup de place et avaient besoin d’un local
climatisé. Ils n’avaient ni écran, ni souris, ni clavier (si ce n’est celui du
télétype de l’opérateur) : les commandes étaient perforées sur des cartes, les
résultats imprimés sur des listings.
Ceux qui ont débuté en informatique dans les années 1960 se rappellent
les paquets de cartes que l’on faisait passer par un guichet vers les opérateurs
et qui revenaient, un ou deux jours après, accompagnés d’un listing ; celui-
ci contenait une liste d’erreurs qu’il fallait corriger avant de faire passer de
nouveau le paquet de cartes par le guichet jusqu’à convergence du processus.
En 1968, on dénombrait 30 000 ordinateurs dans le monde.
3. L’ENIAC n’a pas été le premier ordinateur (Bloch [14]) : comme il fallait une in-
tervention manuelle pour le préparer à la réalisation d’un calcul, il n’était donc ni véri-
tablement programmable ni conforme à l’architecture de von Neumann [146]. Les deux
premiers ordinateurs au sens plein du terme furent britanniques : en 1948 le MARK I, réa-
lisé sous la direction de Max Newman à l’université de Manchester, et en 1949 l’EDSAC
de Maurice Wilkes à l’université de Cambridge.
1.2. QU’EST-CE QU’UN ORDINATEUR? 25
Dans les années 1970 se sont mis en place des terminaux permettant
d’accéder aux mainframes en temps partagé. Sur ces couples écran-clavier
on pouvait composer et tester les programmes en « temps réel », ce qui
accélérait notablement la production. Certes leurs écrans noirs et leurs ca-
ractères verts étaient austères, mais ils représentaient un grand progrès par
rapport aux bacs à cartes.
La conquête de l’autonomie de l’utilisateur n’est venue qu’avec le micro-
ordinateur : les premiers sur les bureaux furent l’Apple II (1977) puis le PC
d’IBM (1981) et le Macintosh (1984).
Ingénierie de l’ordinateur
Architecture de l’ordinateur
80x86, à laquelle ils préfèrent l’architecture RISC (Hennessy et Patterson [153] p. 1061
et Wilkes [218]).
L’image de l’ordinateur que nous venons d’évoquer est donc trop étroite.
Il convient de ranger sous le concept d’ordinateur les commutateurs du ré-
seau téléphonique, nombre de nos appareils ménagers (ceux qui comportent
une mémoire, un processeur et des programmes), nos avions, nos automo-
biles etc. ou du moins la partie de ces équipements qui assure l’exécution
de programmes informatiques et que l’on appelle « ordinateur de bord »
ou « ordinateur embarqué ». Méritent également le nom d’ordinateur nos
Palmtops (on les tient dans la paume de la main), téléphones mobiles et
cartes à puce (figure 1.5).
1.2. QU’EST-CE QU’UN ORDINATEUR? 27
Fig. 1.5 – Des ordinateurs qui n’ont pas l’air d’être des ordinateurs
Connecté en permanence par une liaison sans fil à haut débit, le wearable
permettra à chacun d’accéder, où qu’il soit, à une ressource informatique
personnelle résidant sur des serveurs dont la localisation lui sera indifférente.
L’ubiquité de l’ordinateur ne sera plus alors conditionnée par la proximité
entre l’utilisateur et un poste de travail : c’est le corps de l’utilisateur lui-
même qui sera équipé, et non plus son bureau. L’écran sera remplacé par
exemple par des lunettes sur lesquelles se formera l’image ; le clavier, par
un cahier de touches dépliable, par des touches projetées sur une table ou
par la reconnaissance vocale. Cet équipement fournira une prothèse à la
mémoire comme à la recherche d’information. On anticipe sa puissance, les
risques d’accoutumance qu’il comportera et les obstacles qu’il opposera aux
rapports humains. Nous devrons, nous devons déjà apprendre à maîtriser
l’ordinateur pour qu’il ne nous dévore pas 4 .
4. Mais avons-nous maîtrisé en France l’automobile, qui en 2000 a tué 7 600 personnes
28 CHAPITRE 1. DU CÔTÉ DE L’ORDINATEUR
Dans une dizaine d’années, l’image que tout le monde se fait aujourd’hui
de l’ordinateur sera obsolète, tout comme sont aujourd’hui obsolètes les
images de l’ENIAC, des cartes perforées, des grappes de terminaux reliées
à un mainframe, ou pour remonter plus loin dans le temps les rangées de
bureaux équipés de machines à calculer que l’on voyait encore dans les
entreprises à la fin des années cinquante 5 . Au delà de ces images éphémères,
le raisonnement réclame la fermeté d’un concept pérenne.
et en a blessé 162 100 (source : ONISR)? Le tabac, qui tue chaque année plus de 50 000
personnes ? La télévision, qui accapare notre attention 3 heures 20 par jour en moyenne
(source : Médiamétrie) ? La consommation d’énergie, qui dégrade le climat (Jancovici
[90]) ? L’ordinateur n’est ni le seul défi posé à la sagesse humaine, ni sans doute le plus
grave, même si la maturation de ses usages pose des questions délicates.
5. On en voit un exemple dans le film The Apartment de Billy Wilder (1960).
1.3. QUALITÉ DU VOCABULAIRE 29
l’on parle peu importe si l’on dit « chaise » et « table » au lieu de « droite »
et « point 6 ».
Le vocabulaire de l’informatique a été ainsi frappé d’une sorte de ma-
lédiction : presque tous les termes qui le composent sont de faux amis au
sens où l’on dit qu’un mot d’une langue étrangère a un « faux ami » en
français, un mot qui lui ressemble mais qui n’a pas le même sens 7 . Un phé-
nomène aussi général ne peut pas être dû au seul hasard : soit ces termes
datent d’une époque révolue et font référence à des usages qui n’ont plus
cours ; soit leurs inventeurs avaient des idées confuses, ont été maladroits,
ou encore ils ont délibérément cherché à créer du désordre.
Dans le vocabulaire de l’informatique le mot « informatique » lui-même
est un des rares qui soient sans reproche : malheureusement l’usage n’a pas
tiré le meilleur parti de son potentiel sémantique (voir page 198). Le mot
« logiciel », lui aussi bien trouvé 8 , est supérieur à l’anglais « software »
qu’il traduit 9 . Mais « ordinateur » est un faux ami tout comme le sont
« langage », « objet », « numérique », « donnée » et « information » ; en
anglais, « computer » est lui aussi un faux ami.
L’usage dictant sa loi nous utiliserons ces termes, mais nous aurons soin
de remplacer mentalement leurs connotations malencontreuses par d’autres
plus exactes. Passons-les en revue.
1.3.1 « Ordinateur »
L’anglais « computer » signifie « calculateur » 10 . Ce mot représente-t-il
convenablement le concept d’« ordinateur » ? Non, car lorsque nous uti-
lisons l’ordinateur pour faire du traitement de texte, du dessin, ou encore
pour consulter la Toile, les opérations qu’il exécute ne relèvent pas du calcul
même si elles sont comme on dit « numérisées ». La dénomination « com-
puter » correspondait à la mission de l’ENIAC (calculer des tables pour
aider les artilleurs à régler leurs tirs) mais elle ne correspond pas à celle des
ordinateurs d’aujourd’hui.
En 1954 IBM voulait trouver un nom français pour ses machines et
éviter le mot « calculateur » qui lui semblait mauvais pour son image. Le
6. « Man muß stets statt “ Punkt”, “ Gerade”, “ Ebene” auch “ Tisch”, “ Stuhl”, “ Bierseidel”
sagen können » (« Il faut toujours pouvoir dire “table”, “chaise” et “bock de bière” à la
place de “point”, “droite” et “plan” », David Hilbert, 1862-1943).
7. C’est le cas par exemple du mot « virtuel ». En anglais, « virtual » signifie « being
such in essence or effect though not formally recognized or admitted (a virtual dictator) »
(Merriam Webster’s College Dictionary). En français, il signifie exactement le contraire :
« qui est seulement en puissance et sans effet actuel » (Littré). Il en résulte de pénibles
contresens lorsqu’on parle de « circuit virtuel » en télécommunications, d’« entreprise
virtuelle » en économie, d’« espace virtuel » en informatique etc.
8. « Logiciel » est une création administrative réussie. Il a été introduit par l’arrêté
du 22 décembre 1981 relatif à l’enrichissement du vocabulaire de l’informatique (Journal
officiel du 17 janvier 1982).
9. « Software » a été inventé pour faire contraste avec « hardware », qui désigne le
matériel.
10. « Computer » vient du latin cumputare, « compter », lui-même composé de cum,
avec, et putare, penser.
30 CHAPITRE 1. DU CÔTÉ DE L’ORDINATEUR
11. Ce néologisme n’a pas connu un grand succès dans les autres langues : si l’on dit
« ordenador » en espagnol, on dit « Computer » en allemand, « calcolatore » en italien,
« computador » en portugais, « komp~ter » en russe. Le chinois utilise deux idéo-
grammes qui signifient « cerveau électrique », le japonais transcrit phonétiquement le
mot « computer ».
12. On pourrait dire « omniprésent », mais cet adjectif n’a pas exactement le même
sens que « doué d’ubiquité ». En anglais on peut utiliser « ubiquitous ». Le « computer »,
c’est un Ubiquitous Programmable Automat, un « UPA ».
1.3. QUALITÉ DU VOCABULAIRE 31
1.3.2 « Langage »
« The logical mind-frame required for programming spilled over
into more commonplace activities. You could ask a hacker a
question and sense his mental accumulator processing bits until
he came up with a precise answer to the question you asked.
Marge Saunders would drive to Safeway every Saturday morning
in the Volkswagen and upon her return ask her husband, “Would
you like to help me bring in the groceries?” Bob Saunders would
reply, “No”. Stunned, Marge would drag in the groceries herself.
After the same thing occurred a few times, she exploded, hurling
curses at him and demanding to know why he said no to her
question. “That’s a stupid question to ask”, he said. “Of course I
won’t like to help you bring in the groceries. If you ask me if I’ll
help you bring them in, that’s another matter.” It was as if Marge
had submitted a program into the TX-0, and the program, as
programs do when the syntax is improper, had crashed. It was
not until she debugged her question that Bob Saunders would
allow it to run successfully on his own mental computer. » (Levy,
[113] p. 37-38).
13. La RAM (« Random Access Memory ») est la mémoire sur laquelle travaille la
machine. Son accès est rapide (« random » signifie que le délai d’accès est le même quel
que soit l’emplacement de la donnée dans la RAM). Le « disque dur » est une mémoire de
masse à accès lent ; contrairement à la RAM il conserve les données lorsque l’ordinateur
s’éteint.
14. Toutefois cette précision a des limites, voir page 83.
32 CHAPITRE 1. DU CÔTÉ DE L’ORDINATEUR
Karel the Robot (Pattis [154]) fournit une utile métaphore de la pro-
grammation. On part d’un jeu : il s’agit de commander un robot nommé
Karel qui se déplace dans un monde simple. Le plan de ce monde est
un quadrillage semblable aux rues d’une ville américaine ; Karel peut
s’y déplacer en avançant d’un carré et en tournant d’un quart de tour
à droite (en répétant les quarts de tour il peut faire des virages ou des
demi-tours). Le chemin lui est parfois barré par un mur qu’il ne perçoit
que lorsqu’il se trouve juste devant. Il porte enfin un sac contenant des
balises qu’il peut déposer ou ramasser à certains carrefours.
Karel obéit exactement aux ordres qu’on lui donne. Si on lui donne un
ordre impossible (avancer dans un mur, poser une balise alors que son
sac est vide), il envoie un message et s’arrête. Bref : Karel est infiniment
travailleur et patient, jamais rebuté par une tâche répétitive, mais il ne
fait que ce qu’on lui ordonne et ne peut prendre aucune décision. Celui
qui programme Karel dispose, lui, d’un langage de programmation.
L’auteur invite à programmer Karel. Il s’agit d’abord d’accomplir des
tâches simples (parcourir la diagonale entre deux points, longer un rec-
tangle entouré d’un mur etc.). Puis on écrit des programmes un peu
plus difficiles : faire par exemple sortir Karel d’une « pièce » rectangu-
laire entourée de murs percés d’une porte, quels que soient la forme de
la pièce, l’emplacement de la porte et l’emplacement initial de Karel.
Pour traiter tous les cas particuliers en un seul programme il faut dé-
composer des tâches complexes en tâches élémentaires : nous voici dans
la programmation structurée, comme en Pascal.
En lisant ce livre on s’habitue à la coopération entre le programmeur
humain, avec sa créativité, et un robot d’une patience inlassable. L’in-
tuition découvre le langage qu’il convient de parler à l’ordinateur si l’on
veut qu’il obéisse : on apprend à la fois à concevoir un tel langage et à
l’utiliser.
Cela permet d’entrevoir les possibilités ouvertes à l’« être humain assisté
par ordinateur », concept plus fécond que celui d’intelligence artificielle.
1.3. QUALITÉ DU VOCABULAIRE 33
* *
Le langage conceptuel est nécessaire à l’action : pour agir efficacement
dans le monde de la nature 16 , il importe de désigner les objets avec une
parfaite précision. Par contre, dans la phase exploratoire qui précède l’action
15. Les théoriciens de l’informatique disent qu’un informaticien doit savoir lire les pro-
grammes, mais c’est là un abus de langage. Ils devraient plutôt dire qu’il faut savoir
déchiffrer les programmes : « It is exceedingly important to acquire skill in reading other
people’s computer programs, yet such training has been sadly neglected in too many com-
puter courses and it has led to some horribly inefficient uses of computing machinery »
(Knuth [105] vol. 1, p. 170).
16. Nous serons amenés, pour analyser le phénomène de l’informatisation, à articuler
selon un modèle en couches le « monde de la nature », le « monde de la pensée » et le
« monde des valeurs » : voir page 212.
34 CHAPITRE 1. DU CÔTÉ DE L’ORDINATEUR
* *
c’est comme si l’on disait que dans la respiration seule l’inspiration serait
légitime, l’expiration étant à proscrire (ou l’inverse). Celui qui applique une
telle règle sera bientôt étouffé.
Le flux qui renouvelle et alimente notre pensée passe par le langage
connoté, le langage conceptuel permet de mettre en exploitation le stock
des représentations ainsi accumulées. Il n’existe pas de stock sans flux qui
l’alimente, le flux se perd s’il n’alimente pas un stock.
1.3.3 « Objet »
Dans un « langage à objets » (on dit aussi « langage orienté objets »),
on appelle « objet » un petit programme qui contient :
- le nom propre (ou matricule, ou identifiant) qui désigne sans ambiguïté
un « individu » du domaine considéré (un client, un produit, un établisse-
ment, une machine, une pièce détachée etc.) ;
- diverses variables observées sur cet individu et dont il a été jugé utile
de conserver la valeur en mémoire (par exemple date et lieu de naissance,
adresse et numéro de téléphone d’une personne ; adresse, activité principale,
taille d’un établissement etc.) : on appelle ces variables « attributs » ;
- diverses fonctions qui, appliquées aux « attributs », lancent des trai-
tements produisant d’autres attributs ou encore des messages d’erreur ou
d’anomalie (calculer l’âge d’une personne à partir de sa date de naissance
et de la date du jour ; mettre à jour la valeur d’un attribut à partir d’une
nouvelle saisie ; s’assurer que la saisie est réalisée dans un format conforme,
que la donnée a une valeur acceptable etc.) : on appelle ces fonctions « mé-
thodes » et elles transcrivent des « règles de gestion ».
Ainsi l’objet (informatique) représente un être du monde de la nature ;
il garde trace de certains de ses attributs (mais non de tous, car tout être
naturel possède une infinité d’attributs) ; il leur associe des traitements spé-
cifiques.
Chaque objet est un cas particulier au sein d’une « classe » : par exemple
l’objet qui représente un client est un cas particulier au sein de la classe
« client ». Lorsqu’on définit une classe, on définit la liste des attributs et
méthodes que l’on veut connaître sur chacun des individus qu’elle comporte.
Lorsqu’on indique les valeurs prises par l’identifiant et les attributs pour
un individu particulier on dit que l’on « instancie » la classe, dont l’objet
particulier est une « instance ».
Ce jargon s’éclaire si l’on pense à ce qui se passe lorsqu’on fait une
enquête statistique (Volle [211]). L’individu appartenant au champ de l’en-
quête, c’est l’être qu’il s’agit de représenter. Le dessin du questionnaire, c’est
la définition de la classe. Remplir le questionnaire, c’est l’« instancier » pour
représenter un individu particulier. Les règles de codage et de vérification
automatique utilisées lors de la saisie sont des « méthodes » au sens des
langages à objets.
Mais « objet » est un faux ami : lorsque l’informaticien l’utilise pour dé-
signer la représentation d’un existant, il s’écarte de l’usage courant comme
de l’usage philosophique où « objet » désigne un existant repéré par la
36 CHAPITRE 1. DU CÔTÉ DE L’ORDINATEUR
perception ou visé par l’intention d’un sujet (comme votre voiture, votre
montre etc.). Cela conduit l’informaticien à prononcer cette phrase qui fait
se hérisser les cheveux du philosophe : « un objet, c’est une abstraction ».
C’est presque une tautologie si l’on sait que le terme « objet », pour l’infor-
maticien, désigne une représentation car toute représentation résulte d’une
abstraction ; c’est une absurdité si l’on donne au terme « objet » le sens
qu’il a dans le langage courant comme en philosophie.
17. Pour une analyse de la théorie de Shannon, voir Escarpit [54]. L’article fondateur
de Shannon n’a pas pour titre « théorie de l’information », mais « théorie de la com-
munication » : il s’agit en fait d’ingénierie des réseaux de télécommunication (Shannon
[184]).
1.3. QUALITÉ DU VOCABULAIRE 37
* *
* *
Le mot « comportement » fait passer de la physique des données à la
physique de l’information. L’utilisateur d’une information se comporte. Il
n’est pas une chose qui obéirait aux lois de la physique comme le fait le
paquet d’octets qui transite par un réseau, car il agira en fonction de ce
qu’il a compris.
La physique de l’information ressemble à celle de la circulation routière
où les conducteurs, eux aussi, se « comportent » :
18. « Informer » et « instruire » sont très proches : informer, c’est donner une forme ;
instruire, c’est donner une structure.
19. On a pu définir ainsi la fonction de la synthèse statistique : « consentir une perte en
information (au sens de Shannon) pour obtenir un gain en signification (information au
sens étymologique) ». Le travail du statisticien est semblable à celui du typographe : la
typographie fait perdre l’information que contiennent l’écriture manuscrite, les corrections
etc., mais la mise en forme du texte imprimé facilite sa lecture et aide au dégagement
du sens par le lecteur. De même la synthèse statistique attire l’attention sur les données
significatives, ce qui invite à négliger celles qui ne le sont pas et prépare les voies de
l’interprétation (Volle [212] p. 51).
1.3. QUALITÉ DU VOCABULAIRE 39
1) La route qui relie telle banlieue au centre ville est encombrée, on dé-
cide de l’élargir : elle sera tout aussi encombrée car comme elle est plus large
davantage de personnes prendront leur voiture. De même, vous dimension-
nez largement le réseau pour faciliter la tâche des utilisateurs, le nouveau
réseau sera tout aussi encombré car de nouveaux usages s’y installeront.
2) Vous affichez sur un panneau de l’autoroute « bouchon à 6 km »,
certains conducteurs prendront la prochaine sortie et viendront encombrer
le réseau des routes secondaires, d’autres resteront sur l’autoroute : ce choix
est aléatoire. De même, vous avez installé dans votre entreprise un serveur
protégé par un pare-feu modeste : des pirates sauteront cette barrière pour
utiliser ce serveur gratuitement. Vous augmentez la puissance du pare-feu :
vos utilisateurs seront gênés etc.
La conception d’un système d’information doit anticiper le comporte-
ment des utilisateurs tout comme ceux qui conçoivent un réseau routier
anticipent le comportement des conducteurs. Le système d’information in-
fluence en retour les comportements. Vous avez organisé de telle façon l’an-
nuaire de l’organisation, découpé de telle sorte les zones géographiques,
choisi telle nomenclature de produits : c’est ainsi que votre entreprise par-
lera, s’organisera, communiquera. Certaines décisions, prises à la va-vite par
un groupe de travail, détermineront à long terme le cadre des représentations
selon lesquelles l’entreprise définira ses priorités. La délimitation des popu-
lations décrites dans le système d’information, la gestion des identifiants,
des nomenclatures, des classes d’objets, bref l’ensemble des opérations que
l’on a coutume de nommer « administration des données » ou « gestion du
référentiel », conditionnent la physique de l’information.
1.3.5 « Numérique »
Que d’émotions autour du mot « numérique » ! La « fracture numérique »
mettrait en péril la cohésion sociale ; l’ordinateur constituerait un danger
majeur pour les arts, qu’il priverait de leur âme en les « numérisant ». Un
frisson parcourt l’échine du « littéraire » confronté à la « froideur » des
mathématiques et de l’abstraction.
Chacun est libre de ses goûts et dégoûts, mais on ne peut admettre que
s’installe une erreur de jugement fondée sur un pur effet de vocabulaire.
Nous devons donc développer ici l’analyse d’une erreur triviale : des esprits
par ailleurs distingués la commettent. Comme ils sont éloquents et écoutés,
il en résulte dans les idées un désordre dévastateur 20 .
La confusion est pire encore lorsqu’on utilise le terme anglais « digital ».
« Digit » signifie « chiffre » en anglais, mais « digital » désigne en français
ce qui est relatif au doigt. L’expression « son digital » ahurit le badaud -
c’est sans doute le but visé par des vendeurs péremptoires, fût-ce au prix
d’une détérioration de la langue.
20. Virilio [209] annonce « la fin du langage ». Heureusement cette prophétie effrayante
n’est étayée par aucun argument, pas plus que la dénonciation du « cybermonde » que
Virilio fonde sur la ressemblance entre les mots « interactivité » et « radioactivité ».
Certains voient de la profondeur dans ces calembours.
40 CHAPITRE 1. DU CÔTÉ DE L’ORDINATEUR
a«Rappelle-toi que si Dieu t’a fait naître sur les marches d’un trône, tu ne dois pas
en profiter pour mépriser ceux à qui la divine Providence a voulu (qu’elle en soit louée !)
que tu fusses supérieure par la naissance et par les richesses. (...) Sois secourable aux
malheureux. Fournis à tous ceux que la bonté céleste t’a fait la grâce de placer au-dessous
de toi ce que tu peux leur donner sans déchoir de ton rang, c’est-à-dire des secours en
argent, même des soins d’infirmière, mais bien entendu jamais d’invitation à tes soirées,
ce qui ne leur ferait aucun bien, mais, en diminuant ton prestige, ôterait de son efficacité
à ton action bienfaisante. » (Marcel Proust, À la recherche du temps perdu, Le côté de
Guermantes II, 1921 ; Robert Laffont, collection « Bouquins » 1987, vol. 2 p. 352).
1.3. QUALITÉ DU VOCABULAIRE 41
Il est vrai que dans l’ordinateur, au cœur du processeur qui effectue les
opérations, n’existent que des oscillations rapides entre deux niveaux de
tension électrique qui servent à coder des 0 et des 1, des « bits ». L’informa-
tion que l’utilisateur traite (texte, images, calculs, sons) est transcrite par
une cascade de codages qui la traduisent ou l’interprètent pour parvenir au
microcode, écrit en bits, que le processeur pourra exécuter.
Ce codage a-t-il une influence sur l’information? Non, car il ne fait que
la transcrire. Si je tape une fable de La Fontaine sur mon clavier, son texte
s’affichera sur l’écran avec toute sa puissance évocatrice. Que les caractères
soient codés en octets (huit bits) n’enlève rien à son contenu et les conven-
tions de traitement de texte que j’utilise pour le mettre en page, elles aussi
transcrites en bits, ne font que faciliter sa lecture.
L’ordinateur, faisant ici fonction de machine de traitement de texte, est
incapable d’interpréter ce texte mais il aide à sa présentation. On ne peut
pas dire que la fable de La Fontaine soit « numérisée » : elle reste un texte
poétique qui vise, par ses suggestions et sa musicalité, à émouvoir le lecteur
et éveiller son intelligence.
Parodions, en le transposant, le raisonnement des critiques du « nu-
mérique » 21 : « Comment voulez-vous que l’écriture puisse reproduire la
richesse et les nuances du langage humain ? Comment pourrait-on décrire
des couleurs quand on écrit en noir sur du papier blanc? » etc. Cette trans-
position met a nu le procédé qu’utilisent des sophistes pour susciter doute
et perplexité : on feint de croire, en confondant les diverses couches du pro-
cessus, que la physique du support rétroagit sur le contenu du texte. Quand
Marshall McLuhan dit the medium is the message (McLuhan [128]) cela
ne signifie pas « les ondes électromagnétiques constituent le message de la
télévision », mais « les conditions économiques, sociales, de la production
des programmes télévisuels ont sur leur contenu une influence qui peut être
déterminante », ce qui est tout différent.
C’est en considérant les conditions pratiques, sociales, culturelles, éco-
nomiques de la mise en œuvre de l’APU, de l’utilisation de l’ordinateur,
que l’on peut raisonner sur ses apports, leurs limites et leurs dangers. Le
mot « numérique » ne donne pas la clé de ce raisonnement : comme un
épouvantail, il inhibe le discernement. Des personnes par ailleurs compé-
tentes raisonnent mal quand elles parlent de la numérisation 22 : elles ne
voient pas que l’architecture en couches de l’ordinateur implique une diffé-
21. Leur voix, quand ils téléphonent, est soumise au codage MIC qui la transforme en
un flux de 64 000 bits par seconde. Il en est de même, avec un débit plus élevé, pour la
musique lorsqu’ils écoutent un disque compact. Leur parole, la musique, sont-elles pour
autant « numériques »?
22. « L’ordinateur est la matérialisation de la logique mathématique : ils ont connu des
développements historiques conjoints. Aux fondements de ces développements se trouve le
principe d’identité. L’ordinateur calcule 0 et 1 mais ne sait faire que cela. Tout, en effet, est
ramené à des 0 et des 1 afin que le courant électrique passe ou ne passe pas. L’ordinateur
oblige à faire des modèles entièrement logiques. Il fonctionne comme un principe de
réalité technico-logique, garant de la cohérence des modèles : un producteur de modèles
hyperrationnels. » (Francis Pavé, « Transformation des représentations et résistance aux
changements », conférence à l’école d’été 1998 de l’IUFM de Franche-Comté). Mais quel
est le modèle « hyperrationnel » à l’œuvre quand on utilise un traitement de texte?
42 CHAPITRE 1. DU CÔTÉ DE L’ORDINATEUR
rence de nature entre ce que fait l’utilisateur et ce que fait la machine. Que
penseraient-elles si on disait de leurs écrits « ce sont des signes noirs dessinés
sur du papier blanc », ou de leurs paroles « ce sont des ondes sonores que
propagent les variations de la pression de l’air »?
L’ordinateur est pour nos sociétés une innovation aussi importante que
le furent, à d’autres époques, l’invention de l’écriture ou de l’imprimerie :
il modifie les conditions de création, classement, recherche et traitement
des données et documents. Il ne sera pas facile d’apprendre à s’en servir,
à éviter ses effets pervers. Mais avons-nous vraiment maîtrisé l’écriture,
l’impression? Savons-nous vraiment lire et écrire (et compter) au sens non
de la performance, mais de la vie intellectuelle et de la vie sociale ? faut-il
donc que l’ordinateur nous inspire plus de craintes que la presse, les médias
ou même, tout simplement, la parole?
23. « Open Systems Interconnection » publié de 1977 à 1986 par l’International Stan-
dard Organization.
1.4. MODÈLE EN COUCHES 43
* *
Michel Foucault a décrit l’événement qui, à la fin du xviiie siècle, marqua
le passage de la représentation classificatrice à une représentation organique
de la nature : « Cuvier fera main basse sur les bocaux du Museum, il les cas-
sera et disséquera toute la grande conserve classique de la visibilité animale
(Foucault [61] p. 150.) ».
La classification des êtres vivants est une opération ensembliste : l’éva-
luation des ressemblances et différences permet de définir une « distance »
puis une relation de ressemblance entre espèces, les espèces semblables étant
celles qui sont proches selon la distance choisie (Lecointre et Le Guyader
[78]). L’approche organique considère par contre non des collections d’êtres
semblables, mais l’articulation des divers organes qui remplissent des fonc-
tions complémentaires dans un seul et même organisme.
Si l’on peut considérer un être vivant comme un ensemble de cellules, il
sera souvent plus pertinent de le représenter comme un organisme : l’appar-
tenance d’un bras ou d’un poumon au corps d’un animal, l’appartenance de
la direction commerciale ou de la direction des ressources humaines à une
entreprise, ne sont pas de type ensembliste (ce ne sont pas des inclusions),
mais de type organique (l’organe a une fonction spécifique, articulée avec
les fonctions des autres organes). De même on peut voir un système d’infor-
mation comme ensemble de lignes de code source, mais il sera souvent plus
pertinent de le représenter comme un organisme.
Le modèle en couches, qui articule des logiques différentes, relève de
l’approche organique. Bien qu’il soit d’origine technique, il constitue une
innovation philosophique. Il ne semble pas cependant que les philosophes
aient vu dans ce modèle un outil au service du travail intellectuel, même si
quelques-uns d’entre eux l’utilisent à l’occasion sans paraître le savoir.
Ce modèle est à l’œuvre dans la pensée quotidienne. Dans un paysage
comme celui de La montagne Sainte-Victoire vue de Bellevue, de Cézanne,
on voit une montagne (géologie) ; des arbres (botanique) ; un pont, des
routes, des champs cultivés (action humaine) ; des nuages (météorologie).
Ce paysage articule ainsi des êtres qui relèvent chacun d’une logique et d’un
rythme spécifiques. L’unité de temps est pour la géologie le million d’années,
pour la couverture végétale le millénaire ou le siècle, pour les constructions
humaines le siècle ou la dizaine d’années, pour le déplacement des animaux
ou des nuages l’heure ou la journée. Il est impossible de rendre compte d’un
tel paysage selon une seule logique, si ce n’est celle de la superposition des
logiques et des rythmes qu’il articule.
24. Pour expliciter la façon dont la machine exécute les algorithmes et donner à ceux-ci
la forme précise et complète que seule procure l’écriture d’un programme, Donald Knuth
a défini l’ordinateur MIX (1009 en chiffres romains) et le langage assembleur MIXAL
(Knuth [105] p. 124 et 144). Le lecteur peut ainsi, moyennant un effort d’attention, se
représenter exactement la façon dont l’algorithme est exécuté et en déduire la précision du
calcul, sa durée d’exécution etc. Pour tenir compte de l’évolution des processeurs Knuth
a aussi défini le MMIX (2009) qu’il a décrit sur son site www-cs-faculty.stanford.edu/
~knuth/.
25. Le mot « compilateur » date de 1951, avant la mise au point des langages de pro-
grammation proprement dits. Il s’agissait d’appeler dans un programme des procédures
préprogrammées (subroutines) comme par exemple celles qui servent à calculer un sinus
ou un logarithme. Le programme se présentait alors comme une compilation de procé-
dures. « Compilateur » est resté et a désigné, par la suite, le logiciel qui traduit le code
source en un code exécutable par la machine. « The reason it got called a compiler was
that each subroutine was given a “call word,” because the subroutines were in a library,
and when you pull stuff out of a library you compile things. » (Hopper [85] p. 10).
1.4. MODÈLE EN COUCHES 45
Dans les années 1940, les ordinateurs n’avaient que deux couches (ou
« niveaux ») : le niveau machine, dans lequel on programmait, et le ni-
veau physique qui exécutait les programmes. Les circuits de ce dernier ni-
veau étaient complexes, difficiles à construire et peu fiables. Maurice Wilkes
conçut en 1951 un ordinateur à trois couches afin de pouvoir simplifier le ma-
tériel. La machine disposait d’un interpréteur qui exécutait les programmes
écrits dans le langage machine. Le matériel ne devait plus alors exécuter que
des microprogrammes dont le répertoire d’instructions était limité.
Les assembleurs et compilateurs furent écrits dans les années 1950. En
1954 le premier système d’exploitation (gestion automatique de la mémoire,
gestion des répertoires de fichiers) fut conçu par Gene Amdahl pour l’IBM
704. La plupart des ordinateurs actuels possèdent six couches (Tanenbaum
[198] ; figure 1.9).
Quelqu’un qui utilise un ordinateur pour faire du traitement de texte
met en œuvre un programme dont les instructions parviennent à la couche
physique (processeur et mémoires) après une cascade de traductions et d’in-
terprétations. L’utilisateur peut ignorer ces opérations : pour lui, et dans
le cadre de cette application, l’ordinateur fonctionne comme une machine
de traitement de texte et il n’a à connaître que cette seule machine (c’est
pourquoi il est inexact de dire que son activité est « numérisée » même si
l’ordinateur, pour exécuter ses ordres, les transcrit sous la forme de suites
de 0 et 1).
Une instruction du niveau applicatif, traduite ou interprétée en cascade,
engendre dans la couche microprogrammée de nombreuses instructions. Le
temps d’exécution d’un programme peut s’évaluer en additionnant les temps
unitaires : ce calcul est une étape importante de l’évaluation d’un algorithme
(Knuth [105] vol. 1 p. 170).
46 CHAPITRE 1. DU CÔTÉ DE L’ORDINATEUR
si elles fonctionnent mal : si l’un des locuteurs parle une langue ignorée de
l’autre, ou encore s’il est sourd ou aphasique ; les ondes sonores ne sont uti-
lisables que si les deux interlocuteurs sont assez proches l’un de l’autre et si
le milieu sonore ambiant n’est pas trop perturbé par le bruit.
Il suffit d’ajouter quelques couches en bas du modèle pour représenter
une conversation téléphonique : l’onde sonore est codée sous la forme d’une
onde électromagnétique par le poste téléphonique, numérisée dans le com-
mutateur de départ, acheminée par le réseau, décodée à l’arrivée.
Un modèle en couches décrit un empilage de conditions toutes également
nécessaires. Or si, dans un produit qui comprend des 0 et des 1, tous les
termes sont égaux à 1 sauf un seul qui est égal à 0, le produit est nul ;
de même, lorsqu’un phénomène obéit à plusieurs conditions simultanément
nécessaires elles doivent toutes être respectées pour que le phénomène puisse
se produire. Dès lors il serait vain de se demander laquelle de ces couches
est « la plus importante », de tenter d’établir entre elles une hiérarchie.
On cherche parfois à déterminer l’origine et le responsable de la réussite
d’un processus : cet effort est vain si le processus a traversé plusieurs couches
toutes nécessaires. Si le stratège doit concentrer son attention sur la question
la plus importante du moment, il n’en doit pas moins rester attentif à la
coopération de diverses couches indispensables au processus ; son aptitude
à coordonner des activités diverses se fonde sur la connaissance de leur
articulation. Cette coordination n’est pas mélodique (une seule ligne dont
il faut suivre le déroulement dans le temps) mais polyphonique (plusieurs
lignes qu’il faut suivre ensemble et qui s’articulent entre elles).
Du processeur au microprocesseur
a Chargement dans un registre d’une valeur contenue dans une mémoire, stockage en
mémoire de la valeur contenue dans un registre, opérations arithmétiques sur les registres,
calculs sur les adresses, comparaison entre une valeur en mémoire et une valeur dans un
registre, sauts d’instructions etc.
* *
En 1947, trois chercheurs des Bell Labs d’AT&T (John Bardeen, Walter
Brattain et Robert Shockley) découvrent le « transistor » (transfer resis-
tor). Leur invention s’appuie sur le fait qu’il est possible de contrôler le flux
d’électricité dans le germanium (remplacé ensuite par le silicium) en faisant
en sorte que certaines zones soient conductrices et d’autres isolantes, d’où le
terme « semi-conducteur ». Comparé au tube à vide, technique jusqu’alors
dominante, le transistor se révélera plus fiable, moins consommateur d’éner-
gie et susceptible de miniaturisation.
50 CHAPITRE 1. DU CÔTÉ DE L’ORDINATEUR
Les premiers transistors étaient faits à la main dans des conditions rus-
tiques si on les compare aux « salles blanches » actuelles. Les rendements
étaient bas (de 20 à 30 %) et les performances très variables. Les progrès
techniques ont donc d’abord concerné la maîtrise du processus de produc-
tion.
Pendant les années 1950 une nouvelle industrie se crée. La fabrication des
semi-conducteurs fait d’importants progrès : la diffusion consiste à diffuser
des impuretés (« dopants ») sur leur surface, ce qui supprime le processus
fastidieux d’ajout de diverses couches de matériaux isolants et conducteurs
sur le substrat. Des techniques photographiques permettent de projeter sur
le semi-conducteur le dessin de masques compliqués de telle sorte que la
diffusion ne se produise que sur les surfaces souhaitées.
Le circuit intégré (circuit électronique comportant plusieurs transistors
sur une même pièce de matériau semi-conducteur) est inventé en 1958 par
Jack Kilby 26 . Jean Hoerni, de Fairchild Semiconductor, introduisit en 1959
une autre innovation essentielle en observant que les techniques de diffusion
et de photographie permettaient de se libérer des complications du transistor
à trois dimensions et de dessiner des transistors plans (« planars »). Il
devenait alors possible de faire les connections électriques non plus à la
main, mais en déposant par condensation de vapeur métallique un film sur
les parties appropriées du semi-conducteur. Moore a fait de l’invention du
planar le point de départ de la « loi de Moore ». Fairchild Semiconductor
produisit le premier circuit intégré utilisant cette technique en 1961.
Ces techniques permettront de passer de la production manuelle à la
production industrielle de série avec une meilleure qualité. Les progrès des
processus de production et des techniques se sont ensuite poursuivis. Les
méthodes photographiques sont devenues de plus en plus précises grâce
notamment à l’emprunt de techniques de photolithographie conçues pour
l’imprimerie.
Les premiers circuits intégrés étaient des mémoires. Le microprocesseur,
qui est avec l’ampoule électrique et le téléphone considéré comme l’un des
plus grands apports de la technique américaine, sera inventé en 1971 par
Intel.
26. Le premier circuit intégré, présenté le 12 septembre 1958, comportait deux transis-
tors montés sur une barre de germanium.
27. Cet épisode est caractéristique des relations entre capital risque et ingénieurs dans la
1.5. VERS L’ORDINATEUR INDIVIDUEL 51
* *
Intel et Motorola produisent des microprocesseurs mais ils ne sont pas
les seuls : on peut citer AMD (Advanced Micro Devices) qui produit depuis
1991 des clones de microprocesseurs Intel, ainsi qu’IBM qui produit les Po-
werPC. Certaines entreprises dites « fabless » (sans fabrication) conçoivent
des microprocesseurs qu’elles font fabriquer sur plan par un « fondeur » :
c’est le cas de Sun qui fait fabriquer le SPARC par Texas Instruments, de
Silicon Graphics avec le MIPS etc.
Le Pentium 4 de 2000 possédait 42 millions de transistors et tournait à
1,5 GHz. Il permettait à l’utilisateur de produire des films, diffuser de la
29. « The complexity for minimum components costs has increased at a rate of roughly a
factor of two per year. Certainly over the short term this rate can be expected to continue,
if not to increase. Over the long term, the rate of increase is a bit more uncertain, although
there is no reason to believe it will not remain nearly constant for at least 10 years. That
means by 1975, the number of components per integrated circuit for minimal cost will be
65,000. »
30. Source : www.forbes.com/2001/05/29/0529intel_print.html
54 CHAPITRE 1. DU CÔTÉ DE L’ORDINATEUR
nt = n1975 2(t−1975)/1,5
Fig. 1.13 – Taux de variation des prix des ordinateurs de bureau et des
ordinateurs portables aux États-Unis
58 CHAPITRE 1. DU CÔTÉ DE L’ORDINATEUR
Fig. 1.14 – Taux de variation des prix français et américain des micro-
ordinateurs
* *
La pénétration d’un produit nouveau (bien ou service) dans la consom-
mation suit une loi logistique : la courbe ressemble d’abord à une exponen-
tielle croissante, puis s’infléchit ; sa croissance ralentit et elle s’aligne enfin
sur la pénétration asymptotique. C’est ainsi qu’ont pénétré les produits
électroménagers et les services de télécommunications.
La fonction logistique fait partie depuis longtemps de l’arsenal théorique
du marketing. L’une de ses expressions est la loi de Gompertz :
β−γt
yt = δ + αe−e
marrage est plus lent (il faut vaincre des réticences), par contre la croissance
est rapide une fois qu’elle s’est enclenchée 33 (« effet d’avalanche »). L’in-
flexion est plus lente à venir mais se produit tout de même : la prolongation
illimitée d’une exponentielle est impossible, même en tenant compte d’un
éventuel « multi-équipement » (personnes qui ont plusieurs automobiles,
plusieurs téléviseurs, plusieurs ordinateurs, plusieurs téléphones etc.) et de
la diversification des produits fournis sur la plate-forme technique une fois
celle-ci installée : la consommation de ces produits ne peut pas excéder le
niveau du PIB !
* *
Les « investisseurs » (c’est ainsi, bizarrement, que l’on appelle les per-
sonnes qui achètent des actions à la Bourse) regardent les comptes et les
taux de croissance trimestriels. Ils sont moins attentifs aux « fondamen-
taux » dont fait partie le niveau asymptotique de la pénétration. Extra-
polant la croissance initiale, ils anticipent une évolution exponentielle des
chiffres d’affaire et des profits. Cette anticipation les incite à attribuer aux
entreprises des TIC une valeur élevée. Ainsi valorisées, celles-ci peuvent se
procurer des fonds en émettant des actions nouvelles ; leur actif, qui com-
prend des actions d’autres entreprises du secteur, est lui aussi fortement
valorisé. Leur taux d’endettement paraît alors bas ; les banques, alléchées,
leur proposent des prêts qui financeront l’achat d’autres entreprises (coup
double pour la banque : elle prête à une entreprise solvable et elle encaisse
une commission). Ainsi se met en place un piège.
Ce qui devait se produire finit par arriver : la pénétration s’infléchit,
la croissance ralentit. Le dimensionnement des machines et des réseaux, le
niveau des stocks d’équipements, préparés pour une demande supérieure,
apparaissent alors excessifs (surcapitalisation).
33. Dans le cas de l’économie des réseaux, on explique l’effet d’avalanche (que l’on
nomme alors « effet de réseau ») par le fait que l’utilité d’un raccordement nouveau est
fonction croissante du nombre des personnes déjà raccordées. Dans le cas des TIC, l’effet
de réseau joue et aussi l’effet de mode (« il faut être sur l’Internet »).
60 CHAPITRE 1. DU CÔTÉ DE L’ORDINATEUR
* *
Le marché des téléphones mobiles, des ordinateurs, est l’addition de deux
marchés : un marché du premier équipement gouverné par la logistique de
pénétration que nous venons d’examiner, et un marché de renouvellement
dont la part devient de plus en plus importante à mesure que la pénétration
croît.
Il existe de purs marchés de renouvellement comme celui de l’automo-
bile. Elle a depuis longtemps atteint sa pénétration asymptotique dans les
pays riches : les acheteurs de voiture neuve sont pour la plupart d’anciens
propriétaires de voiture qui ont voulu acheter un nouveau modèle pour bé-
néficier d’un accroissement de confort et peut-être de prestige social. La
durée de possession d’une même automobile est ainsi de l’ordre de cinq à
sept ans 36 .
* *
Pour illustrer le scénario ci-dessus, nous construirons une petit modèle.
Nous négligeons l’effet de la baisse tendancielle du prix des TIC : elle fait
monter l’asymptote de la pénétration, mais ce phénomène devient de plus en
plus faible lorsque la baisse du prix se poursuit. Supposons que la croissance
tendancielle du PIB soit de 3 % par an et qu’il subisse des oscillations
conjoncturelles d’une périodicité de cinq ans. Le PIB de l’année t est alors
donné par l’expression
engagent moins le prestige social : on ne remplace ces machines que lorsqu’elles sont en
panne et leur durée de vie est de l’ordre de vingt ans. Le marché du premier équipement
(équipement des logements neufs) reste donc significatif pour ces produits.
62 CHAPITRE 1. DU CÔTÉ DE L’ORDINATEUR
Année 0 1 2 3 4 5 6 7 8 9
Haut de cycle 0 0,2 0,4 0,7 0,9 1 1 1 1 1
Bas de cycle 0 0,1 0,2 0,35 0,45 0,5 0,6 0,7 0,9 1
Si la conjoncture
P∞ restait durablement en haut de cycle, la durée de vie
moyenne D=0 DP robD serait de 2,78 ans ; en bas de cycle, elle serait de
3,89 ans.
ϕ(t) = [1 + sin(ωt)]/2
Automatisme et intelligence
* *
Même si la contribution des Européens à l’informatique a été importante,
ses progrès essentiels ont tous été réalisés aux États-Unis : l’informatique
étant à la fine pointe de l’organisation de l’entreprise, elle est toute naturelle
pour des Américains dont le pays a, dès sa formation, attribué à l’Entreprise
l’hégémonie culturelle qui en Europe appartient à l’État (Gramsci [72] p.
476).
Pour réussir l’articulation du travail humain et de l’automate, il faut
percevoir la différence entre l’ordinateur et le cerveau humain : on ne peut
pas en effet articuler deux êtres dont on aurait postulé l’identité. Cette
question a été obscurcie par les controverses sur l’« intelligence de l’ordina-
teur », controverses qui s’éclairent si on les situe sur l’arrière-plan culturel
66
2.1. L’INFORMATISATION DE L’ENTREPRISE 67
des États-Unis : est-il possible de planifier l’action au point que l’être hu-
main, pour pouvoir être efficace, doive se faire l’exécutant d’un automate
pré-programmé? Ou bien l’action, avec ses incertitudes, nécessite-t-elle que
l’on préserve la capacité de synthèse, de compréhension et de décision qui
est propre au cerveau humain?
* *
* *
Les tâches du back office obéissaient toutes à un même schéma :
1) d’une part l’agent reçoit des commandes, des matières premières ou
des produits intermédiaires ; son travail consiste à élaborer d’autres produits
2.1. L’INFORMATISATION DE L’ENTREPRISE 69
2) d’autre part les personnes qui transportent les dossiers d’un bureau à
l’autre, ainsi que le superviseur de la salle de travail, assurent une logistique
(middle office) qui entoure les tâches des agents d’un réseau de communica-
tion et de contrôle. La mesure du flux quotidien permet d’établir des normes
de productivité. Les délais normaux de traitement d’une affaire peuvent être
évalués. La pile de dossiers qui reste dans la barquette arrivée signale l’agent
qui travaille plus lentement que les autres.
a www.3m.com/about3M/pioneers/fry.html
70 CHAPITRE 2. AUTOMATISME ET INTELLIGENCE
La procédure du front office était plus souple (figure 2.5), car il tra-
vaillait au contact d’un client ou d’un fournisseur, que ce soit en face-à-face,
par téléphone ou par courrier : il ne s’agissait plus de traiter des documents
conformes aux formats types de l’entreprise mais de répondre à des de-
mandes ou questions formulées dans la langue de personnes extérieures à
2.1. L’INFORMATISATION DE L’ENTREPRISE 71
* *
Nous sommes là vers le milieu des années 1980. Il faut compléter cette
description en mentionnant des défauts souvent rencontrés. D’une part les
« applications » informatiques ont été conçues séparément et communiquent
mal : les agents doivent dans le cours d’une même tâche ouvrir une session,
puis la fermer pour passer à une autre dont l’ergonomie sera différente,
ressaisir des données, utiliser des codes divers dont la mémorisation demande
un apprentissage. Si l’informatique est puissante, elle manque encore de
cohérence et de « convivialité ».
C’est que l’automate n’est pas souple, et comme il ne s’adapte pas fa-
cilement aux utilisateurs l’entreprise leur demande de s’adapter à lui. Ses
défauts sont d’abord tolérés en raison des gains d’efficacité que l’informa-
tique apporte mais ils deviennent de plus en plus insupportables.
Le « système d’information » vise à les corriger. Les diverses applications
doivent s’appuyer sur un référentiel unique, ce qui garantit leur cohérence
sémantique ; elles doivent échanger les données et se tenir à jour mutuelle-
ment, ce qui assure la cohérence de leur contenu et supprime les ressaisies.
Toutefois cette mise en ordre reste souvent partielle et les défauts per-
sistent en raison du poids de l’existant et de la pression d’autres priorités.
On dirait alors que l’informatique a accompli tout ce qui lui était pos-
sible : elle fournit à l’utilisateur une interface qui, fédérant sous une ergono-
mie cohérente les accès aux diverses applications, lui évite les connexions-
déconnexions et les doubles saisies tout en soulageant son effort de mémoire ;
elle lui fournit aussi un moyen de communication, un média. Il lui reste
cependant à assister les utilisateurs non seulement dans chacune de leurs
tâches considérée séparément, mais dans la succession et l’articulation des
activités tout au long du processus de production.
En effet si l’informatique a libéré l’agent opérationnel des tâches répé-
titives de calcul, vérification et transcription, les entreprises ne l’ont pas
encore pleinement utilisée pour assurer les fonctions de logistique et de su-
pervision, de middle office, remplies autrefois par les personnes qui transpor-
taient les dossiers et par les superviseurs des salles de travail. Or le travail,
devenu informatique (« virtuel »), a perdu la visibilité que lui conférait
76 CHAPITRE 2. AUTOMATISME ET INTELLIGENCE
* *
Le resserrement des relations entre l’informatique communicante et le
traitement des données structurées amène à construire un système d’infor-
mation « sur mesure », « près du corps », dont la définition et l’évolution
adhèrent à la pratique professionnelle. Il permet d’associer aux données leur
commentaire, ce qui les rend compréhensibles, facilite leur transformation
en information et modifie d’autant leur rôle dans l’entreprise 7 .
Le système d’information assiste alors les diverses personnes de l’entre-
prise - agents opérationnels, managers locaux, concepteurs et stratèges de
la direction générale - en fournissant à chacun sur l’entreprise la « vue »
qui lui convient : ici les données pour le traitement opérationnel d’un dos-
sier ; là les indicateurs utiles au pilotage opérationnel quotidien ; ailleurs les
statistiques qui alimentent les études marketing ou l’analyse stratégique.
Cette évolution rencontre cependant des obstacles. D’une part, comme
l’informatique d’une entreprise résulte d’un empilage historique d’applica-
tions conçues souvent dans l’urgence, elle est rarement conforme aux exi-
9. Ces principes sont « élémentaires » au plan de la logique, mais cela ne veut pas dire
que leur application soit en pratique aisée : elle est rarement réussie ou complète.
10. Le code source de certaines d’entre elles a été perdu, ou bien on ignore le numéro
de la version qui tourne : alors on se garde d’y toucher, espérant que « ça va continuer à
marcher ».
2.2. ENTROPIE DU SYSTÈME D’INFORMATION 81
Le marché évoluant, elle modifie ces régions en faisant passer des pays de
l’une à l’autre. Le référentiel est modifié mais les tables utilisées par les
divers processus ne sont pas mises à jour simultanément. La définition des
régions diffère alors d’un processus à l’autre. Les interfaces signaleront des
erreurs, les vérifications et redressements accapareront processeurs et back-
offices. L’interprétation des données occasionnera, lors des conversations
entre dirigeants, d’interminables perplexités.
Si le désordre concerne plusieurs référentiels (des produits, des clients,
des pièces détachées etc.), la pagaïe devient générale. Seule une gendarmerie
vigilante (ici une direction de l’architecture ayant l’autorité nécessaire au
sein de la DSI) peut maintenir la discipline. Cela rappelle la circulation
automobile : le code de la route est connu, mais comme chacun peut être
tenté de commettre une faute la peur du gendarme est utile.
« Il n’y a qu’à » mettre des gendarmes pour maintenir l’ordre ? Non,
car cela ne résout pas tout : parfois les forces de l’ordre sont débordées.
Supposez que le système d’information de votre entreprise soit articulé avec
celui d’un partenaire, ce qui suppose l’interopérabilité des deux systèmes
d’information : il faudra s’organiser pour faire prendre en compte par ce
partenaire les changements de vos référentiels et réciproquement. Le système
d’information du partenaire sera peut-être en désordre, mais vos gendarmes
n’ont pas le « droit de suite » chez lui : s’il utilise pour classer ses produits
une table différente par région, vous serez contraint de les connaître toutes
et de suivre leurs errements.
Si l’on ne parvient pas à faire prendre au sérieux ces « histoires informa-
tiques » par les dirigeants, s’ils n’en font pas un des points à négocier lors
de l’accord de partenariat, le désordre s’insinuera dans le système d’infor-
mation par les échanges avec les partenaires.
Une autre source de désordre réside dans les changements de périmètre
de l’entreprise. Supposez que votre entreprise en achète une autre. L’aligne-
ment des systèmes d’information occasionnera des conflits entre équipes de
dirigeants : ce sera à qui prendra le pouvoir, à qui gardera sa place. Pendant
cette guérilla il faudra vivre avec un système hétéroclite, des référentiels
dont les nomenclatures ne se correspondent pas etc.
Dans l’économie innovante et évolutive d’aujourd’hui les partenariats
sont fréquents ainsi que les fusions et absorptions : autant d’occasions pour
que l’entropie s’accroisse, quelles que soient la qualité et la bonne volonté
des gendarmes.
L’état naturel du système d’information n’est donc pas l’ordre, mais un
désordre contre lequel la guerre n’est jamais gagnée. Ce n’est pas une raison
pour perdre de vue les principes selon lesquels on doit bâtir et faire évoluer
un système d’information, mais il sera en pratique difficile de les respecter
exactement.
Comment font les forces de l’ordre lorsqu’elles sont débordées ? Elles
louvoient à la recherche du compromis qui permettra le moindre mal : elles
pactisent avec une bande pour mettre une autre bande à la raison, elles
tolèrent ceci pour pouvoir réprimer cela, elles négocient des appuis auprès de
la municipalité, des familles, des associations. Le gendarme se fait diplomate.
2.3. LIMITES DE L’INFORMATIQUE 83
11. « Le calcul en virgule flottante est par nature inexact et les programmeurs peuvent
facilement s’y tromper : alors la réponse de l’ordinateur sera pratiquement formée de
“bruit” à l’état pur. L’un des principaux problèmes de l’analyse numérique est d’évaluer
par avance l’exactitude des résultats que fournissent certaines méthodes de calcul. On
rencontre ici un problème de crédibilité : nous ignorons jusqu’à quel point nous pouvons
faire confiance à l’ordinateur. Les utilisateurs débutants traitent ce problème en considé-
rant implicitement l’ordinateur comme une autorité infaillible : ils ont tendance à croire
significatifs tous les chiffres imprimés sur un listing. Les utilisateurs blasés ont l’approche
opposée : ils craignent toujours que les résultats n’aient pratiquement aucune significa-
tion. Plusieurs bons mathématiciens ont tenté d’analyser rigoureusement une série de
calculs en virgule flottante, mais ils y ont rencontré des difficultés tellement immenses
qu’ils ont dû se contenter d’arguments de simple vraisemblance. » (Knuth [105] vol. 2 p.
229).
84 CHAPITRE 2. AUTOMATISME ET INTELLIGENCE
12. Si l’ordinateur fait mille calculs par seconde il faudrait une durée égale à l’âge de
l’univers (12 milliards d’années) pour trouver, en considérant tous les itinéraires possibles,
le meilleur itinéraire entre 22 villes. Si l’ordinateur fait mille milliards (1012 ) de calculs
par seconde, il faudrait cette même durée pour trouver le meilleur itinéraire entre 28
villes.
2.3. LIMITES DE L’INFORMATIQUE 85
Théorème de Gödel
Parmi les fausses questions que conduit à poser un concept mal bâti
se trouve celle de l’intelligence des ordinateurs. Elle suscite des émotions
extrêmes et opposées. « Où est l’homme là-dedans ? » demande avec an-
goisse l’individualiste qui se pose en humaniste (Virilio [209]). D’autres,
tout aussi émotifs mais misanthropes, se félicitent de voir la machine élimi-
ner l’être humain qu’ils jugent peu fiable et moralement douteux (Truong
[205]). D’autres enfin croient devoir utiliser un vocabulaire emphatique pour
célébrer les nouveautés qu’apporte l’ordinateur (Lévy [121]). D’honorables
philosophes 15 et d’excellents ingénieurs 16 disent ainsi des choses qui ne
rendent pas un compte exact du phénomène de l’informatisation.
Pour éclairer la question il sera utile de se référer de nouveau à la culture
américaine. Nous considérerons ici non plus l’entreprise, mais l’armée (De-
sportes [47] p. 155) : tout comme l’entreprise l’armée est consacrée à l’action,
mais sous sa forme la plus urgente et la plus dangereuse. C’est donc dans
les doctrines militaires que l’on rencontrera l’expression la plus claire de la
doctrine d’action d’une nation, doctrine qui s’appliquera ensuite dans tous
les domaines et en premier dans l’entreprise, lieu géométrique de l’action
organisée.
La doctrine militaire américaine s’appuie sur le Précis de l’art de la
guerre [92] du Suisse Antoine Jomini (1779-1869) et, à un moindre degré,
sur le Vom Kriege [37] du Prussien Carl von Clausewitz (1780-1831). Ces
deux généraux avaient observé la stratégie de Napoléon, étudié celle de
Frédéric II, et en avaient tiré les leçons. Rivaux sur le terrain de la théorie,
ils se sont beaucoup emprunté l’un à l’autre. Leurs théories sont donc plus
proches que les interprétations qui en sont données : mais, quand il s’agit
d’évaluer une influence, l’interprétation d’une théorie a plus de poids que
son contenu même. On peut ainsi associer les noms de Jomini et Clausewitz
à deux modèles contrastés.
Selon le modèle de Jomini, tout problème doit être ramené à ses éléments
rationnels puis traité de façon scientifique : Jomini entend maîtriser l’art de
la guerre en résumant ce qu’elle a de complexe par quelques principes et
axiomes évidents. Cette approche satisfait le pragmatisme des Américains :
culte de l’offensive, concentration des masses au point décisif pour anéantir
l’adversaire, professionalisation d’une stratégie qui a pour but de gagner les
batailles et non de servir par les armes un projet politique. La guerre est un
job que la nation confie au militaire et que celui-ci exécute.
L’école qui se réclame de Clausewitz ne répudie pas cette modélisation
mais postule une continuité entre la guerre et la politique, idée difficilement
assimilable par le pragmatisme américain. Cette école insiste par ailleurs
sur les conditions de l’action, ces « incertitudes », ces « frictions », ce
« brouillard » que Jomini suppose négligeables mais qui en pratique né-
15. « Aujourd’hui notre mémoire est dans le disque dur. De même, grâce au logiciel,
nous n’avons plus besoin de savoir calculer ou imaginer. L’humain a la faculté de déposer
les fonctions de son corps dans les objets. Et il en profite pour faire autre chose. » (Michel
Serres dans L’Expansion, 20 juillet 2000).
16. « Dans 10 à 20 ans, l’ensemble des ordinateurs interconnectés aura des capacités
intellectuelles qui dépasseront l’homme dans tous les domaines. » (Jean-Paul Figer).
88 CHAPITRE 2. AUTOMATISME ET INTELLIGENCE
* *
Ceux qui conçoivent des ordinateurs savent faire la différence entre l’or-
dinateur et l’être humain. John von Neumann 18 était arrivé à l’informatique
17. De même, les casinos auraient fermé si le déterminisme ne comportait pas d’excep-
tion, car les physiciens y auraient fait fortune.
18. von Neumann [147]. The Computer and the Brain est le dernier ouvrage de von
2.4. QUELLE INTELLIGENCE? 89
* *
Hypothèse pour hypothèse, on est libre de choisir. Ne serait-il pas alors
plus fécond de postuler qu’il existe entre l’ordinateur et le cerveau humain
une différence de nature, une différence infranchissable?
Cette hypothèse a plusieurs avantages :
- elle est conforme à l’expérience présente, car aucun des ordinateurs
existants ne se comporte comme un être humain ;
- elle indique une piste à l’action : si l’ordinateur et l’être humain sont
différents, il importe de les articuler ;
- enfin, elle fournit à la pensée un cadre utile pour préparer cette action :
Neumann. Miné par le cancer dont il est mort en 1957, il n’a pas pu l’achever. Il lui
accordait beaucoup d’importance.
90 CHAPITRE 2. AUTOMATISME ET INTELLIGENCE
19. « [The imitation game] is played with three people, a man (A), a woman (B), and
an interrogator (C) who may be of either sex. The interrogator stays in a room apart
front the other two. The object of the game for the interrogator is to determine which
of the other two is the man and which is the woman. He knows them by labels X and
Y , and at the end of the game he says either “X is A and Y is B” or “X is B and Y
is A”. The interrogator is allowed to put questions to A and B (...) We now ask the
question, “What will happen when a machine takes the part of A in this game?” Will the
interrogator decide wrongly as often when the game is played like this as he does when
the game is played between a man and a woman? These questions replace our original,
“Can machines think?” (...) I believe that in about fifty years’ time it will be possible
2.4. QUELLE INTELLIGENCE? 91
to programme computers, with a storage capacity of about 109 , to make them play the
imitation game so well that an average interrogator will not have more than 70 per cent
chance of making the right identification after five minutes of questioning. (...) The only
really satisfactory support that can be given for [this] view (...) will be that provided by
waiting for the end of the century and then doing the experiment described. »
92 CHAPITRE 2. AUTOMATISME ET INTELLIGENCE
Ce test est peu exigeant : il ne dure pas plus de cinq minutes et le seuil
d’efficacité est modeste. Il est donc audacieux de prétendre qu’une telle ex-
périence, si elle réussissait, autoriserait à affirmer que des machines puissent
penser.
Quoi qu’il en soit, Turing a formulé à la fois un pari et le test qui permet
de le vérifier. Nous pouvons faire le test, puisque la fin du siècle est passée.
Certes l’ordinateur s’est révélé redoutable au jeu d’échecs ; mais dans un
travail aussi « simple » que la traduction d’un texte littéraire il fournit un
résultat tellement médiocre que l’examinateur moyen le distinguera immé-
diatement d’un traducteur humain. Si nous prenons Turing au mot, nous
pouvons donc dire qu’il a perdu son pari. Mais ce serait là une réfutation
peu satisfaisante : quelqu’un d’autre pourrait prendre la relève et parier de
nouveau en fixant comme échéance la fin du xxie siècle ou celle du troisième
millénaire, ce qui laisserait la question en suspens pendant un long délai.
La meilleure réfutation de Turing s’appuie sur la définition de l’ordina-
teur qu’il donne lui-même :
« On peut expliquer l’idée qui se trouve derrière les ordinateurs en di-
sant qu’ils sont conçus pour réaliser toutes les opérations qui pourraient être
faites par un calculateur humain. Le calculateur humain est supposé suivre
des règles fixes ; il n’a pas le droit de s’en écarter le moins du monde. Nous
pouvons supposer que ces règles lui sont fournies dans un livre qui sera mo-
difié chaque fois qu’on veut lui faire faire un nouveau travail. Il dispose pour
faire ses calculs d’une quantité illimitée de papier. Il peut aussi faire ses ad-
ditions et multiplications sur une machine à calculer, mais c’est sans impor-
tance. Le livre de règles qu’utilise notre calculateur humain est évidemment
une fiction commode : en fait, les vrais calculateurs humains se rappellent ce
qu’ils ont à faire. Si on veut faire imiter par une machine le comportement
d’un calculateur humain, on n’a qu’à demander à celui-ci comment il fait,
puis traduire sa réponse en une table d’instructions. Construire une table
d’instruction, c’est ce que l’on appelle “programmer”. “Programmer une ma-
chine pour réaliser l’opération A” équivaut à introduire dans la machine la
table d’instructions qui convient pour qu’elle réalise A 20 . »
Si Turing définit ainsi l’ordinateur, puis affirme par ailleurs qu’il sera
difficile de distinguer au « jeu de l’imitation » un ordinateur d’un être hu-
main, cela implique qu’il sera tout aussi difficile de distinguer un calculateur
20. « The idea behind digital computers may be explained by saying that these machines
are intended to carry out any operations which could be done by a human computer. The
human computer is supposed to be following fixed rules; he has no authority to deviate
from them in any detail. We may suppose that these rules are supplied in a book, which
is altered whenever he is put on to a new job. He has also an unlimited supply of paper
on which he dœs his calculations. He may also do his multiplications and additions on a
“desk machine,” but this is not important. The book of rules which we have described our
human computer as using is of course a convenient fiction. Actual human computers really
remember what they have got to do. If one wants to make a machine mimic the behavior
of the human computer in some complex operation one has to ask him how it is done, and
then translate the answer into the form of an instruction table. Constructing instruction
tables is usually described as “programming”. To “programme a machine to carry out the
operation A” means to put the appropriate instruction table into the machine so that it
will do A. »
2.4. QUELLE INTELLIGENCE? 93
* *
Les Grecs avaient découvert la puissance de l’abstraction ; on voit dans
L’Anabase de Xénophon l’ivresse intellectuelle que cette découverte a pro-
voquée. Platon a été jusqu’à affirmer que seules les idées étaient réelles :
l’idée de cheval serait ainsi plus réelle que le cheval qui gambade dans le
pré, tout comme l’idée de cercle est plus réelle que le cercle que l’on trace
* *
l’action, et d’autres qui ne le sont pas. Si elles nous détournent des questions
pertinentes, nous devons qualifier les rêveries sur l’intelligence des ordina-
teurs d’impertinentes.
Nous qui savons tant bien que mal parler, lire, écrire, compter, domesti-
quer plantes et animaux, fabriquer produits et outils, communiquer, déposer
et retrouver notre mémoire collective dans des encyclopédies etc., devons
apprendre à tirer parti de l’automate programmable.
Pour voir clair dans les questions de savoir-faire et de savoir-vivre, d’or-
ganisation collective et personnelle que cela pose, il importe de percevoir
la frontière qui nous sépare de lui, de discerner ce qu’il sait faire de ce que
nous savons faire, de sorte que son insertion dans notre action, dans nos
processus, puisse être judicieuse. Il faut pour tracer cette frontière un outil
conceptuel aussi précis que le scalpel du chirurgien.
Or les rêveries sur l’intelligence de l’ordinateur brouillent cette frontière.
On ne peut pas penser la relation entre deux êtres dont on a postulé l’iden-
tité, fût-elle asymptotique. L’intelligence de la machine s’actualisant dans
un futur indéfini, l’intuition s’évade des contraintes de l’action en tournant
le dos à des questions qui aujourd’hui sautent aux yeux : comment assis-
ter nos processus opérationnels ; tirer parti de la conjugaison des données
et du commentaire ; fonder la solidité des référentiels ; articuler les médias ;
faire interopérer les systèmes d’information de diverses entreprises ; assurer
la dialectique du système d’information et de la stratégie etc.
Les écrivains de science fiction, les cinéastes, créent un monde imagi-
naire ; il leur est facile d’y doter les ordinateurs de facultés extraordinaires,
comme l’a fait Stanley Kubrick dans 2001 : odyssée de l’espace. Ils sculptent
ainsi un imaginaire fallacieux 23 . Ce n’est pas sans conséquences. Certes, la
rêverie est innocente quand elle délasse le praticien expert : il n’est pas
dupe des illusions qu’elle comporte et il est lié à l’expérience par le ressort
de rappel de son activité professionnelle.
Mais parmi les personnes qui décident en matière de système d’informa-
tion les praticiens experts sont une minorité. La diffusion médiatique des
rêveries sur l’intelligence de l’ordinateur risque de placer les autres sur une
orbite mentale d’où il leur sera impossible de revenir au sol, et alors leurs
décisions seront follement inadéquates.
Ce n’est pas de rêveries impertinentes que nous avons besoin dans ce do-
maine difficile, mais de démarche scientifique et de méthode expérimentale.
L’ordinateur ne peut pas réaliser des choses que l’être humain apprend
à faire lors des premières années de sa vie : il ne comprend pas le langage
humain ordinaire, avec ses allusions et ses connotations. Il ne peut pas faire
la synthèse d’un ensemble de faits et en tirer la conclusion. Il ne peut pas
prendre de décision. Il n’a pas d’imagination. Si l’on a l’impression qu’il sait
faire tout cela, c’est que l’on commet l’erreur de dire « l’ordinateur calcule »
23. « Contrairement à ce que l’on voit dans les films, les logiciels qui existent dans le
monde réel sont incroyablement primitifs si on les confronte aux exigences de ce que nous
appelons le “simple bon sens”. Regardez par exemple la stupidité incroyable des moteurs
de recherche sur la Toile lorsqu’on leur demande de trouver des contenus ayant un sens
pour l’être humain » (Schneier [180]).
96 CHAPITRE 2. AUTOMATISME ET INTELLIGENCE
La traduction automatique
* *
L’articulation entre l’automate et l’être humain demande des consulta-
tions, de la réflexion, bref une démarche.
Certaines personnes disent alors : « Vous proposez une démarche, mais
ce qu’il nous faut c’est un produit ». Les fournisseurs de logiciels portent
une part de responsabilité dans cette erreur de perspective. On a vu, sur la
couverture du Monde Informatique (n◦ 839 du 4 février 2000) la photo d’un
fromager accompagnée de cette légende : « De quoi avez-vous besoin pour
transformer votre business en e-business ? Découvrez-le page 11 ». Et à la
page 11 se trouvait une publicité contenant ces mots : « Il faut un puissant
logiciel pour transformer le business en e-business. Ce logiciel existe, IBM
l’a fait ».
Or la première question qu’une entreprise doit se poser n’est pas « quel
logiciel choisir », mais « que veulent mes clients », puis « quel rôle dois-je
jouer » : la check-list ne commence pas par la technique mais par la stratégie.
En suggérant qu’il suffit de prendre un logiciel - le sien bien sûr - IBM oriente
ses clients vers la voie de l’échec même si son logiciel est excellent (et IBM a
98 CHAPITRE 2. AUTOMATISME ET INTELLIGENCE
« Il ne suffit pas pour votre entreprise d’avoir une présence sur la Toile,
fût-elle jolie. Il faut d’abord connaître vos clients et savoir ce qu’ils at-
tendent de vous car la Toile, c’est le pouvoir au client : si vous ne répondez
pas comme il le souhaite, clic ! il est parti, vous pouvez lui dire adieu.
« Quel positionnement voulez-vous donner à votre entreprise sur la Toile?
jusqu’où voulez-vous pousser la différenciation de votre offre? avec quels
partenaires voulez-vous vous associer ? quelles relations souhaitez-vous
avoir avec vos fournisseurs? jusqu’où entendez-vous pousser l’intégration
entre vos affaires et celles de vos partenaires, fournisseurs et clients ? Il
faut ici une ingénierie d’affaire, avec ses dimensions juridique et finan-
cière.
« Souhaitez vous conserver la même périphérie, ou pensez vous qu’il
faut externaliser certaines de vos activités ? Le e-business va de pair
avec un e-management : il faut repenser la personnalité, les priorités,
les contours de l’entreprise. Il convient que cette réflexion ne soit pas
seulement celle du président-directeur général mais qu’elle soit partagée
par les dirigeants, les cadres et finalement par toute l’entreprise : cela
suppose des consultations, concertations et validations.
« Enfin quand vous saurez ce que vous voulez faire il faudra s’assurer que
c’est faisable. Vos limites sont ici celles de votre système d’information.
Si celui-ci est constitué d’une accumulation d’applications hétéroclites
fondées sur des définitions incohérentes, si les données de référence ne
sont pas gérées, s’il n’existe pas de gestion de configuration, bref si vous
n’avez pas un système d’information digne de ce nom, vous aurez du mal
à jouer la partie de l’e-business. Ce ne sera pas totalement impossible
- il n’est pas indispensable de passer par un ERP a avant de se lancer
sur l’Internet - mais ce sera difficile. Le calendrier de mise en œuvre des
fonctionnalités de l’e-business sera articulé avec la mise à niveau de votre
système d’information.
« Vous pouvez démarrer tout de suite, mais il vous faudra quelques
années pour transformer l’entreprise. »
d’excellents produits). Les entreprises n’ont que trop tendance à croire que
tout problème est technique (c’est-à-dire relève étymologiquement du savoir-
faire) et donc que toute solution doit être également technique. Mais avant
de savoir faire, il faut savoir ce que l’on veut faire, pourquoi et pour qui on
veut le faire. « Pourquoi faire » et « vouloir faire » doivent précéder « savoir
faire ». Dire cela, ce n’est pas dénigrer la technique, mais au contraire c’est
la respecter assez pour ne pas la faire intervenir à contre-temps.
Les systèmes d’information ne sont pas des automates dont on attend
qu’ils règlent tous les problèmes, mais des outils destinés à assister des opéra-
teurs humains. La conception du système d’information doit donc considérer
non le seul automate, mais le couple formé par l’automate et l’être humain
organisé qu’il assiste.
Éloge du semi-désordre
Les agents se sont donc habitués à faire une partie de leur travail sur
papier ou sur tableur, puis à saisir les données dans le système d’information.
Cela comporte des inconvénients (erreurs de calcul ou de saisie, surcharge
de travail, inefficacités diverses etc.) mais ce fonctionnement d’ensemble
permet à l’administration d’être réactive et de mettre en œuvre sans délai
une politique nouvelle.
4) On a pu, dans certaines entreprises, modéliser la pratique profession-
nelle des agents pour automatiser leur démarche et gagner en rapidité. C’est
ainsi que des banques ont conçu des systèmes experts de gestion de tréso-
rerie. Cependant, si le contexte évolue, le système expert ne saura pas, lui,
évoluer et il perdra en efficacité alors qu’un opérateur humain aurait adapté
ses méthodes de travail et modifié ses « règles de pouce ».
Il faut donc conserver, à côté du système expert qui fera le gros du
travail, des opérateurs humains plus lents sans doute, mais dont le savoir
pourra être périodiquement réinjecté dans le système expert pour le mettre
à jour.
5) La gestion d’un système d’information (ou d’un projet) navigue entre
deux extrêmes. Suivre une méthode oblige à consacrer beaucoup de temps
à la production de documents qui décrivent le système d’information sans
faire nécessairement progresser son adéquation fonctionnelle. On peut aussi
pratiquer l’artisanat « à l’ancienne » : dès qu’un métier a besoin de quelque
chose, il demande aux informaticiens de le programmer ; il revient à ceux-ci
de gérer l’intendance, le métier ne se souciant pas des problèmes techniques
du système d’information.
Si l’on tolère la non-formalisation, les maîtrises d’ouvrage risquent de
s’y engouffrer ; si on exige une formalisation complète, l’entreprise s’enlisera
dans la production de documents en grande partie superflus. Le moyen terme
efficace résulte d’un bon sens qui ne peut pas être entièrement formalisé.
* *
Un système d’information totalement désordonné n’est pas un système
(la notion de système implique la cohérence) et ne contient d’ailleurs pas
d’information car il stocke et produit des données qu’il sera impossible de
comparer et donc d’interpréter. Le désordre total, c’est la mort du système
d’information qui devient un machin informe.
La perfection est une autre forme de mort car elle démobilise les opé-
rateurs humains. Le mieux est l’ennemi du bien : il faut admettre une dose
de « non qualité » (apparente) pour que la coopération entre l’automate et
l’être humain soit le plus efficace possible.
Le laxisme peut prendre deux formes :
- le formalisme « fait sérieux », mais il aboutit soit à l’inefficacité, soit
(conséquence moins dommageable) à la frustration du méthodologue qui ne
parvient pas à se faire entendre ;
- le fatalisme, que traduisent l’expression « ça finira bien par tomber
en marche » et la phrase attribuée au président Queuille (1884-1970) : « il
n’existe pas de problème dont une absence persévérante de solution ne finisse
par venir à bout ».
2.4. QUELLE INTELLIGENCE? 101
Éclairage historique
103
104 CHAPITRE 3. ÉCLAIRAGE HISTORIQUE
1. Entre autres ouvrages, nous devons beaucoup à Philippe Breton [26] Robert Ligon-
nière [118], Paul E. Ceruzzi [35] et D. Sjobbema [190].
2. Voir en particulier le site de Serge Rossi, histoire.info.online.fr.
3. Les travaux érudits, même quand ils se limitent à un empilage minutieux de docu-
ments, témoignages et références, ont pour but d’ouvrir la voie à la réflexion : l’érudition,
tout aussi nécessaire que l’expérimentation, prépare comme elle son propre dépassement
théorique.
3.1. HISTOIRE DU MICRO-ORDINATEUR 105
historique, quand elle est poussée jusqu’au passé récent, permet d’élucider
le présent et d’éclairer le futur tout en laissant sa part à l’incertitude.
Nous daterons les événements : la chronologie donne un point d’appui au
raisonnement en aidant à placer les événements dans leur contexte. Elle aide
aussi à identifier les innovations essentielles, celles qui, élargissant le domaine
du possible, ont suscité d’autres innovations : certaines dates, qui servent de
pivot à l’intelligence des faits, se gravent utilement dans la mémoire.
* *
L’informatique était dans les années 1960 l’affaire de professionnels sty-
lés par IBM. Ostensiblement sérieux, ils portaient costume, cravate noire
et chemise blanche. Les utilisateurs n’étaient pas autorisés à approcher la
machine.
Mais les hackers (que l’on a appelé aussi hobbyists) revendiquaient le
droit de comprendre comment la machine fonctionne, d’y accéder, de tra-
vailler en temps réel et donc de modifier la façon dont on utilisait l’ordi-
nateur. Avant eux, l’ordinateur était une grosse machine sans écran, sans
carte sonore, sans traitement de texte, sans tableur, sans réseau etc. Ils ont
inventé les procédés qui ont permis d’introduire ces perfectionnements.
Un good hack, c’est une astuce qui marche, un procédé qui permet de faire
faire quelque chose de nouveau par l’automate - peu importe d’ailleurs si l’on
ne sait pas exactement pourquoi ni comment cela fonctionne 4 . La passion
des hackers était de créer de good hacks, non de les vendre ni de « faire du
business ». Ils copiaient sans vergogne les programmes, les modifiaient, les
4. Un hacker remarqua ainsi un jour que lorsqu’il faisait passer un de ses paquets de
cartes perforées le lecteur de cartes vibrait en émettant une note de musique. Il repéra
les cartes qui causaient ce phénomène et chercha systématiquement les dessins de carte
qui pourraient provoquer d’autres notes de musique. Après quoi il programma un petit
air et montra à ses amis éberlués qu’un lecteur de cartes pouvait jouer de la musique.
Il faudra encore découvrir comment coder le son, comment interfacer un haut-parleur à
l’ordinateur etc.
106 CHAPITRE 3. ÉCLAIRAGE HISTORIQUE
5. “Free software is a matter of the users’ freedom to run, copy, distribute, study,
change and improve the software”. (voir www.gnu.org/philosophy/free-sw.html).
3.1. HISTOIRE DU MICRO-ORDINATEUR 107
Les héritiers des « hackers », des pionniers des années 1960 et 1970, sont
ainsi aujourd’hui ceux qui travaillent sur le langage de l’entreprise, l’organi-
sation transverse, l’articulation du système d’information avec la stratégie,
la modélisation des processus, l’urbanisation des systèmes d’information etc.
Reprenons le chemin qui a conduit du premier micro-ordinateur aux
réseaux de machines d’aujourd’hui.
Le premier micro-ordinateur
6. Sorti en avril 1972, le 8008 comportait 3500 transistors. Sa vitesse était de 108 kHz,
sa mémoire adressable de 16 Ko.
3.1. HISTOIRE DU MICRO-ORDINATEUR 109
Autres précurseurs
Intel sortit le microprocesseur 8080 en juillet 1974. Il était vingt fois plus
rapide que le 4004 et son prix pouvait descendre jusqu’à 3 $ pour des com-
mandes en quantité. Ce microprocesseur sera au cœur de la conception de
l’Altair, la machine qui a enfin fait démarrer le marché du micro-ordinateur.
MITS (« Micro Instrumentation Telemetry System »), petite entreprise
d’Albuquerque au Nouveau Mexique dirigée par Ed Roberts, a lancé l’Altair
8800 en décembre 1974. La photographie de ce micro-ordinateur paraît pour
la première fois sur la couverture du numéro de janvier 1975 de la revue
Popular Electronics (figure 3.2). Dans les deux mois qui suivent, des milliers
de commandes arrivent à MITS.
L’Altair était commercialisé en kit et il fallait beaucoup d’habileté pour
le monter. L’unité de base avait 256 octets de RAM et coûtait 395 $ : ainsi
l’Altair était beaucoup moins cher que le Micral. Comme il n’existait pas
de logiciel, les utilisateurs devaient écrire leurs propres programmes puis les
saisir en binaire en appuyant sur des boutons (des cals se formaient bientôt
au bout de leurs doigts...). Le résultat était affiché en binaire sur des diodes.
On pouvait ajouter au système un bus et des cartes d’extension. En
quelques mois les cartes qui permettaient d’accroître la mémoire ou de rac-
corder des terminaux furent disponibles. Le télétype ASR-33 fournit un
clavier, une imprimante et un support de stockage sur bande de papier per-
foré. MITS commercialisa par la suite d’autres versions améliorées (8800a,
8800b).
7. En 1978, R2E est absorbée par Bull. En 1982, la filiale américaine de Bull concevra
son premier compatible PC, le Bull Micral. Truong quittera Bull en 1983.
110 CHAPITRE 3. ÉCLAIRAGE HISTORIQUE
8. Source : www.microsoft.com/billgates/bio.htm.
112 CHAPITRE 3. ÉCLAIRAGE HISTORIQUE
3 février 1976
Lettre ouverte aux « Hobbyistes »
Bill Gates
Directeur Général, Micro-Soft
3.1. HISTOIRE DU MICRO-ORDINATEUR 113
mais ce ne sont pas les plus importants. En fait il n’était pas facile de réussir
dans le domaine des ordinateurs personnels, comme l’ont montré les échecs
rencontrés ensuite par IBM et même par Apple ; et s’il était en 1981 possible
pour Apple (40 personnes) de prendre de gros risques, c’était pratiquement
impossible pour Xerox (125 000 personnes).
Xerox s’était spécialisée sur le marché des photocopieurs, grosses ma-
chines que l’on installe dans les secrétariats et que le fournisseur fait rému-
nérer à la copie. Le succès de la Xérographie avait mis Xerox en situation
de monopole et l’avait convaincue qu’il suffisait d’offrir de bons produits,
mûrement conçus, pour que les clients se jettent dessus. Cela ne la préparait
pas au marché de l’informatique personnelle où les acheteurs sont les direc-
teurs informatiques, où il n’est pas question de facturer à la consommation
et où la concurrence contraint à se battre pour chaque pourcentage de part
de marché.
L’intérêt de Xerox pour l’innovation était sincère mais affaire de prin-
cipe plus que de stratégie ; pour que Xerox puisse devenir un acteur sur ce
marché, il aurait fallu que ce fût une entreprise nouvelle, sans histoire, sans
habitudes, sans organisation, libre de se transformer comme le firent Apple
et Microsoft.
Toute grande entreprise, toute organisation structurée par l’histoire ré-
pugne à changer et a donc tendance à refuser l’innovation. Cela explique en
partie les échecs de l’informatique française : celle-ci a été poussée par une
administration que l’on peut considérer comme la plus grande entreprise du
monde et qui, comme toute grande entreprise, est corsetée par son histoire.
Pour concevoir le PC, IBM a dû créer en son sein une organisation
indépendante que le président a protégée contre le reste de l’entreprise et
cela n’a pas encore suffi : la culture d’entreprise ayant rejeté cette greffe, IBM
n’a pas pu profiter du PC pour dominer le marché de la micro-informatique.
Ce sont Intel et Microsoft, structures minuscules en 1981, qui ont raflé la
mise.
3.1.2 IBM et le PC
La relation entre IBM et le PC a obéi à un déterminisme aussi impla-
cable que celui d’une tragédie grecque : une entreprise dont la capitalisation
boursière dépasse celle des entreprises allemandes, dont la croissance a ap-
porté le bien-être à des vallées entières près de New-York et de Boston, fière
de ses traditions de qualité et de sérieux, trébuche sur le micro-ordinateur
en raison même de ces traditions et manque de s’effondrer (Carroll [33]).
* *
En 1980, le micro-ordinateur est un défi pour IBM. Le PET (Perso-
nal Electronic Transactor) de Commodore, le TRS-80 de Radio Shack et
l’Apple II, sortis tous trois en 1977, séduisent des clients. Frank Cary, pré-
sident d’IBM, estime que son entreprise doit être présente sur ce marché.
Le micro-ordinateur étant une petite machine, sa réalisation ne devrait pas
poser de problème à la plus grande entreprise informatique du monde !
116 CHAPITRE 3. ÉCLAIRAGE HISTORIQUE
13. La coopération avec Microsoft fit apparaître quelques défauts chez IBM: « Les gens
de Microsoft se plaignaient de la méthode de programmation d’IBM [...] IBM mesurait le
nombre de lignes produites par chaque programmeur, ce qui les encourageait à produire
du code inefficace. Les gestionnaires d’IBM se plaignaient parce que, selon leur système
de mesure, Microsoft ne faisait pas sa part du travail : ils disaient que si l’on comptait
le nombre de lignes, Microsoft faisait en fait un travail négatif, ce qui signifiait que
Microsoft aurait dû payer IBM parce qu’il condensait le code. » Cette façon de mesurer
la production pousse à écrire des programmes lourds. IBM la jugeait efficace parce qu’elle
induisait une forte utilisation des machines et incitait les clients à acheter de nouveaux
ordinateurs plus puissants (Carroll [33] p. 101).
3.1. HISTOIRE DU MICRO-ORDINATEUR 117
Il est futile d’ironiser sur les malheurs des grandes entreprises : le fait est
qu’IBM, que l’on avait pu croire presque morte en 1993, s’est redressée par
la suite et s’est réorientée vers le secteur des services, ce qui prouve qu’elle
n’avait pas perdu son potentiel ni sa capacité d’adaptation.
3.1.3 Chronologie du PC
Voici les dates des principaux événements qui ont marqué la suite de
l’histoire du micro-ordinateur :
1982 : Compaq commercialise le premier micro-ordinateur portable (15 kg !).
1983 : Apple lance le Lisa, premier ordinateur présentant une interface
graphique (menus déroulants, fenêtres, corbeille etc.) : le Lisa a été inspiré
par les travaux du PARC.
La norme IEEE 802.3 pour les réseaux locaux Ethernet est publiée. Elle
concrétise les spécifications produites par le PARC en 1980. C’est l’amorce
de la généralisation des réseaux locaux dans les entreprises.
1984 : Lotus sort le tableur Lotus 1-2-3 (voir page 138 l’histoire du ta-
bleur) qui incitera les entreprises à acheter des PC. Apple commercialise le
Macintosh qui sera le grand concurrent du PC : les utilisateurs se partage-
ront entre partisans de l’une ou l’autre des deux machines.
1985 : IBM lance le PC AT, qui a un grand succès. IBM annonce en oc-
tobre le réseau Token Ring, qui concurrencera Ethernet dans les entreprises
industrielles (voir page 354).
Intel lance le même mois le processeur 80386 à 16 MHz qui améliore de
façon significative la puissance du PC. Microsoft livre en novembre Windows
1.0 qui apporte l’interface graphique aux utilisateurs du PC.
1986 : Les bases de données sur PC se développent avec dBase d’Ashton
et Tate. Microsoft lance le tableur Excel (d’abord connu sous le nom de
Multiplan).
DEC connaît sa meilleure année, mais ce sont les derniers feux du mini-
ordinateur, dont le marché est coincé entre la gamme des mainframes et le
micro-ordinateur.
Compaq lance le marché des clones du PC en produisant le premier PC
80386. L’utilisation de la messagerie électronique se développe aux États-
Unis : MCI et Compuserve offrent un lien entre leurs messageries respectives.
1987 : Les PC 80386 détrônent les PC AT. IBM lance la série PS/2 et
le système d’exploitation OS/2. Apple lance le Macintosh II.
Le 12 juillet 1987, Robert Solow formule dans la New York Review of
Books son célèbre paradoxe : « You can see the computer age everywhere
but in the productivity statistics 14 » (voir page 181).
1988 : Unix gagne en notoriété et érode la confiance dans les mini-
ordinateurs et les mainframes. Apple poursuit Microsoft et HP en justice
à propos de l’interface du PC. Compaq prend la tête d’un consortium de
fournisseurs connu comme « gang des neuf », et crée le standard EISA pour
14. « On voit des ordinateurs partout, sauf dans les statistiques de productivité. »
118 CHAPITRE 3. ÉCLAIRAGE HISTORIQUE
IBM fait une offre de 3,5 milliards de dollars pour acheter Lotus.
En août, Microsoft livre Windows 95 et Intel lance le Pentium Pro à
150-200 MHz. Compuserve, AOL et Prodigy commencent à offrir des accès
au Web, et Netscape lance la troisième plus importante augmentation de
capital sur le Nasdaq.
1996 : Windows 95 confirme son emprise sur le PC. Windows NT gagne
du terrain contre NetWare comme plate-forme pour serveurs. Les Network
Computers se concrétisent par de vrais produits.
Les Intranet d’entreprise se répandent. Java gagne en notoriété. Les en-
treprises commencent à programmer des sites Web. Microsoft adopte enfin
la Toile.
1997 : C’est l’année de l’Intranet. Le commerce électronique démarre. La
navigation sur la Toile devient facile avec des navigateurs et des outils de
recherche améliorés.
La puissance de traitement s’accroît lorsque Intel annonce le Pentium
200 MHz avec la technologie MMX.
1998 : La perspective de l’an 2000 effraie tout le monde. Le manque de
personnel en informatique devient aigu. L’outsourcing et les services s’épa-
nouissent.
Le grand thème à la mode est le commerce sur l’Internet.
Plusieurs événements importants non reliés au Web se produisent : achat
de Digital par Compaq, durcissement de la bataille entre Microsoft et le
ministère de la justice.
qui a testé les limites des techniques de chiffrement, et Certicom avec des
innovations comme la courbe de protection elliptique (économe en largeur
de bande) qui fait partie de l’offre PalmNet de 3Com.
Ethernet et les réseaux locaux de PC
NetWare 2.11, Ethernet 10BaseT et 10Base2 ont apporté aux entre-
prises le partage des données et de la puissance de traitement. NetWare a
transformé le micro-ordinateur en une machine analogue à un mainframe,
Ethernet a permis de relier les ordinateurs entre eux. Sans la synergie entre
ces deux techniques, l’explosion de l’Internet n’aurait pas pu se produire car
le réseau d’ordinateurs serait resté coûteux. Elles sont évolutives : Ethernet
devient plus rapide et s’étend à de nouveaux médias, les réseaux locaux
s’interconnectent.
L’Intranet
Cela commence par les systèmes de messagerie store and forward des
années 1960 et 70 (à distinguer du store and retrieve) et par les conférences
sur mainframe et mini, particulièrement dans les universités et le monde de
la recherche.
Puis la mise en réseau des PC et la normalisation des protocoles ré-
pandent la communication dans l’entreprise et entre les entreprises. cc:Mail
de Lotus et MHS (« Message Handling Service ») de Novell aident à dissémi-
ner la messagerie alors que le groupware, avec Lotus Notes, fournit des outils
de programmation personnalisée et un lien avec les applications externes.
Les années 1990 et 2000 sont celles du temps réel : le groupware a inté-
gré les communications synchrones (conversation, visioconférence, partage
d’applications). Ces fonctionnalités seront finalement absorbées par l’Intra-
net qui s’installera dans les entreprises dans la foulée de la Toile.
Le Macintosh
En lançant le Macintosh en 1984, Apple a transformé pour toujours les
ordinateurs en introduisant trois avancées technologiques (déjà utilisées dans
la ligne de produits Lisa) : l’interface graphique ; la souris ; les disquettes 3.5
pouces à haute capacité et très solides.
La conception du Lisa et du Mac doit beaucoup aux idées du centre
de recherche de Xerox à Palo Alto, mais Apple les a retravaillées pour les
industrialiser et les rendre plus commodes pour l’utilisateur.
En refusant d’adapter son système d’exploitation MacOS à d’autres pro-
cesseurs que la famille 68000 ou d’en vendre la licence à d’autres entreprises,
Apple a contraint les fabricants de clones à chercher un autre système d’ex-
ploitation. Microsoft s’est engouffré dans la brèche et, comme Apple perdait
du temps en explorant trop de sentiers différents, Windows a fini par devenir
le système d’exploitation préféré des entreprises et des utilisateurs.
Toutefois la migration vers le microprocesseur à architecture RISC d’IBM
pour le PowerPC, puis la sortie de la ligne de produits iMac ont maintenu
Apple à flot et lui ont permis de rebondir.
Le logiciel libre
Frustrée par les logiciels en boîtes chers et qui ne tenaient pas les pro-
messes publicitaires, la communauté des informaticiens est revenue vers le
3.2. POINTS DE REPÈRE 121
milieu des années 1990 vers le modèle du « logiciel libre » qui permet à
l’utilisateur d’accéder aux parties intimes du système.
Microsoft tâtonnait pour définir sa stratégie envers la Toile et Solaris
était trop cher : les entreprises ont commencé à utiliser des serveurs Web
Apache sous Linux.
La RAD
Au début, la RAD (« Rapid Application Development ») n’a fait que
resserrer le processus « édition - compilation - débogage » qui représenta
longtemps l’essentiel du travail des programmeurs. Dans le milieu des an-
nées 1980, des produits comme Turbo Pascal de Borland ont accéléré le
développement d’applications pour PC sous DOS.
Visual Basic de Microsoft, lancé en 1991, a défini un standard pour la
commodité du programmeur, si ce n’est en performance ou robustesse des
applications. Avec la diffusion de composants logiciels diversifiés, Visual Ba-
sic a accéléré une transition que des langages plus élégants avaient seulement
promis, ouvrant la voie aux classes Java réutilisables.
L’architecture RISC
L’architecture RISC (« Reduced Instruction Set Computer ») pour les
microprocesseurs, introduite par IBM sur les PC RT en 1986, a permis aux
puces d’atteindre les sommets de la performance informatique. Elle était
conçue pour faire plus vite les opérations habituelles et faciliter l’utilisation
du microprocesseur. Mais ceux qui proposaient le RISC ont sous-estimé la
solidité de la part de marché prise par l’architecture x86 d’Intel, consolidée
par la largeur de la base installée en logiciels, outils et compétences.
Alpha de DEC, SPARC de Sun et PowerPC de Motorola ont tenté de
prendre l’avantage sur Intel au plan de la vitesse de traitement, puis Intel
introduisit les techniques RISC dans le cœur de sa ligne x86. Les puces
Pentium, AMD et autres appliquent les principes RISC à l’optimisation
interne tout en restant compatibles avec les versions anciennes.
VGA
On avait déjà fait de la couleur sur PC, mais l’inclusion du VGA (« Video
Graphics Array ») dans la ligne PS/2 par IBM en 1987 fut un événement
important. Le PC passait de 16 à 256 couleurs avec une résolution de 320
pixels par 200 ; on pouvait aussi faire du 16 couleurs avec une résolution de
640 pixels par 480. Cela favorisa le lancement des interfaces graphiques, de
l’édition et des jeux d’arcade sur PC. VGA est désormais à la base de tout
adaptateur vidéo.
La Toile
Quand Tim Berners-Lee appliqua pour la première fois l’hypertexte à
l’Internet et forgea le terme « World Wide Web » en 1990, il cherchait à
créer une collaboration facile dans les projets (voir page 349). Il a transformé
l’Internet universitaire en un média de masse.
Dans les neuf années qui suivirent le premier navigateur et le premier
serveur au CERN la Toile a acquis l’ubiquité. L’information et la publication
furent ses premiers points forts, renforcés à la fin de 1993 par Mosaic et son
utilisation graphique.
122 CHAPITRE 3. ÉCLAIRAGE HISTORIQUE
Le Datawarehouse
Au milieu des années 1980 Wal-Mart voulait s’étendre au delà du Middle
West. Mais comment gérer plusieurs magasins en tenant compte des parti-
cularités de chaque marché local? Les dirigeants de Wal-Mart eurent l’idée
de collecter les données sur les ventes et de les utiliser pour répondre rapi-
dement aux changements de tendance de la demande.
Il en résulta un des plus grands succès du datawarehouse. La base de
données grimpa rapidement à 700 Go. Elle permit au détaillant de partager
l’information sur la demande avec ses fournisseurs et de leur faire gérer
ses stocks. Wal-Mart surpassa ainsi Sears et Roebuck. Son datawarehouse,
exploité sur du matériel NCR Teradata, a crû jusqu’à atteindre la taille de
24 To.
Le commerce électronique
En 1995, Barnes & Noble et Crown Books développaient des réseaux
de librairies concurrents. Jeffrey Bezos, informaticien chez Bankers Trust à
Chicago, se lança sur l’Internet pour créer Amazon.com : ce sera la première
grande réussite du commerce électronique.
Amazon a montré que l’on peut faire du commerce électronique malgré
les inquiétudes concernant la sécurité sur le réseau. Elle offre plusieurs mil-
lions de titres de livres en ligne, des CD, des livres audio, des DVD et des
jeux pour ordinateur.
Par ailleurs Dell a prouvé qu’il était rentable pour la distribution des
micro-ordinateurs d’intégrer le commerce électronique avec une chaîne d’ap-
provisionnement. Lancé au début de 1997, le site de Dell donne aux clients
des dates de livraison exactes en contrôlant les stocks de pièces détachées
lors de la commande. Dell partage les informations sur la demande avec ses
fournisseurs en temps réel, ce qui lui permet de réduire les coûts d’immobi-
lisation et d’améliorer le service au client.
15. Le SSEC, construit en 1948 et rival de l’ENIAC, fut l’un des premiers ordinateurs
à respecter l’architecture de von Neumann (Perspectives of the Founding Fathers [1]).
124 CHAPITRE 3. ÉCLAIRAGE HISTORIQUE
puis au « palmtop » qui tient dans le creux de la main et qui, muni d’une
antenne, apporte toutes les fonctionnalités du PC en réseau.
* *
Le micro-ordinateur a transformé dans les années 1980 le marché de
l’informatique (Grove [76]). Au début de cette décennie, des entreprises
comme IBM, DEC, Wang ou Univac étaient organisées verticalement, cha-
cune étant présente dans toutes les couches (puces, ordinateurs, systèmes
d’exploitation, applications, vente et distribution). L’industrie informatique
était « propriétaire », un système entier étant produit par un seul fournis-
seur (figure 3.3). L’avantage d’une telle organisation du marché, c’est que
l’offre d’un fournisseur constitue un ensemble cohérent. L’inconvénient, c’est
qu’une fois le fournisseur choisi le client est contraint de lui rester fidèle :
s’il voulait prendre un autre fournisseur il devrait changer tout son système
informatique d’un coup, ce qui est pratiquement impossible. La compétition
pour la première vente à un client est donc féroce.
Mais les fournisseurs de logiciel s’y refusent, car seuls quelques millions
d’ordinateurs disposent des dernières possibilités. Pour pouvoir toucher un
large marché ils ont plutôt intérêt à produire des programmes qui pourront
tourner convenablement sur les machines anciennes : ils sont donc nécessai-
rement plus « conservateurs » que les fournisseurs de matériel (Colwell [39]
p. 33).
16. Notamment le marché des serveurs Web : en 2000, 60 % des serveurs utilisaient
Apache contre 20 % à Microsoft IIS et 7 % à Netscape Enterprise. Le nombre des utili-
sateurs de Linux dans le monde se situerait à la même date dans la fourchette de 7 à 16
millions.
3.3. LE MARCHÉ DE L’INFORMATIQUE 127
* *
Le marché du logiciel compilé pour PC, utilisable mais illisible pour
l’utilisateur, démarre avec la « Open Letter to Hobbyists » publiée par Bill
Gates le 3 février 1976 (voir page 111).
Bill Gates avait alors vingt ans. Ce jeune homme avait un fort potentiel,
comme on l’a vu par la suite : d’une part sa compétence en informatique
faisait de lui un bon hacker ; d’autre part - et contrairement à la majorité
des autres hackers - son milieu social l’avait initié aux affaires : son père
était l’un des plus grands avocats d’affaires de Seattle ; sa mère siégeait au
conseil d’administration de plusieurs grandes entreprises et universités.
Il était ainsi mieux préparé que d’autres à percevoir le potentiel écono-
mique du logiciel compilé, et peut-être aussi à comprendre que seule une
telle organisation du marché pourrait fournir la diversité des logiciels dont
les micro-ordinateurs allaient avoir besoin.
Les hackers sont restés désarmés devant son attaque. Gates les avait
pris en tenaille entre deux cultures américaines : celle du pionnier qui va
de l’avant dans des territoires vierges et s’y sert de l’open source pour se
débrouiller ; celle de la libre entreprise, qui ne peut pas se concevoir sans
une protection du droit de propriété. C’était un nouvel épisode de la lutte
entre les agriculteurs et les éleveurs, entre les fermiers et les cow-boys !
En définissant le modèle économique qui s’imposera sur le marché des
logiciels pour PC, Gates a créé une industrie dont il est devenu le plus grand
dirigeant. Le modèle qu’il a inventé était sans doute alors le seul possible
et sa fécondité suscite l’admiration, quelle que soit l’opinion que l’on peut
avoir sur la qualité des produits de Microsoft.
Cependant ce modèle a une limite qui se révèle avec la complexification
des logiciels. Elle est due notamment aux exigences de la « compatibilité
ascendante » : la version Vn d’un logiciel doit en principe être capable de
lire et de traiter les fichiers composés avec les versions Vn−k antérieures. En
passant d’une version à l’autre, le logiciel s’alourdit de conventions anciennes
dont il doit garder la trace.
La complexification est due aussi à la cible marketing elle-même : pour
que le logiciel puisse couvrir un large marché il doit offrir une grande diver-
sité de fonctionnalités et pouvoir être exécuté sur des plates-formes diverses.
Chaque client n’utilisera qu’une petite partie du logiciel qu’il a acheté, et
dont le volume encombre la mémoire vive de son ordinateur.
128 CHAPITRE 3. ÉCLAIRAGE HISTORIQUE
17. Microsoft collecte via l’Internet les comptes rendus d’incident et diffuse des versions
corrigées que les utilisateurs peuvent télécharger : la chasse aux bogues se poursuit ainsi
après la diffusion du produit.
18. Les grands créateurs de logiciels ont chacun ses racines culturelles : ainsi les écrits de
Bjarne Stroustrup (C++), danois, rappellent l’existentialisme protestant de Kierkegaard ;
Linus Torvalds (Linux), finlandais, a été marqué par l’épopée du Kalevala ; Niklaus Wirth
3.3. LE MARCHÉ DE L’INFORMATIQUE 129
Le « dictateur bienveillant »
(Pascal), suisse, par le calvinisme ; Larry Wall (Perl) et Alan Kay (Smalltalk), tous deux
américains, ont cherché leurs références dans le monde de l’enfance. Voir « Interview
with Linus Torvalds : What Motivates Free Software Developers? » www.firstmonday.
dk/issues/issue3_3/torvalds/index.html, 1999.
19. « The “utility function” Linux hackers are maximizing is not classically economic,
but is the intangible of their own ego satisfaction and reputation among other hackers »
(Raymond [171]).
20. Les mécanismes de reconnaissance sont ici semblables à ceux de la recherche uni-
versitaire.
130 CHAPITRE 3. ÉCLAIRAGE HISTORIQUE
* *
Le logiciel libre a lui aussi ses limites : il arrive qu’il se diversifie en
variantes et qu’il soit déficient du point de vue de la documentation, des in-
terfaces homme-machine ou de la compatibilité ascendante. Certains disent
que le logiciel libre est destiné à des experts alors que Microsoft a eu l’intel-
ligence de faire des produits destinés à l’utilisateur de base 21 : en effet les
administrateurs des serveurs Apache ou Sendmail doivent être plus qualifiés
que l’utilisateur moyen d’un PC.
Les contributeurs qui participent activement à l’écriture d’un logiciel
libre sont peu nombreux et la plupart des contributions sont très simples (ce
qui ne veut pas dire qu’elles ne soient pas précieuses : l’alarme qui indique
une bogue est toujours bienvenue). Ainsi pour Apache plus de 80 % des
modifications proviendraient de quinze programmeurs seulement (Mockus,
Fielding et Herbsleb [137]).
21. « In every release cycle Microsoft always listens to its most ignorant customers.
Linux and OS/2 developers, on the other hand, tend to listen to their smartest custo-
mers... The good that Microsoft does in bringing computers to non-users is outdone by
the curse that they bring on experienced users. » (Tom Nadeau, « Learning from Linux »
www.os2hq.com/archives/linmemo1.htm, 1999).
3.3. LE MARCHÉ DE L’INFORMATIQUE 131
universitaire devient compétent il est embauché par une entreprise qui veut
utiliser son savoir-faire pour se protéger : il en résulte une pénurie de pro-
fesseurs qui explique le faible nombre de diplômés experts en sécurité. De
façon paradoxale, la vigueur de la demande assèche ici la formation des
compétences.
Ainsi la lutte est inégale : d’un côté les pirates tirent parti des méthodes
de production du logiciel libre, construisent leur rentabilité, se qualifient et
se multiplient ; de l’autre la recherche est entravée par le copyright, vidée
de ses compétences par l’appel du marché et elle ne suit pas une politique
d’ensemble. Une simple extrapolation de cette tendance désigne le futur
vainqueur.
On observe toutefois chez les pirates une certaine retenue : ils pour-
raient bloquer l’Internet mais n’en font rien. La plupart d’entre eux sont
des joueurs et ils ne pourraient plus jouer s’ils bloquaient leur terrain de
jeu. Mais il suffirait qu’il se trouvât parmi eux un pervers, quelqu’un qui
prenne plus de plaisir à nuire qu’à jouer (ou qui ait, pour des raisons quel-
conques, un fort intérêt à nuire) pour que le danger devienne réalité.
* *
22. Je n’y reviendrai que lorsque Laurent Bloch [13] m’aura incité à utiliser Scheme :
3.4. LES LOGICIELS DE BUREAUTIQUE 133
ce dialecte de LISP est le langage qui convient si l’on veut programmer pour le plaisir
(Friedman et Felleisen [56]).
23. La méthode que j’ai utilisée est décrite dans www.volle.com/travaux/dactylo.htm.
24. J’y avais découvert la recette infaillible pour se brouiller avec son meilleur ami :
s’associer avec lui pour créer une entreprise.
25. Eutelis était filiale d’un grand groupe. J’ai appris à Eutelis que le plus gros des
trois mensonges de la vie en entreprise est « je viens de la holding pour vous aider » (les
deux autres, plus véniels, sont « on vous rappellera » et « votre chèque est au courrier
départ »).
134 CHAPITRE 3. ÉCLAIRAGE HISTORIQUE
* *
En 1977 le traitement de texte est un sujet neuf. Les machines de trai-
tement de texte (comme la Wang) sont des machines à écrire dotées d’un
processeur et d’une mémoire et la moins chère d’entre elles coûte 15 000 $.
Il existe aussi sur ordinateur des traitements de texte informatiques « au
kilomètre » (run-off ) : l’affichage à l’écran est hérissé de codes, il faut re-
formater le document avant de l’imprimer et on ne découvre son apparence
qu’après l’impression.
Alan Ashton, professeur d’informatique, se lance alors pour le plaisir
dans la conception d’un traitement de texte. Il avait auparavant écrit un
programme de musique sur ordinateur, ce qui l’avait conduit à aborder les
problèmes que pose l’affichage en temps réel. Il produisit un programme qui
permettait d’afficher à l’écran l’apparence de ce qui serait imprimé et de
faire défiler le texte à l’écran sans interruption et non plus page à page. Il
supprima la distinction entre les modes Edit, Insert et Create : l’utilisateur
pouvait taper partout dans le document et y insérer du texte sans avoir à
changer de mode.
3.4. LES LOGICIELS DE BUREAUTIQUE 135
26. WordPerfect comportera finalement des versions pour les mainframes d’IBM, les
VAX, des machines Unix, l’Apple II, l’Amiga, l’Atari, le Macintosh, le PC etc.
136 CHAPITRE 3. ÉCLAIRAGE HISTORIQUE
fin de texte et le traitement des erreurs est amélioré. Wordstar est encore
le leader mais Micropro scie la branche sur laquelle il était assis en lançant
Wordstar 2000 qui, étant en rupture avec l’ergonomie antérieure, déconcerte
ses clients les plus fidèles.
WordPerfect 4.1 sort à l’automne 1985. Il comporte la table des matières
automatique, l’indexation automatique, la possibilité d’étaler les notes de
bas de page sur des pages successives, la numérotation des paragraphes, le
thesaurus, une vérification d’orthographe améliorée.
La part de marché de WordPerfect s’améliore car il tire profit des erreurs
de ses concurrents : Wang a décidé d’ignorer le marché du PC et continue
à produire des machines à écrire informatisées, ce qui entraînera sa chute.
IBM a conquis grâce à la magie de son nom une bonne part de marché avec
Displaywrite mais ce produit reste inférieur à WordPerfect 27 .
Chez Micropro, le turn-over des programmeurs est élevé, ce qui empêche
l’accumulation d’expertise. Lotus, leader sur le marché du tableur, comprend
mal celui du traitement de texte. Microsoft est le seul concurrent dangereux,
sa maîtrise du système d’exploitation lui donnant un avantage stratégique
tant au plan commercial qu’au plan de la conception technique.
SSI prend en 1986 le nom de WordPerfect Corporation. L’arrivée de
l’imprimante à laser et de l’interface graphique entraîne un changement
des règles du jeu qui donne à Word l’occasion de rattraper WordPerfect.
Il fallait en effet pour s’adapter aux nouvelles règles réécrire les parties du
programme concernant les imprimantes et l’affichage à l’écran ; les mesures
devaient être exprimées en centimètres et non plus en lignes et en espaces ;
il fallait connaître les dimensions de chaque caractère dans chaque type
et savoir charger les types sur les imprimantes. Alors qu’en mode texte
l’ordinateur traitait un écran formé de 25 lignes de 80 caractères, soit 2000
boîtes, en mode graphique il travaillait avec 640 * 480 points, soit plus de
300 000 éléments : l’affichage à l’écran était plus lent.
Il était d’ailleurs difficile au plan stratégique de prévoir qui serait le
vainqueur sur le marché de l’interface graphique pour PC : les concurrents
étaient IBM avec TopView, Digital Research avec Gem et Microsoft avec
Windows. Sortir une version de WordPerfect pour Windows aurait apporté
un soutien à Microsoft qui, par la suite, pourrait être en mesure d’évincer
WordPerfect.
WordPerfect, incapable de résoudre à la fois tous ces problèmes, se
concentra d’abord sur l’imprimante à laser. WordPerfect 5.0 ne sera prêt
qu’en mai 1988.
* *
En 1987 WordPerfect a 30 % du marché devant Micropro à 16 %, IBM
à 13 % et Microsoft à 11 %. Il tire un argument commercial du besoin de
compatibilité entre les divers documents produits par une entreprise, voire
27. Selon Peterson, alors que SSI voyait dans la programmation un art IBM la consi-
dérait comme une industrie et mesurait la production selon le nombre de lignes du code
source. Il en résultait des programmes de qualité médiocre (Microsoft avait fait la même
observation : voir note page 116).
3.4. LES LOGICIELS DE BUREAUTIQUE 137
Lorsque WordPerfect 5.0 pour MS-DOS sort enfin en mai 1988 il faudra
surmonter des bogues dans le programme d’installation ainsi que dans cer-
tains pilotes d’imprimante et de carte graphique. Le produit a tout de même
du succès : raccordé à une imprimante à laser, le PC fournit avec WordPer-
fect une qualité d’impression semblable à celle du Macintosh. WordPerfect
prend par ailleurs une part du marché du desktop publishing.
* *
La version 5.1 sort à l’automne de 1989. Elle est encore sous MS-DOS
mais comporte les menus déroulants et la souris. Elle apporte des améliora-
tions dans le traitement des tableaux, la fusion de documents, la tabulation,
ainsi qu’un jeu de caractères élargi. Son installation est plus facile qu’aupa-
ravant.
En 1990 Microsoft offre à WordPerfect Windows 3.0 en beta test, mais
WordPerfect manque de programmeurs expérimentés en Windows et préfé-
rera aider au succès d’OS/2.
Cependant le 31 mai 1990 Microsoft sort Windows 3.0. Alors les pires
craintes de WordPerfect se réalisent : beaucoup d’utilisateurs veulent Win-
dows, même bogué, et à l’occasion ils prennent aussi Word. WordPerfect
décide alors de laisser tomber OS/2 et renonce à sa version 5.2 pour MS-
DOS afin de ne pas retarder la version Windows.
La mise au point de celle-ci est difficile. WordPerfect pour Windows
ne sort qu’en novembre 1991. Le produit est lent et comporte des bogues ;
néanmoins WordPerfect se vend toujours mieux que Word. Pour pouvoir
programmer la version suivante, les programmeurs devront attendre de dis-
poser du DDE (Dynamic Data Exchange) de Microsoft.
« WordPerfect for Windows » 6.0 sortira en 1993. WordPerfect prend
alors 51 % du marché du traitement de texte pour Windows, mais Word est
bien placé pour devenir le leader.
À la suite de l’échec d’une tentative d’entrée en bourse, WordPerfect sera
vendue à Novell en 1994. Novell revendra en 1996 ses droits sur WordPerfect
à Corel, qui en est aujourd’hui propriétaire.
WordPerfect a des millions d’utilisateurs mais c’est Microsoft qui, avec
Word, domine aujourd’hui le marché du traitement de texte sur PC où il
est concurrencé par quelques logiciels libres (notamment OpenOffice).
* *
Microsoft s’était intéressé au tableur dès 1980. En 1982, il lance Mul-
tiplan pour le PC. Ce produit n’aura pas grand succès aux États-Unis où
Lotus 1-2-3 était dominant. Par contre il sera largement utilisé ailleurs et il
ouvrira la voie aux autres applications produites par Microsoft.
En 1984, Microsoft sort Excel pour le Macintosh. Le produit tire parti
de l’interface graphique, des menus déroulants, de la souris : tout cela le
rend plus commode que Multiplan. Tout comme VisiCalc avait contribué
au succès du PC, Excel contribuera au succès du Macintosh.
En 1987 Microsoft sort Excel pour le PC : ce sera l’application phare de
Windows. La principale amélioration par rapport à Lotus 1-2-3 est la possi-
bilité de programmer de véritables applications avec des macro-instructions
(l’utilisateur individuel ne s’en servira cependant pas beaucoup).
En 1987, Microsoft Works inaugure la famille des office suites en offrant
dans un même assemblage le tableur, le traitement de texte et le logiciel
graphique. Excel sera jusqu’en 1992 le seul tableur disponible sous Windows.
À la fin des années 1980, Lotus et Microsoft dominent le marché malgré
l’arrivée de plusieurs autres tableurs (Quattro de Borland, SuperCalc de
Computer Associates etc.). La concurrence et vive et suscite des batailles
juridiques : procès entre Lotus et Software Arts, gagné par Lotus en 1993 ;
procès entre Lotus et Mosaic d’une part, Paperback de l’autre, gagnés par
Lotus en 1987. Lotus gagnera toutes ses batailles juridiques, mais perdra
contre Microsoft la bataille pour la domination du marché.
En 1990, un juge lèvera le copyright de Lotus sur l’interface utilisateur,
estimant que « rien dans cette interface n’est inséparable de l’idée du ta-
bleur ». En 1995, IBM achète Lotus alors qu’Excel domine le marché.
Plus de 20 tableurs sont aujourd’hui offerts dans le monde du logiciel
libre. Gnumeric est souvent distribué en même temps que Linux. Parmi les
autres tableurs, les plus connus sont KSpread et CALC.
* *
Si VisiCalc présente dès le début l’aspect qui nous est familier, le tableur
s’est progressivement enrichi. L’adresse des cellules, d’abord notée selon le
format L1C1 (R1C1 pour les anglophones) a pu ensuite s’écrire sous la nota-
tion condensée A1. L’existence de deux types d’adresse (adresses relatives,
adresses absolues de type $A$1) a allégé la programmation. L’introduction
des feuilles et des liens a permis de doter le tableur d’une troisième di-
3.4. LES LOGICIELS DE BUREAUTIQUE 141
* *
Dans l’entreprise, le tableur est utilisé pour les simulations, les calculs sur
les séries chronologiques, la comptabilité, la préparation de rapports ou de
déclarations fiscales. Des fonctions simples sont utilisées de façon répétitive
pour faire des additions et calculer des moyennes. Les utilisations scienti-
fiques (calcul numérique, visualisation de statistiques, résolution d’équations
différentielles) sont plus compliquées et moins répétitives.
Pour l’utilisateur de base, le tableur n’est que la fusion électronique du
papier, du crayon et de la calculette. Il n’a généralement pas été formé à
s’en servir et il est le plus souvent peu conscient des conséquences que risque
d’avoir une erreur. C’est un expert dans son métier et il ne se considère
pas comme un programmeur. Il veut traiter rapidement son problème et ne
souhaite ni recevoir les conseils d’un informaticien, ni partager son expertise
avec lui. Il est en pratique impossible de lui imposer des méthodes strictes de
programmation ou de vérification. Son développement progressera par essais
et erreurs : il construit un premier prototype puis le modifie jusqu’à ce qu’il
réponde à ses besoins. Pressé d’arriver à ses fins, il néglige de documenter
le programme. Celui-ci ne pourra pratiquement jamais être réutilisé par
quelqu’un d’autre et son créateur lui-même aura du mal à le faire évoluer
ou à le maintenir.
Les dirigeants de l’entreprise, pour leur part, n’utilisent généralement pas
le tableur mais sont destinataires de tableaux de bord et autres reportings
imprimés sur papier mais construits sur des tableurs. Ils lisent ces tableaux
comme s’ils provenaient d’un traitement de texte et sans concevoir les calculs
dont ils résultent.
L’entreprise donne donc au tableur un rôle ambigu : c’est un outil de
travail commode mis à la disposition de tous, mais générateur d’erreurs et
dont les programmes sont difficiles à entretenir. Vu l’importance prise par le
tableur dans le système d’information de l’entreprise, il est utile de repérer
les erreurs et d’utiliser les méthodes qui permettent de les éviter (O’Beirne
[148]).
* *
Une enquête a montré que la majorité des tableurs contenaient des cel-
lules fausses et qu’en moyenne 3 % des cellules d’un tableur étaient erronées
(Clermont [38] et Panko [150]). Certaines erreurs ont eu des conséquences
graves :
142 CHAPITRE 3. ÉCLAIRAGE HISTORIQUE
1) Les données utilisées pour passer une commande sont désuètes : 30 000
pièces à 4 $ sont commandées au lieu de 1 500, ce qui entraîne une perte de
114 000 $.
2) Dans une étude prévisionnelle, les sommes en dollars sont arrondies à
l’unité : le multiplicateur de 1,06 qui représente l’effet de l’inflation est alors
arrondi à 1 et le marché d’un produit nouveau est sous-estimé de 36 millions
de dollars.
3) Un tableur a été programmé par une personne qui a quitté l’entre-
prise et n’a pas laissé de documentation : le taux d’actualisation utilisé pour
calculer la valeur actuelle nette des projets est resté à 8 % entre 1973 et
1981 alors qu’il aurait dû être porté à 20 %, d’où des erreurs dans le choix
des investissements.
4) Dans la réponse à un appel d’offre une addition est inexacte (des
rubriques ajoutées à la liste n’ont pas été prises en compte) : l’entreprise
sous-estime de 250 000 $ le coût du projet. Elle intentera un procès à Lotus.
5) Un comptable fait une erreur de signe lors de la saisie d’un compte
de 1,2 milliards de dollars : l’entreprise prévoit un profit de 2,3 milliards
et annonce une distribution de dividendes. Finalement elle constate une
perte de 100 millions de dollars et doit déclarer qu’aucun dividende ne sera
distribué, ce qui dégrade son image auprès des actionnaires.
6) En 1992, 10 % des tableurs envoyés aux inspecteurs des impôts bri-
tanniques pour le calcul de la TVA contenaient des erreurs. Il en est résulté
une perte de recettes de cinq millions de livres sterling.
Certaines des erreurs relevées dans l’utilisation du tableur sont de celles
que l’on peut rencontrer dans d’autres démarches : la représentation du
monde réel par un modèle peut être non pertinente ou dégradée par des
défauts du raisonnement (additionner des données hétéroclites, des ratios
etc.). D’autres erreurs sont commises lors de la programmation : on confond
référence relative et référence absolue, on se trompe dans la syntaxe des
formules (notamment dans l’utilisation des parenthèses). Ces erreurs, qui
révèlent une mauvaise compréhension du fonctionnement du tableur, sont
ensuite disséminées par la réplication des cellules. Presque toujours enfin
on néglige de documenter le tableur, ce qui rendra sa maintenance difficile
surtout si l’on a programmé des macros.
Puis viennent les erreurs commises lors de l’utilisation : erreurs de saisie,
erreur dans la correction d’une formule, remplacement ad hoc d’une formule
par une constante qui, restant dans le tableau, polluera les calculs ultérieurs,
mauvaise définition de l’aire couverte par une formule, absence de mise à
jour de cette aire lorsque des lignes sont ajoutées.
Utiliser les macros comme des boites noires (par exemple pour le calcul
du taux de rentabilité d’un projet) peut interdire de traiter convenablement
le cas particulier que l’on étudie. Il arrive aussi que le solveur converge mal :
le prendre au pied de la lettre donne un résultat aberrant.
L’édition des tableaux sur papier est l’occasion d’erreurs de présentation :
tableaux sans titre, sans intitulé de ligne et de colonne, sans nom d’auteur,
sans date ni indication de la période représentée ; erreurs sur les unités de
mesure (euro à la place de dollar, millions à la place de milliards).
3.4. LES LOGICIELS DE BUREAUTIQUE 143
On relève enfin des erreurs dans les graphiques : représenter une série
chronologique par un histogramme, ou pis par un fromage, au lieu d’une
courbe ; utiliser une courbe au lieu d’un histogramme pour une distribution ;
quand on utilise conjointement deux échelles, mal représenter les évolutions
relatives etc.
* *
Plaçons nous par anticipation en 2015. Les composants essentiels de l’in-
formatique communicante existent déjà aujourd’hui (processeurs, mémoires,
réseaux) ; le changement à cette échéance résidera donc moins dans la nou-
veauté des composants (dont toutefois les performances auront depuis 2005
été, selon la loi de Moore, multipliées par 210/1,5 ≈ 100) que dans la trans-
formation des interfaces et protocoles permettant de les commander et de
les faire communiquer, donc dans une évolution des conditions de leur uti-
lisation.
En 2015, si l’on raisonne par extrapolation tendancielle, téléphone por-
table et PC se seront miniaturisés au point d’avoir fusionné et d’avoir ab-
sorbé le GPS, la caméra, le magnétophone et divers capteurs (électrocar-
diogramme, tensiométrie etc.). Les réseaux permettront une connexion per-
manente à haut débit selon le protocole TCP/IP (voir page 340), y compris
pendant les déplacements. Les personnes, les objets seront ainsi équipés
de ressources informatiques et de communication intégrées dans des com-
posants minuscules. Les thèmes principaux de l’offre porteront peut-être
3.5. ESQUISSE DE PROSPECTIVE 145
* *
* *
Dans ce scénario, rien ne dépasse les possibilités de la technique actuelle
qui sont plus importantes qu’on ne le croit communément 28 . Ce qui est
nouveau, c’est l’intégration des applications qui permet de supprimer les
ressaisies ; c’est aussi un filtrage sélectif permettant de trier sur la Toile
l’utile de l’accessoire. L’utilisateur peut ainsi être assisté ou éclairé dans
chacune de ses actions : la logique de l’assisté par ordinateur déploie ses
implications. L’offre est commode, pratique, une haute complexité technique
étant masquée par la facilité de l’usage.
Cette évolution, d’ores et déjà en préparation dans les centres de re-
cherche, chez les fournisseurs et les opérateurs télécoms, comporte des risques
évidents :
1) risque de dépendance envers un système qui assisterait l’utilisateur en
permanence : un nouveau savoir-vivre, une nouvelle hygiène, sont ici néces-
saires. De même qu’il est aujourd’hui déconseillé de regarder la télévision
sans discontinuer, il sera déconseillé demain d’utiliser en permanence l’au-
tomate.
Un système qui permet de recevoir en temps réel alarmes, messages
et communications, qui permet à d’autres personnes de vous localiser, qui
peut à tout moment accéder à des ressources (images, données, textes, sons,
28. L’ensemble des conversations auxquelles participe un même individu durant sa vie,
des cours qu’il suit etc. peut une fois transcrit en mode caractère être horodaté, indexé
et stocké sur un CD.
3.5. ESQUISSE DE PROSPECTIVE 147
* *
La plupart des produits offerts au consommateur seront des assemblages
auxquels plusieurs entreprises auront contribué dans le cadre d’accords de
partenariat. Soyons optimistes : les entreprises se seront dotées de compé-
tences en ingénierie d’affaires et il leur sera devenu plus facile d’assurer
l’interopérabilité entre leurs systèmes d’information. Les systèmes d’infor-
mation seront mieux maîtrisés, qu’il s’agisse d’urbanisation ou de modéli-
sation : les entreprises auront surmonté les difficultés sociologiques et intel-
lectuelles qu’elles rencontrent aujourd’hui, et disposeront de méthodes et
outils de modélisation. On ne parlera plus d’applications, mais de processus
et de composants. Les problèmes de normalisation auront été surmontés...
Deuxième partie
Le côté de l’entreprise
148
149
Chapitre 4
Qu’est-ce qu’une
entreprise ?
Pierre Bourdieu, citant Heidegger, lui a fait dire « Pour celui qui porte
des lunettes - objet qui pourtant, selon la distance, lui est proche au point
de lui “tomber sur le nez” - cet outil est, au sein du monde ambiant, plus
éloigné de lui que le tableau accroché au mur opposé » (Bourdieu [22]). Nous
ne voyons pas l’air dans lequel nous baignons et qui est nécessaire à notre
survie : si une pièce ne contient pas de meubles, nous dirons qu’elle est vide
alors qu’elle contient des dizaines de kilogrammes d’air 1 . Les êtres humains
ont vécu pendant des millions d’années sans rien savoir de la circulation du
sang ni des mécanismes de la digestion ; nous pensons sans savoir comment
notre cerveau fonctionne. Nous ne voyons pas le milieu qui nous baigne et
les artefacts qui nous sont proches nous paraissent naturels. Tout se passe
comme si le lait et l’huile étaient produits par l’épicerie, comme si la lumière
était produite par une pression sur l’interrupteur. Il faut une panne, une
crise, pour que leur origine nous revienne à l’esprit.
* *
« Je ne sais pas ce que c’est qu’un système d’information », vous dit-
on. Si cet interlocuteur ne voit pas le système d’information, c’est parce
qu’il est y immergé. Il ne pourra le voir qu’à l’occasion d’une panne ou
au prix d’un effort de réflexion. Citez-lui des exemples : téléphoner, c’est
utiliser un système d’information qui interprète le numéro que vous avez
composé, établit le circuit de communication et code le signal vocal pour
le transporter. Retirer des billets de banque au distributeur automatique,
c’est utiliser le système d’information qui authentifie votre carte et débite
votre compte. Lire des messages, leur répondre, c’est utiliser le système
d’information qui transporte et stocke les messages dans votre boîte aux
lettres électronique en l’attente de leur consultation. Naviguer sur la Toile,
c’est encore utiliser un système d’information.
150
151
* *
Faisons le tour des représentations courantes de l’entreprise. L’écono-
miste dit qu’elle a pour but de maximiser le profit : cela lui permet de re-
courir aux mathématiques une fois le profit défini comme fonction d’autres
variables. Le dirigeant, reproduisant le système d’autorité de l’Église et de
l’armée, y voit une structure hiérarchique 2 . Le financier la considère comme
une entité fiduciaire : elle doit susciter la confiance, avoir du crédit. Elle est
le lieu de la carrière du cadre, auquel elle offre une échelle qu’il s’efforce de
gravir, un terrain de compétition, le socle de son identité sociale (« cadre
supérieur à Air France », « directeur chez Alcatel », « associé chez McKin-
sey », « ingénieur chez Areva » etc.).
Le salarié non cadre y voit la « boîte » qui en échange d’une partie
de son temps lui procure, avec le salaire, les ressources nécessaires à sa vie
matérielle. Le syndicaliste la perçoit comme un terrain de lutte : selon sa ten-
dance, il défendra le salarié non cadre, le cadre, ou le syndicat lui-même qui
ambitionne parfois de cogérer l’entreprise, voire de la diriger. L’homme du
marketing la perçoit comme une « marque » capable de séduire et fidéliser
la clientèle. L’ingénieur pense qu’elle produit des biens et services à par-
tir des consommations intermédiaires, de la main d’œuvre, des techniques
qu’incorporent les machines. L’informaticien, qu’elle utilise les ordinateurs,
réseaux et logiciels dont il est le maître. Le comptable, qu’elle émet et reçoit
des effets de commerce qu’il classe pour évaluer, conformément aux règles
admises, les flux qui s’accumulent dans le bilan.
Le dirigeant, qui incarne la légitimité, doit composer avec d’autres pou-
voirs : chaque directeur s’approprie une « plate-bande » qui, en descendant
l’arbre hiérarchique, se subdivise en fiefs d’ampleur décroissante mais tous
bien gardés ; des réseaux, tissés autour des écoles d’ingénieurs, syndicats ou
partis politiques, se confortent à l’occasion par une corruption discrète mais
habituelle.
* *
Si l’on aborde l’entreprise sous l’angle du système d’information, on
adopte un tout autre point de vue que ceux que nous venons d’énumé-
rer : il s’agit en effet de définir ce que doit faire l’automate pour assister les
opérations qu’elle réalise.
La première question que l’on doit se poser est alors : « que produit cette
entreprise ? », qu’il s’agisse de biens, de services ou, comme c’est le cas de
plus en plus souvent, d’une combinaison des deux ; qu’il s’agisse de produits
finals 4 destinés aux clients, ou de produits intermédiaires, de « services
support » qui alimentent ou favorisent la production.
Il n’est pas toujours facile de définir ce que produit une entreprise
ou l’une de ses directions. Que produisent par exemple une direction des
achats? une direction financière? un grand magasin? une banque? Mais si
l’entreprise ne sait pas dire, ne sait pas se représenter ce qu’elle produit, elle
aura du mal à s’organiser et sera tentée par la routine. La première question
que suscite le système d’information est donc salubre 5 .
La deuxième question l’est aussi : « sachant ce que l’entreprise produit,
comment s’y prend-elle pour produire? Comment est bâti son processus de
production? »
Un dirigeant d’une grande banque m’a dit un jour que dans son entre-
prise le mot « processus » était jugé abstrait, théorique, loin du réel ; quant
au mot workflow, on le trouvait incompréhensible. Que certaines personnes
pensent que le processus de production est quelque chose d’abstrait, c’est
un fait sans doute mais il est consternant. Quoi de plus authentiquement
concret, en effet, que les produits de l’entreprise et que la façon dont on
les produit, c’est-à-dire le processus de production? Quant au workflow, ce
n’est rien d’autre que l’informatisation du processus...
Ce qui est concret pour ces personnes, ce sont sans doute les habitudes
de travail, l’unité à laquelle elles sont affectées, le chef, les collègues et su-
bordonnés, le grade et la carrière, le bureau, les couloirs et la cantine. Le
produit de l’entreprise, le processus de production leur paraissent abstraits
tout comme le sillon est abstrait pour le bœuf qui tire fidèlement la charrue
sans concevoir à quoi cela peut servir. Que le changement soit alors si diffi-
cile, cela ne doit pas surprendre : il faut un effort surhumain pour se sortir
de l’ornière habituelle, après quoi on retombe lourdement dans une nouvelle
ornière.
Il est étonnant que l’on demande encore aux agents opérationnels d’avoir
les qualités du bœuf de labour alors que l’on dit attendre d’eux qu’ils soient
capables d’initiative, qu’ils sachent interpréter les situations et prendre des
responsabilités. Si l’on pense vraiment (et non seulement en paroles) que
l’entreprise doit désormais être décentralisée, réactive, souple, évolutive etc.,
il faut pourtant qu’ils puissent savoir à quoi sert ce qu’ils font et se repré-
senter le processus dans lequel ils interviennent.
La difficulté à percevoir les choses sous l’angle du processus a peut-être
une autre cause, plus profonde. Héritiers de la philosophie grecque, nous
sommes habitués à raisonner par concepts. Notre pensée est à l’aise devant
les choses qui restent conformes à leur définition, à leur forme, mais mal
à l’aise quand il faut concevoir une transformation. Or un processus est
l’itinéraire d’une transformation qui va de la matière première au produit
fini ; dans les systèmes d’information, cela se concrétise par le « cycle de
vie des objets », qu’il est si difficile de modéliser (Shlaer et Mellor [131]).
La pensée chinoise, qui conçoit l’évolution plus volontiers que la stabilité
(Jullien [93]), ne serait-elle pas la plus agile quand il faut concevoir un
processus?
* *
Quand on a balisé les processus de production (et peut-être, à cette
occasion, repéré des défauts à corriger dans les procédures habituelles) il
faut encore définir les êtres à identifier dans le système d’information, le
langage selon lequel ils seront décrits, la dynamique des opérations, et aussi
le partage du travail entre l’automate et l’être humain.
Ces étapes de la démarche se rattachent toutes à un même point de
vue sur l’entreprise, donc à une même définition qui, condensant ce point
de vue, se rapporte à une intention et en définitive à des valeurs. Si cette
définition ne peut prétendre fournir une représentation exhaustive de l’être
qu’elle vise, il se peut que l’intention, les valeurs auxquelles elle se rapporte
soient pourtant fécondes.
4.1. LE POINT DE VUE DU SYSTÈME D’INFORMATION 155
6. Le service public fournit des externalités positives, produits utiles mais qui ne se
prêtent pas à l’échange marchand et dont la distribution est donc « externe » au marché.
7. L’évaluation de l’utilité de la production doit donc tenir compte de la désutilité que
comporte la destruction des ressources naturelles et des produits intermédiaires consom-
més lors de la production.
8. Nous prenons le mot marketing non pas dans son sens courant, qui est à peu près
synonyme de publicité, mais dans son acception scientifique d’analyse des besoins des
clients.
156 CHAPITRE 4. QU’EST-CE QU’UNE ENTREPRISE?
Une institution, c’est une forme d’organisation qui, en vue d’une mission,
obéit à des règles qui ont été instituées - et qui, de ce fait, se forment et
évoluent dans l’histoire (Hatchuel [80]).
L’entreprise, forme d’organisation de la production des biens et services,
est une institution au sens général du terme ; chaque entreprise, concré-
tisation particulière de cette forme d’organisation, est également une
institution, mais au sens concret du terme.
Il existe des institutions qui ne sont pas des entreprises car leur mission
n’est pas de produire des biens et services : la famille, l’Église, l’État, le
droit, la médecine, la science etc.
Mais toute institution qui produit des biens et des services mérite d’être
considérée comme une entreprise car l’élaboration d’un produit pose par-
tout, mutatis mutandis, des problèmes d’organisation et de gestion ana-
logues notamment en ce qui concerne l’informatisation, thème de cet
ouvrage.
La frontière de l’entreprise ainsi définie ne coïncide pas avec celle de
la propriété privée ni avec celle du marché : des administrations comme
l’appareil judiciaire, l’armée, l’éducation nationale, les hôpitaux, voire
même des structures comme le système éducatif, le système de santé
etc., qui produisent des services non marchands, relèvent de la catégorie
de l’entreprise telle que nous la considérons ici.
Ceux qui ne veulent voir dans l’entreprise que le lieu où la force de travail
se fait exploiter estiment que lui accorder une influence sur la formation des
adolescents serait préparer ceux-ci à la servilité. Si par contre on voit dans
l’entreprise le lieu de l’action organisée, on estimera que préparer les jeunes
gens à l’entreprise n’est rien d’autre que les préparer à l’action, et donc à
l’âge adulte.
Dans les entreprises on affectionne souvent les métaphores maritimes :
« nous sommes tous dans le même bateau », « il faut tenir le cap » etc. Nous
allons recourir à une de ces métaphores pour faire apparaître l’écart entre le
rôle économique de l’entreprise et son fonctionnement. Considérons une liai-
4.2. QUE PRODUIT-ON? 157
son maritime entre deux ports séparés par une grande distance. La fonction
économique de cette liaison est de transporter des marchandises d’un port
à l’autre dans des conditions admises de délai et de sécurité, mais pour que
cette liaison puisse fonctionner il faudra des navires conçus selon l’art de la
construction navale, et il faudra qu’un équipage gouverne chaque navire se-
lon l’art de la navigation. Cela suppose des compétences, une organisation,
un rapport avec la nature que l’expression « transporter des marchandises
d’un port à l’autre » ne résume ni ne contient explicitement.
De même, les conceptions de l’entreprise qui la réduisent à la production
du profit, à la « création de valeur » pour l’actionnaire, ignorent la façon
dont l’entreprise s’organise et fonctionne ; l’aborder du point de vue de ses
processus du production, comme on le fait lorsque l’on examine son système
d’information, fait par contre entrer dans l’intimité de son organisation et
de son fonctionnement.
Fig. 4.2 – Vocabulaire des économistes : est produit tout ce qui contribue à
l’utilité
* *
Les entreprises qui satisfont le mieux le client sont celles qui s’organisent
pour l’écouter et répondre à ses attentes. Elles ne sous-traitent à personne la
relation avec lui ni le traitement de ses paiements par carte bancaire. Elles
accordent beaucoup de soin à la qualité de la facturation comme à celle du
plateau téléphonique, dont le personnel est compétent et expérimenté. Elles
analysent les données collectées sur leur clientèle et la segmentent pour dé-
finir leur offre et leur démarche commerciale : la segmentation est découpée
non selon leurs produits mais selon la nature des besoins des clients. Ces en-
treprises savent que leur production comporte non seulement l’élaboration
physique du produit (largeur de bande, taille mémoire, rapidité du proces-
seur, vitesse et confort de la voiture etc.) mais aussi l’aptitude du vendeur à
comprendre ce que disent des personnes diverses et à leur répondre de façon
compréhensible, la disponibilité du réparateur, la clarté des indications sur
la nature et le délai des prestations, la ponctualité.
160 CHAPITRE 4. QU’EST-CE QU’UNE ENTREPRISE?
* *
La mesure du capital immatériel est notoirement délicate mais pas sensi-
blement plus que celle des actifs matériels, dont on sous-estime sans doute la
difficulté : les méthodes d’évaluation des actifs matériels sont diverses (selon
que l’on adopte la démarche du comptable, du créancier ou de l’actionnaire,
on prendra soit la valeur historique diminuée des amortissements, soit la
valeur de remplacement, soit la valeur sur le marché de l’occasion etc.) et
les fourchettes d’imprécision sont larges.
La difficulté de la mesure du capital immatériel vient plutôt des ha-
bitudes. Lorsque l’économie était dominée par la mécanique et la chimie,
chaque effort de conception se concrétisait dans une machine ou dans une
usine et on pouvait croire que l’on avait convenablement comptabilisé le
capital immatériel en évaluant les machines, les bâtiments etc. Mais il n’en
est plus de même aujourd’hui.
En effet l’économie automatisée a permis de valoriser les efforts de concep-
tion séparément de leur concrétisation dans un produit. Les programmes
informatiques en sont un exemple : le droit d’utilisation d’un logiciel peut
être commercialisé sur le réseau indépendamment de tout support matériel.
Le « plus » économique apporté par l’ingénierie d’affaires en donne un autre
exemple, ainsi que l’organisation des réseaux de distribution, la qualité de
la gestion ou de la décision stratégique etc.
Cette nouvelle économie est une « économie de l’immatériel » en ce sens
que c’est une économie de la conception (des circuits intégrés, des logiciels,
162 CHAPITRE 4. QU’EST-CE QU’UNE ENTREPRISE?
La crise économique des années 1930 résultait, selon Keynes, d’une er-
reur collective d’anticipation (Dostaler [49]) : les entreprises, tout comme
les consommateurs, sous-estimaient le potentiel productif nouveau qu’avait
procuré la mécanisation de l’industrie. Le pessimisme des agents écono-
miques bloquait l’économie dans une conjonction paradoxale de pénurie et
de sous-emploi.
La crise larvée que connaissent aujourd’hui les anciens pays industriels
ne résulte-t-elle pas d’un phénomène analogue? Ne sous-estimons-nous pas
le potentiel de l’économie automatisée, qui s’appuie sur les techniques de la
microélectronique et du logiciel et sur l’informatisation des entreprises?
Cette sous-estimation s’accompagnerait d’un défaut dans la perception
de ce qui constitue, aujourd’hui, la richesse. Pas plus aujourd’hui qu’hier la
richesse ne réside dans la production de profit, d’argent : elle réside dans la
production d’utilité, de satisfaction pour le consommateur.
Mais on identifie souvent la richesse avec la production en quantité, la
consommation en quantité, comme si nos pays riches connaissaient encore la
pénurie. Produire plus d’automobiles, de chaussures, de meubles, construire
davantage d’immeubles, ce serait être plus riche. C’est à cette conception de
la richesse, héritée de la période de pénurie de l’immédiat après-guerre, que
correspondent la mesure du Produit Intérieur Brut en volume et la mesure
de la « croissance ».
Or à l’automatisation de la production a correspondu un changement
de la fonction de coût : alors qu’auparavant le coût de production était
fonction croissante de la quantité produite, il n’en dépend pratiquement plus
aujourd’hui. Dès lors la valeur se détache de la quantité pour s’accoler à la
qualité, à l’adéquation du produit aux besoins du consommateur, fût-ce dans
un étroit segment de marché ; la diversification de l’offre, la différenciation
des produits, leur adaptation qualitative aux divers segments importent
davantage que le volume produit ou consommé.
4.2. QUE PRODUIT-ON? 163
* *
Pour se représenter le rôle de la qualité dans l’économie, il est utile de
parcourir l’histoire de la production que nous évoquerons ici dans ses très
grandes lignes.
La standardisation fut pratiquée dès l’antiquité dans l’architecture, la
production des armes, le textile, la construction navale (Adam [3]). Il en est
résulté parfois, dans l’architecture romaine comme dans celle des églises go-
thiques, une médiocrité qui surprend ceux qui s’attendent à toujours trouver
de la beauté dans l’ancien.
La production n’est devenue industrielle qu’au début du xixe siècle,
les progrès de la métallurgie ayant alors permis de produire des machines
efficaces - notamment la machine à vapeur, première en date parmi les
moteurs qui supplanteront la force motrice humaine et animale ainsi que les
moulins à vent ou à eau.
La mécanisation de l’industrie a procuré une baisse du coût de produc-
tion qui lui permit de concurrencer victorieusement l’artisanat. Cependant
la conception des produits de l’artisanat incorporait un très ancien savoir-
faire qui leur avait conféré commodité, solidité et parfois beauté. L’industrie
n’eut qu’à puiser dans le patrimoine ainsi accumulé pour définir ses premiers
produits, les adaptant toutefois pour en faciliter la fabrication. Les produits
du xixe siècle étaient moins chers, plus hygiéniques et plus commodes que
ceux du xviiie - il suffit pour s’en convaincre de comparer un appartement
bourgeois à un hôtel particulier aristocratique - mais la substitution de l’in-
dustrie à l’artisanat s’accompagna d’un affadissement du goût, la création
artisanale n’étant plus là pour renouveler la conception. On a pu dire ainsi
que le xixe siècle n’avait pas de style (si ce n’est celui de la commodité)
parce qu’il les a tous copiés, du classicisme hellénique au baroque, dans un
oppressant désordre esthétique (Mignot [134]).
Dans les années 1920 le « design » moderniste a réintroduit de la beauté
dans la production industrielle. L’architecture, avec notamment le Bauhaus
(1919-1933) 9 , le mobilier, l’équipement ménager, l’automobile, le vêtement
furent alors repensés dans un souci de qualité et de fonctionnalité qui, tout
en tirant parti de l’efficacité industrielle, renouait avec le meilleur de la
démarche artisanale.
Si la conception s’est ainsi améliorée, l’économie industrielle est restée
fondée sur la production massive de produits standardisés s’appuyant sur
la mécanique, la chimie et la division du travail au sein d’une main d’œuvre
9. www.bauhaus.de/bauhaus1919/index.htm
164 CHAPITRE 4. QU’EST-CE QU’UNE ENTREPRISE?
* *
* *
L’emploi que l’automatisation a chassé de la production physique se
réfugie dans les services. Dans les pays riches, plus des trois quarts de la
population active travaillent aujourd’hui dans le tertiaire : c’est un fait que
notre imaginaire peine à assimiler, tant la notion de production reste accolée
à la production physique. Parmi les blocages dont souffre notre économie et
qui l’empêchent d’atteindre sa pleine efficacité, la réticence à développer les
services est l’un des plus tenaces.
Cette réticence provoque une perte d’utilité sensible pour le consom-
mateur. La qualité d’une photocopieuse, par exemple, dépend moins de la
machine (toutes les marques produisent des machines équivalentes depuis
que les brevets de Xerox sont tombés dans le domaine public), mais de la
rapidité du dépannage en cas d’incident. Lorsque vous faites le plein dans
une station d’essence en libre-service, cela vous prive de l’aide de quelqu’un
qui examinerait la pression et l’usure de vos pneus, vérifierait les niveaux,
nettoierait le pare-brise et contribuerait ainsi à votre sécurité.
10. D’autres formes de tarification sont cependant possibles, par exemple un droit d’ac-
cès forfaitaire.
166 CHAPITRE 4. QU’EST-CE QU’UNE ENTREPRISE?
* *
La qualité de service a un coût : l’entreprise qui offre un service de qualité
ne peut donc pas être, en même temps, celle qui affiche le prix le plus bas.
C’est pourquoi il y a quelque chose de pervers dans la multiplication des
soldes et promotions, dans le fait que les chaînes de distribution utilisent,
pour se faire concurrence, le seul argument du prix : « Mammouth écrase
les prix », « Le n◦ 1 du prix chez Carrefour », « Auchan veille à toujours
proposer les prix les moins chers » etc.
« Nous avons tout tenté, disent les responsables du marketing des grands
magasins, mais le seul argument qui marche auprès des clients, c’est le
prix ». Est-ce vrai ? Le consommateur peut, durant les périodes de tran-
sition qui sont aussi des périodes de désarroi, ne pas concevoir exactement
ses propres besoins et obéir à des pulsions qui bloquent l’économie - comme,
par exemple, le désir de se sentir plus « malin » qu’un autre. Pour profiter
des indemnités que les transporteurs aériens offrent aux victimes du surboo-
king, certaines personnes s’arrangent ainsi pour arriver au dernier moment
à l’enregistrement (Bouzou [24]). Cette médiocre « économie » leur fait
perdre le temps d’un aller-retour vers l’aéroport : ces personnes-là ont-elles
une notion exacte de leur propre utilité?
Certains disent, avec l’apparence du bon sens et de la générosité, que
la qualité ne peut avoir d’importance que pour les personnes à l’aise alors
que les pauvres, eux, n’auraient besoin de rien d’autre que d’un prix bas.
Ils croient être ainsi « sociaux » et peut-être même « de gauche ». Mais
la qualité, notamment la qualité de service, n’est pas seulement le plus qui
contribue au confort du bourgeois à l’aise. Elle réside dans l’identification
du produit adéquat au besoin du client et dans les services (entretien, dé-
pannage) qui le rendront utilisable. Que l’on ne prétende pas que les pauvres
n’ont pas besoin de cette qualité-là !
On peut d’ailleurs distinguer deux sortes de qualités : la qualité « hori-
zontale », qui résulte de la diversification de produits en variétés différentes
ayant le même coût de production et vendues au même prix (chemises bleues
et chemises roses), et la qualité « verticale » qui distingue divers degrés de
finition, donc de coût et de prix (chemises de confection et chemises sur
mesure). Certes, seuls ceux qui en ont les moyens peuvent s’offrir la qualité
« verticale », mais pourquoi la refuser?
4.3. MISSION ET ORGANISATION 167
Jamais l’automobile n’aurait pu naître s’il n’y avait pas eu des riches
pour en acheter et aujourd’hui l’automobile est un produit de masse : la
qualité « verticale » d’aujourd’hui préfigure la norme future, plus élevée,
du produit courant. Faut-il donc que les modes vestimentaire et alimentaire
des personnes aisées imitent, de façon symbolique, le style de vie des plus
démunis? N’est-il pas normal et sain que celui qui en a les moyens s’habille
de façon soignée et se procure, lorsqu’il veut manger un poulet, non pas
un poulet de batterie mais un savoureux poulet fermier dont il paiera le
prix? N’est-il pas normal et sain que les entreprises qui fabriquent des pro-
duits de qualité, et offrent les services correspondants, puissent rencontrer
la demande de consommateurs avertis?
Quand la publicité, assourdissante, se cale sur la seule longueur d’onde
du prix le plus bas, quand l’entreprise néglige les services qui devraient
accompagner son produit et ne se soucie pas de son système d’information,
elles contribuent à répandre un modèle de consommation qui ne répond ni
aux besoins des consommateurs, ni aux possibilités de l’appareil productif,
et qui maintient l’économie dans une conjonction de sous-utilisation des
ressources et de sous-emploi analogue, mutatis mutandis, à celle de la crise
des années 1930.
Quoi de plus réel qu’une maison ? Elle pèse de tout le poids des ma-
tériaux de construction. Elle occupe un volume qu’elle découpe en étages,
couloirs et pièces. La circulation de l’air et des personnes est contrainte à
passer par ses ouvertures. Mais en la considérant comme un objet physique,
aurons-nous tout dit ? Non, car avant d’être construite la maison a été un
projet. Le maître d’ouvrage et le maître d’œuvre ont dû discuter son plan.
Certaines décisions ont été prises en cours de chantier. Résultant d’un pro-
jet, la maison pourra par la suite faire l’objet d’autres projets : déplacer une
cloison, modifier le contour d’une ouverture, ajouter un étage, adjoindre un
bâtiment latéral. À sa réalité physique massive est donc associée, sur un
autre plan, la réalité des intentions qui ont suscité sa construction et susci-
teront ensuite des modifications. Ces intentions, notons-le, s’expriment non
seulement dans l’organisation de l’espace mais aussi au plan symbolique :
par ses proportions comme par ses détails la maison énonce, dans la langue
de l’esthétique, un rapport au monde, une position sociale, une filiation
culturelle.
168 CHAPITRE 4. QU’EST-CE QU’UNE ENTREPRISE?
* *
Parfois la mission reste implicite. Mais quelle est la mission d’un trans-
porteur aérien : faire voler des avions, transporter des passagers et du fret
d’un aéroport à l’autre, fournir au client l’ensemble des services associés au
transport aérien? Quelle est la mission de l’ANPE : contribuer à l’intermé-
diation du marché du travail, apporter aux chômeurs une assistance psycho-
logique, administrer le service public de l’emploi? Quelle est la mission d’un
opérateur télécoms : assurer la communication entre des équipements termi-
naux, fournir les services qui assurent et exploitent l’ubiquité logique ? La
formulation de la mission est dans l’institution l’occasion de conflits confus,
mais d’autant plus violents, entre des intentions antagoniques.
11. On pourrait, certes, utiliser pour décrire ce processus d’autres mots que mission,
incarnation et organisation : que le lecteur se sente libre de les remplacer par les termes
qui lui conviennent le mieux.
4.3. MISSION ET ORGANISATION 169
animent au sens exact du terme, car elles lui donnent une âme. Leur sérieux
professionnel s’associe à une lucidité sans amertume et teintée d’humour.
Ce sont elles, et non la hiérarchie, qui en constituent l’élite.
Parmi les dirigeants, ceux qui méritent le titre de stratège conjuguent ce
même réalisme pratique à la même conscience de la mission ; ils y ajoutent
l’art de former l’équipe de personnes de confiance qui leur permet de dé-
multiplier leur action.
La fonction d’animation n’a pas de place dans l’organigramme, on ne
sait le plus souvent aucun gré à ceux qui la remplissent, mais si elle est
supprimée l’institution devient une machine aveugle dont la seule finalité
réside dans la routine des procédures : l’organisation tend naturellement à
s’émanciper de la mission.
Si en effet l’organisation est faite pour agir sur le monde dans lequel
elle incarne la mission, la réalisation de celle-ci rencontre la complexité du
monde. Inévitablement, cela nécessite des compromis : il faudra parfois agir
sans avoir toutes les connaissances nécessaires, sans pouvoir anticiper les
conséquences de l’action ; le mieux étant l’ennemi du bien, il faudra aussi
tolérer des imperfections.
La confusion des valeurs qui en résulte éveille des tentations et fraie la
voie à la trahison : l’organisation peut finir par agir d’une façon contraire à
une mission qu’elle a oubliée. Il arrive ainsi que des dirigeants trahissent leur
entreprise, que des salariés ou des syndicats agissent au rebours de l’effica-
cité, qu’une armée utilise ses armes pour opprimer son pays, que la justice
soit plus formelle que soucieuse d’équité, que des médecins fassent passer
leur corporation avant la santé des patients, que des entreprises soient in-
différentes à leurs clients etc. Le risque de ces trahisons est le prix dont il
faut accepter de payer l’incarnation : la mission ne pourrait rester parfaite-
ment pure que si elle n’était aucunement mise en œuvre, mais alors ce serait
comme si elle était annulée.
La tentation de la trahison est d’autant plus forte pour une personne que
celle-ci dispose de plus d’initiative et d’autorité dans l’organisation. Dans
une entreprise, seront fidèles à la mission la plupart des agents opérationnels,
à peu près la moitié des personnes de la direction générale (l’autre moitié
se consacrant aux délices de l’intrigue), mais seule une minorité parmi les
dirigeants. Dans l’Église la trahison sera plus tentante, donc plus fréquente,
parmi les prélats que parmi les religieux, parmi ces derniers que parmi les
simples fidèles. Cela provoque des scandales douloureux. Certains croient
en effet que si la mission était juste il devrait nécessairement en résulter
une organisation impeccable : le fait que l’organisation trahisse leur semble
invalider la mission elle-même. « Le gros de l’effort de recherche est orienté
vers la conception des armes, le savoir-faire peut servir le mal, l’entreprise
n’est pas rationnelle, l’administration est inefficace, le pape se trompe » :
et les dénonciateurs en déduisent un peu vite que la science, la technique,
l’économie, l’État, l’Évangile etc. ne valent rien ou sont même nuisibles.
D’autres personnes, que les dénonciateurs taxeront de naïveté ou d’hy-
pocrisie, préfèrent pour s’épargner les douleurs du scandale ignorer jusqu’au
risque de trahison. Elles veulent croire l’agent économique rationnel, le pape
4.3. MISSION ET ORGANISATION 171
jet, serait aussi fallacieux que l’intelligent design que ceux qui prennent la
Bible à la lettre tentent d’opposer à la théorie de Darwin.
Cette représentation mécaniste et fataliste plaque abusivement, sur le dé-
lai de l’action humaine qui se mesure en jours ou en années, une théorie qui,
concernant l’évolution biologique, considère le délai nécessaire pour qu’une
mutation génétique ait un effet significatif, soit une dizaine ou centaine de
générations.
Il m’est arrivé d’évoquer devant un sociologue connu les défauts de l’or-
ganisation d’une entreprise pour laquelle je travaillais et qu’il avait lui-même
étudiée. « Qu’est-ce qui vous autorise, s’écria-t-il avec colère, à dire que cette
entreprise fonctionne mal? Elle est comme elle est. Personne ne peut définir
ce que c’est qu’une entreprise qui marche bien : une telle norme relèverait
du Café du Commerce ». Pourtant, lui ai-je répondu, si l’entreprise est un
être vivant, ne peut-il pas arriver qu’elle soit malade? Et pour diagnostiquer
la maladie et prescrire un traitement, ne faut-il pas avoir quelque idée de ce
qu’est la santé?
S’il s’agit d’ailleurs d’observer et de décrire, pourquoi se limiter à l’orga-
nisation? À l’échelle de temps de l’action humaine la mission est elle aussi
réelle et observable, même si elle n’est pas physiquement manifeste, même si
elle n’est pas explicite. Elle est présente, fût-ce obscurément et en toute am-
biguïté, dans les têtes des personnes que l’institution emploie comme dans
les attentes de celles qui lui sont extérieures. Ces représentations orientent
leurs intentions. Que la mission soit (ou semble) trahie, et il en résultera
confusion, désarroi, désorientation ; l’édifice des valeurs sera compromis, le
chaos s’installera dans les esprits. Une description de l’institution qui se
limite à son organisation, qui évite toute référence à la mission, reste donc
partielle : et dès que la mission est évoquée, cela fournit une norme pour éva-
luer l’organisation, que l’examen du système d’information dévoilera tout
comme la radiographie révèle les organes internes d’un être vivant.
13. J’entends encore le silence qui me répondit lorsque, en 1997, j’ai montré à une
grande entreprise qu’elle était la seule de son secteur qui n’ait pas donné à ses clients la
possibilité de passer commande via la Toile.
174 CHAPITRE 4. QU’EST-CE QU’UNE ENTREPRISE?
* *
Il semble facile d’expliquer l’innovation par l’économie : « si l’entreprise
innove, c’est parce que l’innovation lui procure un profit ». Il y a du vrai dans
cette proposition banale mais elle semble contredire les enseignements de la
théorie économique - de cette partie du moins de la théorie qui est consacrée
à la concurrence parfaite et qui pèse si lourd dans les premières années
de sciences économiques, dans la spécification des modèles comme dans
l’opinion des économistes eux-mêmes, car ils ne prêtent pas tous beaucoup
d’attention aux théories de la concurrence imparfaite (Tirole [203]).
Selon la théorie de la concurrence parfaite, un équilibre à profit nul
s’instaure lorsqu’un marché est servi par de nombreuses entreprises et que
de nouvelles entreprises peuvent y entrer librement : s’il était possible d’y
faire du profit, de nouvelles entreprises entreraient, l’offre augmenterait,
le prix baisserait jusqu’à ce que le profit s’annule. Le profit étant nul, le
prix est égal au coût moyen de production. Or on démontre qu’à l’équilibre
le coût moyen de production est minimal. La concurrence parfaite apparaît
donc comme la clé d’une efficacité tout entière au service du consommateur,
puisque le produit lui est proposé pour le prix le plus bas possible 14 .
Il n’en est pas de même si le marché est non sous le régime de la concur-
rence parfaite mais sous celui du monopole. Il n’existe alors qu’une seule
entreprise sur ce marché. Elle peut fixer le prix au niveau qui maximise son
profit, plutôt qu’au niveau le plus favorable au consommateur.
C’est ce raisonnement, très simple, qui fonde les politiques en faveur de
la concurrence. « Le monopole, c’est mal ; la concurrence, c’est bien ». De
Rockefeller à Microsoft, des magnats ont fait de gros profits sur le dos des
consommateurs : les législations anti-monopolistes ne manquent donc pas de
14. En fait toute entreprise est la réalisation d’un projet qui a fait l’objet d’anticipations
incertaines ; le profit doit donc à l’équilibre rémunérer le risque pris par l’investisseur. Au
lieu de « profit nul » il faudrait dire « profit normal », le profit normal étant égal au taux
d’intérêt sur le marché monétaire augmenté de la « prime de risque » minimale jugée
nécessaire en raison des incertitudes propres au projet considéré.
4.4. LE MOTEUR DE L’INNOVATION 175
* *
Considérons une économie qui, par les effets d’une réglementation bien
conçue, d’un système de brevets bien pensé ou de tout autre mécanisme
favorable, garantisse aux entreprises innovantes le délai raisonnable, mais
pas plus, pendant lequel elles pourront faire un surprofit. Alors s’amorce
un type de croissance spécifique fondé sur l’amélioration renouvelée des
produits ou la baisse renouvelée des coûts de production. Le bénéfice de
l’innovation est, après chaque cycle, transféré aux consommateurs sous la
forme d’une hausse de leur pouvoir d’achat.
Les modèles économiques de croissance les plus classiques (Intriligator
[89]) postulent que la fonction de production et la nature des produits sont
constantes. Si la fonction de coût est à rendement décroissant - hypothèse
qui, au niveau macroéconomique, est vérifiée en raison de la hausse du prix
des facteurs de production lorsque leur demande s’accroît - la croissance de
la production s’aligne à terme sur celle de la population active et la produc-
tion par tête se stabilise. Pour échapper à cette conclusion que l’expérience
des xixe et xxe siècles contredit trop visiblement, Solow [192] a introduit le
progrès technique comme un résidu et Romer [175] a développé la théorie
de la croissance endogène.
Le moteur de l’entreprise innovante correspond à une expérience fa-
milière aux entrepreneurs, chercheurs et ingénieurs, même si ceux-ci ne la
formalisent pas. Il est vrai qu’il peut surprendre ceux qui sont habitués à
raisonner sur une économie à l’équilibre : lorsque ce moteur tourne, l’éco-
nomie n’est pas à l’équilibre mais dans un déséquilibre dont la dynamique
propulse une croissance endogène.
* *
Le cycle du moteur de l’entreprise innovante peut être rompu en deux
points : alors ce moteur s’arrête. Supposons que l’entreprise ne parvienne pas
à instaurer un monopole temporaire. Alors elle n’a aucune raison d’innover.
Cela peut se produire si, par exemple, le régulateur pousse trop loin le
combat contre le monopole : il faut donc qu’il contienne sa force et laisse
l’entreprise innovante tirer de son effort le surprofit raisonnable.
4.5. LE COMMERCE DE LA CONSIDÉRATION 177
Les entreprises ont ainsi recours, dans les tâches d’exploitation comme
dans les tâches de conception, à des compétences spécialisées et diversi-
fiées. Or des personnes compétentes ne peuvent travailler de façon efficace
que si elles sont insérées dans une organisation où elles puissent se faire
comprendre. À quoi servirait par exemple un expert si les décideurs ne
comprenaient ni son langage, ni son raisonnement ? L’entreprise ne peut
former et conserver des personnes compétentes que si elle les respecte, des
spécialistes ne peuvent coopérer que s’ils respectent les autres spécialités.
Certaines directions des ressources humaines y sont de plus en plus atten-
tives 15 .
Le respect, ici, n’est rien d’autre que d’écouter celui qui parle en s’ef-
forçant sincèrement de comprendre ce qu’il veut dire (« celui qui parle »
doit s’entendre au sens large : l’être humain « parle » autant par les gestes,
la mimique, les écrits, que par le langage articulé) : on manque de respect
à quelqu’un lorsqu’on refuse de l’écouter parce qu’on l’a classé dans une
catégorie avec laquelle on croit inutile ou impossible de communiquer.
En principe, nous avons tous de bons sentiments et bonne conscience.
Nous ne méprisons personne, nous sommes toute générosité. Pourtant nous
cessons souvent d’écouter, nous coupons souvent la parole, si nous n’y pre-
nons pas garde il nous arrive plusieurs fois par jour de manquer de respect
à quelqu’un. Ainsi notre pratique est moins respectueuse que notre théorie.
Le respect exige la réciprocité car il devient, à la longue, impossible
d’écouter une personne qui elle-même n’écoute pas. Il s’instaure donc dans
l’entreprise, et d’autant plus qu’elle sera plus automatisée et que les tâches
confiées aux êtres humains seront moins répétitives, un échange du respect,
un « commerce de la considération » ; la personne la plus efficace sera celle
qui sait amorcer cet échange en acceptant de donner d’abord plus qu’elle
ne reçoit. Une direction des ressources humaines efficace sait montrer de
la considération aux salariés et aux syndicats, les écouter attentivement et
sincèrement, en échange de quoi elle pourra leur demander d’accorder la
même considération à la mission de l’entreprise.
Dans certaines organisations hiérarchiques, la personne qui se trouve au
sommet exige une obéissance automatique. Elle croit ainsi être respectée
alors qu’elle se soustrait au commerce de la considération. Certaines atti-
tudes « respectueuses » équivalent pourtant à la pire des insultes puisqu’elles
excluent toute possibilité de dialogue. Certaines religions érigent ainsi leur
Dieu à une telle distance qu’aucun dialogue avec lui ne serait possible : ce
Dieu, qu’elles croient respecter, elles en font une idole et donc une chose.
Et puisque nous sommes arrivés sur le terrain de la théologie, notons que
l’injonction « Αγαπτε
Ç λλλουσ » (Jean 13:34), « aimez-vous les uns les
autres », résulte d’une traduction de l’araméen au grec. L’araméen étant
d’une riche polysémie on aurait pu la traduire par « respectez-vous les uns
les autres ».
15. D’après Stiller et Marlowe [126], c’est grâce au soutien de la direction des ressources
humaines de Sun que Scott McNealy a pu concevoir le langage Java, qui n’intéressait
alors personne dans cette entreprise.
Chapitre 5
À la recherche de la
stratégie
179
180 CHAPITRE 5. À LA RECHERCHE DE LA STRATÉGIE
* *
* *
Carr annonce la fin du règne des TIC et de l’informatique. Celle-ci est
devenue, dit-il, une commodity, un bien banal que l’on achète sur étagère
et auquel on ne pense pas plus qu’à l’air que l’on respire. Cela ne veut pas
dire qu’elle ne soit pas importante (une personne privée d’air mourrait en
quelques minutes), mais que comme tout le monde y a également accès elle
n’est plus un facteur de différenciation et de compétitivité. Certes, l’entre-
prise qui prendrait du retard en informatique se mettrait en danger car sa
fonction de production ne serait pas conforme à l’état de l’art. Mais celle
qui prend de l’avance ne peut plus espérer le même avantage concurrentiel
que celui dont ont profité naguère FedEx, American Airlines, Mobil Oil,
Reuters, eBay, Wal-Mart et autres Dell. L’informatique n’est donc plus, dit
Carr, un enjeu stratégique.
En conséquence il recommande de réduire le budget informatique ; de
n’investir dans des solutions innovantes qu’après que d’autres aient réussi ;
d’ajourner les investissements pour tirer parti de la baisse des prix ; de
s’appliquer à gérer les risques et les fragilités plutôt qu’à rechercher des
opportunités.
Carr réserve le qualificatif de « stratégique » aux facteurs de compétiti-
vité et de différenciation qui conditionnent la conquête des parts de marché.
Limiter les risques, selon lui, ne relève donc pas de la stratégie. Il révèle ainsi
qu’il a de celle-ci une conception purement offensive : on peut lui objecter
que le stratège qui négligerait la défensive ferait mal son métier.
Carr cite des statistiques dont on peut tirer des conclusions opposées aux
siennes : « En 1965, selon une étude du service économique du ministère du
commerce américain, les entreprises américaines consacraient moins de 5 %
de leurs dépenses d’investissement aux TIC. Après l’introduction du PC
au début des années 1980, ce pourcentage est monté à 15 %. Au début
des années 1990, il a atteint plus de 30 % et à la fin de cette décennie il
était de près de 50 %. » ; « le coût de la puissance de traitement a décru
continûment, de 460 $ par MIPS en 1978 à 50 $ par MIPS en 1985, puis
à 4 $ par MIPS en 1995, et cette tendance se poursuit sans faiblir » : ces
données témoignent à la fois de l’importance qu’a prise l’informatique dans
le capital fixe et d’une baisse de prix qui n’a pu qu’accroître son efficacité
à coût égal. Il est banalement vrai que « comme les TIC sont devenues
le principal investissement pour la plupart des entreprises, on ne peut plus
excuser le gaspillage ni la négligence » ; mais le raisonnement dérape lorsque
Carr dit - c’est le moment clé de sa démonstration - « les TIC sont, avant
tout, un mécanisme de transport : elles transportent l’information numérisée
tout comme les chemins de fer transportent des marchandises, et le réseau
électrique transporte le courant. »
Dire que l’informatique est un pur « mécanisme de transport » c’est
négliger la modélisation des processus et la définition des concepts opéra-
tionnels qui lui donnent ses fondations sémantiques ; c’est oublier qu’avant
d’être transportées les données doivent être inscrites dans une mémoire qu’il
faut définir et gérer ; qu’elles sont soumises à des traitements qui les trans-
forment ; c’est enfin et surtout compter pour rien l’assistance que l’informa-
tique apporte au travail humain et l’articulation qu’elle permet entre l’être
humain et l’automate (voir page 200).
Pour pouvoir tirer argument de la comparaison avec les réseaux de trans-
port (chemin de fer et électricité), il fallait que Carr affirmât qu’« au fond,
l’informatique n’est que du transport ». Mais ce type de raisonnement consti-
tue, en matière de modélisation, une faute majeure : il implique de réduire
la nature spécifique de l’objet considéré à celle d’un objet mieux connu et
supposé analogue 5 . Or si l’analogie peut être utile dans l’étape heuristique
de la pensée elle ne peut pas servir à fonder une démonstration.
Carr fait une deuxième faute lorsqu’il s’appuie sur des statistiques pour
prouver que l’informatique n’accroît pas l’efficacité des entreprises. Pour
évaluer l’efficacité d’une technique nouvelle il faut en effet considérer non
l’ensemble de ses utilisateurs mais seulement les plus habiles d’entre eux,
ceux qui ont su trouver la meilleure méthode pour en tirer parti, car c’est
cette méthode-là qui s’imposera par la suite à tous. Ce n’est donc pas la sta-
tistique qu’il faut utiliser dans ces phases de transition, mais la monographie
(Tirole et Lerner [112]).
6. La faisabilité technique doit cependant être toujours vérifiée, car même si elle ne
représente plus la difficulté principale elle reste une condition nécessaire (donc contrai-
gnante) de la réalisation.
184 CHAPITRE 5. À LA RECHERCHE DE LA STRATÉGIE
* *
L’expression « alignement stratégique du système d’information » si-
gnifie d’abord que le système d’information correspond à la stratégie de
l’entreprise, qu’il fournit au personnel les outils permettant de la mettre en
œuvre. La relation entre la stratégie et le système d’information serait alors
une transcription, le système d’information « tirant les conséquences » de
la stratégie (figure 5.1).
façon vague que l’on voudrait faire quelque chose : il faut préciser comment
on entend le faire. Parfois cet exercice d’explicitation fait apparaître des
points sur lesquels l’entreprise est non pas volontaire, mais velléitaire. Par
exemple elle dit vouloir « se mettre à l’e-business » mais rien n’indique à quel
genre d’e-business elle entend « se mettre » ; ou bien elle prétend conclure
des partenariats mais elle ne fait rien pour assurer l’interopérabilité de son
système d’information avec celui de ses partenaires potentiels ; ou encore elle
dit vouloir mettre en place un workflow mais sans définir les responsabilités,
moyens et pouvoirs de la personne chargée de l’administrer etc.
La précision qu’exige le système d’information contraint l’entreprise soit
à renoncer à des projets par trop velléitaires, soit à assumer les implications
pratiques de sa volonté stratégique. La réflexion sur le système d’information
contribue ainsi à la qualité de l’expression stratégique, ce que l’on peut
représenter par une flèche en retour (plus fine toutefois que la première
flèche) (figure 5.2).
Supposons que nous ayons effectivement défini puis mis en place le sys-
tème d’information qui correspond à la stratégie, que nous ayons « aligné »
le système d’information sur la stratégie, rétroaction comprise. La dyna-
mique ne s’arrête pas là. En effet, la mise en place d’un système d’infor-
mation ouvre à l’entreprise des possibilités stratégiques qui n’existaient pas
auparavant :
– les tickets de facturation émis par un magasin de grande distribution
ou les données sur la consommation téléphonique qu’un opérateur té-
lécoms rassemble pour établir la facture peuvent alimenter des études
de marketing, des travaux statistiques, qui serviront à fonder une dé-
marche commerciale proactive ;
– les données recueillies par un institut statistique à l’occasion des en-
quêtes, d’abord exploitées pour produire les tableaux de résultats,
peuvent être réutilisées après fusion avec les données d’autres en-
quêtes ;
– un organisme de sécurité sociale qui recueille les feuilles de soin pour
procéder à des remboursements peut utiliser l’information ainsi ras-
semblée pour alimenter la politique de santé, évaluer la qualité des
prescriptions médicales, identifier les fraudeurs.
Le système d’information, d’abord mis au service du positionnement
existant, modifie donc le champ du possible et ouvre la perspective d’un
nouveau positionnement. Le raisonnement est analogue à celui qui concerne
la différenciation des services offerts sur une plate-forme technique : si par
exemple le réseau télécoms permet d’offrir le service téléphonique, son infra-
structure se prête aussi à l’offre du transport de données, de réseaux privés
virtuels, de services à valeur ajoutée etc.
186 CHAPITRE 5. À LA RECHERCHE DE LA STRATÉGIE
* *
Ses pairs confèrent au nouveau dirigeant, lors d’un conseil d’administra-
tion, le pouvoir légitime. La cérémonie se réduit à un échange de signatures,
à quelques poignées de mains et quelques coupes de champagne mais, tout
comme l’onction épiscopale, elle transmet une grâce d’état : le nouveau di-
rigeant, du seul fait qu’il a été nommé, est censé posséder les compétences
nécessaires à sa fonction.
La nomination lui confère effectivement des capacités : il aura le pouvoir
de signer des décisions qui engagent l’entreprise, de téléphoner à d’autres
dirigeants, de les rencontrer, d’être écouté lorsqu’il parle. Sa parole, sa si-
gnature seront nécessaires pour concrétiser les projets et désigner les res-
ponsables. Il a ainsi les moyens d’agir. Mais quelles sont les qualités qu’il
faut posséder pour être nommé? Ou, comme le disait naïvement un de mes
amis, « que faut-il faire pour devenir dirigeant? »
Pour que les dirigeants en place aient envie de coopter quelqu’un, il faut
que sa compagnie leur soit agréable. Distinction discrète, culture générale,
élocution claire, don de repartie, bonne tenue à table, humour délicat et
188 CHAPITRE 5. À LA RECHERCHE DE LA STRATÉGIE
sérieux, goût pour les meilleurs vins et cigares, art d’entrer dans les bons
réseaux et de s’y maintenir (sortir d’une grande école ou d’un grand corps de
fonctionnaires y aide, s’intéresser au rugby ou au golf aussi) : voilà quelques-
unes des qualités qui aident à pénétrer l’exquis milieu des dirigeants français.
Il est habile de les compléter par l’allégeance à un dirigeant en place.
Ces qualités ne sont pas faciles à acquérir mais on peut les simuler. Un
de mes camarades ambitionnait d’entrer au tour extérieur dans le corps
de l’inspection des finances. Je l’ai croisé dans les couloirs de Bercy, vieilli,
voûté sous le poids imaginaire des dossiers, les pans de la veste battus par un
mouvement alternatif des bras qui ramaient l’air. Ayant ainsi montré qu’il
possédait l’habitus du haut fonctionnaire, il fut coopté haut la main. Après
quoi il rajeunit, sa taille se redressa et ses bras retrouvèrent un mouvement
normal.
Vous avez sans doute observé que je ne mentionnais ni la compétence, ni
l’expérience parmi les qualités nécessaires : c’est qu’elles ne sont pas abso-
lument indispensables, la grâce d’état y pourvoyant. C’est ainsi que l’on a
nommé Michel Bon à France Telecom, Jean-Yves Haberer au Crédit Lyon-
nais, Jean-Marie Messier à la Générale des Eaux etc. La suite des événements
a montré que la grâce d’état pouvait avoir des ratés.
Pour une mission suicide, comme de redresser l’entreprise après un dé-
sastre, on préférera tout de même une personne compétente. Mais elle sera
jetable : si elle échoue, elle disparaîtra ; si elle réussit, on s’en débarrassera.
* *
Celui qui a les qualités du stratège est peut-être celui qui a le moins en-
vie de devenir un dirigeant : il anticipe les difficultés de cette tâche, le poids
des responsabilités qu’elle comporte. Ces difficultés et ce poids, le mondain
ne les entrevoit pas ; par contre il est sensible aux privilèges qui accom-
pagnent la fonction de dirigeant. Voiture avec chauffeur, vols en première
classe, des collaborateurs pour faire les tâches matérielles, parler sans être
jamais contredit, lire l’admiration et la servilité dans les yeux des autres...
Étant considéré comme un mâle dominant (ou une femelle dominante) le
dirigeant se voit enfin fréquemment proposer des services sexuels : il ne faut
ni s’exagérer ce dernier point, ni le passer sous silence 7 .
Un de mes amis, directeur général d’une grande entreprise pendant des
décennies, se retrouva sur le sable après que celle-ci eût été achetée par un
groupe étranger. Il dut réapprendre à coller les timbres sur les enveloppes,
à prendre le métro, à composer des numéros de téléphone, à solliciter des
personnes qui ne souhaitaient pas lui parler. Il fut assez sage pour prendre
cela avec humour mais ce virage fait sombrer beaucoup d’anciens dirigeants
dans la dépression.
On trouve aussi, parmi les aspirants aux fonctions de dirigeant, des per-
vers qui ne convoitent la légitimité que pour pouvoir faire souffrir les autres,
mais il sont rares : un pervers satisfera plus aisément ses penchants dans les
7. Il existe certes des dirigeants que cette offre n’intéresse pas, mais les émules de Louis
XIV ou de Catherine II sont nombreux : le pouvoir est un aphrodisiaque.
5.3. DU CÔTÉ DES DIRIGEANTS 189
fonctions de petit chef, moins en vue et plus faciles à conquérir. Parmi les
mondains et les pervers peut enfin se glisser un vrai stratège, tout comme
il se trouvait de vrais chefs de guerre parmi les courtisans de Versailles.
Mais c’est là une coïncidence. Il arrive aussi que l’entreprise, dirigée par un
mondain, emploie des personnes qui auraient les qualités du stratège : étant
privées des moyens d’action que confère la légitimité, elles doivent ronger
leur frein.
* *
Certains disent que l’essentiel pour l’entreprise réside dans la finance.
Cette niaiserie les classe tout à côté de ceux qui disent qu’un peintre doit
« peindre de beaux tableaux » et un écrivain « écrire des romans intéres-
sants » : de telles phrases font se hausser les épaules du professionnel qui
sait devoir se concentrer non sur le résultat final mais sur ses conditions
d’émergence, diablement complexes.
Quelle est la place de la finance dans les préoccupations du stratège ?
Ou, pour préciser la question, qu’attend-il du directeur financier?
1) D’abord, que celui-ci gère la trésorerie de l’entreprise, ses créances
et sa dette : il doit placer les liquidités, couvrir les risques (change, contre-
partie, fluctuation du cours des matières premières), minimiser le coût de
l’endettement et le poids de la fiscalité, toutes opérations hautement tech-
niques.
2) Ensuite, qu’il conforte la crédibilité de l’entreprise, son aptitude à
obtenir du crédit. Toute entreprise est en effet structurellement endettée
auprès des actionnaires, des banques et des fournisseurs. Si les créanciers
exigent un remboursement immédiat ou s’ils refusent de renouveler les prêts
elle peut être mise en faillite. Elle doit donc entretenir la confiance de ceux
que l’on appelle, par abus de langage, « les marchés ».
Certes ces missions sont importantes, mais pas au point que l’on puisse
y réduire la stratégie : l’arbitrage entre les projets que les concepteurs pro-
duisent sans cesse, le maintien de la fonction de production à l’état de l’art,
l’utilisation opportune des techniques nouvelles supposent des connaissances
et une réflexion qui ne relèvent pas de la seule finance.
La crédibilité financière de l’entreprise ne se construit d’ailleurs ni uni-
quement, ni même principalement sur les paramètres financiers. Les créan-
ciers, pour savoir s’ils peuvent lui faire confiance, examinent la qualité de
ses produits, la solidité de sa part de marché, sa réactivité face aux évolu-
tions techniques ou réglementaires, sa capacité à s’emparer d’un avantage
concurrentiel en innovant.
Il est assez naturel qu’un dirigeant, s’il a été coopté parce qu’il émettait
l’image convenable, voie dans l’image de l’entreprise le facteur principal de la
crédibilité. Il accordera tous ses soins à la communication, à la présentation
du bilan, fût-ce en sacrifiant des actifs précieux pour faire apparaître un
résultat séduisant mais fugace. Il se détournera des conditions pratiques
de son fonctionnement, de son évolution, pour monter de ces acquisitions
qui accaparent l’attention des journalistes et des actionnaires. L’image de
l’entreprise, détachée de son socle économique, devient alors un artefact
190 CHAPITRE 5. À LA RECHERCHE DE LA STRATÉGIE
médiatique qui peut monter très haut avant que les actionnaires, apercevant
du vide sous le cours de l’action, ne soient pris de vertige.
* *
8
En paraphrasant Pascal , on peut dire que la vraie finance se moque
de la finance : la santé financière de l’entreprise résulte d’une stratégie qui
agit, en priorité, sur autre chose que la finance. Le stratège est comme le
jardinier qui, plutôt que de tirer sur les plantes, bine le sol, le fume, l’irrigue
et le sarcle.
Dans les années 1990 plusieurs très grandes entreprises sont mortes ou
ont failli mourir parce que leurs dirigeants avaient donné la priorité à la
finance et à la communication ; plutôt que de créer de la richesse, de l’uti-
lité pour les consommateurs, ils entendaient « créer de la valeur », cette
expression convenue signifiant dans leur bouche « faire monter le cours de
l’action ». Or le marché boursier, volatil par nature, connaît des oscilla-
tions sans rapport avec la santé de l’entreprise : le prendre pour boussole
est suicidaire.
On pouvait espérer qu’après les désastres des années 1990 (France Te-
lecom, Vivendi, Crédit Lyonnais etc.), provoqués par des mondains jouant
au dirigeant, nous reviendrions à une conception raisonnable de l’entreprise.
Hélas ! On entend encore des journalistes, des économistes, des professeurs
répéter les mêmes niaiseries sur la priorité financière de la stratégie. Les étu-
diants, nourris de ces viandes creuses, en redemandent : dépourvus d’expé-
rience pratique et prisonniers de la médiatisation de la société, ils confondent
volontiers l’image et la réalité.
* *
Le stratège concentre son attention non pas sur le milieu social des diri-
geants, mais sur l’entreprise et son environnement. En mûrissant une syn-
thèse, il fournit à l’entreprise une orientation, un « sens ». Cette activité, qui
dégage les priorités de la polyphonie des métiers et des accidents externes,
lui interdit de s’enfermer dans une spécialité : il est à l’écoute des experts
qui l’assistent et alimentent le processus de décision.
L’horizon temporel du stratège va de quelques mois à quelques années ;
ce n’est pas celui de la gestion quotidienne et l’expression « pilotage straté-
gique » est un oxymore.
Parfois le stratège doit décider vite, mais cela s’inscrit sur la toile de
fond d’une connaissance lentement mûrie, qui soutient une appréhension
intuitive et presque physique de l’entreprise. Le « coup d’œil », vertu qui
permet de décider avec justesse sous la pression de l’urgence et du danger,
est la qualité du stratège parvenu au sommet de son art 9 .
Dans l’entreprise, le stratège observe en priorité (1) la fonction de pro-
duction, d’où se déduit la fonction de coût ; (2) les besoins des clients, suivis
par le marketing et schématisés par la segmentation.
La connaissance de la fonction de production permet de dimensionner les
ressources (compétences et effectifs, équipements, partenariats), de définir la
nature et le calendrier des investissements, de se maintenir à l’état de l’art,
de réduire le coût de production, de générer un surprofit par des innovations
de procédé. La connaissance des besoins permet de diversifier la production,
de la « packager » et la tarifer de façon à satisfaire les divers segments de
clientèle, de définir les services qui accompagnent sa commercialisation et
sa distribution, de générer un surprofit par des innovations de produit.
À cette concentration sur l’entreprise, le stratège ajoute une vigilance
périscopique sur les initiatives de la concurrence, les évolutions des tech-
niques et de la réglementation, la crédibilité de l’entreprise (figure 5.6). Il
n’ignore certes pas la finance mais, encore une fois, elle n’est pas sa préoc-
9. « Rien de plus juste que le coup d’œil de M. de Luxembourg, rien de plus brillant,
de plus avisé, de plus prévoyant que lui devant les ennemis, ou un jour de bataille, avec
une audace, une flatterie, et en même temps un sang-froid qui lui laissait tout voir et tout
prévoir au milieu du plus grand feu et du danger du succès le plus imminent ; et c’était là
où il était grand. Pour le reste, la paresse même. » (Saint-Simon (1675-1755), Mémoires,
Gallimard 1983, vol. I p. 207. (Nota Bene : La langue de Saint-Simon n’est pas la nôtre ;
il faut traduire « flatterie » par « assurance » et « danger du succès » par « risque »).
192 CHAPITRE 5. À LA RECHERCHE DE LA STRATÉGIE
cupation unique ni même principale sauf bien sûr si l’entreprise est au bord
de la faillite.
Pour savoir si une entreprise est ou non dirigée par un stratège, examinez
la qualité de son système d’information et, en particulier, le tableau de bord
du comité de direction (voir page 379). Cela donne une première indication.
Si le tableau de bord est sobre, lisible et pertinent en regard de la phy-
sique de l’entreprise, la réponse sera vraisemblablement positive : seul un
stratège est capable d’imposer aux directions la production d’un tel tableau
de bord, de surmonter les réticences des détenteurs de l’information.
Souvent il n’existe pas de tableau de bord ou bien - ce qui revient au
même - il en existe plusieurs mutuellement contradictoires : alors le comité
de direction flotte en lévitation au dessus d’une entreprise dont il ignore la
physique et qui n’a donc ni stratège, ni stratégie.
* *
Le rôle du système d’information dans la stratégie est souvent mal com-
pris ou dévoyé. Je vais l’illustrer en citant des anecdotes toutes authentiques
et que je crois représentatives.
Écartons auparavant deux malentendus :
1) Certaines personnes croient que les anecdotes, étant anecdotiques,
n’apportent aucun enseignement qui vaille : il faudrait leur préférer les sta-
tistiques, les enquêtes, qui seules fourniraient une information bien pondé-
rée.
Eh bien des statistiques existent, on peut les trouver à la page 453, et
elles montrent que dans la plupart des cas les projets informatiques échouent
ou connaissent d’importants dépassements en délai et en budget. Une fois
que l’on a vu la statistique, reste à chercher l’explication d’une ingénierie
aussi défectueuse : et ici les anecdotes sont précieuses, car elles permettent
d’orienter l’intuition. Il y a d’ailleurs quelque chose d’étrange dans le mépris
envers les anecdotes : sauf mensonge, elles rapportent des faits indéniables et
5.4. LA STRATÉGIE RETROUVÉE 193
c’est à partir du constat de tels faits que peut s’amorcer l’enquête statistique
elle-même, qui le complétera par des ordres de grandeur, des proportions et
des corrélations.
2) Certaines personnes croient que celui qui ne fait pas taire son ju-
gement devant la fonction des dirigeants et, plus généralement, devant les
institutions, témoigne d’un mauvais esprit. Or c’est tout le contraire : si l’on
respecte la fonction des uns, la mission des autres, on doit s’interdire toute
complaisance envers leurs éventuels dévoiements. Dans le cas particulier du
système d’information il se trouve que le dévoiement est la règle et la réus-
site l’exception : c’est là sans doute un fait navrant, mais dont répétons-le
la statistique témoigne de façon irréfutable.
Je ne voudrais d’ailleurs pas que l’on crût que j’éprouve de l’hostilité
envers les dirigeants. Quand je rencontre un dirigeant efficace, un entre-
preneur, un vrai stratège, j’éprouve envers lui de la gratitude car par son
efficacité il contribue au bien-être de la société tout entière. J’essaie aussi
de comprendre comment il s’y prend et ce n’est pas facile : la décision juste
résulte d’une adéquation du jugement à la situation, d’une adhésion à la
« propension des choses » (Jullien [93]) que l’on ne saurait entièrement ex-
pliciter 10 et qui semblent dépasser les facultés strictement rationnelles sur
lesquelles elles s’appuient pourtant.
Les mécanismes mentaux de l’erreur sont beaucoup plus faciles à com-
prendre et à décrire que ceux de la justesse ; c’est pourquoi je leur accorde
autant de place, abordant ainsi par l’extérieur, et en quelque sorte par leur
contour négatif, les qualités positives du stratège.
* *
Au milieu des années 90 un président-directeur général convaincu de l’im-
portance stratégique du système d’information demanda à un de mes amis
de concevoir une démarche ambitieuse. Mon ami fit le tour de l’entreprise
et revint avec un constat : il fallait d’abord organiser les maîtrises d’ouvrage
pour équilibrer le poids de la direction informatique, remplacer les termi-
naux passifs par des PC en réseau, faire la chasse aux doubles saisies, mettre
en place la messagerie et la documentation électronique, créer un référen-
tiel, monter un tableau de bord, ouvrir un site pour faire du commerce sur
la Toile, enfin reconcevoir certaines applications en utilisant l’architecture
client/serveur (elle était alors à la mode) et un langage à objets.
Le président-directeur général donna son accord mais il fallait, pour que
les choses puissent se faire, qu’il donnât des consignes au directeur général.
Il n’en fit rien. Mon ami consacra plusieurs mois à des négociations stériles.
Il finit enfin par comprendre ce qui se passait. Alors il dit ceci au président-
directeur général :
« Quand je parle de poste de travail, de référentiel, de tableau de bord,
de maîtrise d’ouvrage, de site Web, tout cela vous paraît mesquin, banal, car
cela n’est pas à la hauteur de la Stratégie que vous ambitionnez. Pourtant en
10. Talleyrand disait de Bonaparte, premier consul, « il comprend tout ce qu’il voit et
il devine ce qu’il ne voit pas » (Orieux [149]).
194 CHAPITRE 5. À LA RECHERCHE DE LA STRATÉGIE
* *
Un autre de mes amis est chargé par un directeur régional de l’équipe-
ment de concevoir le tableau de bord de la direction. Il fait son travail mais
entre temps ce directeur est nommé ailleurs. Le tableau de bord est présenté
à son successeur.
Mon ami explique : « chaque semaine, vous aurez ce tableau-ci ; chaque
mois, ce tableau-là. »
« Holà, dit le directeur, je saurai tout ça ? »
« Oui », répond mon ami.
« Mais alors il faudra que je prenne des décisions ? »
« Eh bien oui : en quelque sorte, c’est fait pour. »
« Alors ça, non, je ne veux pas de ce système ! »
Le tableau de bord n’a pas été mis en place. L’économiste dira « c’est
parce que la fonction d’utilité du second directeur n’était pas la même que
celle du premier », mais il reste à expliquer pourquoi il en était ainsi.
Mettons-nous à la place de ce directeur. S’il ne sait pas ce qui se passe,
il ne pourra rien faire mais on ne pourra rien lui reprocher. Il mènera sa
vie de notable : grand bureau, secrétaire diligente, subordonnés respectueux,
voiture, chauffeur. Sans tableau de bord, il n’y aura pas d’information donc
ni responsabilité ni soucis. Il gagnera convenablement sa vie jusqu’au jour
béni de la retraite.
* *
Le chef de projet avait été mal choisi ; l’équipe se transformait en petit
royaume indépendant au sein de l’entreprise ; les prévisions de coût et de
délai croissaient sans cesse.
Le maître d’ouvrage délégué auprès du directeur général proposa une
tactique à celui-ci : « Le chef de projet est à contre-emploi : il est sérieux,
dévoué, mais quoiqu’on puisse lui dire il n’a jamais compris le but du projet.
Il croit de son devoir de “satisfaire la demande des utilisateurs” sans y faire
le moindre tri, sûr moyen de se planter. Son équipe vise à conforter sa propre
5.4. LA STRATÉGIE RETROUVÉE 195
* *
Une de mes amies était responsable du système d’information d’une
grande fédération affiliée au MEDEF. Partant du désordre habituel, elle
construit les fondations d’un système d’information adéquat à l’action de
cette fédération : référentiel ; bases de données ; portail Web ; information
sur les entreprises de la branche, permettant de savoir qui fait quoi, qui a
quelles relations avec la fédération, de calibrer les actions de communication
etc. Je passe les détails.
Elle reçoit les félicitations du directeur général : « ce que vous préparez
est stratégique ». Son travail suscite des jalousies, mais qu’importe quand
on est soutenue par le directeur général?
Elle prend un congé de maternité, et pendant ce congé tout se déglingue.
Le contrat de réalisation est ôté au premier fournisseur pour être mis entre
les mains d’un autre, qui doit tout reprendre depuis le début. L’organisation
est bouleversée à tel point que plus rien ne peut fonctionner.
Mon amie argumente en vain par téléphone. Elle finit par envoyer un
courrier pour expliquer les problèmes et signaler les blocages. Ce courrier
est jugé insultant pour un des directeurs : dès son retour de congé elle est
licenciée pour faute lourde, après quoi elle subira une dépression.
J’ai dit à cette amie : « Lorsque le directeur général a dit “ce que vous
faites est stratégique”, c’est comme s’il t’avait dit “vous êtes condamnée à
mort”. Pendant la conversation, certes, tu éveillais sa matière grise ; cela lui
était agréable et ses félicitations étaient sans doute sincères. Mais le soir,
chez lui, il se disait “qu’est-ce qu’elle est en train de me préparer, cette bonne
femme? Tout cela va me compliquer la vie, il va falloir se débarrasser d’elle”.
Il t’a encouragée d’autant plus volontiers qu’il savait pouvoir démolir ton
travail à l’occasion de ton congé de maternité : il lui suffisait d’attendre. »
196 CHAPITRE 5. À LA RECHERCHE DE LA STRATÉGIE
* *
Certains systèmes d’information avancent ainsi :
– un jeune ingénieur plein de bonne volonté conçoit un projet solide,
cohérent, raisonnable, conforme à l’état de l’art ;
– il commence à le mettre en œuvre avec la bénédiction de la direction :
« ce que vous faites est stratégique » ;
– des décisions qui compromettent le projet sont cependant prises ; il
regimbe, on dit qu’il a mauvais caractère, qu’il est prétentieux ;
– la situation devient absurde, l’action impossible, les relations se tendent ;
– finalement il part ou il est viré : sentiment d’échec, dépression, divorce
parfois ;
– une partie du projet reste érigée comme un chantier inachevé au milieu
du système d’information ;
– un jeune ingénieur plein de bonne volonté conçoit... (retour au premier
alinéa).
Le système d’information est ainsi construit, au prix de la destruction
des personnes qui en ont été successivement chargées, par juxtaposition de
réalisations partielles. Il est et reste incohérent.
5.4. LA STRATÉGIE RETROUVÉE 197
* *
* *
Le concept de « système d’information » est apparu dans les années
1970 lorsqu’on a cherché à surmonter les inconvénients qui résultaient de la
superposition non coordonnée d’applications différentes. Il a été introduit
en France par Jacques Mélèse [136], influencé par Herbert Simon [186].
Selon la théorie qui a alors prévalu, une organisation complexe doit être
analysée en distinguant son utilisation des langages (système d’information),
ses règles de conduite et de comportement (système de décision) et les pro-
cédés qu’elle met en œuvre (système de production). Ces trois systèmes
possèdent chacun sa propre structure et communiquent entre eux (figure
5.7).
tion, puis son articulation avec l’informatique de calcul, ont encore resserré
la relation entre l’informatique et l’organisation. Désormais, comme le dit
Yves Tabourier, « on ne peut ni changer l’organisation d’une entreprise sans
changer son système d’information, ni changer son système d’information
sans changer son organisation ».
Il était commode de modéliser séparément les trois domaines « produc-
tion », « décision » et « information » car il est impossible de modéliser ni
même de penser quoique ce soit en postulant que tout est dans tout et réci-
proquement. Mais comme aujourd’hui on ne peut plus penser l’organisation
séparément du système d’information, il faut utiliser un autre découpage
que celui qui les sépare.
L’urbanisation du système d’information (voir page 433) a fourni une
première réponse : elle découpe dans l’entreprise des « domaines de produc-
tion » aux contours généralement proches de (mais pas toujours identiques
à) ceux des grandes directions ; elle identifie les processus à l’œuvre dans ou
entre ces domaines, puis les activités qui concourent à ces processus, enfin
les tâches que doit remplir l’automate pour assister efficacement les agents
chargés de ces activités (aides à la saisie, au traitement, au classement, à la
consultation, à la communication).
La frontière ne passe plus alors entre « production », « décision » et « in-
formation », mais entre les divers domaines de l’entreprise, chargés chacun
d’une production spécifique et faiblement couplés entre eux (mais couplés
quand même : les échanges entre domaines sont l’un des points délicats de
l’urbanisation). À l’intérieur de chaque domaine, et même de chaque pro-
cessus, on retrouve les trois pôles du découpage précédent : la production
(rôle opérationnel du processus) et la décision (gestion et animation du
processus), toutes deux entrelacées à l’information.
Le découpage des domaines et des processus par l’urbaniste comporte,
comme tout découpage, une part d’arbitraire : il est impossible de définir
le découpage optimal. S’agissant d’une tâche pratique, la recherche d’un
optimum serait d’ailleurs sans doute superflue : l’examen de l’entreprise 11
fait apparaître l’enchaînement des activités et la solidarité des processus ; les
frontières des directions donnent des indications sur celles des domaines 12
et, à quelques détails près, des urbanistes différents aboutiraient au même
découpage.
L’urbanisme fournit donc une nouvelle articulation : celle des domaines,
processus et activités. Cependant, et fondamentalement, la démarche urba-
nistique met en scène une autre articulation, plus profonde : celle qui met
en relation les êtres humains et l’automate, et qui définit l’assistance que
celui-ci apporte à ceux-là.
Comment distinguer en effet, dans chaque processus, les tâches qu’il
convient de confier à l’automate, et celles qu’il faut réserver à l’être humain?
Où placer la frontière de l’automatisation?
11. Cet examen doit être critique, car il ne convient pas de perpétuer les défauts éven-
tuels des processus existants.
12. Toutefois ces frontières peuvent résulter de compromis boiteux entre sphères de
pouvoir : leur examen doit être lui aussi critique.
200 CHAPITRE 5. À LA RECHERCHE DE LA STRATÉGIE
13. Il ne faut pas pour autant mépriser l’APU ! Le travail qu’exécute le pilote automa-
tique d’un avion de ligne épuiserait vite un pilote humain.
14. Sources : ligne 1 : [213], p. 37 ; lignes 2, 3 et 4 : Acadys, www.acadys.com ; la colonne
relative aux années 2010 est une extrapolation.
5.5. RESTAURER LE MOT « INFORMATIQUE » 201
* *
Philippe Dreyfus a inventé le mot « informatique » en 1962 pour baptiser
une société qu’il venait de créer, la SIA (« Société d’Informatique Appli-
quée »). Ce mot, qui n’avait heureusement pas été déposé, a été adopté en
1967 par l’Académie française pour désigner la « science du traitement de
l’information ». Puis il fut adopté par de nombreux pays 15 .
La terminaison « tique » renvoie à « automatique », donc au processus
de traitement des données. La première partie du mot indique qu’il s’agit
d’automatiser le traitement de l’information (et non des données, car Phi-
lippe Dreyfus aurait alors dû construire « datamatique ») : or une donnée
ne peut devenir une information que quand un être humain l’interprète 16
(voir page 36). La conjonction des mots « information » et « automatique »
suggère la coopération entre l’être humain et l’automate, à condition bien
sûr de distinguer « donnée » et « information ». En créant « informatique »,
et peut-être sans en avoir clairement conscience, Philippe Dreyfus nous a
fourni ainsi un mot dont l’étymologie convient parfaitement pour désigner
l’articulation entre l’EHO et l’APU.
La qualité du mot « informatique » paraît donc supérieure à celle de l’ex-
pression computer science qu’il traduit 17 : il accumule en effet un ensemble
* *
Au plan théorique, la réflexion sur l’articulation entre l’EHO et l’APU
incite à explorer leurs propriétés, chacun servant de complément et de mi-
roir à l’autre. La rigueur conceptuelle explicite que demandent les bases
de données et les référentiels, la diffusion des commentaires que permet la
documentation électronique, les outils de classement et de recherche qui
l’accompagnent comme elles accompagnent la messagerie, la maîtrise de la
qualité permise par les workflows, l’articulation de la parole et du système
d’information à travers les centres d’appel etc. modifient en effet les condi-
tions de la mise en œuvre des facultés intellectuelles tout comme, en d’autres
temps, le firent l’écriture, la lecture, puis l’imprimerie. La compréhension
de ces phénomènes, de leurs conséquences et implications, demande des re-
cherches à peine entamées.
L’automate est d’ailleurs pour le cerveau un utile complément. « Les ma-
thématiques considèrent des descriptions déclaratives (qu’est-ce que c’est),
alors qu’en informatique on considère des descriptions impératives (com-
ment ça marche) » 21 (Abelson et Sussman [197] p. 22). Le raisonnement
mathématique peut être assisté par l’automate qui assume le rôle de calcula-
teur, explore des simulations et permet des démonstrations là où le nombre
des configurations à considérer est élevé, comme pour le théorème des quatre
couleurs (Dowek [50]). Bien plus : le recours au modèle de l’automate a per-
mis d’établir des résultats de métamathématique comme le théorème de
Gödel, alors que par ailleurs la pédagogie des mathématiques a dû corriger
les excès de formalisme qu’avait encouragés la confusion entre le cerveau et
l’automate 22 .
21. « In mathematics we are usually concerned with declarative (what is) descriptions,
whereas in computer science we are usually concerned with imperative (how to) descrip-
tions. »
22. « C’est en croyant s’inspirer de Bourbaki que certains mathématiciens zélés ont in-
204 CHAPITRE 5. À LA RECHERCHE DE LA STRATÉGIE
24. Chez les chercheurs, par contre, nombre de notions essentielles étaient acquises ; mais
il faut un délai pour que les idées des chercheurs passent dans la pratique des entreprises.
Les premières applications de l’informatique, tout utiles qu’elles soient, ne visaient qu’à
outiller des tâches de gestion (paie, comptabilité, gestion des stocks etc.).
Chapitre 6
Aspects philosophiques
* *
Lucien Sfez [183], par exemple, nomme « surcode » le fait de croiser
divers codes pour représenter un même aspect du monde réel. Il dit attendre
du surcodage une « déviance » susceptible de « dynamiser les sociétés ». Son
discours illustre l’enthousiasme qui saisit le philosophe lorsqu’il redécouvre,
en toute naïveté, des notions depuis longtemps familières à nous autres
praticiens.
1) Les statisticiens savent qu’il existe a priori une infinité de façons dif-
férentes, toutes également correctes au plan formel, de coder des activités
économiques, produits, métiers etc. Le respect des règles formelles (cohé-
206
207
* *
* *
Nous rencontrerons le « surcode » non dans le croisement de divers codes,
mais dans la connaissance des conditions de production du code.
Si le but du codage est d’outiller l’action, la première exigence est celle
de la pertinence. Les règles formelles, certes impératives, sont celles que
les pédagogues commentent le plus volontiers car elles ne prêtent pas à
discussion ; leur respect n’est pas toutefois pour le praticien le point le plus
difficile.
En effet au moment où l’on définit le code, l’action que celui-ci doit
outiller n’est pas en cours, elle n’est qu’anticipée. Dans l’écart entre l’inten-
tion et l’action effective se glisse l’incertitude sur les circonstances exactes
de l’action future.
La pertinence d’un code, ainsi que celle des modèles qui reposent sur
lui, peut être alors aussi instable que ne l’est l’équilibre économique lorsque
les agents introduisent, dans leurs choix présents, l’anticipation d’un futur
essentiellement incertain. Elle peut être altérée par les rigidités qui résultent
des erreurs d’anticipation 1 . Or trop souvent on oublie que le code en usage
fut, un jour, construit. Devenu aussi solide et rigide qu’un bâtiment ou
qu’une institution, il arrive qu’il survive à l’évaporation de sa pertinence.
Revenir aux conditions de la production du code, c’est prendre conscience
des intentions auxquelles ont obéi ses concepteurs, lui rendre la fraîcheur
qu’il avait entre leurs mains, lui conférer enfin la souplesse nécessaire pour
gérer la dynamique de la pertinence, qui relie l’intention à une action placée
dans son contexte. Cette dynamique peut être, tout comme une dynamique
économique, aveugle ou maîtrisée. Lorsque nous disons que le système d’in-
formation vise à élucider les processus de production de l’entreprise et que
les salariés doivent se l’approprier, c’est cette maîtrise-là que nous ambi-
tionnons.
* *
Considérer le code comme un outil fait par et pour la main de l’ouvrier
et qu’il faut savoir modifier à l’occasion, c’est tout simplement du réalisme.
Ce n’est pas plaider pour une « remise en question permanente », car il
ne convient pas de changer chaque jour d’outil. Ce n’est pas non plus se
comporter en « déviant » préparant la « Révolution ».
Pourquoi Lucien Sfez a-t-il utilisé un vocabulaire aussi emphatique, et
pour désigner de surcroît une conception plutôt pauvre du surcode ? C’est
parce que beaucoup de personnes considèrent les codes comme des phé-
nomènes naturels et confondent les institutions avec la nature. Lorsqu’on
* *
Beaucoup d’auteurs présentent leurs concepts avec l’enthousiasme d’un
pasteur lancé en plein sermon. Avec le « surcode », la « logique du flou »
(Davis et Meyer [133]), la « complexité » (Legendre [110]), les « systèmes »
(Le Moigne [138] et Lévy [122]), disent-ils, vous changerez le monde !
Il y a souvent du vrai dans leurs analyses et ils ont raison de crier fort.
Le système technique mécanisé (Gille [66]), qui a martelé notre culture aux
xixe et xxe siècles, a rigidifié la pensée comme les institutions. Il n’est pas
facile de s’en libérer. Il faut donc aider beaucoup de personnes, fussent-
elles intelligentes, à sortir du sommeil dogmatique si agréable dont Kant
lui-même a eu besoin d’être réveillé par Hume 2 .
Mais lorsqu’on a commencé à comprendre certaines choses sur les sys-
tèmes d’information, les techniques, les institutions, les codages, les valeurs
etc. il reste à organiser sa pensée, à identifier les principes, à conforter les
raisonnements. Pour concentrer son énergie, le volcan brûlant du désir doit
alors se couvrir de glace : après avoir démoli l’illusion on a besoin, pour
reconstruire une pensée pertinente, de rigueur, de précision et de claire sim-
2. Ich gestehe frei: die Erinnerung des David Hume war eben dasjenige, was mir vor
vielen Jahren zuerst den dogmatischen Schlummer unterbrach, und meinen Untersu-
chungen im Felde der spekulativen Philosophie eine ganz andre Richtung gab : « Je le
reconnais volontiers : c’est le souvenir de David Hume qui, voici plusieurs années, a inter-
rompu mon sommeil dogmatique et donné à mes recherches en philosophie spéculative
une orientation complètement différente. » (Emmanuel Kant (1724-1804), Prolegomena
1783).
210 CHAPITRE 6. ASPECTS PHILOSOPHIQUES
plicité. Les suggestions aussi vagues que puissantes que portent des termes
comme « flou », « complexe », « système » ne suffisent plus et deviennent
même des obstacles. Pour progresser, il faudra au mieux les redéfinir, au
pis les rejeter, tout comme il faut démonter un échafaudage pour habiter la
maison qu’il a aidé à construire.
3. Parmi les exceptions, citons Maurice Blondel [16] et Edmund Husserl [87]. On trouve
aussi une réflexion sur l’action chez Confucius et Mencius.
4. Le déterminisme est contredit à l’échelle subatomique par des phénomènes proba-
bilistes, à l’échelle macroscopique par des phénomènes chaotiques ; l’équivalence entre
vérité et démontrabilité est contredite par le théorème de Gödel.
5. De même ils utiliseront la mécanique newtonienne dans les échelles courantes d’es-
pace et de temps, la mécanique quantique et la relativité générale ne s’imposant l’une
qu’à l’échelle de l’atome (donc dans les transistors et les circuits intégrés), l’autre qu’à
celle du cosmos, deux échelles que l’expérience quotidienne rencontre rarement.
6.1. ARTICULER LA PENSÉE ET L’ACTION 211
* *
* *
Cette boucle tourne vite. Pour la décrire nous avons dû l’immobiliser,
tout comme on immobilise mentalement le moteur que l’on examine. Mais
il faut en outre, pour concevoir son fonctionnement, se représenter sa dyna-
mique. Elle comporte de nombreuses variantes.
Dans la boucle élémentaire que nous avons décrite, un événement du
monde de la nature suscite, en réponse, une action qui constitue un autre
événement dans le monde de la nature. Mais parfois l’action, fondée sur une
anticipation de ses conséquences, provoquera le premier événement pour
susciter une réponse du monde de la nature. Dans d’autres cas l’action
suppose l’enchaînement de plusieurs opérations : elle progresse alors par
étapes se concluant chacune par une action intermédiaire. Il arrive aussi que
l’initiative de l’action appartienne à une personne, sa réalisation effective à
une autre.
Se préparer à l’action demande une gestion de soi et un investissement 8 .
Ainsi se construit l’intelligence qui est moins un talent inné qu’une maîtrise
acquise de la charnière entre la pensée et l’action.
L’action est sujette à des pathologies. Les psychologues ont donné des
noms évocateurs à certaines d’entre elles, que l’on rencontre dans la vie per-
sonnelle comme dans l’entreprise (Joule et Beauvais [9]) : « escalade d’enga-
gement », « dépense gâchée », « piège abscons » etc. La boucle de l’action
peut se rompre dans chacune de ses étapes : une personne, ayant décidé,
peut ne pas agir ; ayant compris, ne pas décider ; ayant perçu, ne pas com-
prendre ; ayant vu, ne pas percevoir.
Lorsque la volonté se dégrade en velléité, le passage de la décision à l’ac-
tion est coupé. L’action est inhibée si c’est le passage de la compréhension à
la décision qui est coupé. La longueur d’un enchaînement d’actions intermé-
diaires peut fait oublier son but final : alors l’action, dégradée en activisme,
tourne à vide. Elle se dégrade enfin en volontarisme lorsque, rigidement liée
à un modèle, elle veut ignorer l’expérience. La velléité, l’inhibition, l’acti-
visme, le volontarisme sont dans nos entreprises des travers fréquents ; il
importe de savoir les diagnostiquer et les rapporter à leur cause.
La grille conceptuelle équipe notre discernement mais aussi elle le limite ;
elle nous emprisonne autant qu’elle nous outille. Nous ne pouvons pas dis-
cerner les événements qu’elle ne sait pas accueillir car ils se trouvent dans
la « tache aveugle » de notre intellect (voir page 564). Lorsqu’un tel événe-
ment se produit, nous le voyons sous une forme trop vague pour pouvoir faire
jouer le discernement, nous sommes comme le petit enfant qui ne voit que
des taches colorées. Souvent nous préférerons le juger sans importance et,
s’il se manifeste avec insistance, nous nous détournerons de lui avec agace-
ment. L’une des clés de la sagesse, c’est de considérer cet agacement comme
un signal d’alarme : « si cet événement m’exaspère, il s’agit peut-être de
quelque chose d’important », et on y regarde de plus près. Alors s’amorce le
travail qui peut nous permettre de sortir de la prison mentale que constitue
notre grille conceptuelle.
Une deuxième clé de la sagesse, c’est de gérer les associations d’idées qui
se forment spontanément dans notre esprit. Elles sont, comme les mutations
génétiques, souvent inefficaces ou nocives et en aucun cas elles ne peuvent
servir d’étape à un raisonnement ; mais elles bousculent la grille conceptuelle
et certaines d’entre elles sont fécondes : il faut savoir conserver celles-ci et
éliminer les autres.
Nous ne disposons pas d’une seule grille, d’un seul modèle, mais de plu-
sieurs correspondant chacun à une action différente : pour conduire notre
voiture, pour faire la cuisine, pour la conversation, pour programmer etc.
Nous passons d’un modèle à l’autre selon la situation et ce passage n’est
pas immédiat : nous restons, pendant un délai, mentalement englués dans
le modèle précédent. L’informaticien qui a passé une journée à programmer
se trouve, le soir venu, incapable de lire le texte en langage naturel que lui
propose un journal ; le mathématicien ou le joueur d’échecs, fascinés par
un agencement compliqué d’abstractions simples, doivent se secouer pour
percevoir les êtres humains qui les entourent et entendre ce qu’on leur dit.
Une troisième clé de la sagesse consiste à associer, à la concentration, à
l’enfermement dans un modèle, la vigilance qui maintient l’esprit disponible
à ce qui survient dans le monde de la nature : de même la conduite auto-
mobile, activité routinière, doit comporter en « tache de fond » la vigilance
qui permet de réagir en cas d’incident imprévu.
À l’intérieur de la boucle rapide de l’action tourne la boucle plus lente de
la réflexion : c’est un investissement qui nous équipe en grilles conceptuelles
6.1. ARTICULER LA PENSÉE ET L’ACTION 215
* *
Il est difficile de faire évoluer la grille conceptuelle car la grille ancienne
est gravée dans les habitudes. La formation y aide en créant de nouvelles
habitudes. L’émotion y contribue davantage encore : l’événement qui suscite
une émotion se grave dans la mémoire et avec lui les concepts qui permettent
de le discerner.
Pour faire évoluer la grille conceptuelle, il donc faut savoir gérer et ses
émotions, et sa mémoire (Yates [221] ; Squire et Kandel [97]; Carruthers
[34]), de façon à sélectionner les éléments que l’on souhaite introduire dans
celle-ci. Cela suppose de savoir méditer, ruminer les émotions. Certaines
personnes en sont incapables : leur grille conceptuelle évoluera au hasard
des événements, sous l’impulsion désordonnée des émotions.
Chacun s’équipe volens nolens d’une panoplie de modèles plus ou moins
judicieux. Pour les construire il faut postuler des relations causales, puis si
l’on est soigneux les tester (au moins par simulation mentale), les rejeter
pour en choisir d’autres etc. jusqu’à ce que l’on soit parvenu à un modèle
satisfaisant en regard de l’intention et de l’action (ce qui implique de res-
pecter les exigences de la cohérence). Apprendre à lire, à écrire, à compter,
à conduire une voiture, à faire la cuisine, à parler une langue, à programmer
un ordinateur, c’est acquérir autant de modèles.
À cet apprentissage s’ajoute le dressage des réflexes, des habitudes, qui
permettent de court-circuiter les étapes du raisonnement pour agir plus vite
216 CHAPITRE 6. ASPECTS PHILOSOPHIQUES
Rôle de la philosophie
a Les valeurs d’efficacité, d’élégance, de rapidité etc. sont elles aussi extérieures à l’ac-
* *
Il est déplorable que des mots comme « concept » ou « modèle » soient
dans notre société réservés en fait à la démarche professionnelle du chercheur
ou de l’intellectuel alors qu’ils désignent des choses que chacun fait tous les
jours. En les prenant pour des choses abstraites, élevées, difficiles, on perd
de vue le fonctionnement de notre propre pensée et on prend le risque de
l’abandonner à des pathologies.
Les concepts, comme les modèles, n’ont pas d’autre but que d’équiper
notre action, de servir notre volonté, d’incarner nos valeurs dans le monde ;
ce sont des outils pratiques, orientés vers l’action, non des objets de pensée
destinés à la contemplation. Il est vrai que la longueur de leur élaboration,
ainsi que le délai qui sépare l’investissement de la mise en œuvre, font qu’ils
peuvent sembler éloignés et comme détachés de l’action ; mais c’est là une
illusion.
L’expérience nous confronte parfois à une situation imprévue face à la-
quelle il faut construire un modèle nouveau. Le monde ne se réduisant ni
à un modèle, ni à la combinaison d’un nombre quelconque de modèles, de
telles surprises sont inévitables. Ou bien l’on dispose d’un méta-modèle à
partir duquel on pourra alors, par paramétrage et tri, construire rapidement
le modèle adapté à cette situation ; ou bien il faut construire entièrement
ce nouveau modèle et cela peut prendre des semaines, des mois, des années,
délai pendant lequel l’action restera maladroite : il faut, pour construire en-
tièrement un nouveau modèle, autant de temps que pour apprendre une
langue étrangère.
La sagesse, avons-nous dit, réside dans l’aptitude à passer souplement
d’un modèle à l’autre pour répondre aux exigences de la situation ; elle
suppose aussi - et c’est la quatrième clé de la sagesse - d’investir dans la
maîtrise du méta-modèle, du modèle des modèles, pour abréger le délai
nécessaire à la mise au point d’un modèle nouveau.
* *
Pouvons-nous, pour comprendre l’entreprise, utiliser ce que nous avons
appris sur la charnière dans la personne ? A priori, il semble que non : une
entreprise n’est pas une personne, elle paraît plus complexe qu’une personne
puisqu’elle organise un ensemble de personnes, de contrats, d’équipements,
qui la situent à un carrefour de réseaux sociologiques, juridiques, physiques,
économiques etc. Toutefois sa finalité est plus simple que celle d’une per-
sonne : produire efficacement des choses utiles, apporter le bien-être matériel
au consommateur, c’est difficile mais moins que de tirer au clair les valeurs
que l’on entend cultiver 9 ...
9. L’entreprise a cependant elle aussi sa place dans le monde des valeurs : cela s’exprime
218 CHAPITRE 6. ASPECTS PHILOSOPHIQUES
dans le respect qu’elle accorde ou non à ses salariés, clients, fournisseurs et partenaires ;
sous ce rapport, elle est aussi complexe qu’une personne.
10. Ce que l’on appelle « nature » en Europe lorsqu’on regarde un paysage est en fait
le résultat d’une activité humaine (agriculture, élevage, jardinage) qui dure depuis des
millénaires.
6.2. COMPLEXITÉ ET COMPLICATION 219
* *
La réflexion sur l’action, les concepts et les processus se concrétise dans
l’entreprise par la démarche dite d’urbanisation (voir page 433).
Urbanisation, modélisation des processus, référentiel et administration
des données : telles sont les composantes qui dans l’entreprise sont l’équi-
valent de la réflexion, de la construction des modèles et de l’élaboration des
concepts chez l’individu. Dans l’entreprise aussi la qualité des concepts est
soumise au critère de pertinence ; la qualité des modèles, au critère d’effica-
cité ; concepts et modèles doivent servir l’action.
L’articulation de l’action et de la pensée peut, dans l’entreprise comme
dans l’individu, être altérée par des pathologies (voir page 543) : il arrive
que la complication du fonctionnement quotidien, ou les jeux de pouvoir,
fassent perdre de vue les finalités de l’entreprise. Alors celle-ci se bureau-
cratise. C’est en examinant le système d’information que l’on peut porter
sur l’entreprise le diagnostic le plus sûr, car ce système porte la trace des
pathologies alors que le discours de l’organisation les cache.
11. L’évolution est lente mais comme elle se fait par à-coups elle peut comporter des
épisodes de changement rapide, tout comme la tectonique des plaques peut provoquer
des séismes.
220 CHAPITRE 6. ASPECTS PHILOSOPHIQUES
claire dans son domaine propre, c’est l’accumulation qui crée la confusion
(Bouveresse [23]). Tentons de donner au mot « complexité » une acception
qui la dissipera (Volle [214]).
Le monde de la nature (y compris de la nature humaine et sociale) qui se
présente à la perception et à la pensée est concret en ce sens qu’il se présente
hic et nunc, son individualité se manifestant dans des particularités de temps
et de lieu.
Aucune pensée ne peut rendre compte de l’ensemble des propriétés du
monde de la nature. Il suffit pour s’en convaincre de considérer une tasse de
café et de tenter de la décrire. Chacune de ses propriétés relève d’un schéma
conceptuel (donc abstrait) : sa forme géométrique, à la précision de laquelle
on ne peut assigner aucune limite ; ses origines culturelles, économiques,
industrielles ; sa composition chimique ; la position et les mouvements des
molécules, atomes, particules qui la composent 12 etc. Chaque objet concret
assure ainsi de facto la synthèse d’un nombre illimité de déterminations
abstraites. Il est en toute rigueur impensable, et c’est cela que transcrit
l’adjectif « complexe ». Il en est de même du monde lui-même, ensemble
des objets concrets.
Sur chaque objet concret, nous disposons non d’une connaissance com-
plète mais de « vues » dont chacune permet de considérer l’objet à travers
une grille conceptuelle particulière. Si je ne peux parler d’une mesure précise
de ma tasse de café, toute mesure étant grossière par rapport à un ordre
de précision supérieur, je peux dire que la mesure est « exacte » si elle
me permet de faire sur l’objet un raisonnement exact, c’est-à-dire adéquat
à l’action que j’ai l’intention de réaliser : je peux calculer l’ordre de gran-
deur de sa densité à partir de mesures approximatives de sa masse et de
son volume, inférer de l’examen de sa composition chimique une évaluation
qualitative de sa fragilité... ou simplement boire mon café.
L’objet étant sujet à un nombre illimité de déterminations, il existe un
nombre illimité de « vues » toutes logiquement équivalentes. Cependant cer-
taines seront plus utiles en pratique pour un sujet placé dans une situation
particulière, que ce sujet soit individuel ou social : ce sont les vues en relation
avec l’action du sujet, avec l’articulation entre sa volonté et l’objet consi-
déré comme obstacle ou comme outil. Ces vues-là sont « pertinentes » ainsi
que les observations et raisonnements que le sujet peut faire en utilisant les
catégories selon lesquelles elles découpent l’objet.
Ainsi le spectacle d’une rue conjugue des déterminations historiques,
architecturales, sociologiques, économiques, urbanistiques, physiques, esthé-
tiques etc. Cependant le conducteur d’une automobile limite son observation
à quelques éléments : signalisation, bordures de la voie, obstacles dont il es-
time la vitesse et anticipe les déplacements. Cette grille fait abstraction de
la plupart des aspects de la rue mais elle est adéquate à l’action « conduire
l’automobile » : le conducteur qui prétendrait avoir de la rue une représen-
tation exhaustive saturerait sa perception et serait un danger public.
12. Si l’on recherche une précision de l’ordre de l’Angström (10−10 m), la connaissance
simultanée des positions et vitesses est bornée par le principe d’incertitude de Heisenberg.
6.2. COMPLEXITÉ ET COMPLICATION 221
* *
* *
La pensée a un but lointain : se confronter avec le réel dans l’expérience
lors de laquelle les concepts seront soumis au critère de pertinence, les théo-
ries à l’épreuve de la réfutation. Mais il existe un moment où la pensée se
forme sans être confrontée à l’expérience, se muscle comme le font en jouant
les jeunes animaux.
La pensée pure dispose pour se préparer à l’expérience d’une arme
puissante : le principe de non contradiction. Toute théorie comportant une
contradiction est fausse en ce sens qu’il ne pourra pas exister d’expérience à
laquelle elle s’appliquerait. Le monde de la nature étant non contradictoire,
le viol de la logique est contre nature : une chose ne peut pas à la fois être et
ne pas être, posséder une propriété et ne pas la posséder. Cela n’exclut pas
qu’elle puisse évoluer ou encore posséder des facettes différentes comme une
feuille de papier qui serait blanche d’un côté, noire de l’autre : les paradoxes
résultent des imprécisions du langage courant.
Le fonctionnement de la pensée pure est un jeu avec des hypothèses. Pour
pratiquer cette gymnastique, il faut poser des hypothèses et explorer leurs
conséquences, puis recommencer etc. Celui qui ne s’est pas préparé ainsi
posera des hypothèses naïves et s’aventurera dans des impasses théoriques
que les experts ont appris à éviter. Le but des mathématiques n’est autre
que cette gymnastique de l’esprit.
La non contradiction est une garantie de réalisme potentiel. Les géomé-
tries non euclidiennes, construites de façon formelle et sans souci d’applica-
tion, ont par la suite fourni les modèles pour représenter des phénomènes
physiques. Toute théorie non contradictoire peut ainsi trouver dans la com-
plexité du monde de la nature un domaine d’application (mais le carac-
tère non contradictoire d’une théorie ne garantit pas sa pertinence face à
une situation particulière) 13 . La pensée pure n’est donc pas seulement une
gymnastique : c’est un investissement qui procure des modèles en vue des
expériences futures.
La conquête de la pensée pure, c’est l’intelligence formelle, maîtrise du
raisonnement qui, partant de données initiales, va droit au résultat. Lorsque
l’esprit a parcouru plusieurs fois un raisonnement il l’anticipe comme l’on
anticipe les formes et le contenu d’un appartement familier ; il l’enjambe
pour en construire d’autres plus généraux, plus abstraits. La portée du rai-
sonnement s’élargit alors comme un cercle lumineux. Des champs entiers de
la pensée s’articulent à un principe qui a été conquis par un héroïque effort
13. Si l’on suppose que la complexité du monde de la nature ne connaît pas de limite,
alors il est certain qu’il existe, pour chaque théorie non contradictoire, au moins un
phénomène naturel qu’elle aiderait à modéliser. Si ce n’était pas le cas, en effet, cela
voudrait dire que la complexité du monde de la nature est limitée par l’exclusion de tout
phénomène modélisable selon cette théorie.
224 CHAPITRE 6. ASPECTS PHILOSOPHIQUES
* *
14. « L’Esprit m’aide ! Soudain j’y vois clair et j’écris tranquillement : au commencement
était l’action ! »
6.2. COMPLEXITÉ ET COMPLICATION 225
réfute la théorie, elle le fait d’une façon toujours logique mais surprenante.
Ces surprises sont son apport le plus précieux 15 .
* *
Si la gymnastique de la pensée est analogue aux jeux des jeunes ani-
maux, la pratique de l’action est analogue à la recherche des ressources
(chasse, pâturage) et des partenaires sexuels par les animaux adultes, re-
cherche à laquelle l’être humain ajoute le besoin d’exprimer ses valeurs par
des symboles. La démarche expérimentale caractérise l’âge adulte de la pen-
sée. L’essentiel pour l’adulte n’est pas en effet l’intelligence formelle, même
si elle lui est nécessaire, mais l’efficacité dans l’action. Il y applique son dis-
cernement (découpage des concepts pour distinguer les êtres observés) et
son jugement (sélection du modèle pertinent). Il y engage spontanément la
capacité intellectuelle acquise lors des jeux de l’enfance.
L’expérience de l’expérience, la confrontation répétée à des situations
nécessitant des modèles divers, assouplit et accélère la construction théo-
rique. Au sommet de l’art, l’adulte acquiert le « coup d’œil » : face à la
complexité et l’urgence d’une situation particulière il va droit à l’action
nécessaire. L’esprit enjambe alors les étapes d’un raisonnement qu’il ne se
soucie pas d’expliciter.
Si le sage chinois est « sans idée » (Jullien [95]), ce n’est pas parce qu’il
a l’esprit vide ou qu’il ne s’intéresse pas à l’action : disposant de modèles
divers, il passe de l’un à l’autre pour s’adapter à la situation, obéir à la
« propension des choses » et atteindre un sommet d’efficacité (Jullien [93]).
S’il ne s’attache à aucun modèle, c’est qu’il sait à chaque moment mobi-
liser celui qui convient, voire en conjuguer plusieurs. Cet idéal de sagesse,
impossible à réaliser complètement, brille à l’horizon comme un point lumi-
neux et indique le chemin de l’ambition pratique la plus haute, le Tao : être
disponible devant le monde afin d’y être efficace par l’action.
On évoque souvent le « coup d’œil » du stratège militaire, soumis à des
contraintes extrêmes. On le rencontre aussi chez les entrepreneurs, artisans,
contrôleurs aériens, pilotes d’avion, conducteurs automobiles, sportifs, chi-
rurgiens, bref chez tous ceux qui doivent agir.
* *
Certains des obstacles qui s’opposent à la pensée adulte, à la pensée ap-
pliquée à l’action, sont naturels : il est naturel qu’un débutant soit maladroit.
D’autres obstacles, par contre, constituent un handicap qui empêche de se
former par l’exercice et finalement interdit l’action. Mais alors que l’animal
prédateur qui ne sait pas chasser meurt bientôt, nos sociétés élaborées pro-
15. Feynman a illustré ainsi les surprises que l’on rencontre en physique des particules :
sur un échiquier, les blancs ont deux fous dont l’un joue sur les cases noires, l’autre sur
les cases blanches. Il est raisonnable d’anticiper que durant la partie ces fous joueront sur
des couleurs différentes. Supposons cependant que le fou qui joue sur les cases blanches
se fasse prendre, puis qu’un pion blanc aille à dame sur une case noire et que le joueur
lui substitue ce fou : alors les blancs auront deux fous sur les cases noires. Cette situation
résulte d’un concours de circonstances rare mais non impossible, et qu’il serait difficile
d’imaginer a priori.
226 CHAPITRE 6. ASPECTS PHILOSOPHIQUES
duisent en nombre des personnes qui ne savent pas agir ou seulement dans
des domaines limités. Certaines, bien qu’intelligentes sont incapables d’agir ;
d’autres, comme dotées d’une sagesse à éclipses, sont aptes à l’action dans
leur vie personnelle mais non dans leur vie professionnelle ou inversement.
Il se peut que cette mutilation contribue à la reproduction de la société
tout comme la stérilité des ouvrières contribue à la reproduction de la ruche.
Le constat d’une mutilation si fréquente étant douloureux, celui qui énonce
ce grand secret est mal reçu. Tâchons d’en élucider le mécanisme.
* *
L’écart entre la pensée et le monde n’a rien de scandaleux ni de boulever-
sant. Nous sommes incapables de décrire le mécanisme neurophysiologique
qui nous permet de prononcer la lettre « A » (Leibowitz [111]) ou de dé-
crire un visage par des paroles ; le fonctionnement quotidien de notre corps
reste énigmatique ; si nous nous intéressons passionnément à la personne
aimée, sa connaissance n’est jamais achevée : étant concrète, cette personne
est aussi complexe que le monde lui-même.
Si l’écart entre la pensée et le monde fait pourtant souffrir, cela vient
d’une formation intellectuelle mal conçue : les adultes font croire à l’ado-
lescent que le monde de la pensée est aussi éloigné de la vie courante que
peut l’être le paradis ; devenu adulte, il ne concevra pas comment la pensée
peut devenir un outil pratique et servir de levier à l’action dans un monde
complexe.
On peut se demander si certaines pédagogies n’ont pas pour effet (et, de
façon perverse, pour but) de stériliser les esprits en leur inculquant devant
les choses de l’intellect une humilité déplacée : s’il faut être modeste devant
le monde que l’on découvre par l’expérience, chacun a en effet le devoir
d’être intrépide dans la pensée 16 .
* *
Les personnes mal formées croient que la tâche de la pensée est de re-
présenter le monde tel qu’il est. Toute pensée exprimée avec simplicité leur
semble alors une usurpation : la simplicité montrant naïvement que cette
pensée est incapable de représenter le monde, elles estiment que celle-ci ne
vaut rien et n’a donc pas même le droit d’être exprimée. À la pensée qui
laisse apparaître sa simplicité elles préféreront une pensée compliquée.
La pensée compliquée est simple en fait comme toute pensée en ce sens
qu’elle repose sur un nombre fini de postulats, mais elle prend soin de ca-
cher sa simplicité derrière un écheveau de concepts et relations fonction-
nelles dont l’architecture embrouille postulats, conséquences, résultats in-
termédiaires et hypothèses annexes.
16. « L’une des raisons principales qui éloignent autant ceux qui entrent dans ces
connaissances du véritable chemin qu’ils doivent suivre, est l’imagination qu’on prend
d’abord que les bonnes choses sont inaccessibles, en leur donnant le nom de grandes,
hautes, élevées, sublimes. Cela perd tout. Je voudrais les nommer basses, communes,
familières : ces noms-là leur conviennent mieux ; je hais ces mots d’enflure... » (Pascal,
[151], in Œuvres complètes, Gallimard, Bibliothèque de La Pléiade 1954 p. 602)
6.2. COMPLEXITÉ ET COMPLICATION 227
17. « The work is always: (1) completely un-understandable, (2) vague and indefinite,
(3) something correct that is obvious and self-evident, worked out by a long and difficult
analysis, and presented as an important discovery, or (4) a claim based on the stupidity
of the author that some obvious and correct fact, accepted and checked for years is, in
fact, false (these are the worst: no argument will convince the idiot), (5) an attempt to do
something, probably impossible, but certainly of no utility, which, it is finally revealed at
the end, fails or (6) just plain wrong. There is a great deal of “activity in the field” these
days, but this “activity” is mainly in showing that the previous “activity” of somebody
else resulted in an error or in nothing useful or in something promising. » (Gleick [70] p.
353)
228 CHAPITRE 6. ASPECTS PHILOSOPHIQUES
que tout est relié à tout : elles diraient volontiers que le fonctionnement du
système solaire est sensible à l’attraction des étoiles. Elles s’opposent donc à
la modularité du système d’information et militent pour qu’il traite en bloc
les divers aspects du métier, ce qui accroît la taille des projets et complique
leur réalisation.
Dans un système d’information, la logique voudrait que les tables de
codage fussent identiques pour toutes les applications. La sociologie de l’en-
treprise, le particularisme des métiers, l’insouciance des dirigeants, les cir-
constances de l’exécution font cependant qu’en pratique l’architecture des
bases de données n’est jamais cohérente. Elle est soumise à un phénomène
d’entropie irrésistible dont l’explication réside dans la nature même des don-
nées (Boydens [25]) :
1) L’interprétation des données en informatique scientifique (chimie, bio-
logie etc.) évolue et comporte des ambiguïtés sémantiques, même si ces don-
nées sont vérifiées et contrôlées.
2) Il est normal qu’un agent opérationnel fasse passer les exigences de
son travail avant les tâches de saisie 18 ; mais il en résulte qu’en informatique
de gestion les données sont souvent incomplètes. En outre parmi les données
saisies seules celles que l’agent juge importantes auront été bien vérifiées 19 .
Il arrive aussi que des interprétations locales soient données aux tables de
codage, qui se dégradent alors en dialectes.
3) Il y a conflit entre l’exigence formelle du code informatique et le flou
inhérent à des concepts dont l’interprétation est sujette a l’expérience hu-
maine, même quand il s’agit de concepts générateurs de droits et de devoirs
(cotisations, prestations sociales, impôts etc.) : la distinction entre un ou-
vrier et un employé repose sur le caractère prépondérant de leurs activités
manuelles ou intellectuelles, qu’il est bien difficile d’évaluer ; des difficultés
analogues se rencontrent avec les concepts de journée de travail, de catégorie
d’activité etc.
Les codages se diversifiant dans le temps et l’espace, tout raisonnement
doit passer par une phase pénible de retraitement des données. Les statis-
tiques issues de sources différentes sont incohérentes, car elles mesurent des
réalités différentes. Les tableaux de bord occasionnent de pénibles discus-
sions en comité de direction: « D’après mes données ça monte, et vous dites
que ça baisse ? À la réflexion, cela doit provenir du fait que j’ai consolidé
telle filiale alors que vous vous référez à un autre périmètre, etc. »
* *
La réalité n’est jamais aussi simple qu’un modèle, quelle que soit la
richesse de celui-ci, puisqu’elle est complexe alors que le modèle est fini.
La protestation « ce n’est pas si simple ! » est donc vide de sens car elle
s’applique à tout modèle, fût-il compliqué.
18. Le conseiller de l’ANPE qui vient de trouver un emploi pour un chômeur serait mal
venu de retenir celui-ci par la manche pour « finir de remplir le dossier » : le dossier reste
incomplet pour une raison parfaitement admissible.
19. Il est naturel que le contrôleur qui vérifie une déclaration fiscale examine soigneuse-
ment les données qui déterminent l’assiette de l’impôt et soit moins attentif aux autres.
6.2. COMPLEXITÉ ET COMPLICATION 229
bera bientôt en raison des chocs qu’il reçoit de la part des molécules de l’air
environnant mais il est impossible de prévoir l’angle de sa chute.
Les phénomènes régis par des équations différentielles non linéaires, bien
que déterministes par nature, donnent naissance à des effets chaotiques que
l’on ne peut pas distinguer d’un comportement probabiliste car ils sont,
comme le lancement d’un dé, très sensibles aux conditions initiales (Gleick
[69]). Ainsi on ne peut pas garantir que la Terre ne quittera jamais le système
solaire : la prévision de sa trajectoire comporte une incertitude qui croît à
mesure que l’on s’éloigne dans le futur.
Pour traiter l’incertitude, la science économique a créé la théorie des
anticipations et du risque. Un entrepreneur raisonne en avenir incertain.
Il en est de même du stratège qui doit décider juste alors qu’il reçoit des
rapports partiels, erronés ou fallacieux. Il existe des généraux qui gagnent
les batailles et des dirigeants efficaces : ce sont ceux qui, possédant le « coup
d’œil », savent agir au mieux dans les situations incertaines 20 . Cette faculté
s’acquiert par l’entraînement et ceux qui la possèdent n’ont le plus souvent
ni le goût, ni la possibilité d’expliquer leurs raisonnements : l’action juste
s’impose à eux comme une nécessité évidente.
Limites de la logique
Au début du xxe siècle Bertrand Russell et Alfred Whitehead se sont
efforcés de donner aux mathématiques un fondement à la fois logiquement
correct et complet. Kurt Gödel [63] a démontré en 1931 que quel que soit
le système d’axiomes que l’on retient pour fonder une théorie, il existe des
propositions que l’on sait vraies mais dont la vérité ne peut pas être dé-
montrée dans le cadre de cette théorie (voir page 85). Ainsi aucun système
d’axiomes ne peut égaler la complexité du contenu potentiel de la pensée,
et la logique ne peut pas avoir réponse à tout. Certains logiciens s’oppo-
saient à cette affirmation avec une certaine raideur. Avec Gödel, la logique
a rencontré sa propre limite en s’appuyant sur ses propres méthodes.
La pensée potentielle, constituée des propositions que l’on pourrait dé-
duire de l’ensemble des systèmes axiomatiques possibles, est donc complexe ;
mais la pensée explicite, résultat de nos réflexions, est fondée sur un nombre
fini d’axiomes : Gödel a démontré que la pensée explicite était plus simple
que la pensée potentielle.
La cohérence est condition nécessaire de l’efficacité pratique de la pen-
sée, car une pensée incohérente est pratiquement infirme ; mais le caractère
logique d’un système ne prouve pas sa pertinence face à une situation par-
ticulière : un délire peut être cohérent.
Écoute
Comment élaborer l’adéquation à l’action? Pour comprendre une situa-
tion particulière, faire le choix des concepts pertinents, élaborer une théorie
exacte, la pensée pure ne suffit pas. Lorsqu’on veut construire un système
d’information, l’écoute est non seulement convenable au plan moral, mais
pertinente en tant que démarche.
* *
Nous avons hérité des Grecs une pensée lumineuse, mère de la philoso-
phie et des mathématiques. La clarté qu’elle projette sur le monde a repoussé
tout ce qui n’était pas pensable vers l’obscurité du mythe. Mais il se peut
que cette clarté nous aveugle. D’autres pensées, moins solidement bâties
peut-être mais qui n’ambitionnaient pas avant tout la solidité, apportent à
la pensée grecque des compléments et des correctifs précieux.
de distinguer, parmi les faits et les êtres, ce qui existe de ce qui n’est que
possible.
Il n’est donc pas surprenant que les Grecs, qui les premiers ont exploré
le monde de la pensée et qui étaient épris de clarté, aient voulu répondre à
la question « qu’est-ce qui est vraiment? » ou, de façon équivalente malgré
la différence de formulation, « qu’est-ce que l’être ? ».
À cette question, Parménide (vie -ve siècles) a répondu de façon tran-
chée : une même chose ne peut pas à la fois être et cesser d’être, ce serait
contradictoire. L’être est donc nécessairement immuable. Il en a donné une
image suggestive, celle d’une sphère homogène et immobile.
Platon (427-348) est parti de la même intuition : l’être est immuable.
Mais il l’a libérée de l’image physique à laquelle Parménide avait eu recours
et il a délimité avec précision ce qui seul est immuable : ce sont les Idées, ou
concepts, qui peuplent le monde de la pensée. Et il est vrai que les concepts
de cercle, de triangle, de nombre premier etc. sont immuables : si l’on peut
définir chacun d’entre eux de plusieurs façons, ses diverses définitions sont
équivalentes et donc, à une équivalence près, identiques.
Cependant si seuls les concepts possèdent l’être, si seul est réel ce qui
est immuable et susceptible d’être défini, ni vous ni moi ne sommes réels
puisque nous sommes nés un jour, que nous ne cessons d’évoluer, qu’un jour
nous mourrons et qu’il serait vain de tenter de nous définir. Platon, parfai-
tement cohérent, refuse de dire que nous sommes réels : les êtres humains,
les animaux, les plantes, le monde de la nature tout entier ne sont réels,
selon lui, que dans le concept sous lequel on peut les ranger. Le cheval qui
est là dans le pré n’est qu’une apparence, l’être réside dans le concept de
cheval ; de même, vous et moi ne sommes que des apparences, l’être réside
dans le concept d’être humain.
Il établit ainsi une cloison étanche entre le monde de l’expérience, dans
lequel il ne voit qu’une illusion, et le monde des Idées que seul il estime
réel. C’est ce qu’exprime, dans La République, le mythe de la caverne. Mais
un tel système ne peut convenir qu’à ceux qui, vivant dans le monde de la
pensée, préfèrent le préserver de tout contact avec le monde de la nature.
* *
Aristote (384-322) s’intéressait passionnément au monde de la nature et
son intuition s’est révoltée contre celle de Platon (Gilson [68]). Non, a-t-il
dit, ce ne sont pas les Idées qui sont réelles mais les choses, considérées
individuellement, une par une et avant toute intervention de la pensée. Il
confère ainsi l’être à des choses qui ne sont pas immuables : à vous, à moi,
aux animaux, aux plantes, aux minéraux etc. Il rejoint ainsi heureusement
le sens commun dont Platon s’était si délibérément écarté.
Mais après avoir reconnu l’existence d’une chose Aristote cherche à dire
ce que cette chose est, à décrire sa forme ou encore son essence. Et l’essence
d’une chose, dit-il, c’est ce qui est pensable en elle, sa représentation dans
la pensée.
Ainsi, après avoir placé l’être dans l’individu existant, il réduit l’individu
à ce que l’on peut penser de lui. Puis il réduit encore ce pensable à une
236 CHAPITRE 6. ASPECTS PHILOSOPHIQUES
* *
Les Grecs ont, les premiers, arpenté le monde de la pensée : ils ont les
premiers découvert la puissance de l’abstraction. Il n’est pas surprenant
qu’ils se soient, comme le fait tout inventeur, exagéré la portée de leur
découverte. Il était sans doute inévitable qu’ils surestiment la capacité de
la pensée à rendre compte du monde.
L’énergie qui se dégage de leurs écrits a séduit tous ceux qui, après
eux, ont entrepris de réfléchir. Il en est résulté des habitudes qui se sont
enracinées dans nos procédés de pensée. On dit ainsi, par exemple, qu’un
scientifique doit être objectif : cette expression ne signifie pas seulement qu’il
convient d’être intellectuellement honnête, car cela va sans dire ; elle signifie
que la pensée doit reproduire l’objet tel qu’il est, sans que sa connaissance
ne dépende en rien du sujet qui connaît.
Cela se conçoit dans le système d’Aristote : pour que la pensée puisse
atteindre l’essence de l’objet qu’elle vise, il faut qu’elle se focalise sur lui
en faisant abstraction du point de vue de l’observateur. Mais si l’on admet
qu’un même objet puisse être considéré à partir de divers points de vue
à chacun desquels correspond une représentation spécifique, alors il faut
indiquer, avant de dire comment on le représente, le point de vue à partir
duquel on l’a considéré - ce qui est subjectif, même s’il ne s’agit pas d’une
subjectivité individuelle mais de celle d’un point de vue, et même si le
choix de ce point de vue peut objectivement correspondre à la situation de
l’observateur.
Chez Aristote, une fois que la pensée a atteint l’essence d’une chose, elle
peut se dispenser de considérer sa génération et sa corruption (en d’autres
termes, sa naissance et sa mort) ; elle peut donc se dispenser de considérer
l’origine du monde.
Mais Thomas d’Aquin, héritier de la Bible, ne pouvait pas ignorer la
création. Il sépare alors par un trait bien net l’existence de l’essence. L’exis-
tence, c’est l’acte d’être, brut et avant toute qualification : un existant se
propose à la pensée comme objet, mais elle ne saurait rendre compte du fait
qu’il existe car ce fait est antérieur à la perception comme à la réflexion.
Bien plus : aucune pensée, aucune essence ne pouvant rendre intégrale-
ment compte d’un existant, tout existant est opaque à la pensée. Chaque
existant est un mystère. Il en est de même de Dieu, l’Existant même, dont
émane toute existence et qui est lui aussi inconnaissable.
Il y a là, pour ceux qui s’étaient habitués à ramener chaque existant
à son essence, puis à raisonner sur lui à partir d’elle, quelque chose de
désespérant. La pensée de Thomas d’Aquin révolte en nous non pas le sens
commun - auquel elle adhère exactement - mais des habitudes acquises à
l’école, formées par l’école, et qui sont peut-être pour la pensée un mauvais
pli.
Oubliez l’école et regardez en effet les êtres qui vous entourent. Ils
existent, c’est là un fait brut à partir duquel votre pensée peut se mettre à
l’œuvre mais qui lui est antérieur, extérieur, et qu’elle ne peut pas expliquer.
Regardez vous dans un miroir : vous y voyez un primate évolué, doté d’un
corps qui fonctionne sans que vous ne l’ayez voulu ni pensé et qui fixe sur
vous un regard énigmatique. Regardez vos mains : sont-elles « pensables »?
Regardez cette plante avec ses nervures, ses canaux, ses cellules, sa com-
position chimique, et aussi son passé et son avenir : votre pensée peut-elle
rendre compte de son existence ? Peut-elle la représenter de façon exhaus-
tive, parfaite, complète, absolue?
Regardez le système d’information de votre entreprise. Il contient une
base de données sur les clients. Quels sont les attributs qu’elle retient pour
décrire un client ? Son nom, son adresse, son numéro de téléphone, le nom
de son entreprise, peut-être. Mais notez vous son poids, sa taille ? Oui si
vous êtes son médecin, non sans doute si vous êtes son libraire. Notez vous
la couleur de ses yeux ? Oui si vous êtes le policier qui remplit une fiche
signalétique, non si vous êtes un boulanger ou un postier. Notez vous le
nombre de ses cheveux? Non, car ce nombre change tout le temps ; pourtant
à chaque instant il a une valeur précise...
Le fait est que ce que nous voyons, ce que nous observons, ce ne sont
pas des essences qui rendraient compte chacune d’un des objets que nous
considérons, mais des vues partielles et choisies. Que l’on puisse, que l’on
doive considérer un objet selon le point de vue qui corresponde à la relation
que l’on a avec lui, que du coup un même objet puisse être considéré selon
divers point de vue par des personnes qui ne se trouvent pas dans la même
situation à son égard, que l’unicité de l’essence éclate ainsi en autant de
représentations qu’il existe de points de vue, c’est là un fait que l’expérience
constate.
238 CHAPITRE 6. ASPECTS PHILOSOPHIQUES
* *
Les penseurs de la Renaissance avaient redécouvert la philosophie grecque,
dont ils héritèrent le goût pour la pensée claire et explicite. Ils lui adjoi-
gnirent le goût pour l’observation : le couple ainsi formé donnera naissance,
avec Galilée (1564-1642), à la démarche expérimentale et à la science occi-
dentale.
Mais à la même époque Boileau écrivit un vers que l’on cite avec trop de
complaisance : « Ce qui se conçoit bien s’énonce clairement » (Boileau [17]).
C’est là une contre-vérité manifeste. Vous vous représentez clairement le
visage de l’être aimé, vous le reconnaîtriez entre des millions d’autres, mais
vous êtes incapable de le décrire car il est impossible de décrire un visage
avec des mots (une photographie ferait l’affaire, mais elle ne « s’énonce »
pas). Autres exemples : le général doué du « coup d’œil » sait concevoir la
manœuvre opportune, le cuisinier de talent réussit ses plats, le champion
6.3. APPORTS DE L’INFORMATIQUE À LA PHILOSOPHIE 239
Cela ne veut pas dire que nous soyons libres d’observer ni de penser
n’importe quoi : on retrouve les exigences de l’objectivité mais sous une
forme plus élaborée que celle, vraiment sommaire, qui prétendait reproduire
l’objet dans la pensée. Le choix des concepts pertinents n’a rien d’arbitraire,
ni l’observation que l’on fait à travers la grille conceptuelle choisie. Lorsque
je conduis ma voiture, il est nécessaire que j’utilise la grille adéquate où
figure, entre autres, le concept de feu avec ses trois modalités ; le fait que
ce feu devant moi soit vert, rouge ou orange ne dépend pas de ma fantaisie.
Le monde se reflète dans une telle grille de façon certes incomplète, mais
authentique. Le caractère incomplet de la grille est d’ailleurs favorable à
l’action car il focalise l’attention sur les seuls éléments que celle-ci doit
considérer.
Relier la pensée à l’action dénoue l’angoisse que suscite l’opacité de l’exis-
tant. Si en effet la finalité de la pensée est essentiellement pratique, peu
importe qu’elle ne puisse pas nous restituer l’existant dans l’absolu : il suffit
qu’elle nous procure les moyens d’agir sur lui avec justesse. Tout existant
étant pour notre action à la fois un obstacle et un outil, sa représentation
dans notre pensée n’a pas d’autre but que de nous fournir les poignées men-
tales qui nous donneront prise sur lui, qui nous permettront de le manipuler.
* *
* *
La pensée occidentale a subi à la Renaissance une coupure qui l’a mutilée
en même temps qu’elle la fécondait. La démarche expérimentale, l’audace
devant un monde que la pensée explore librement, ont ouvert la voie au
déploiement de la science et des techniques. Elles ont polémiqué à bon droit
contre l’argument d’autorité, le dogmatisme, et contre certains procédés de
pensée qui tournaient à vide. Mais elles ont rejeté aussi les techniques an-
tiques de la mémoire et, plus généralement, de la pensée symbolique (Yates
[221]). En nous coupant ainsi de l’histoire de la pensée, la Renaissance a
donné naissance à de nouvelles formes de dogmatisme et de pédantisme : le
rationalisme n’a pas toujours été raisonnable.
La pensée symbolique procède par analogies, associations d’idées, et ré-
siste à l’explicitation. Elle ne cherche pas à énoncer, mais à suggérer ; elle
sollicite une interprétation qui, le plus souvent, ne peut pas être univoque.
Et pourtant la suggestion sera, dans la communication entre des êtres hu-
mains, souvent mieux comprise qu’un énoncé explicite. L’étymologie du mot
« symbole » ne renvoie pas vers « imaginaire » mais, de façon plus pro-
fonde, vers le nœud qui relie différentes choses : συµβολ veut dire jonction,
réunion, rencontre. Nous allons, pour illustrer cela, partir du rêve pour aller
jusqu’aux bases de données et à la connaissance.
Georg Groddeck (1866-1934), dans Le livre du Ça [75] (1923), a critiqué
l’interprétation des rêves par Sigmund Freud. Freud ne donne en effet qu’une
seule interprétation d’un même rêve ; Groddeck par contre les multiplie,
toutes différentes et toutes également plausibles. Le rêve, comme symbole,
est le nœud qui réunit ses diverses interprétations ; par delà le sens explicite
de chacune d’elles il pointe vers un sens implicite qui leur est commun, mais
que des paroles ne pourraient pas exprimer.
Il en est de même pour la Bible. Ce texte, antérieur à la formation de
la pensée conceptuelle, est symbolique et puissamment suggestif. On peut
l’interpréter de diverses façons qui toutes pointent vers un sens que des mots
ne sauraient exprimer : aucun commentaire ne peut l’épuiser et le pire des
contresens peut résulter d’une lecture qui prendrait le texte à la lettre.
Lorsque nous réfléchissons, dans la phase exploratoire et rêveuse qui
précède la formation des concepts, l’esprit flotte au gré des associations
d’idées que notre mémoire alimente, que nos procédés de pensée activent ou
que la glande cérébrale sécrète spontanément ; des ébauches de déduction
s’esquissent à partir de définitions à peine posées, sitôt rejetées ; des images
se projettent sur un écran intérieur, des personnages y jouent des scènes
hypothétiques, des architectures se créent et se dissipent. Voici que l’une
d’entre elles prend corps, s’organise : nous saisissons un papier pour la noter
en quelques phrases, puis nous laissons de nouveau notre esprit flotter d’une
image à l’autre, d’un symbole à l’autre, soucieux d’éprouver la solidité de
la structure que nous venons d’entrevoir et désireux d’en ramener d’autres,
si possible, dans nos filets (Colwell [39] p. 5).
242 CHAPITRE 6. ASPECTS PHILOSOPHIQUES
vérité ne vient qu’en second : plutôt qu’un bien que l’on pourrait tenir dans
sa main, elle est à l’infini de l’horizon comme un point lumineux qui oriente
le chemin mais semble reculer à mesure que l’on avance vers lui. Enfin vivre
n’est rien d’autre que de suivre fidèlement (fides) le chemin ainsi orienté.
Il se peut que la dogmatique ait oublié cette conception modeste de la
vérité. Karl Popper l’a redécouverte au cœur même de la science (Popper
[163]) : une théorie scientifique ne peut pas être « vraie » au sens où peut
l’être l’énoncé d’un fait car elle suppose une induction qui, généralisant une
observation inévitablement limitée, pourrait être invalidée par une expé-
rience ultérieure. La scientificité d’une théorie s’évalue non seulement par le
fait qu’elle n’a pas été contredite par les expériences connues, mais aussi par
le fait qu’elle est construite de façon à être vulnérable (« falsifiable ») par
l’expérience future. Ainsi les théories construites de façon à interdire toute
réfutation, et que l’on pourrait croire définitives, sont non scientifiques en
raison même de leur solidité apparente.
La connaissance apparaît alors comme une zone lumineuse qui peut
s’élargir, mais se découpe sur un plan infini qu’elle n’éclairera jamais en
entier et dont elle ne couvre donc qu’une part infime, aussi imposantes que
soient ses constructions.
La pensée chinoise accorde elle aussi la priorité à l’orientation, au chemin
(dào, prononcer tao). Pour les Classiques chinois les définitions ne décrivent
pas l’essence des choses et ils ne s’y intéressent pas d’un point de vue abs-
trait. Elles ne sont pour eux que des instruments en vue du contrôle de
l’environnement physique et social. Ils prisent donc moins l’ingéniosité des
définitions que le discernement qui permet d’établir des distinctions utiles.
Pour eux, un concept n’a de valeur que s’il a une utilité pratique, s’il est per-
tinent, et la parole a moins de valeur que l’action (Elisseeff [53]) : « quand la
Voie règne, dit Confucius, l’action fleurit ; quand la Voie ne règne pas, c’est
la parole qui fleurit ». Les mots sont des pointeurs vers une réalité qu’ils
n’atteignent pas : « viser n’est pas atteindre », (zhi bù zhì, prononcer djeu
pou djeu)(Hui Shih, cité par Needham [145] vol. VII:1 p. 49).
Ainsi diverses sagesses montrent notre vie orientée par des valeurs qui
déterminent nos intentions et se concrétisent dans notre action. Ces valeurs
rencontrent le monde tel qu’il existe : il nous revient de les y manifester pra-
tiquement et symboliquement, de les y incarner. Ce monde, notre pensée ne
nous permet pas de le connaître exhaustivement, mais elle est pour l’action
un outil efficace et cela doit nous suffire.
Cheminer vers l’infini alors que notre vie est limitée par le temps et
l’espace, comme par l’envergure de l’expérience possible, cela suscite une
souffrance qui est inséparable du destin humain. Confucius a mis la com-
passion (cum patire, « souffrir avec », en chinois rén, prononcer jen) au
premier rang des valeurs humaines.
Les nazis ont vu par contre dans la compassion une faiblesse : poussant
à l’extrême l’injonction Du mußt hart sein, « tu dois être dur », ils se fai-
saient un devoir d’être erbarmungslos, impitoyables. Refuser l’humanité leur
semblait être un signe de force mais leur brutalité était plutôt le symptôme
d’une infirmité. Celle-ci fut présente tout autant chez les staliniens (Mon-
244 CHAPITRE 6. ASPECTS PHILOSOPHIQUES
L’informatisation de
l’entreprise
246
247
Chapitre 7
Socle sémantique
248
7.1. LANGAGE ET « LANGAGE » 249
* *
En informatique, le mot « logique » désigne non pas les règles formelles
dont le respect garantit l’exactitude du raisonnement, mais les règles syn-
taxiques auxquelles doit se conformer tout langage de programmation. Le
page 36) qui est nécessaire pour obtenir un gain en signification, alors que
cette démarche constitue le cœur même de la statistique (Volle [211]).
À l’extrême l’informaticien considère les données comme un minerai dont
seule importe la volumétrie. Toutes sont traitées pêle-mêle, de la même fa-
çon, qu’il s’agisse d’identifiants ou d’attributs, de données saisies, de données
intermédiaires ou de résultats - alors que pour la sémantique de l’entreprise
les identifiants doivent être parfaits, les données saisies doivent être véri-
fiées. Si les informaticiens ont explicité pour les échanges de données des
critères de qualité formelle comme les propriétés ACID (atomicité, cohé-
rence, isolation, durabilité), rares sont les entreprises qui ont mis en place
une administration des données (voir page 265) qui garantisse la qualité de
leur sémantique.
La négligence envers la sémantique de l’entreprise est d’autant plus dom-
mageable que l’assistance par l’automate s’est étendue à tous les processus
de production et s’articule désormais de façon intime avec le travail des
êtres humains. Le succès de l’informatique la confronte à un défi intellectuel :
maîtriser la sémantique de l’entreprise, définir judicieusement l’articulation
entre l’automate et l’être humain.
* *
L’informatique, grande aventure intellectuelle de notre époque, a attiré
quelques-uns des esprits les plus fins et les mieux équilibrés. Ceux-là ne
sont nullement gênés par un vocabulaire mal conçu : ils savent ce que les
mots désignent et ne sont pas dupes des connotations. Ils sont par ailleurs
assez ouverts, curieux et généreux pour s’intéresser à l’entreprise et définir
intelligemment sa sémantique. Il existe aussi parmi les maîtrises d’ouvrage,
plus rarement il est vrai, des personnes qui savent ce que l’on peut attendre
de l’automate et comprennent ses contraintes.
Ces diverses personnes savent éviter les pièges et n’ont donc pas besoin
de garde-fou. Mais quand on pense à l’organisation de l’entreprise, à son
langage, il faut considérer non pas seulement ces personnes à l’intelligence
déliée, mais aussi l’individu moyen dont la compréhension est embrouillée
par les faux amis, et encore les dirigeants qui ne sont pas des experts mais
doivent pourtant pouvoir prendre des décisions justes. Il faut considérer
enfin les personnes intelligentes elles-mêmes, à qui l’on doit épargner le
temps et l’effort nécessaires, aussi intelligentes soient-elles, pour se repérer
dans un univers confus.
On doit également - car dans une entreprise on ne vit pas parmi les
anges du Paradis - ôter aux pervers les armes que leur procure la confusion
du vocabulaire et des idées, ainsi que les espaces trop propices que cette
confusion procure aux jeux de pouvoir.
a Cf. le titre de l’ouvrage de Niklaus Wirth [219], créateur du langage Pascal : Algo-
* *
L’ingénierie des systèmes d’information est un cas particulier de l’ingénie-
rie de système (Meinadier [130]). On y retrouve les mêmes notions (maî-
trise d’ouvrage et maîtrise d’œuvre, conduite de projet, spécification des
exigences etc.). Cependant l’ingénierie de système est plus difficile dans le
système d’information que dans les projets techniques, fussent-ils très com-
pliqués.
Un projet technique comme la conception d’un avion ou d’une centrale
nucléaire est en effet réalisé par des ingénieurs qui expriment leurs exigences
en termes observables et mesurables, et qui sont soucieux de traiter les
questions de physique que pose la conception et la fabrication du produit de
telle sorte que celui-ci réponde à ces exigences.
Par contre un projet de système d’information de gestion concerne non
un produit, mais le fonctionnement d’une organisation. Il n’est pas facile
de définir les critères qui permettraient d’évaluer sa réussite, et il existe
un écart entre l’organisation humaine, dont le flou est à la fois naturel et
entretenu, et le logiciel dont le fonctionnement est automatique :
256 CHAPITRE 7. SOCLE SÉMANTIQUE
* *
Comme le système d’information s’insère dans l’organisation et touche
à la répartition des pouvoirs légitimes, il faut l’ancrer sur des choses aussi
stables que possible. Il est salubre de prendre pour point de départ les
produits que l’entreprise élabore, puis leurs processus de production, ensuite
les livrables (ou produits intermédiaires) que fournissent des sous-processus,
enfin les activités qui s’enchaînent dans le parcours de chaque processus.
La démarche se fonde ainsi sur la physique de l’entreprise - processus de
production et de commercialisation, relations avec les clients et partenaires
- et non sur la répartition des pouvoirs que découpe l’organigramme et que
l’on nomme, par abus de langage, organisation. Les applications informa-
tiques deviennent alors invariantes par rapport à cette « organisation » qui,
elle, est de plus en plus évolutive : un changement de l’« organisation » en-
traînera une simple modification de l’affectation des activités aux diverses
entités de l’entreprise.
Les exigences s’expriment en termes de qualité des produits, de qualité
des processus (maîtrise des délais, satisfaction des clients) et d’efficacité
(consommation des ressources), toutes choses qu’il est possible d’observer et
de mesurer. Il faut donc non seulement que le système d’information outille
le processus en automatismes, mais aussi qu’il produise les indicateurs qui,
rendant sa qualité visible par tous, inciteront à la maintenir.
L’ingénierie doit, dans les systèmes techniques, satisfaire toutes les exi-
gences initiales (amendées par d’éventuelles demandes de dérogation formel-
lement acceptées par le maître d’ouvrage) : ces exigences, exprimées par des
ingénieurs, résultent d’une sélection sévère. Dans les systèmes d’information,
par contre, les exigences initiales sont souvent démesurées. Il faudra savoir
ne retenir parmi elles que les 20 % vraiment indispensables, leur sélection
devant être dûment justifiée.
Il faut en ingénierie de système se défier des connotations du mot « op-
timiser » et du mot « rationnel » : mieux vaut s’efforcer d’être raisonnable,
terme qui a d’ailleurs lui aussi pour racine le mot raison.
7.2. INGÉNIERIE DU SYSTÈME D’INFORMATION 257
* *
Le système d’information est le langage de l’entreprise, un langage ar-
ticulé à son action. Il est organiquement lié à son positionnement, à ses
priorités : il exprime sa personnalité. L’entreprise le sécrète tout comme une
civilisation sécrète sa langue. Il n’est donc pas étonnant que sa définition
révèle des enjeux, suscite des conflits, s’accompagne de malentendus. Les
compétences de l’ingénieur, la rigueur avec laquelle il applique les principes
de l’ingénierie, ne suffisent pas pour concevoir un système d’information :
il faut aussi qu’il possède une sensibilité de sociologue et des compétences
en linguistique. Il faudra qu’il sache « manipuler pour la bonne cause »,
dans le droit fil de l’École de Palo-Alto (Marc et Picard [160]). Ceci est
vrai d’ailleurs non seulement pour les systèmes d’information, mais aussi
pour ceux des projets techniques et scientifiques qui impliquent plusieurs
entreprises, plusieurs pays, plusieurs cultures.
La conception d’un système d’information suppose une spécification pré-
cise, sans quoi on abandonne au programmeur le choix de ce qui devra être
implémenté. Les choix fondamentaux, qui relèvent de l’analyse de la valeur,
sont in fine du ressort de la maîtrise d’ouvrage qui seule peut évaluer la
rentabilité d’un projet. L’apport majeur de l’ingénierie de système réside
258 CHAPITRE 7. SOCLE SÉMANTIQUE
4. Les couches du langage qui s’empilent jusqu’au microcode visent à assurer (1) la
traduction progressive des ordres donnés à la « machine virtuelle » en instructions élé-
mentaires que l’automate sera capable de traiter ; (2) l’évolutivité et la maintenance du
logiciel grâce à la clarté du découpage en modules, à la gestion de configuration, à la
documentation, au nommage etc., évolutivité qui doit permettre de répondre au moindre
coût aux chocs provenant (a) de l’environnement réglementaire (droit, fiscalité) ; (b) de
7.3. APPROCHE LINGUISTIQUE 259
* *
La physique de l’entreprise suppose l’adaptation à un monde en évolu-
tion : les techniques changent ainsi que la réglementation, les concurrents
prennent des initiatives, les besoins des clients évoluent. L’ingénieur sou-
cieux d’efficacité souhaite donc que le langage de l’entreprise soit aussi
souple que le volant d’une automobile et que l’organisation évolue sans
retard. Cependant l’organisation est en place, les missions sont définies,
leurs responsables désignés : l’entreprise attend que l’ingénieur agisse dans
ce cadre et selon ce qu’il autorise.
Chacune de ces deux exigences est rationnelle. Une entreprise rigide,
indifférente aux évolutions du monde réel, deviendrait à la longue ineffi-
cace, mais par ailleurs une entreprise dont l’organisation serait modifiée
sans cesse ne pourrait pas stabiliser son langage et cela déconcerterait ses
agents : beaucoup d’entre eux partiraient, les compétences ne pourraient pas
s’accumuler. Un chantier permanent ne peut pas être efficace.
La solution raisonnable ne peut résulter que d’un arbitrage entre les
exigences de la physique et celles de l’organisation. La qualité d’un dirigeant
s’évalue selon son aptitude à assurer cet arbitrage : le bon dirigeant est à la
fois attentif à l’organisation et vigilant envers les techniques et le marché.
Dans certaines entreprises toutefois, les dirigeants vivent dans un monde
qui relève d’une sociologie spécifique et les sépare de la physique de l’en-
treprise 6 . Le système d’information est alors non pas une articulation entre
l’organisation et la physique, mais l’enjeu d’une lutte entre elles.
Le discours d’une entreprise portera toujours exclusivement sur sa phy-
sique : objectifs d’efficacité, de compétitivité, de création de valeur etc. ; mais
il sera souvent plaqué sur une réalité toute différente, que le système d’infor-
mation révèle comme le ferait une radiographie. Quand les décisions des di-
rigeants sont déterminées par la seule organisation, les forces qui concourent
à l’entropie du système d’information, à l’éclatement du langage, jouent sans
contrepoids. Le référentiel s’éparpille en de multiples tables de codage spé-
cifiques chacune à un domaine ; tout codage se diversifie encore en dialectes
locaux, chaque région l’interprétant à sa façon ; certaines données seront
mal codées, les agents opérationnels jugeant leur qualité indifférente ; les
lacunes dans la réalisation des applications seront rattrapées sur le terrain
relations : avec les offreurs, avec les demandeurs ; le cœur de votre activité,
c’est de former des couples offre - demande de bonne qualité, c’est-à-dire
qui suscitent une transaction satisfaisante pour les deux parties.
Supposons maintenant qu’à l’offre principale s’ajoute une offre secon-
daire. C’est le cas si l’on considère le marché du travail, sur lequel l’offre
principale est l’offre d’emploi qui répond à la demande d’emploi, et l’offre
secondaire est l’offre de formation professionnelle : on peut en effet, si l’on
ne trouve pas immédiatement d’offre pour un demandeur, chercher pour
celui-ci la formation qui lui permettrait d’être en meilleure posture sur le
marché du travail.
Alors l’intermédiation doit mettre en relation non plus deux populations
(offres et demandes d’emploi) mais trois (offres et demandes d’emploi, offres
de formation) ; on doit traiter non plus une relation entre deux populations,
mais trois relations entre trois populations. L’ajout d’un pôle relationnel,
qui semblait n’accroître la complexité du système d’information que de 50
% (passer de deux à trois pôles), l’accroît en réalité de 200 % (passer d’une
à trois relations) (figure 7.1). Pour anticiper l’effort que demande une telle
évolution, il faut avoir une intuition immédiate et exacte de la physique de
l’entreprise.
* *
La physique de l’entreprise se décalque dans la physique de l’informa-
tion, et réciproquement les choix faits pour le système d’information, s’ils
sont exempts d’incohérence (c’est-à-dire s’ils respectent les principes élé-
mentaires), révèlent des choix stratégiques implicites. Si, en bonne logique,
la définition de la stratégie précède celle du système d’information, en pra-
tique les deux démarches s’appuient mutuellement.
« La guerre, dit Clausewitz [37], est la continuation de la politique par
d’autres moyens ». De même le système d’information est la poursuite de
la stratégie de l’entreprise par d’autres moyens. Il arrive que la politique,
notamment la géopolitique, soit déterminée par l’équilibre des forces mili-
taires en présence. Il peut aussi se faire que, par un retournement de l’ordre
des priorités, la stratégie soit déterminée par les possibilités qu’offre le sys-
tème d’information : dans le transport aérien, les systèmes informatiques de
réservation ont bouleversé les stratégies.
L’orientation stratégique de l’entreprise est, comme celle d’une nation,
affaire d’adaptation aux circonstances ; elle doit épouser la propension des
choses (Jullien [93]). On ne saurait l’évaluer selon les seuls critères de la
psychologie en accusant celui-ci de timidité, celui-là de témérité etc. : on est
là dans le domaine des choses naturelles, complexes, dont la connaissance est
difficile à communiquer, dont la maîtrise (toujours relative) s’acquiert par
un talent spécial conjugué à l’expérience. La vigilance, le sens du possible,
supposent une attitude fondamentalement modeste : le stratège doit être
prêt à apprendre, à tirer les leçons de l’expérience, à mouler sa décision sur
la situation présente et prévisible.
* *
L’entreprise sera d’autant moins « naturelle », d’autant plus « sociolo-
gique », qu’elle accordera plus d’importance à l’organisation et moins d’im-
portance à la physique ; que son regard sera davantage tourné vers l’inté-
rieur, et non orienté vers le client ; que les décisions seront dictées par le
souci d’éviter les « problèmes de personnes » plus que par la recherche de
l’efficacité.
7.3. APPROCHE LINGUISTIQUE 263
Nous avons déjà évoqué les indices qui, dans le système d’information,
révèlent la véritable priorité de l’entreprise. Mais il existe d’autres indices
plus faciles à observer. Ainsi toute entreprise qui proclame son intention de
« mettre le client au cœur de l’entreprise » révèle qu’elle regarde son propre
nombril : si elle accordait au client l’importance qu’il mérite, cela lui serait
tellement naturel qu’elle n’aurait pas besoin de le dire.
La sociologie de l’entreprise est portée par ses forces dirigeantes - il
s’agit bien sûr des dirigeants, mais aussi des réseaux (syndicats, corpora-
tions, partis politiques) qui ont pu s’emparer d’une part du pouvoir, comme
c’est souvent le cas dans les entreprises anciennes et de grande taille. Cette
sociologie interne est soumise à des chocs provenant d’autres sociologies, ex-
térieures à l’entreprise et qui la font vibrer comme une caisse de résonance :
celles des actionnaires, des clients, des pouvoirs politiques et réglementaires,
de l’opinion etc.
* *
* *
Il ne faut pas prendre la sociologie de front, ce serait suicidaire : en ce
sens il faut en effet savoir être « souple ». Mais du point de vue des orienta-
tions, des priorités, les choses doivent être très claires : modestie devant la
physique ; intrépidité, refus de l’intimidation, devant la sociologie.
Le cérémonial qui entoure les dirigeants, les signes vestimentaires et
physiques de leur importance (âge, corpulence, lunettes, habillement, déco-
rations, coiffure, voiture), le luxe des bureaux et salles de réunion, le sérieux
des huissiers et assistantes, la qualité du vocabulaire, de l’élocution, de la te-
nue à table, tout cela est fait pour intimider et risque d’inhiber l’expression
des nécessités physiques de l’entreprise au bénéfice de sa sociologie.
7.4. ADMINISTRATION DES DONNÉES 265
Mais cet obstacle symbolique est superficiel. Soyez patients mais intré-
pides. Soyez assez pédagogues pour faire « réaliser » par les dirigeants les
contraintes, les complexités de la physique de l’information, de la physique
de l’entreprise. Sachez faire émerger ces questions à l’horizon de leurs pré-
occupations stratégiques. À terme, et s’ils vous laissent survivre, ils vous
sauront gré de les avoir incités à relativiser les contraintes de la sociologie.
* *
Une donnée, c’est le couple logique formé par une définition (sémantique)
et une mesure, la mesure étant caractérisée par le type de la donnée (booléen,
entier, réel, qualitatif, textuel etc.), la périodicité, le délai de mise à jour,
ainsi que par l’identité de la personne morale 7 habilitée à mettre la donnée
à jour et, si nécessaire, à faire évoluer sa définition (« propriétaire de la
donnée »).
La donnée se transforme en information lorsqu’elle est communiquée à
un être humain capable de l’interpréter, tout comme une gouttelette d’eau
en surfusion se transforme en givre au contact d’une surface solide (voir
page 36).
7. Entité de l’entreprise (direction, service, mission etc.), par différence avec la « per-
sonne physique » qui est un individu.
266 CHAPITRE 7. SOCLE SÉMANTIQUE
* *
Par « référentiel » du système d’information d’une entrepris on entend :
- l’ensemble des règles, documents et bases de données concernant les
identifiants et nomenclatures 8 utilisés par le système d’information,
- les règles d’administration du partage des références par les diverses
composantes du système d’information.
Expliquons ce que nous entendons par « identifiant » et « nomencla-
ture ». On peut décrire l’entreprise comme un ensemble de « domaines »
relatifs chacun à la production d’une ensemble de produits ; les tâches réa-
lisées dans ces domaines s’enchaînent selon des « processus » qui articulent
des « activités » réalisées par des êtres humains qu’assistent des automates
et qu’outillent des machines.
Tout processus concerne des ensembles (ou « populations », que l’on
nomme aussi « entités ») d’êtres que l’on peut appeler « individus » (« ins-
tances ») en prenant ce terme dans un sens large : les clients, commandes,
factures, produits, personnes de l’entreprise, partenaires et entités de l’or-
ganisation sont ainsi des « individus » formant des « populations 9 ».
Pour construire le système d’information d’une entreprise on part de la
définition de ces populations. Le « référentiel » de l’entreprise sera le support
de cette définition (quand on dit « le référentiel » tout court, c’est pour
désigner l’ensemble des référentiels de l’entreprise ; l’annuaire d’entreprise
est un référentiel particulier, le référentiel des personnes). Un référentiel se
présente sous deux formes : une forme documentaire (papier ou électronique)
pour les utilisateurs humains ; une forme physique (base de données) pour
le traitement informatique.
La première indication que donne le référentiel, c’est la liste des popu-
lations et leur définition. Puis il faut identifier les individus qui composent
chaque population. L’identifiant, clé associée à un individu, permet de re-
trouver les données qui concernent aux diverses étapes de son cycle de vie.
À chaque individu sont associées des données (« attributs ») observées
et mises à jour périodiquement ou en continu. À chaque donnée est associée
un type logique : une donnée peut être quantitative (revenu, poids etc.),
qualitative (métier, commune de résidence etc.), qualitative ordinale (classe
d’âge d’une personne, tranche d’imposition), textuelle (commentaire) ; ce
peut être une image (photographie de la personne, plan d’un bâtiment),
une date, une adresse postale ou électronique, un nom propre etc 10 .
La mesure d’une donnée quantitative est un nombre (de type entier,
rationnel ou réel). La mesure d’une donnée qualitative est un codage carac-
térisant l’affectation (classement) d’un individu à une classe d’une nomen-
clature 11
Pour définir la mesure d’une variable quantitative il suffit de préciser
son type et, éventuellement, les bornes des valeurs qu’elle peut prendre. Par
contre, pour définir la mesure d’une variable qualitative, il faut fournir une
nomenclature. Une nomenclature est une partition de la population sans
omission ni double emploi. À chaque classe de la partition est associé un
code. La nomenclature peut comporter plusieurs niveaux (ainsi le code géo-
graphique contient les niveaux îlot, commune, canton, département, région)
emboîtés les uns dans les autres (une classe d’un niveau donné appartient à
une et une seule classe de niveau supérieur).
* *
L’examen des identifiants révèle des priorités de facto souvent différentes
de celles que l’entreprise prétend ou souhaiterait avoir. Beaucoup d’entre-
prises attribuent à leurs clients des identifiants qui identifient non le client,
mais un équipement qui caractérise le service rendu à celui-ci : ainsi un opé-
rateur télécoms identifie non le client lui-même, mais la ligne téléphonique
(identifiée par son numéro, et à laquelle le nom et l’adresse du client seront
attachés comme des attributs) ; une banque identifie non le client, mais le
compte (c’est le cas du RIB). Ces conventions rendent difficile le rassemble-
ment des données concernant un même client et ils révèlent la priorité de
ces entreprises, qui s’intéressent plus à leur organisation interne qu’au client
et à ses besoins. La priorité qu’elles donnent à l’organisation interne, voire
à l’organigramme, les empêche de considérer en priorité leur marché, la sa-
tisfaction des clients, ou encore l’état de l’art de leur métier et les bonnes
pratiques des concurrents.
Il arrive aussi que l’on confonde identifiant et attribut en introduisant
dans l’identifiant des éléments porteurs d’information. Si l’on introduit par
exemple un élément géographique dans l’identifiant d’un client (numéro du
département etc.), on devra changer l’identifiant lorsque le client démé-
nagera, ce qui rendra difficile le suivi historique de son dossier. L’INSEE,
avant la mise en place du fichier SIRENE, identifiait les établissements avec
un code comportant l’indication de l’activité principale ; il fallait changer
l’identifiant d’un établissement lorsque son activité principale changeait.
10. Il est possible de transformer une donnée quantitative en donnée qualitative ordinale
en attribuant un code à des intervalles de valeur.
11. La « classe » d’une nomenclature n’est pas la même chose que la « classe » d’un
langage orienté objet. La première désigne une catégorie de la nomenclature, la seconde
désigne l’ensemble d’une population.
268 CHAPITRE 7. SOCLE SÉMANTIQUE
Il arrive enfin que l’on réutilise pour un nouvel individu l’identifiant d’un
autre individu arrivé en fin de cycle de vie. Ainsi l’ANPE a réutilisé, pour
identifier ses agences, les identifiants d’agences supprimées. Cela oblige, lors
de l’examen de l’historique des données concernant un individu, à vérifier
s’il s’agit continûment du même.
Il importe donc de définir correctement la population dont il s’agit
d’identifier les individus : il ne faut pas confondre le client avec le service
qui lui est rendu, avec le produit qui lui est fourni ni avec le contrat que
l’on a passé avec lui. Il faut aussi construire des identifiants pérennes, qui
resteront affectés à l’individu pendant tout son cycle de vie, et s’interdire
de réutiliser un identifiant après la fin du cycle de vie. Mieux vaut enfin ne
pas confondre le rôle de l’identifiant et le rôle des attributs : l’identifiant ne
doit être porteur d’aucune information.
D’un point de vue technique, il résulte de ces règles que la meilleure
façon de construire un identifiant est de choisir une suite de caractères ti-
rée au hasard (le plus souvent des chiffres décimaux), dépourvue de toute
signification (ce qui exclut de coder en utilisant des nombres successifs car
le code prendrait alors une signification ordinale) et en vérifiant que cette
suite n’a pas déjà été utilisée. Elle doit contenir assez de caractères pour
qu’il soit possible d’identifier tous les individus de la population concernée
compte tenu des cohortes qui la renouvelleront pendant le cycle de vie du
système d’information c’est-à-dire pendant quelques dizaines d’années. Il
est utile enfin de lui associer une clé de contrôle permettant de contrôler
l’exactitude de l’identifiant.
* *
La qualité d’une nomenclature se juge, au plan formel, selon l’exactitude
du découpage de la population qu’elle fournit : il faut qu’elle constitue une
suite de partitions emboîtées, sans omission ni double emploi ; au plan fonc-
tionnel (ou sémantique), selon la pertinence du découpage : il faut que les
classes regroupent les individus en fonction de la similitude des actions que
l’entreprise entend conduire envers eux ; au plan pratique, selon la clarté
de la documentation qui l’accompagne : une nomenclature non commen-
tée, même si elle est pertinente, sera souvent mal interprétée par ceux qui
l’utilisent et ils commettront des contresens ; au plan technique, enfin, par
la clarté du code utilisé pour identifier les classes de la nomenclature (on
utilisera souvent pour désigner un niveau de la nomenclature le nombre
de chiffres que contient un code numérique), par les procédures introduites
dans les systèmes de saisie ou dans les interfaces pour vérifier la qualité du
codage, par la disponibilité des tables de passage (transcodages) assurant
la traduction d’une nomenclature dans une autre lorsque cela s’impose (par
exemple pour échanger des données avec un partenaire).
Le codage est utilisé dans le système d’information à deux fins distinctes :
il peut déterminer le traitement du dossier de l’individu dans la procédure
opérationnelle (en qualifiant une demande d’emploi par un métier, en clas-
sant un contribuable dans une tranche d’imposition etc.) ; il sert à produire
des statistiques sur la population étudiée, chaque individu étant compté
dans la classe à laquelle le codage l’affecte.
7.4. ADMINISTRATION DES DONNÉES 269
* *
* *
Résultant d’une cascade de choix et de conventions, la base de données
est une représentation abstraite de la réalité. Dire cela, c’est une banalité
mais il est trop tentant, quand on est accaparé par le travail technique, de
l’oublier en faisant « comme si » la représentation fournissait de la réalité
une image fidèle et sur la pertinence de laquelle il n’y aurait plus à s’interro-
ger. Or même si les choix qui fondent la base de données ont été pertinents
lors de sa construction à la date d, rien ne garantit qu’ils puissent l’être
encore à une date d + t car la réalité que l’on entend décrire aura changé,
ainsi que les relations que l’entreprise souhaite entretenir avec elle.
Boydens [25] a montré, dans son étude de la base de données de la sé-
curité sociale belge, que les évolutions de la réglementation ou des métiers
peuvent altérer la pertinence des codages ou encore obliger à des transco-
dages rétroactifs qui par nature ne peuvent jamais être exacts - alors que la
base de données est utilisée pour déterminer des droits et des taxes, ce qui
engage une responsabilité juridique !
L’étude du fonctionnement pratique d’une base de données ne peut donc
pas se limiter à la vérification de quelques règles formelles : il faut savoir com-
ment les codes ont été choisis, comment les codages sont réalisés, comment
sont prises les décisions qui en résultent, comment enfin les codages sont
révisés pour maintenir leur pertinence.
Si l’on a en tête le souci de la pertinence, si l’on sait - non seulement in-
tellectuellement, mais pratiquement - que la définition de la base de données
résulte de plusieurs choix, si l’on ne se limite pas à sa définition technique
et si l’on considère aussi la façon dont elle est utilisée, alors on ne peut pas
se contenter de vérifier sa « normalité ». Sans doute les choses deviennent
alors un peu compliquées, alors qu’il est rassurant de se retrancher derrière
le rempart du formalisme.
12. « Des faits connus, qui peuvent être enregistrés et ont une signification implicite ».
13. Dans sa Métaphysique, Aristote a ainsi renoncé à définir ce qu’est un acte ; pour
s’en expliquer il a préféré recourir à une liste d’exemples.
272 CHAPITRE 7. SOCLE SÉMANTIQUE
* *
Le vocabulaire des bases de données comporte des termes pour désigner
la façon dont on décrit l’individu type d’une population, mais ces termes
varient selon le modèle considéré : on dira « type d’entité » dans le mo-
dèle entité-association, « classe » dans le modèle à objets, « relation »
dans la base de donnée relationnelle ; dans ces trois modèles, l’individu lui-
même sera représenté respectivement par une « entité », un « objet » et un
« tuple ».
Observons au passage qu’il faut dire « modèle entité-association » et
non « modèle entité-relation ». Lorsque les auteurs de la méthode Merise
ont traduit entity-relationship model par « modèle entité-relation », ils nous
ont fait prendre le risque d’une confusion entre cette relation-là et celle dont
il est question dans le SGBD relationnel et qui est tout autre chose.
Dans le modèle entité-association en effet, association est comme dans
le langage courant ce qui relie deux individus. Par exemple : « Jean-Pierre
Martin » (individu) « possède » (association) « le piano Pleyel n◦ 134878-
80 » (individu). Par contre dans la base de données relationnelle relation
est pris dans un sens qu’il a paraît-il en théorie des ensembles et désigne
le tableau qui contient, pour une liste d’individus appartenant à une même
population et représentés chacun par une ligne appelée « tuple », les va-
leurs des attributs que l’on a choisi d’observer sur cette population, chaque
attribut étant représenté par une colonne 15 .
14. Elle parle d’identifiant unique, d’attribut observé, d’attribut dérivé etc.
15. Il peut aussi désigner un tableau contenant la description d’un ensemble d’asso-
7.5. BASES DE DONNÉES 273
Tout cela se range à peu près bien dans la tête une fois qu’on l’a compris,
mais le fait que le mot « relation » soit utilisé parfois à la place du mot
« association », qu’on lui fasse ainsi jouer deux rôles différents selon le
modèle que l’on utilise, ne facilite pas la communication avec les personnes
inexpertes.
* *
L’algèbre relationnelle, utilisée pour mettre en forme les calculs qu’on
réalise sur une base de données relationnelle, comporte beaucoup plus d’ins-
tructions applicables aux attributs que d’instructions applicables aux indivi-
dus. Il en est de même des « formes normales » qui condensent les contraintes
formelles auxquelles une base de données doit obéir. On ne mentionne qu’en
passant le fait que les données rassemblées dans un « tuple » (une ligne de
la relation) sont relatives à un même individu.
Si l’on avait suivi la démarche qui part de la population pour aller d’abord
vers l’individu, puis ensuite vers les attributs, on aurait abordé la relation
non par colonne (par attribut) mais par ligne (par individu). Certes la qua-
lité d’un codage se vérifie attribut par attribut : pour chaque attribut, le
codage doit être conforme au type requis. Mais on doit aussi vérifier la co-
hérence de certaines données individu par individu (exemple : exactitude des
additions), et pour calculer les intervalles de vraisemblance nécessaires au
repérage des anomalies il faut évaluer des corrélations, ce qui nécessite de
considérer la co-occurrence des valeurs prises par les divers attributs dans
chaque individu.
* *
Le fait que l’on accorde plus d’importance aux attributs qu’aux individus
se manifeste clairement lorsqu’on considère les identifiants, que l’on appelle
« clés » dans le modèle relationnel. Selon la théorie il doit exister dans
chaque relation un attribut, ou une combinaison d’attributs, qui permette
d’identifier chaque tuple de façon univoque.
Cela peut marcher, et cela marche si c’est bien fait, mais cette formula-
tion invite à l’erreur. Certes l’identifiant n’est, au plan formel, qu’un attribut
parmi les autres ; mais il joue un rôle tellement important que l’on ferait
mieux de l’isoler pour le traiter de façon particulière : un identifiant erroné,
c’est un dossier perdu, parfois sans remède ! Par ailleurs il est périlleux de
prendre pour identifiant un attribut existant ou une combinaison d’attri-
buts, même s’ils permettent d’identifier chaque tuple de façon univoque :
qui sait si, la population évoluant, des homonymes ne risquent pas de sur-
venir? et alors le caractère univoque de l’identification serait brisé.
On peut tolérer sans doute que des attributs soient pris comme iden-
tifiants lors de la discussion entre les informaticiens et les utilisateurs, car
c’est plus intuitif : on nommera une entreprise par sa raison sociale, une per-
sonne par son état-civil. Mais lorsqu’on passera au modèle logique puis au
ciations : par exemple, un tableau intitulé « possession » dans lequel on trouverait les
attributs « possédant », « possédé », « date de début » et éventuellement « date de fin »,
pour décrire l’association entre des propriétaires et les biens qu’ils possèdent.
274 CHAPITRE 7. SOCLE SÉMANTIQUE
* *
Dans le modèle relationnel, on note « null » un attribut quand (1) cet
attribut n’aurait pas de sens pour l’individu considéré (une personne qui
n’a pas d’emploi ne peut pas avoir de téléphone professionnel) ; (2) il aurait
un sens mais on ne sait pas s’il existe (cette personne a un emploi, mais
on ignore si elle a un téléphone professionnel) ; (3) il aurait un sens mais il
n’existe pas (elle a un emploi, mais elle n’a pas de téléphone professionnel) ;
(4) il existe, mais on ignore sa valeur (elle a un téléphone professionnel,
mais on ne connaît pas le numéro). Je ne suis pas sûr d’avoir fini la liste des
significations possibles du code « null ».
Elmasri et Navathe disent (p. 343) que l’on a tenté de construire des
SGBD qui distingueraient les diverses acceptions de « null », mais comme
c’est compliqué on y a finalement renoncé : rien n’est sorti des nombreuses
thèses de doctorat consacrées à ce sujet, modèles probabilistes à l’appui.
Il s’agit là d’un point technique, moins crucial que les précédents, mais il
reste une faiblesse des SGBD relationnels car à chacune de ces acceptions
correspondent des contraintes de gestion différentes. Et certaines bases de
données sont aussi désertes qu’une plage anglaise en plein hiver, remplies
(si l’on peut dire) de champs vides que l’on ne sait comment interpréter...
* *
Tout agent opérationnel est impliqué dans divers processus de produc-
tion. Dans chaque processus, il reçoit une tâche à faire, l’exécute, puis trans-
met le résultat de son travail à un ou à plusieurs autre(s) agent(s) (figure
7.2).
16. La critique du taylorisme est devenue banale, mais le culte de la division du travail
dont il est l’expression est encore vivace alors que les formes contemporaines d’organisa-
tion devraient lui imposer de sévères limites.
276 CHAPITRE 7. SOCLE SÉMANTIQUE
Pour que système d’information soit lisible - ou, ce qui revient au même,
pour que le processus de production soit lisible - il faut que chaque agent
opérationnel puisse connaître la réponse aux questions suivantes :
* *
Lorsque le langage est cohérent et que sa pertinence a été assurée, lorsque
les processus ont été organisés et sont familiers aux agents opérationnels,
l’entreprise elle-même est lisible à travers son système d’information : elle
est élucidée, autrement dit elle rayonne sa propre lumière.
Quand on parcourt l’entreprise élucidée, équipée d’un système d’infor-
mation lisible, on entend des phrases comme celles-ci : « on sait ce qu’on a
à faire », « on est bien dirigés », « le boulot est simple », « le travail est
intéressant, on sait à quoi on sert » etc. L’entreprise, la direction générale,
sont orientées vers la production, l’efficacité, la satisfaction des clients ; les
priorités ont été explicitées lors de la définition du langage et des processus ;
ce sont les problèmes pratiques du métier, et non plus les conflits entre diri-
geants, qui alimentent les conversations à la cantine. Les processus ne sont
pas des mécanismes définis voici longtemps, dont on a oublié la finalité et
que l’entreprise fait fonctionner par habitude : ils incorporent une démarche
collective, à finalité pratique, orientée vers la production et la satisfaction
du client.
Lorsque l’agent opérationnel devra s’adapter à une nouvelle situation -
nouveau produit, nouvelle technique de production, nouvelle forme de com-
mercialisation, nouveau marché - il saura qu’il faut modifier les processus,
puisque leur finalité a changé. Il connaît l’étendue des décisions qui relèvent
de lui et sait anticiper leurs conséquences. Il connaît donc les responsabilités
qu’il peut prendre, et elles ne l’écrasent pas. Il connaît les indicateurs de
qualité : ils lui sont présentés sous une forme graphique évidente qui l’incite
à les maintenir à un bon niveau.
Alors l’entreprise ne rencontre plus ces obstacles au changement qui ré-
sultent des conflits entre baronnies et entre corporations, ou d’une adhésion
rigide à des habitudes. Elle est naturellement évolutive.
7.6. LISIBILITÉ DU SYSTÈME D’INFORMATION 279
* *
La lisibilité est possible, elle est opportune, elle apporte à l’entreprise ef-
ficacité et évolutivité. Le besoin est donc évident. Pourtant, nous le savons,
la plupart des systèmes d’information ne sont pas lisibles. Il est impossible
de rendre lisible un système d’information mal construit, celui d’une entre-
prise dont le langage éclate en divers dialectes et qui n’a pas organisé ses
processus ; mais même l’entreprise qui dispose d’un système d’information
convenable ne pensera pas toujours à le rendre lisible :
Outils et architecture
* *
Au tout début, dans les années 1940, les programmeurs devaient écrire
dans le langage machine de l’ordinateur. Son vocabulaire est constitué de
nombres binaires représentant les adresses des mémoires et les codes des
opérations. Programmer dans ce langage est pénible car il offre peu de re-
pères à la mémoire et à l’intuition de l’être humain.
L’assembleur, conçu en 1950, permet de coder les opérations en utili-
sant des caractères alphabétiques (ADD pour l’addition, SUB pour la sous-
traction etc.) et traduit ces codes en langage machine. Néanmoins il était
nécessaire de définir des langages encore plus commodes, dits « de haut ni-
veau » (ils sont relativement faciles à apprendre et à utiliser, mais leur mise
en œuvre sur la machine suppose une cascade de traductions assurant une
optimisation de l’utilisation des couches basses de la machine). Le premier
1. Sans doute a-t-il été victime, avec d’autres, de la « political correctness » qui,
remplaçant le nom d’une profession par un autre jugé plus prestigieux, fait comme le
maladroit qui élargit une tache au lieu de l’effacer. En 1949 on ne disait pas « program-
meur » mais « codeur » : « We were not programmers in those days. The word had not
yet come over from England. We were “coders.” » (Hopper [85] p. 7).
281
282 CHAPITRE 8. OUTILS ET ARCHITECTURE
des langages à objets est proche de celle de la simulation. Leur évolution est
allée vers la simplicité et la sécurité : Java contient plus de « garde-fous »
que C++, qui comporte les mêmes risques que C.
Les programmes peuvent s’articuler autour d’un « bus » qui assure no-
tamment le routage des messages et soulage d’autant l’écriture de chaque
programme : on parle alors d’EAI (« Enterprise Application Integration »)
ou encore de « middleware » (voir page 294).
* *
où elles sont perchées ? Non, sans doute ; notre ignorance va si loin que
nous sommes incapables de lire les rapports d’expertise, mais cela ne fait
qu’amplifier nos émotions.
Parmi ceux qui préfèrent Linux à Windows, ou l’inverse, quelques-uns
ont de bonnes raisons mais pour la plupart c’est une affaire de mode ou d’ha-
bitude. L’émotion, la mode, l’habitude font de nous des moutons de Panurge.
Ne devrions-nous pas étudier les objets familiers qui nous entourent pour
pouvoir entretenir avec eux des rapports raisonnables, sinon rationnels?
* *
Gestion de la mémoire
Comme le coût de la mémoire est fonction croissante de la vitesse d’ac-
cès, le PC utilise plusieurs mémoires dont la taille est d’autant plus petite
que la vitesse d’accès est plus élevée (le disque dur, mémoire la plus volumi-
neuse, est aussi la plus lente). Outre la RAM, où résident les programmes
en cours d’exécution, le processeur comporte des mémoires caches très pe-
tites (quelques Mo) et très rapides, dont le système d’exploitation assure la
gestion (fort délicate).
La « mémoire virtuelle » est une technique d’écriture des adresses : les
adresses virtuelles que comporte le programme ne sont traduites en adresses
réelles que quand c’est nécessaire. Cela permet d’utiliser un espace d’adres-
sage aussi grand qu’on le souhaite et de se libérer des contraintes liées à
la taille de la mémoire physique. La traduction des adresses virtuelles en
adresses réelles est effectuée à la volée par la MMU (« Memory Management
Unit »). Les programmes, eux, n’ont à connaître que les adresses virtuelles.
L’appel d’une donnée par un programme doit pouvoir être indifférent à la
nature de la mémoire sur laquelle elle réside : c’est au système d’exploitation
qu’il revient d’automatiser les entrées et sorties.
* *
Pour construire un programme, il suffit de définir les données et de pro-
grammer les traitements, ou « algorithmes » (d’où le titre du livre de Niklaus
Wirth, créateur du langage Pascal : Algorithms + Data Structures = Pro-
grams [219]). Mais sauf dans les cas les plus simples on ne peut pas plus se
lancer directement dans la programmation que l’on ne pourrait construire
une maison sans avoir dessiné son plan.
Le plan d’un programme, c’est un modèle qui doit correspondre aux be-
soins des utilisateurs tout en tenant compte de l’état de l’art informatique et
des contraintes techniques et économiques de la réalisation. Les principales
qualités sémantiques que doit posséder un modèle sont les mêmes que celles
que l’on exige du système d’information (voir page 255) :
- la pertinence : il faut que le modèle réponde correctement aux besoins
des utilisateurs ;
- puis la sobriété : comme toute représentation du monde réel, celle que
donne le modèle est schématique ; ce schématisme doit non seulement être
accepté, mais assumé de façon positive : il faut que le système d’information
soit le plus simple possible ;
- enfin la cohérence : si l’application comportait une incohérence elle
serait fausse et il faudrait corriger cette « bogue » ; elle doit en outre être
8.3. DÉCOUPAGE EN « APPLICATIONS » 289
* *
Le premier ERP a été mis au point par SAP, entreprise allemande dont
l’acronyme se développe en allemand comme en anglais : « Systeme, Anwen-
dungen, Produkte in der Datenverarbeitung » ou « Systems, Applications
& Products in Data Processing ».
SAP a été créée en 1972 à Walldorf, en Bavière, par cinq anciens pro-
grammeurs d’IBM Allemagne. Comme toutes les petites entreprises de lo-
giciel celle-ci a commencé par produire du sur mesure. Son premier contrat
portait sur un système comptable et financier en temps réel pour l’usine
d’Imperial Chemical Industries (entreprise britannique) à Ostragen.
À l’époque peu de programmeurs étaient capable de réaliser un système
en temps réel et la petite équipe de SAP s’est ainsi placée à un haut niveau
d’expertise. Conformément à la stratégie qui vise à réutiliser et rentabiliser
l’expertise accumulée sur un premier contrat, SAP a construit à partir de
cette solution un produit interne, le « System R », progressivement amélioré
et enrichi lors des contrats suivants de façon à devenir de plus en plus
universel tout en restant intégré et cohérent.
L’idée de base de SAP a été d’organiser le système d’information au-
tour d’une base de données unique, alimentée et utilisée par les diverses
applications. La cohérence du système est garantie par l’unicité de la base
8.3. DÉCOUPAGE EN « APPLICATIONS » 291
de données : il est exclu qu’une même information soit représentée par plu-
sieurs données différentes.
En 1980 SAP est la dix-septième SSII allemande et elle a pour clients
la moitié des cent plus grandes entreprises allemandes. Elle est protégée
de la concurrence américaine d’une part parce que les entreprises de logi-
ciel américaines ne s’intéressent pas encore au marché européen (elles ont à
cette époque trop à faire sur le marché américain), d’autre part parce que le
produit de SAP est d’une qualité très supérieure à celle des logiciels améri-
cains : la mise au point est soigneuse, réalisée par une équipe de haut niveau
rigoureuse et disciplinée : la programmation à l’allemande se distingue du
« good enough » empirique à l’américaine.
En 1981, SAP propose R/2, assemblage pour mainframe. En 1982, SAP
a 250 clients allemands, dont plusieurs filiales allemandes de groupes inter-
nationaux. Ces filiales seront pour SAP des chevaux de Troie vers l’interna-
tionalisation : lorsque les grands groupes découvriront la qualité du logiciel
dont s’est équipée leur filiale allemande, ils voudront le généraliser au monde
entier.
SAP crée un bureau international à Genève en 1984 et internationalise
R/2, dont le paramétrage devient capable de prendre en compte la diversité
des monnaies, législations fiscales etc. Le produit devient ainsi adaptable à
tous les pays au prix de l’ajustement de milliers de paramètres.
L’adaptation du progiciel de SAP à une entreprise devient une spécialité
parmi les consultants ; la qualification en SAP sera bientôt très recherchée
par les SSII et SAP crée en 1987 un Centre international de formation pour
les consultants.
Un bureau américain est ouvert à Philadelphie près des premiers clients
américains de SAP en 1988. SAP définit pour les États-Unis une politique
commerciale spécifique, les vendeurs percevant un intéressement qui rendra
jaloux les commerciaux allemands. Des groupes d’utilisateurs sont créés, des
partenariats avec les SSII sont montés. En 1990, SAP est au quatrième rang
mondial des producteurs de logiciels.
Le système R/3, commercialisé en 1992, est adapté au client/serveur. En
1993, le livre de Hammer et Champy [36] lance la mode du re-engineering qui
répond d’ailleurs à une nécessité : les entreprises s’étant équipées d’applica-
tions non cohérentes, le besoin d’une réorganisation du système d’informa-
tion se faisait sentir. L’ERP se présentait comme un ensemble de composants
logiciels avec lequel on pourrait construire un système d’information : beau-
coup d’entreprises estimeront que la meilleure solution consiste à mettre au
rebut leurs anciennes applications et à tout reconstruire autour de R/3.
SAP avait mis au point une nouvelle formule tarifaire : le prix de la
licence R/3 dépendait du nombre de postes de travail équipés (2 700 à 4 000
$ par station). Cela lui permit d’atteindre des niveaux de prix jusqu’alors
jamais vus dans le marché du logiciel.
* *
Cependant le coût de la licence ne représente qu’une faible partie de la
dépense que l’entreprise doit supporter pour implanter un ERP. Le travail
292 CHAPITRE 8. OUTILS ET ARCHITECTURE
* *
Les commerciaux des ERP disposent de puissants arguments face aux
dirigeants 8 : ils leur proposent de mettre un terme au désordre du système
d’information et leur donnent l’espoir de régler des problèmes d’organisa-
tion sans grand effort politique. Cette offre séduisante par sa qualité et sa
cohérence est cependant à l’usage plus risquée que l’on aurait pu l’imaginer :
elle ne peut être efficace que si l’on accepte les contraintes qu’elle impose,
et sa mise en œuvre comporte des difficultés et des pièges.
Si l’ERP incorpore une expertise professionnelle qui fournit à l’entreprise
des modèles de processus conformes à l’état de l’art, ses fournisseurs ne
peuvent pas incorporer dans leur produit une compétence universelle car
cela leur demanderait trop de travail : dans les domaines où l’entreprise est
particulièrement « pointue » elle dispose d’une expertise meilleure que celle
que l’ERP peut apporter.
Ainsi il sera raisonnable de faire appel à l’ERP pour les fonctions qui ne
relèvent pas de son cœur de métier ; par contre sur le cœur de métier où il lui
7. solutions.journaldunet.com/dossiers/chiffres/erp.shtml
8. Guillaume Benci, « Ingénierie du SI à base de progiciel », conférence au Séminaire
du club des maîtres d’ouvrage des systèmes d’information, 25 mai 2000.
8.3. DÉCOUPAGE EN « APPLICATIONS » 293
importe d’être plus efficace que ses concurrents elle ne pourra généralement
pas se contenter de l’ERP et devra utiliser un logiciel « sur mesure » réalisé
par une SSII sur cahier des charges, puis traiter les problèmes que pose
l’intégration de ce logiciel avec l’ERP.
Par ailleurs adopter un ERP implique plus qu’un contrat avec le fournis-
seur : c’est un mariage qui comporte des obligations, et il sera plus difficile
d’en sortir que d’y entrer. Si l’éditeur a créé un club d’utilisateurs, l’entre-
prise devra y faire participer ses propres experts mais cela leur prendra du
temps.
Tout ERP a des limites et il est inévitable qu’elles ne coïncident pas
avec ce que l’entreprise aurait souhaité. Elle aurait voulu un carré, c’est
un losange qui lui est livré (figure 8.4) : il manque des choses à l’ERP par
rapport à ses besoins, et il fait par ailleurs des choses dont elle n’a pas
besoin.
Les choses que l’ERP fait en trop sont éventuellement gérées dans l’en-
treprise par d’autres espaces fonctionnels : il faudra traiter les redondances
et chevauchements qui en résultent. Ce qui manque, mais qui est nécessaire,
devra être fait ailleurs tout en étant cohérent avec l’ERP : cela occasionnera
un travail supplémentaire d’architecture.
L’ERP est fourni avec ses propres solutions en ce qui concerne le référen-
tiel (catalogue des produits, référentiel des clients et fournisseurs, inventaire
des stocks etc.) : si l’entreprise a mis en place des solutions différentes, elle
devra y renoncer car il est moins coûteux de s’adapter à l’ERP que d’adapter
celui-ci à l’entreprise.
Il se peut enfin que l’éditeur de l’ERP n’ait pas choisi les mêmes logi-
ciels système que l’entreprise (système d’exploitation, SGBD etc.). Adopter
l’ERP peut la contraindre soit à gérer en parallèle plusieurs versions des
logiciels système, ce qui implique une duplication des compétences et des
équipes au sein de la DSI, soit à se plier aux choix faits pour l’ERP - ce sera
le plus souvent préférable, mais au prix d’une réfection de la plate-forme
informatique.
294 CHAPITRE 8. OUTILS ET ARCHITECTURE
Les fonctions offertes par le bus soulagent d’autant les applications : pour
ne prendre qu’un exemple, il est plus simple pour une application d’envoyer
les messages au bus qui en assurera le routage que d’inclure elle-même un
sous-programme de communication.
D’ailleurs on peut connecter au bus des « services » (applications spé-
cialisées dans la fourniture d’un service aux autres applications : sécurité,
supervision, métrologie etc.). Il en résulte une économie d’échelle par concen-
tration du code naguère dispersé dans plusieurs applications.
On demande aussi parfois au bus de présenter le système d’information
sur l’interface homme-machine de telle sorte que l’utilisateur dispose exac-
tement, et « sans couture », des « vues » sur le système d’information qui
lui sont nécessaires (données, espaces de saisie, traitements).
Le bus EAI est en définitive un « middleware » très riche en fonctionna-
lités techniques. Sa mise en œuvre suppose que les fonctions ci-dessus soient
définies et paramétrées. L’utilité de l’EAI est réelle - mon propos n’est pas
de le dénigrer - mais sa présentation par les commerciaux est d’une sim-
plicité trompeuse. Demandez d’ailleurs au commercial qui cherche à vous
vendre un EAI comment son produit gère les routages, transcodages, syn-
chronismes, concurrence, persistance etc. Le plus souvent il n’en saura rien,
le pauvre : ses seules armes sont le transparent ci-dessus et son savoir-faire
de vendeur professionnel. Une fois le contrat signé arriveront les spécialistes.
Pour pouvoir construire le « bus » ils devront poser une liste de questions
qui dissipera bientôt la première image, fallacieuse, de simplicité.
8.4.1 Datamining
Karim K. Hirji [83] a étudié un projet de datamining réalisé en 1998
pour une entreprise canadienne de restauration rapide. On peut tirer de
cette étude quelques enseignements de portée générale.
Le datamining (en français « fouille dans les données ») est une mé-
thode statistique qui vise, à partir de l’examen des données, à induire des
modèles descriptifs ou même explicatifs. Il fournit, en réponse à des ques-
8.4. INTRANET ET DATAMINING 297
Le praticien qui examine les données jour après jour règle en effet chemin
faisant les problèmes de sélection, d’estimation des données manquantes, de
redressement, de transcodage etc. qui sont le premier obstacle au datami-
ning. Pour interpréter les données, il formule des hypothèses et les teste.
Ce travail se fait à petite échelle, sur un tableur, sans prétention théorique,
mais il donne des résultats de valeur (la preuve : on les retrouve après une
approche « industrielle lourde »).
Il ne faut pas sous-estimer l’efficacité d’un travail quotidien, assidu, qui
ronge les obstacles comme les vagues rongent une falaise. Seulement les ré-
sultats obtenus par le praticien sont difficiles à communiquer, à partager ; les
autres personnes ne peuvent pas savoir s’il s’agit de vrais résultats, sérieux
et solides, ou de lubies individuelles.
Le datamining, avec sa lourdeur et son caractère systématique, apporte
aux résultats la caution de son poids. Si l’entreprise dispose d’un statisticien
crédible, pondéré, qui examine assidûment les données, il apportera armé
de son habileté et de son tableur - ou si l’on veut d’un logiciel statistique
comme SAS - autant et plus que tous les outils de datamining, à condition
qu’il sache communiquer et qu’elle sache l’écouter.
Mais il faut parfois, pour faire passer une « évidence » dans l’entreprise,
jouer la comédie de la rigueur ostentatoire en recourant à des outils sophisti-
qués. Il est vrai aussi que certaines « évidences » ne se révéleront pas si l’on
a pour seuls outils un bon cerveau et un tableur : alors les lourdes méthodes
du datamining peuvent être utiles. Mais il est prudent, avant de les utiliser,
de s’assurer que l’on a déjà tiré des données ce qu’un bon statisticien peut
en extraire avec les méthodes « manuelles ».
8.4.2 Intranet
Utiliser un Intranet, c’est utiliser dans l’entreprise des outils analogues à
ceux que l’on trouve sur l’Internet : messagerie, Web, forums, et les diverses
extensions rendues possibles par Java, Perl et autres XML : formulaires,
moteurs de recherche, statistiques d’utilisation etc.
L’Intranet est utilisé d’abord pour la communication interne, notam-
ment la rédaction, la diffusion et la tenue à jour des documentations pro-
fessionnelles. Lai [107] attribue cette mission à la direction des ressources
humaines, mais elle peut être remplie par d’autres directions (communica-
tion, production, commerciale).
L’Intranet est un moyen peu coûteux et efficace pour mettre la docu-
mentation de l’entreprise à la disposition de l’ensemble son personnel, quelle
que soit la localisation de celui-ci dans le monde, car il utilise les standards
de l’Internet et de la Toile (TCP/IP, HTTP, HTML) et sa mise en place
ne nécessite donc pas de chambouler les réseaux ni les ordinateurs. Pour
une petite entreprise, c’est une façon économique de s’informatiser, la pe-
tite taille ne constituant pas ici un désavantage. Les apports essentiels sont
l’accès des salariés à une information à jour et l’amélioration de la communi-
cation sur l’organisation. Les difficultés résident dans la gestion du contenu,
l’animation des groupes de travail et la maîtrise des réseaux.
8.5. LE SYSTÈME INFORMATIQUE D’AIDE À LA DÉCISION 299
* *
Un SIAD peut être présenté selon trois couches (figure 8.6) :
- alimentation par les applications opérationnelles ;
- stockage historisé, agrégation et alimentation des hypercubes ;
- publication sous forme d’alerteurs, de tableaux préformatés, de ta-
bleaux croisés et de graphiques.
La base de données du SIAD est exploitée par une équipe d’analystes
pour produire les hypercubes, et aussi pour répondre à des requêtes com-
plexes envoyées par les utilisateurs. Seuls les hypercubes sont directement
consultables par les utilisateurs qui peuvent ainsi construire une grande di-
versité de tableaux croisés. La constitution de la base de données du SIAD à
partir des applications qui l’alimentent nécessite une procédure permettant
d’extraire périodiquement de chaque application les données nécessaires.
Ces données sont rangées par l’application dans une base de données in-
8.5. LE SYSTÈME INFORMATIQUE D’AIDE À LA DÉCISION 301
* *
À partir de ce qui précède il est aisé de concevoir la nature du silo
d’échange que chaque application doit constituer. Au démarrage du SIAD,
l’application construit une base de données initiale indiquant pour chaque
enregistrement individuel la valeur des variables observées par le SIAD.
8.5. LE SYSTÈME INFORMATIQUE D’AIDE À LA DÉCISION 303
Cette base de données sera ensuite traitée pour amorcer l’entrepôt de don-
nées.
Puis le silo sera alimenté, selon la technique choisie, soit par les événe-
ments, soit par les photographies au fur et à mesure de leur occurrence. Il
faut donc prévoir, à l’intérieur de l’application, un mécanisme qui détectera
les événements, ou qui prendra les photographies, et enverra les enregistre-
ments correspondants vers le silo où ils seront stockés. Le moteur d’alimen-
tation du SIAD consulte périodiquement le silo, recopie ses éléments vers
une base temporaire, le « Sas » (ils seront ensuite traités pour alimenter
l’entrepôt), puis le purge.
Le silo est une base de données de taille modeste, son volume se limitant
à celui des événements survenus entre deux consultations par le SIAD ou
à celui de la dernière photographie. Il peut contenir aussi des indications
techniques visant à garantir la qualité de l’alimentation du SIAD ; il faut en
effet s’assurer (et ce n’est pas facile) :
- que l’image de l’application figurant dans le SIAD ne diverge pas de la
réalité par suite d’un cumul d’erreurs dans la collecte des événements ;
- que des opérations visant à « nettoyer » l’application (purge d’enregis-
trements désuets, corrections des codages et identifiants) ne suscitent pas
des erreurs en provoquant des événements factices ;
- que les modifications des classifications et nomenclatures utilisées dans
l’application sont correctement répercutées dans le SIAD.
Commande adressée par le SIAD à une application
On voit maintenant ce que doit contenir la commande adressée par le
SIAD à une application :
- définition des « individus » qui seront observés ; a priori, tous les
individus gérés par l’application intéressent le SIAD (clients et commandes,
fournisseurs et offres) ;
- liste des attributs qui seront observés par le SIAD sur chacun de ces
individus ;
- indications techniques visant à garantir la qualité de l’alimentation du
SIAD.
Les responsables de l’application devront, à partir de cette commande,
faire réaliser le logiciel qui permettra d’alimenter le silo conformément à la
méthode décrite ci-dessus. Il n’est pas indispensable que le SIAD indique
dès la passation de sa commande la liste définitive des variables qu’il voudra
observer : une fois le mécanisme d’alimentation du silo d’échange en place,
cette liste peut être modifiée car elle est un paramètre de ce mécanisme.
Traitements réalisés par le SIAD
Les données issues d’une application opérationnelle ne se prêtent jamais
telles quelles à une exploitation statistique : il faut corriger les erreurs, es-
timer les données manquantes etc. Entre le silo d’échange et l’entrepôt de
données s’intercale donc un traitement des données.
L’existence de ce traitement peut poser problème lors de l’utilisation des
données : lorsqu’on remplace une donnée manquante par une estimation,
cela peut donner une information utilisable au niveau France entière mais
304 CHAPITRE 8. OUTILS ET ARCHITECTURE
* *
Apport du SIAD à la gestion
Le SIAD a pour but de faciliter l’orientation de l’action en fournissant
des données qui alimentent la compréhension du marché et de l’activité de
l’entreprise, après recoupement éventuel avec d’autres sources (économiques,
démographiques, marketing etc.).
Il fournira donc les indicateurs de pilotage permettant à un responsable
opérationnel d’évaluer la qualité et la productivité du travail fourni par des
établissements ou des équipes, indicateurs qui impliquent un recoupement
avec des données que le SIAD ne comporte pas toujours (volume et qualité
des ressources employées, délais de traitement des affaires etc.).
Il n’a pas vocation à fournir des indicateurs pour un pilotage opération-
nel au jour le jour ou pour le suivi de dossiers individuels. Il faut donc que
chaque processus soit muni des outils permettant aux responsables opéra-
tionnels de piloter les travaux au plus près de leur réalisation. Cependant
le SIAD peut contribuer à l’alimentation de ces outils : un responsable peut
trouver, dans les hypercubes que produit le SIAD, telle série chronologique
qu’il recoupera avec des données de gestion pour évaluer l’efficacité du tra-
vail de son unité.
Apport du SIAD à l’analyse
Certains représentent l’architecture du SIAD par une pyramide. Sa large
base est constituée des applications qui l’alimentent, le sommet par les hy-
percubes et autres outils d’observations synthétiques (figure 8.7).
* *
Un premier projet de datawarehouse, plus verbal que pratique, a échoué :
ses spécifications manquaient de précision et l’entreprise n’avait pas accordé
les moyens nécessaires pour lancer sa réalisation. Il fut relancé par une
autre équipe en 1997. Il a démarré effectivement en 1998, la mise en service
débutant en 2002.
Le datawarehouse commercial d’Artichico aura finalement coûté de l’ordre
de 25 millions d’euros. Il est destiné à plus de mille utilisateurs internes à
l’entreprise. On prévoit de l’ordre de 10 000 connexions par semaine à terme.
Il est aujourd’hui considéré comme une des réussites du système d’informa-
tion de l’entreprise.
La solution technique articule plusieurs progiciels : un pour les extrac-
tions et les traitements, un autre pour la production des tableaux, enfin un
SGBD. La « base détail » du datawarehouse est alimentée par les appli-
cations opérationnelles ; des agrégats sont produits selon les nomenclatures
que fournissent les référentiels.
L’exploitation du datawarehouse est une usine informatique qui consomme
chaque mois 80 heures de CPU pour le traitement mensuel, 120 heures pour
le traitement hebdomadaire, 200 heures pour le traitement quotidien, soit
400 heures en tout. La base de données occupe 2 To et utilise 1 000 tables
de référence. Le traitement comporte chaque mois 200 passages de chaînes
différentes : il faut les orchestrer, traiter les alertes, réaliser des reprises etc.
Pour maîtriser cette usine, il a fallu concevoir pour les opérateurs une « cho-
régraphie » précisément minutée ; les programmeurs ont dû s’astreindre à
produire un code exploitable et bien documenté.
La réalisation
La direction du projet à la maîtrise d’œuvre a d’abord piétiné pendant
un an et demi en produisant des développements jetables. Le chef de pro-
jet ambitionnait d’organiser la production à la place des opérateurs mais
10. Données sur les parts de marché, offres des entreprises concurrentes, offre de l’entre-
prise, commande des clients, enquêtes de satisfaction auprès des clients, relations après
vente, programme de fidélisation, indicateurs de qualité, contrats avec les distributeurs
etc.
308 CHAPITRE 8. OUTILS ET ARCHITECTURE
310
9.1. DES PROCESSUS AUX OBJETS 311
* *
Modéliser un processus, c’est décrire la succession des activités qu’il
comporte et le contenu de chaque activité : ce que fait chaque acteur, les
données qu’il manipule, les traitements qu’il ordonne, les délais dans lesquels
son travail doit être exécuté ; c’est aussi décrire le routage des messages
entre activités ainsi que les compteurs qui permettront à un animateur de
contrôler la qualité du processus. La figure 9.1 représente à titre d’exemple
la boucle que parcourt un processus commercial.
* *
Un processus peut se décrire sous la forme d’un graphe. Les nœuds
représentent les activités, les arcs représentent le trajet des messages émis
à la fin d’une activité pour lancer la (ou les) activité(s) suivante(s).
Il est préférable de donner à ce graphe une forme circulaire. Cela souligne
que le processus est déclenché par un événement provenant de l’extérieur
(réception d’une commande, d’une lettre de réclamation, franchissement du
délai de maintenance d’un équipement) auquel il répond par un événement
émis vers l’extérieur (livraison, lettre, opération de maintenance). Le rôle du
processus, c’est de réaliser l’ensemble des tâches qui concourent à l’élabora-
tion de cette réponse et qui constituent l’acte de production. Il convient de
s’assurer que la réponse est émise dans un délai et sous la forme convenable,
qu’elle est de bonne qualité : c’est le contrôle du bouclage (figure 9.2).
Les activités qui s’enchaînent lors d’un processus comportent des sai-
sies de données, des consultations de données, le lancement de traitements
sur les données. Les données consultées et saisies lors du processus doivent
être cohérentes : s’il s’agit par exemple de traiter une commande, il faudra
que les ordres de production ou de déstockage reprennent fidèlement ses
termes. Ainsi les activités « font la ronde autour des données » ; nous avons
représenté dans la figure 9.2 les données (et les traitements qui leur sont
associées) par un rond marqué du mot « Objets », car l’une des façons les
plus efficaces de représenter données et traitements est de les organiser en
« objets ».
9.1. DES PROCESSUS AUX OBJETS 313
risque existe alors que le processus ne « se perde dans les sables ». C’est le
cas lorsque la lettre d’un client passe de bureau en bureau, et attend dans
des piles sans que personne ne contrôle le délai de réponse : on renoncera à
répondre lorsque le délai décent aura été dépassé et la lettre ira à la corbeille.
Le dernier document arrivé sur un bureau est souvent traité en premier, ce
qui accroît la dispersion des délais de traitement.
La modélisation d’un processus n’est pas la simple mise en forme du
processus existant, car elle conduit souvent à repérer et corriger des dé-
fauts : bras morts où les délais s’accumulent ; redondance (la même tâche
est réalisée par deux acteurs à la fois) ; erreur d’adressage (le dossier par-
vient à une personne non concernée qui devra identifier le destinataire et le
lui faire parvenir) ; mauvaise répartition de la charge de travail (certaines
personnes sont surchargées alors que d’autres n’ont rien à faire) etc. Comme
l’entreprise travaille selon des habitudes dont la raison d’être s’est souvent
estompée, un processus qui n’a jamais été modélisé présente presque tou-
jours des défauts : la modélisation fait souvent gagner de l’ordre de 20 % en
productivité comme en qualité.
On dit parfois que la modélisation doit « optimiser » le processus. L’ex-
périence montre que le gain de qualité provient de la clarté qu’apporte la
modélisation, de l’animation qu’elle permet de mettre en place, plutôt que
d’un effort tendu vers la recherche d’un optimum qu’il serait d’ailleurs dif-
ficile de définir.
* *
Chaque utilisateur va, lors de l’activité qu’il accomplit, consulter ou sai-
sir quelques données, déclencher quelques traitements : ceci conduit naturel-
lement vers la programmation par objets. Le mot « objet » désigne ici un
petit programme qui rassemble les données et les traitements concernant
un des êtres du monde réel sur lesquels l’entreprise entend agir (produit,
client, fournisseur, partenaire etc.), ou un être intermédiaire (dossier, rap-
port, feuille de calcul) nécessaire à l’élaboration du produit.
Pour modéliser le processus de production, on dispose de plusieurs lan-
gages : UML (Unified Modeling Language) convient bien à la préparation
d’une programmation par objets. Pour les petits processus 1 , qui peuvent
être réalisés avec des outils bureautiques (demandes de congé ou de muta-
tion, demandes de fournitures, préparation du budget annuel etc.), on peut
se contenter des outils de workflow offerts sur le marché.
1. Si ces processus sont « petits » selon le volume des ressources informatiques consom-
mées et le coût de leur mise en place, ils peuvent être importants pour l’efficacité de
l’entreprise : il ne faut donc pas les négliger.
9.2. DE LA PROGRAMMATION IMPÉRATIVE À L’OBJET 315
* *
La modélisation par objets utilise des procédés qui permettent d’écono-
miser l’écriture du code et contribuent à son évolutivité :
Certaines populations peuvent faire l’objet d’une segmentation en sous-
populations : c’est le cas des classes « employés », « client », « produit »,
9.2. DE LA PROGRAMMATION IMPÉRATIVE À L’OBJET 319
* *
Avant d’écrire la première ligne d’un programme à objets, il importe
d’avoir défini les classes, attributs etc., c’est-à-dire d’avoir « modélisé »
l’application. Ce travail sera fait soit par le programmeur, qui devra faire
valider ses choix par le client, soit par la maîtrise d’ouvrage qui livrera au
programmeur un « modèle métier » (ou « spécifications générales ») proche
des préoccupations du client mais déjà formulé selon les concepts de la modé-
lisation par objets (classes, attributs etc.). L’état de l’art propose d’utiliser,
pour cette modélisation, le langage UML. Ce modèle sera progressivement
précisé jusqu’à ce que toutes les décisions nécessaires à la production du
code aient été prises.
Le programmeur lance alors, en s’appuyant sur le modèle, un générateur
de code qui produira automatiquement de l’ordre de 80 % des lignes de
code ; il restera à les compléter pour finir l’écriture du programme. Un outil
comme Rose de Rational (www.rational.com/products/rose/index.jsp)
permet à la fois d’écrire le modèle, dans ses diverses étapes, et de générer
une partie du code : ainsi le travail peut progresser de façon cumulative,
sans perte d’information et sans qu’il soit besoin de refaire le travail déjà
fait pour l’adapter à un formalisme nouveau.
La programmation par objets requiert une réflexion préalable plus longue
que celle, peut-être insuffisante, qu’il était habituel de consacrer à la pro-
grammation impérative. Par contre une fois le modèle construit l’écriture
du code est plus rapide.
Lorsqu’un programme à objets est lancé, l’exécution commence par une
des classes (nommée « main », classe principale). Cette classe envoie des mes-
sages vers d’autres classes ou sollicite une action de l’opérateur humain (ou
9.2. DE LA PROGRAMMATION IMPÉRATIVE À L’OBJET 321
* *
Les objets communiquent par des messages qui transmettent des données
ou des appels de méthodes, les adresses des objets destinataires étant défi-
nies dans l’espace de nommage du programme. L’adressage et le libellé des
messages posent problème lorsqu’on travaille sur des objets résidant sur des
ordinateurs différents (« objets distribués »), appartenant à des programmes
écrits dans des langages différents ou exploités sur des plates-formes diffé-
rentes. Il faut alors utiliser un « Object Request Broker » (ORB) : cela
permet de concevoir des applications où le traitement réalisé sur un ordi-
nateur nécessite l’exécution d’un autre traitement sur un autre ordinateur.
Les objets distribués sur la Toile sont nommés « Web services ».
La définition des ORB a nécessité une normalisation qui a été assu-
rée par l’OMG (Object Management Group), www.omg.org, organisation
internationale qui fédère les entreprises concernées par la technologie ob-
jets). L’OMG a défini l’architecture MDA (« Model Driven Architecture »),
dont les fleurons sont la norme CORBA (« Common Object Request Bro-
ker Architecture ») pour les ORB et le langage UML (« Unified Modeling
Language ») pour la modélisation. Les outils CORBA relèvent, comme les
EAI, du « middleware » : ils assurent des fonctions de communication entre
programmes et remplissent donc mutatis mutandis une fonction analogue
à celle des commutateurs d’un réseau téléphonique ou des « hubs » d’un
transporteur aérien.
* *
Pour longtemps encore le système d’information d’une entreprise devra
faire cohabiter les applications nouvelles, écrites en langage à objets, et
les applications anciennes qui gèrent séparément les bases de données et
les traitements. Il est possible d’introduire dans un programme à objets
des êtres qui se comportent comme des objets quand on les voit du côté
du langage à objets, et qui par ailleurs lancent des requêtes et appels de
traitements vers l’application traditionnelle.
Sun commercialise à cette fin la plate-forme J2EE (« Java 2 Platform,
Enterprise Edition ») qui assure la communication entre les applications
objet, les bases de données et les applications traditionnelles.
La mise en œuvre des brokers, Web Services et interfaces diverses est,
en pratique, des plus délicates. Les langages de haut niveau dans lesquels
les programmes sont écrits masquent en effet ce qui se passe réellement et
physiquement dans les compilateurs, processeurs et mémoires, et le pro-
grammeur peut avoir de mauvaises surprises (le programme est conforme
aux bonnes règles d’écriture, mais il donne pourtant un résultat faux). Par
ailleurs la cascade des transcodages, traductions, interprétations, appels de
traitement, requêtes etc. peut aboutir, en termes de performances, à des
délais que l’utilisateur juge intolérables. Ces problèmes-là relèvent de l’art
de l’informaticien expert.
322 CHAPITRE 9. MODÉLISATION PAR OBJETS
2. « Bob Barton (...) had said (...) : “The basic principle of recursive design is to make
the parts have the same power as the whole”. For the first time I thought of the whole as
the entire computer and wondered why anyone would want to divide it up into weaker
things called data structures and procedures. Why not divide it up into little computers,
as time-sharing was starting to ? But not in dozens. Why not thousands of them, each
simulating a useful structure? » (Alan Kay, [98] p. 516).
9.3. LANGAGE DE MODÉLISATION UML 323
Références sélectives
3. Les diagrammes fournis en exemple ont été aimablement communiqués par M. Mat-
326 CHAPITRE 9. MODÉLISATION PAR OBJETS
* *
Le modèle UML, au moins dans la première étape de son élaboration
(modèle métier), transcrit la stratégie de l’entreprise en vue de l’action. Il
importe que les abstractions qu’il comporte soient celles qui conviennent au
métier et aussi que le métier s’approprie le modèle. La validation du modèle
9.3. LANGAGE DE MODÉLISATION UML 329
par le dirigeant du métier (maître d’ouvrage stratégique, voir page 407) est
une étape importante de la modélisation : elle permet d’éviter la versatilité
des spécifications qui est la plaie des projets.
Il faut pour cela pouvoir présenter au dirigeant le modèle UML sous une
forme qu’il puisse lire, et comprendre, ce à quoi la présentation formelle ne
se prête pas à l’exception du diagramme d’activité.
L’appropriation collective du modèle par l’entreprise passe par une pré-
sentation visuelle du système d’information : on peut ici recommander l’outil
OnMap de la société Nomia (www.nomia.com), qui permet de présenter le
processus de production comme un dessin animé, selon une mise en scène qui
fait comprendre à chacun (au comité de direction tout comme aux agents
opérationnels) tout à la fois et le processus, et la façon dont le système
d’information l’outille (figure 9.10).
La conquête de l’ubiquité
* *
330
10.1. NAISSANCE DU RÉSEAU 331
2. « Most computer manufacturers and directors of computer centres argued that time-
sharing was an inefficient use of machine resources and should not be pursued. » (Robert
W. Taylor, preface de In Memoriam J. C. Licklider, Digital Systems Research Center, 7
août 1990).
3. « Les êtres humains définiront les buts, formuleront les hypothèses, choisiront les
critères et réaliseront les évaluations. Les ordinateurs accompliront les tâches routinières
nécessaires pour préparer les intuitions et les décisions dans les domaines technique et
scientifique » ; « nous espérons que dans peu d’années les cerveaux humains et les ordi-
nateurs seront étroitement couplés, que le partenariat qui en résultera pensera comme
aucun cerveau humain n’a jamais pensé, et traitera les données bien autrement que ne
le font les machines que nous connaissons aujourd’hui » ; « mieux vaut, pour éviter la
polémique avec les partisans de l’intelligence artificielle, leur concéder que dans un futur
éloigné la machine aura le monopole de l’intellect. Il n’en restera pas moins un délai
confortable pendant lequel les principaux progrès seront réalisés grâce à la collaboration
intime entre l’ordinateur et l’être humain » ; « à un ordinateur, il faut indiquer des pro-
cédures ; à un être humain, il faut indiquer des buts : les êtres humains semblent penser
plus naturellement et plus facilement en termes de buts qu’en termes de procédures. »
(Licklider [115]).
4. « On-line interactive communities [...] will be communities not of common location,
but of common interest » (Licklider [116]).
5. Cette valse des responsables ne doit pas faire illusion : si les personnes passaient peu
de temps à l’IPTO, elles restaient présentes et influentes dans le domaine de recherche.
332 CHAPITRE 10. LA CONQUÊTE DE L’UBIQUITÉ
6. « Their attitude was that they knew everything and nobody outside the Bell Sys-
tem knew anything. And somebody from the outside couldn’t possibly understand or
appreciate the complexity of the system. So here some idiot comes along and talks about
something being very simple, who obviously does not understand how the system works. »
([123] p. 62).
10.1. NAISSANCE DU RÉSEAU 333
Chaque site équipé d’un IMP devrait produire lui-même, selon les spé-
cifications fournies par BBN, l’interface entre l’IMP et son ou ses ordina-
teurs (on pouvait raccorder jusqu’à quatre ordinateurs à un même IMP). La
mission des IMP étant seulement d’assurer le transport fiable des bits, les
ordinateurs devant régler deux à deux leurs problèmes de log-in, transfert
de fichiers et traitement de texte.
Pour configurer l’IMP BBN préféra le logiciel : une solution matérielle,
concrétisée par le câblage, aurait rendu plus rapide l’exécution des tâches
simples, mais il aurait été plus difficile de la modifier par la suite.
Le premier IMP est installé à l’UCLA le 30 août 1969 pour raccorder un
Sigma 7 ; le deuxième est installé au SRI le 1er octobre pour raccorder un
SDS 940. Le troisième est installé à l’UCSB le 1er novembre, le quatrième à
l’université d’Utah en décembre. Un « Network Measurement Center » est
mis en place à l’UCLA, sous la direction de Leonard Kleinrock, spécialiste
de la modélisation et de la simulation des réseaux qui avait ainsi l’occasion
de tester ses théories en vraie grandeur.
* *
Les budgets de l’ARPA furent comprimés en 1970 en raison de la guerre
du Vietnam, mais les crédits accordés à la recherche en informatique ne
furent pas rationnés. En mars 1970, le premier circuit trans-continental est
installé vers BBN qui sera le cinquième nœud du réseau. Cela permettra à
BBN d’assurer depuis Cambridge la supervision du réseau (télémaintenance,
télédistribution des mises à jour par réplication et dissémination). Des in-
dicateurs de qualité étant produits automatiquement par les IMP, BBN
pourra détecter les pannes du réseau d’AT&T avant les agents d’AT&T
eux-mêmes, ce que ceux-ci auront du mal à accepter.
Àl’été 70, le réseau s’étend au MIT, à RAND, SDC et Harvard. Par la
suite il s’enrichit d’un nœud par mois. BBN utilisera à partir de 1971 pour les
IMP un Honeywell 316, machine plus légère que le 516 et à partir de laquelle
est mis au point un TIP (« Terminal IMP ») qui permet de connecter des
terminaux au réseau (un TIP peut servir jusqu’à 63 terminaux).
En 1971, le réseau relie 19 ordinateurs et 3 TIP. Pour le désigner, l’ex-
pression Arpanet, ou « Net » tout court, apparaît en août 1972.
* *
La commutation de paquets relève d’un univers technique complètement
différent. Le transport des données sur les lignes téléphoniques demande une
modulation spécifique qui sera faite par les modems 7 et non plus par les
téléphones. Il faut que la qualité des lignes soit suffisante pour transpor-
ter des données. Les commutateurs doivent « pédaler » pour lire l’adresse
sur chaque paquet, consulter la table de routage, orienter le paquet vers
le circuit de sortie convenable. Le circuit transporte d’un commutateur à
l’autre non plus une seule conversation, mais des paquets ayant éventuelle-
ment des destinations différentes. La statistique du trafic n’est plus la même
et il faut des files d’attente (buffers) pour stocker les paquets en attente de
retransmission.
Les commutateurs électromécaniques étaient incapables de réaliser ces
fonctions : il fallait les remplacer par des ordinateurs spécialisés. Les règles
de qualité, d’ingénierie et de dimensionnement devaient donc être redéfinies
et de nouvelles spécialités professionnelles devenaient nécessaires à l’exploi-
tation du réseau.
7. Les premiers modems avaient été mis au point à la fin des années 1950 pour le
système de défense aérienne des États-Unis. Le premier modem commercialisé apparaît
en 1962 : c’est le Bell 103 d’AT&T qui permet de transmettre 300 bit/s.
10.1. NAISSANCE DU RÉSEAU 337
* *
Si les univers de la commutation de paquets et de la téléphonie sont dis-
tincts, ils ont en commun la commutation. Celle-ci disparaît dans l’univers
des RLPC (réseaux locaux de PC ou LAN, « Local Area Network »), encore
plus déroutant pour les gens des télécoms.
Sur un réseau Ethernet, en effet, il n’y a pas de commutateur 9 . Chaque
ordinateur est connecté à un « bus » qui lui transmet toutes les trames
émises par les autres ordinateurs. Il lit l’étiquette et trie, pour en lire le
contenu, celles qui lui sont destinées.
Alors que le réseau commuté met en relation les ordinateurs deux à deux
en leur réservant un canal de transmission, le réseau local est donc comme
une pièce dans laquelle s’entrecroiseraient plusieurs conversations. Le proto-
cole précise les règles de prise de parole et d’interruption en cas de collision.
Il en a existé plusieurs versions (Ethernet, Token Ring etc.) : à chacune
correspondent une statistique de trafic et une performance spécifiques (voir
page 354).
Pour raccorder deux réseaux locaux, on installe entre eux un pont (bridge)
qui trie les trames destinées à l’autre réseau pour les lui faire passer. Si l’on
raccorde plusieurs réseaux, il faut un routeur capable d’orienter la trame
vers le réseau destinataire. On retrouve donc dans les routeurs une fonc-
tion de commutation, mais elle s’opère entre des réseaux et non entre des
terminaux.
Ainsi peuvent se définir des architectures à plusieurs niveaux, la com-
munication entre plusieurs réseaux locaux étant réalisée par une dorsale
(backbone) à haut débit.
* *
À chacun des types de réseau correspond une statistique de trafic parti-
culière et une définition spécifique de l’encombrement. Sur le réseau télépho-
nique, l’encombrement se traduit par l’impossibilité d’établir la communica-
tion : l’utilisateur reçoit un signal indiquant que les circuits sont occupés et
qu’il doit rappeler plus tard. Par contre, sauf accident, une communication
en cours n’est jamais interrompue.
Avec la commutation de paquets, l’encombrement se traduit par un dé-
bordement des files d’attente dans les routeurs. Il faudra que le routeur, ou
l’ordinateur destinataire, envoie un message à l’émetteur pour lui demander
d’expédier de nouveau le paquet perdu.
Sur le réseau local, l’encombrement se traduit par de nombreuses colli-
sions entre trames ; si la fréquence des collisions dépasse un certain seuil, le
réseau ne peut plus rien transmettre : il est saturé.
Pour chaque type de réseau le dimensionnement doit, lors de la phase
de construction, rechercher le compromis raisonnable entre coût et risque
d’encombrement. Chaque type de protocole comporte une réponse à l’en-
combrement : traitement des « tickets d’échec » et filtrage de certains appels
dans le cas du réseau téléphonique ; délai de réémission dans le cas de la com-
mutation de paquets et du réseau local. Lors de la conception d’un nouveau
protocole, des études statistiques et des simulations sont nécessaires pour
vérifier s’il est utilisable et définir ses paramètres. Enfin pour procéder aux
ultimes réglages il faut l’expérimenter sur un réseau pilote, puis en vraie
grandeur.
Tant que ces études et réglages n’ont pas été faits et que le coût des
composants n’a pas été évalué, rien ne garantit que le protocole puisse fonc-
tionner dans des conditions économiques acceptables. C’est pourquoi tout
protocole nouveau rencontre, de la part des exploitants, un scepticisme qui
ne pourra céder que devant la démonstration et surtout devant l’expérimen-
tation. Aucun protocole ne naîtra s’il n’est pas soutenu par une équipe de
pionniers qui, par l’intuition autant que par le raisonnement, anticipent ses
performances.
* *
La même communication enchaînera souvent divers protocoles. C’est le
cas par exemple d’un ordinateur raccordé à un réseau local et qui consulte
un serveur Web : il faut enchaîner Ethernet et TCP/IP. Cela nécessite une
passerelle (gateway) capable non seulement de lire l’étiquette de la trame
pour la faire sortir du réseau local, mais aussi de reconstruire le message
pour l’émettre vers l’Internet selon le protocole TCP/IP et inversement dans
l’autre sens.
10.1. NAISSANCE DU RÉSEAU 339
Sur le WAN de l’entreprise (Wide Area Network), qui relie les établis-
sements entre eux et aux serveurs informatiques centraux, une cascade de
protocoles s’enchaîne à travers des passerelles qui « pédalent » activement
lors de chaque communication : Ethernet sur le réseaux local ; IP sur le
réseau de raccordement ; X25 ou relais de trame (Frame Relay) 10 sur la
dorsale intermédiaire ; ATM 11 sur la boucle de la dorsale centrale.
* *
Robert Metcalfe avait, lorsqu’il était étudiant à Harvard, préparé une
thèse sur la commutation de paquets en s’appuyant sur l’exemple de l’Arpa-
net. Harvard avait jugé ce travail trop peu théorique. Metcalfe fut néanmoins
embauché par le PARC de Xerox. En 1972, il découvrit le papier qu’avait
écrit Abramson [2] sur le réseau Alohanet mis en place à Hawaï grâce à un
financement de l’ARPA. Le protocole Aloha était fondé sur une idée origi-
nale : au lieu d’être routés d’un ordinateur à l’autre, les paquets étaient émis
par radio ; chaque ordinateur recevant tous les paquets, il lui incombait de
trier ceux qui lui étaient destinés. Cela permettait de faire communiquer
des ordinateurs situés sur des îles différentes de l’archipel (voir page 355).
Metcalfe se fit envoyer à Hawaï par Xerox pour étudier le fonctionnement
d’Aloha. Il en améliora la modélisation mathématique, fondée sur le calcul
des probabilités, et cela lui permit d’introduire dans sa thèse assez de théorie
pour qu’elle soit acceptée par Harvard.
Cependant le PARC avait mis au point l’Alto, machine qui préfigu-
rait l’ergonomie des futurs ordinateurs personnels, et souhaitait mettre les
Altos en réseau. Ce travail fut confié à Metcalfe. Équiper chaque Alto d’un
IMP aurait été d’un coût prohibitif. Metcalfe utilisa une version améliorée
d’Aloha : en faisant passer le signal par un câble coaxial et non par l’espace
hertzien, il améliorait le débit du réseau ; en introduisant la détection des
collisions, il améliorait le rendement du protocole.
Le premier réseau Ethernet fut ainsi mis en place en 1973 au PARC.
Ses spécifications ne seront rendues publiques que le 30 septembre 1980 et
la norme IEEE 802.3 qui en est issue ne sortira qu’en 1983. Les réseaux
locaux se répandront dans les entreprises à partir de 1989 avec le lance-
ment d’Ethernet 10BaseT, qui permet de transporter le signal sur une paire
torsadée semblable à celle du réseau téléphonique d’un établissement.
Dès lors les réseaux d’ordinateurs vont pouvoir s’appuyer à la fois sur
TCP/IP et sur Ethernet. Ethernet sert à la communication entre les ordina-
teurs connectés à un même réseau local ; TCP/IP assure la communication à
distance. Ethernet est analogue à une conversation dans une salle où chacun
prend la parole quand il a quelque chose à dire, s’interrompant en cas de
collision avec un autre intervenant ; TCP/IP est (en plus rapide) semblable
à l’envoi d’un texte, via la poste, par morceaux successifs qu’il faut classer
à l’arrivée.
342 CHAPITRE 10. LA CONQUÊTE DE L’UBIQUITÉ
* *
Dès les années 1960 les utilisateurs d’un ordinateur en temps partagé
avaient utilisé un service de messagerie comme Mailbox : mais ce service
fonctionnait autour d’un même ordinateur, donc dans le même immeuble,
344 CHAPITRE 10. LA CONQUÊTE DE L’UBIQUITÉ
pour des personnes qui n’auraient eu que quelques mètres à parcourir pour
se parler.
Le service change de nature lorsque la messagerie est utilisée par des
personnes que séparent des centaines ou milliers de kilomètres. Alors que la
messagerie sur mainframe n’avait été qu’un jouet amusant et commode on
découvrit que l’Arpanet, en effaçant la distance géographique, en faisait un
outil des plus utiles.
Il fallait d’abord disposer d’un logiciel de messagerie. Le premier fut mis
au point par Ray Tomlinson, qui eut en 1972 l’idée d’articuler le programme
de messagerie d’un ordinateur en temps partagé avec un protocole de trans-
fert de fichiers de telle sorte que l’on puisse échanger des messages entre
divers ordinateurs. Cette possibilité, jugée intéressante par les rédacteurs
du protocole FTP, y fut insérée en août 1972.
Mais utiliser l’Arpanet pour transmettre des messages personnels sem-
blait quelque peu illicite : le réseau n’avait pas été fait pour cela. Par ailleurs
il n’était pas très facile en 1972 d’envoyer un message sur l’Arpanet : il fau-
dra du temps pour surmonter les difficultés techniques et la messagerie ne
sera d’un usage commode que vers 1980. Son caractère licite sera peu à
peu reconnu, mais les questions de savoir-vivre qu’elle pose susciteront des
discussions passionnées.
Tomlinson est resté célèbre pour une décision qu’il prit en écrivant son
programme (Le Diberder [48]). Il fallait, pour séparer dans l’adresse d’un
message le nom de l’utilisateur de celui de la machine sur laquelle il tra-
vaillait, un caractère qui ne puisse jamais apparaître dans un nom propre.
Tomlinson remarqua sur son clavier le symbole @, caractère typographique
rare, et décida de le retenir. L’arobase est devenu le symbole de la messa-
gerie électronique mais cette convention gênera les utilisateurs de Multics,
système d’exploitation où @ signifie « supprimer la ligne ».
Stephen Lukasik, directeur de la DARPA de 1971 à 1975, fut l’un des
plus actifs parmi les promoteurs de la messagerie électronique. Bien vite
ses collaborateurs comprirent que la messagerie était le moyen le plus effi-
cace pour communiquer avec lui et obtenir une décision sur leurs projets.
Ils rencontraient ainsi un phénomène qui se répétera souvent : pour que la
messagerie se répande dans une entreprise, il faut que le patron lui-même
l’utilise activement.
Dès 1973 la messagerie représentait les trois quarts du trafic de l’Arpa-
net. Mais s’il était facile d’envoyer un message il n’était pas commode de
l’écrire, de le lire, moins encore de lui répondre. Les outils de traitement de
texte étaient rudimentaires et à la réception les messages s’affichaient à la
queue-leu-leu sans que rien ne les sépare : il fallait les parcourir tous. Comme
il n’existait pas encore d’instruction « Réponse », il fallait pour répondre à
un message composer un nouveau message.
Plusieurs programmeurs entreprirent de combler ces lacunes. Les pro-
grammes de gestion de messages se multiplièrent. Il en résulta pour les
opérateurs une telle complexité que bientôt le besoin d’une normalisation
pour le plan d’adressage, le codage des dates etc. devint évident. Mais quand
on veut normaliser la messagerie on touche à des valeurs enfouies dans les
10.1. NAISSANCE DU RÉSEAU 345
13. Certains voulaient introduire dans l’en-tête non seulement le nom de l’expéditeur et
la date d’envoi, mais aussi le nombre de caractères, des mots clés, le niveau de sécurité,
l’identité de la machine etc. Une partie de ces informations se trouve, aujourd’hui, dans
l’en-tête caché de nos messages (pour les lire avec Outlook il faut choisir « Options »
dans le menu « Affichage » du message).
14. « The speed of e-mail promoted flaming » (Hafner et Lyon [123] p. 216).
346 CHAPITRE 10. LA CONQUÊTE DE L’UBIQUITÉ
* *
À la fin des années 1960, la guerre du Vietnam avait suscité entre l’ar-
mée américaine et la société civile des tensions qui se manifestaient vivement
dans les universités. On soupçonnait l’armée d’utiliser l’Arpanet pour collec-
ter des informations et ficher les opposants, ou encore pour des recherches
sur l’utilisation stratégique de l’arme nucléaire. Par ailleurs l’exploitation
du réseau se compliquait en raison de sa croissance. L’armée se désengagera
donc progressivement de l’Arpanet, le laissant évoluer vers l’Internet selon
un processus qui comportera quelques épisodes paradoxaux.
Il fallait ainsi trouver un sous-traitant pour assurer l’exploitation quo-
tidienne du réseau, mais avant de lâcher la main l’armée voulut s’assurer
qu’elle ne perdrait pas tout contrôle sur une structure qui pouvait avoir
un intérêt stratégique. La responsabilité du réseau quitta donc la DARPA
en 1975 pour passer à la DCA, « Defense Communications Agency », orga-
nisme purement militaire qui, de surcroît, partageait le scepticisme d’AT&T
envers la commutation de paquets. Une bureaucratie de généraux et de co-
lonels s’installa, prescrivant en détail et par écrit ce qu’il fallait faire et
comment le faire.
Il était naturel de passer à BBN le contrat relatif à l’exploitation du
réseau mais BBN était entrée en conflit avec la DARPA en refusant de com-
muniquer le code source de l’IMP, ce qui gênait beaucoup ceux qui devaient
corriger les dysfonctionnements du réseau. Ce code ayant été financé par le
budget fédéral, la revendication de BBN parut excessive. La DARPA me-
naça de lui couper tous ses contrats. BBN accepta enfin de fournir pour
une rémunération symbolique le code source à qui en voudrait ; la DCA lui
confia alors l’exploitation opérationnelle du réseau.
En 1975, les spécifications techniques de TCP/IP sont disponibles ; Vint
Cerf arrive à la DARPA en 1976 pour prendre la responsabilité de l’inter-
connexion des réseaux Arpanet, Satnet et radio, projet nommé « ARPA
Internet ». En octobre 1977 cette interconnexion fonctionnait.
* *
La NSF (National Science Foundation), créée en 1950 pour promouvoir le
progrès scientifique en finançant la recherche fondamentale et la formation,
avait dès 1974 compris l’intérêt d’un réseau pour l’accomplissement de sa
mission. Mais pour disposer d’un site Arpanet une université devait avoir
un contrat avec la DARPA sur des projets de recherche financés par la
Défense. Un site Arpanet coûtait plus de 100 000 $ par an à cause du coût
des liaisons louées. En 1979, 120 Computer Science Departments étaient en
348 CHAPITRE 10. LA CONQUÊTE DE L’UBIQUITÉ
15. « We started looking at the network statistics and realized we had a rocket on our
hands », « Nous nous mîmes à regarder les statistiques de trafic, et réalisâmes alors que
nous tenions une fusée dans nos mains » (Vint Cerf, cité dans Hafner et Lyon [123] p.
254).
10.2. NAISSANCE DE LA TOILE 349
18. « La lecture de tous les bons livres est comme une conversation avec les plus honnêtes
gens des siècles passés » (René Descartes, Discours de la Méthode [46]). Cependant
Marcel Proust, pour qui la relation avec autrui était douloureuse, a dit son désaccord
avec Descartes dans sa préface de 1905 à la traduction de Sésame et les Lys de Ruskin : il
trouvait dans la lecture non pas un auteur avec qui converser, mais une source d’émotions
intimes : c’est une bonne illustration de la profondeur à laquelle s’enracine la diversité
des points de vue.
19. Une cartouche pour imprimante à laser coûte de l’ordre de 100 e et permet d’im-
primer de l’ordre de 2 500 pages ; une ramette de 500 feuilles coûte de l’ordre de 5 e.
L’impression d’un livre de 500 pages reviendra donc à 25 e sans tenir compte de l’amor-
tissement de l’imprimante elle-même, ce qui équivaut au prix du livre.
354 CHAPITRE 10. LA CONQUÊTE DE L’UBIQUITÉ
20. L’expression « largeur de bande » concerne les circuits analogiques, dont la capacité
de transport se mesure selon la largeur de l’intervalle de fréquences qu’ils sont capables de
transporter sans déformation (plus précisément, avec une déformation qui reste inférieure
à un seuil conventionnel). On l’utilise aussi, par contiguïté linguistique, pour désigner le
débit sur un réseau numérique. C’est selon une approximation analogue que l’on appelle
« modems » les adaptateurs d’un réseau numérique, par exemple sur les liaisons ADSL.
21. Avant 1975 « byte » pouvait désigner un paquet de bits de taille quelconque : Knuth
([105], vol. 1 p. 125) utilise ainsi pour l’ordinateur MIX un « byte » de six bits. Vers
1975 « byte » a pris le sens d’« octet » qu’il a aujourd’hui, soit huit bits. Il ne faut pas
confondre « byte » et « bit » !
10.4. ANNEXE : RÉSEAUX ET PROTOCOLES 355
utile des adresses et contrôles. De tout cela résulte que le débit utilisable
pour transporter du contenu n’est qu’une fraction du débit physique offert
par le réseau. Cette fraction sera d’autant plus élevée que le protocole est
plus performant.
On peut analyser les performances permises par chaque protocole en par-
tant des lois probabilistes des files d’attente. Appelons « durée de trame »
la durée (fonction inverse du débit) de l’émission d’une trame par un ordi-
nateur, notons G le nombre moyen de trames émises pendant une durée de
trame. Supposons que le nombre des trames émises pendant une durée de
trames obéit à la loi de Poisson, qui rend compte du processus d’arrivée dans
une file d’attente. La probabilité que le nombre des trames émises pendant
une durée de trames soit égal à k est alors :
Gk e−G
P (k) =
k!
k
G
(Nota Bene : si l’on se rappelle que eG = Σ∞ k=0 k! , on vérifie aisément
∞ ∞
que Σk=0 P (k) = 1 et que Σk=0 kP (k) = G : le nombre moyen des trames
émises pendant une durée de trame est donc bien égal à G).
Nous présenterons ci-dessous les deux protocoles de transmission sur
réseau local qui ont été historiquement les premiers : « Aloha » et « Aloha
discrétisé ». Étant simples, ils ont l’avantage de se représenter facilement
sous forme mathématique ; la démarche qui a permis de passer du premier
au second donne un bon exemple du type de raisonnement que font les
concepteurs de protocoles. Nous présenterons ensuite les protocoles qui leur
ont succédé et qui sont utilisés aujourd’hui.
10.4.2 Aloha
Le premier protocole de réseau local, nommé « Aloha », a été mis au
point en 1970 par Norman Abramson [2] à l’université d’Hawaï. Il voulait
assurer la communication entre des établissements de l’université situés sur
des îles éloignées les unes des autres.
Le principe de ce protocole est que tous les ordinateurs émettent en
même temps, reçoivent en même temps, donc communiquent en même temps
sur la même bande de fréquence. Il s’agit d’une conversation à plusieurs,
principe opposé à celui de la commutation de circuit qui procède en allouant
à chaque conversation des ressources cloisonnées les unes par rapport aux
autres.
L’émetteur découpe le message en trames comportant l’adresse du des-
tinataire et un numéro d’ordre. Les ordinateurs reçoivent toutes les trames
émises sur le réseau et trient celles qui leur sont destinées en lisant les
adresses. Le destinataire reconstitue le message en ouvrant les trames ainsi
triées pour en extraire le contenu et le ranger dans l’ordre après celui des
trames précédentes.
Cependant si deux ordinateurs émettent une trame en même temps, il y
a collision : le signal émis dans la bande de fréquence est incompréhensible.
Il faut alors réémettre.
356 CHAPITRE 10. LA CONQUÊTE DE L’UBIQUITÉ
Cette fonction mérite un examen attentif. Lorsque G est très petit, c’est-
à-dire lorsque le nombre de trames émises par durée de trame est très faible,
S est égal à G : le réseau n’étant pas encombré, les trames passent toutes
sans collision. Si G croît, la probabilité de collision augmente : S devient
donc inférieur à G.
Le maximum de S est atteint lorsque G = 0,5, c’est-à-dire lorsque sur le
réseau une trame est émise en moyenne pour deux durées de trame. Alors
10.4. ANNEXE : RÉSEAUX ET PROTOCOLES 357
Aloha discrétisé
22. Certains trouvent surprenant que S ne devienne pas nul lorsque G > 1, puisque alors
il y a plus d’une trame émise par durée de trame : c’est que G est un nombre moyen, et
donc pendant certaines durées de trame il peut y avoir moins d’une trame émise même
si G > 1.
358 CHAPITRE 10. LA CONQUÊTE DE L’UBIQUITÉ
10.4.4 Ethernet
Le réseau Ethernet utilise un protocole CSMA-CD. Tout appareil connecté
au réseau est appelé« nœud », qu’il s’agisse d’un poste de travail, d’un ser-
veur (de fichier, d’impression, de communication etc.) ou d’une imprimante.
Chaque nœud est équipé d’une carte Ethernet installée sur l’un de ses
slots d’extension. Chaque carte a une adresse sur le réseau. Les cartes Ether-
net des nœuds sont raccordées chacune par un coupleur (« transceiver ») à
une ligne de transmission appelée « bus 23 ». Quand un nœud veut envoyer
des données à un autre nœud, sa carte écoute le bus pour s’assurer qu’aucun
signal n’est en cours de transmission ; si le réseau est silencieux, elle émet
sa trame sur le bus.
La trame comprend les adresses de l’émetteur et du destinataire, les don-
nées à transmettre, enfin des octets servant à la détection d’erreur. Chaque
nœud examine l’adresse du destinataire. Si la trame ne lui est pas destinée,
il l’ignore. Si la trame lui est destinée, il lit les données, vérifie qu’il n’y a
pas eu d’erreur, et envoie un accusé de réception à l’émetteur qui peut alors
envoyer la trame suivante.
Si deux nœuds émettent un message simultanément, la collision entre les
trames provoque un signal d’interférence qui se propage sur le bus et qui est
reconnu par les émetteurs. Le premier émetteur qui détecte la collision émet
un signal indiquant celle-ci aux autres nœuds. Les transmissions sont alors
arrêtées ; les nœuds qui veulent émettre doivent attendre une durée aléatoire
avant de chercher à émettre de nouveau. Le processus se répète jusqu’à ce
qu’un nœud puisse émettre une trame sans qu’il n’y ait de collision.
L’informatique de
communication
362
11.1. LES OUTILS DE COMMUNICATION 363
encore les ruptures de ton et de forme que suscite la diversité des rédac-
teurs.
Workflow
Le workflow permet de baliser le circuit des documents (tables d’adres-
sage préprogrammées) et de normaliser leur présentation (masques de sai-
sie). Il se situe à la charnière de l’informatique de communication et de
l’informatique de calcul, car il se prête à la saisie et au traitement des don-
nées structurées et soulève donc des problèmes de cohérence. Il permet par
ailleurs de calculer et diffuser automatiquement des indicateurs de volume
et de délai : ainsi la qualité des processus devient visible.
La réalisation des workflows simples utilise des outils bureautiques, no-
tamment la messagerie. Les grandes applications informatiques peuvent
comporter elles aussi des workflows mais pour des raisons de performance
elles utilisent des outils plus puissants que les outils bureautiques.
Les workflows sont adaptés aux procédures bien définies et balisées ;
leur mise en œuvre est plus difficile dans un contexte non procédural. Les
procédures bien définies sont nombreuses dans l’entreprise et suivent des
parcours relativement simples (demandes de congé ou de mutation ; lettres
de réclamation des clients ; préparation du budget annuel ; instruction des
demandes de crédit, des contrats avec les fournisseurs et les partenaires
etc.). Le workflow est efficace alors pour un coût modeste.
Gestion de la connaissance
Il est devenu banal de dire que la compétence est l’actif le plus précieux
de l’entreprise. Certains des outils que nous venons d’énumérer (documen-
tation électronique, rédaction coopérative, dissémination sélective etc.) fa-
cilitent la capitalisation et le partage de la connaissance dans l’entreprise.
On peut aussi identifier les experts capables de dépanner oralement une si-
tuation bloquée, gérer l’annuaire qui permet de les atteindre en fonction de
la question à traiter : la gestion de la connaissance mobilise ainsi non seule-
ment la documentation électronique, mais les centres d’appel, les workflows,
la messagerie etc.
Forum
Un forum (news) est une boîte aux lettres qui peut être consultée par
plusieurs personnes (voire par tout le monde, selon la largeur de l’habilita-
tion). Le forum apporte à la documentation professionnelle un complément
parfois indispensable : il permet aux utilisateurs de poser des questions sur
les domaines où la documentation est incomplète ou ambiguë, et aux experts
d’apporter des réponses qui entourent la documentation d’un halo de com-
mentaires. Les fournisseurs d’outils informatiques ont ainsi mis sur la Toile
des forums destinés aux programmeurs et où l’on peut trouver des réponses
aux questions que la documentation technique ne prévoit pas (comment
contourner les bogues répertoriées, comment utiliser le produit dans des cas
non classiques etc.).
Tout forum doit être animé : l’animateur purge les messages obsolètes
ou non pertinents en regard du thème du forum, introduit dans le corps de
la documentation le contenu des messages importants, sollicite les experts
pour que toute question reçoive une réponse dans un délai décent. Un forum
11.1. LES OUTILS DE COMMUNICATION 365
mal animé devient bientôt une poubelle remplie de messages inutiles et les
utilisateurs s’en détournent.
Outillage du dirigeant
Le dirigeant doit pouvoir trouver sur son PC les outils qui facilitent
son travail : comme tout le monde, il utilisera la messagerie, l’agenda, la
documentation électronique ; en outre il disposera d’un accès à des tableaux
de bord, à des systèmes d’aide à la décision et de gestion de projet qui lui
fournissent indicateurs et alarmes. Il peut se servir d’Excel pour faire des
calculs sur les données ou pour les visualiser.
Réunion assistée par ordinateur
Il est commode, pour certaines réunions, de fournir à chaque participant
un PC en réseau, un animateur assurant le suivi de l’ordre du jour. Les
informations fournies par les participants, leurs suggestions, les résultats
des votes sont affichés sur un écran, et à l’issue de la réunion le compte
rendu et la liste des décisions prises sont publiés immédiatement. Cela ne
peut toutefois réussir que si l’animateur est de bonne qualité, ce qui est
étonnamment rare.
La réunion assistée par ordinateur peut s’envisager avec des participants
dans une même pièce, ou avec des participants éloignés et reliés par le réseau.
Elle convient bien aux réunions de suivi de chantier, ainsi que pour certaines
réunions de remue-méninges (celles, par exemple, où il s’agit de choisir le
nom d’un nouveau produit). Par contre elle ne convient pas à la négociation
en face-à-face.
Exploitation d’enquête
Il est facile, pour réaliser une enquête interne à l’entreprise, de construire
l’échantillon par tri dans l’annuaire puis d’envoyer à la liste des personnes
enquêtées un message comportant un lien vers un questionnaire sur l’In-
tranet. On peut faire des relances automatiques vers celles qui n’ont pas
répondu. Des programmes produisent les résultats de l’enquête sous forme
de tris à plats, tris croisés et représentations graphiques qui facilitent et
outillent l’interprétation.
Il est également possible de produire rapidement, pour un coût faible, des
enquêtes auprès des clients (à condition toutefois que l’enquête soit réalisée
dans des conditions telles que le taux de réponse soit élevé.
Accès externe à l’Intranet
Les cadres de l’entreprise prennent vite l’habitude d’utiliser l’informa-
tique communicante : ils voudront pouvoir consulter la documentation pro-
fessionnelle, et même accéder à leur poste de travail, depuis leur domicile,
leur lieu de villégiature ou les locaux d’un client. De même, des partenaires
auront besoin d’accéder à la documentation professionnelle en même temps
qu’aux données. Par ailleurs certains des documents destinés à l’Intranet
pourront utilement être placés sur le serveur Web public de l’entreprise.
L’ouverture de l’informatique de communication à l’extérieur pose évidem-
ment des problèmes de sécurité : on ne peut pas gérer efficacement la publi-
cation des documents sans gérer en même temps leur confidentialité et leur
protection.
366 CHAPITRE 11. L’INFORMATIQUE DE COMMUNICATION
Sécurité
L’informatique communicante est d’autant plus vulnérable à la mal-
veillance qu’elle est plus ouverte au monde extérieur, or cette ouverture
est nécessaire dès que l’on veut pouvoir servir des utilisateurs nomades ou
des partenaires.
Il ne faut pas prendre cette menace à la légère : les pirates pénètrent
les systèmes d’information pour parasiter leurs ressources de mémoire et
de puissance (ils installent leurs fichiers sur vos disques et font tourner vos
processeurs), ou pire pour les saccager en détruisant des fichiers ou encore
en commettant des indiscrétions. Toute grande entreprise est la cible de
plusieurs attaques par jour, souvent maladroites mais parfois très affûtées
(voir page 130). Il faut installer des pare-feux sur le réseau (firewalls), des
programmes antivirus, hiérarchiser les serveurs de façon à isoler les données
les plus sensibles etc. La sécurité est devenue pour les informaticiens une
spécialité en relation avec l’administration de réseau.
réservant des capacités aux services les plus exigeants, en gérant des files
d’attentes etc.
* *
Malgré toutes ses promesses, l’informatique de communication se heurte
à des difficultés qui ralentissent sa mise en place. Pour beaucoup d’infor-
maticiens, dont l’expérience s’est formée dans l’informatique de calcul, « ce
n’est pas de l’informatique » car elle ne traite pas les données structurées 1 .
Utiliser l’ordinateur pour faire de la messagerie, de la documentation élec-
tronique, des workflows, c’est selon eux encombrer les réseaux d’un débit
de type nouveau et aléatoire : si les utilisateurs abusent des pièces jointes,
si les workflows se multiplient, il ne restera plus de place pour les appli-
cations transactionnelles. Les personnes qui, au sein de la DSI, s’occupent
de la « bureautique » sont parfois considérées comme des parias que leurs
collègues qualifient dédaigneusement de « bidouilleurs micro ».
Pour les dirigeants, dont beaucoup ne sont pas utilisateurs du PC, les
apports de l’informatique de communication sont douteux. Pourquoi, disent-
ils, utiliser la messagerie alors que l’on peut envoyer des lettres ? pourquoi
l’agenda électronique, alors que l’agenda sur papier est si commode ? la
documentation électronique apporte des économies de temps et d’argent
qu’ils perçoivent, mais le workflow leur semble être un artefact créé par des
intellectuels : habitués à une informatique de calcul dont le formalisme est
loin de celui des métiers, ils ne « réalisent » pas que l’informatique puisse
outiller d’aussi près les procédures et la maîtrise de leur qualité.
Enfin, personne ou presque ne conçoit ce qu’apporte l’insertion de l’in-
formatique de communication dans le système d’information. Le consultant
qui l’évoque en réunion voit s’alourdir les paupières de certains auditeurs,
d’autres entament une conversation ou se lèvent pour aller aux toilettes :
ces signaux indiquent que la question n’est pas mûre et qu’il faut abréger
l’exposé.
* *
Certains opposent, dans l’évolution du système d’information, une lo-
gique de l’offre et une logique de l’usage. Les tenants de l’usage prétendent
que ce sont les utilisateurs qui décident, et tirent argument de détourne-
ments d’usage surprenants qui se produisent parfois lorsqu’on met en place
un nouvel outil (ainsi, le développement de la messagerie sur le premier
réseau d’ordinateurs a surpris, voir page 344). Les tenants de l’offre disent
que c’est du côté d’Intel et de Microsoft qu’il faut chercher le ressort de
l’évolution, car les utilisateurs ne peuvent utiliser que ce qu’on leur fournit.
Ces deux approches oublient le rôle des concepteurs, des organisateurs,
des dirigeants, qui choisissent parmi les possibilités offertes et déterminent
le rythme d’implantation de l’informatique communicante. Voici un scénario
classique. L’entreprise a d’abord installé une messagerie, non sans quelques
1. Au milieu des années 1990, la maîtrise d’ouvrage d’une grande entreprise demandait
à l’informatique d’installer une messagerie. Le directeur des études à la DSI répondit « la
messagerie ne fait pas partie de mes douze premières priorités ».
368 CHAPITRE 11. L’INFORMATIQUE DE COMMUNICATION
errements : on a ouvert des boîtes aux lettres fonctionnelles pour les entités
(direction, agence etc.), puis des boîtes personnelles en nombre limité. Il a
fallu du temps pour voir qu’il était difficile de gérer une diffusion d’informa-
tion empruntant la messagerie pour les personnes équipées, le papier pour
les autres ; finalement, les réticences de l’informatique ont été surmontées
et chacun a été doté d’une boîte personnelle.
On découvre alors que l’Intranet permet non seulement la messagerie,
mais la documentation électronique. La direction de la communication est
chargée de remplacer la documentation sur papier par des écrans. Mais il
s’agit d’informatique et la « Dir Com » n’y connaît rien. D’ailleurs les infor-
maticiens, qui avaient freiné la messagerie « par crainte d’un encombrement
du réseau », sont encore plus réticents devant l’Intranet. Réunions, calculs
de volumétrie, définition de normes, le temps passe. Enfin l’Intranet docu-
mentaire se met en place.
Alors on s’avise qu’il peut servir de vecteur à la communication interne
et d’outil de travail non seulement à l’entreprise considérée dans son en-
semble, mais aussi à chacune de ses diverses entités (directions centrales,
directions régionales etc.) : une diversification s’opère, non sans désordre.
Quelques pionniers envisagent d’utiliser l’Intranet pour des enquêtes, ou
encore pour monter des workflows. L’informatique exprime sa préoccupa-
tion, les réunions se multiplient, expertises et chiffrages s’accumulent : les
workflows ne risquent-ils pas en effet d’encombrer les réseaux? etc.
Certains consultants disent que les choses ne peuvent pas avancer au-
trement, compte tenu des réticences des informaticiens, de l’inculture des
dirigeants, de l’appréhension que suscitent les changements d’organisation.
Oui, disent-ils, l’entreprise avance à reculons, sans conscience claire des en-
jeux, poussée par l’offre et en trébuchant sur de menus obstacles. Celui qui
veut faire entrevoir à l’entreprise la logique de cette évolution ne sera pas
entendu. Il faut procéder par petites réalisations exemplaires : elles seront
imitées, et par contagion l’entreprise évoluera.
Ainsi on installe une petite messagerie, puis progressivement chacun aura
sa boîte aux lettres ; ou bien on met en œuvre un petit workflow et son
efficacité suscitera l’intérêt puis l’imitation. En suivant cette tactique on
fait progresser l’entreprise alors même qu’elle n’a pas compris où elle allait.
Mais c’est bien là le problème. Si l’informatique communicante ne peut
avancer qu’au coup par coup, il faudra bien qu’un jour l’entreprise perçoive
cette évolution de ses procédures de travail et en tire les conséquences sur
son organisation comme sur son positionnement. Il faudra bien qu’elle pi-
vote pour avancer non plus à reculons mais en regardant devant elle, qu’elle
sache évaluer les enjeux sans se laisser intimider par l’épouvantail du tra-
fic 2 . Il faudra que les concepteurs, les décideurs, se réveillent quand on parle
d’informatique communicante et comprennent qu’il s’agit non d’une fantai-
sie pour intellectuels, non de caprices d’utilisateurs épris de nouveauté, mais
d’une évolution importante qui mérite toute leur attention.
11.3 Sécurité
La cryptographie, c’est l’art que nous avons tous pratiqués au lycée
lorsque nous adressions à nos copains des lettres écrites dans un alphabet
secret. C’est aussi la branche des mathématiques qui sert à chiffrer et dé-
chiffrer les messages que s’envoient des militaires ou des espions. L’un des
sommets de son histoire est le déchiffrage de la machine allemande Enigma
par Alan Turing (Hodges [84]).
Dans Crypto [114], Steven Levy a souligné avec une délectation visible
le fait que ceux qui ont conçu les systèmes de cryptographie, n’étant pas les
spécialistes les plus « pointus » de la discipline, l’ont abordé avec un regard
neuf et que c’est cela qui leur a permis de trouver des solutions hérétiques,
mais efficaces, auxquelles personne n’avait pensé auparavant.
Supposons que Bob veuille recevoir des messages d’Alice, et qu’il sou-
haite que ces messages soient indéchiffrables pour Ève alors que celle-ci peut
les intercepter.
Bob et Alice connaissent une fonction unidirectionnelle f . Bob fournit à
Alice une « clé publique » c. f et c, pouvant être connus de tout le monde,
370 CHAPITRE 11. L’INFORMATIQUE DE COMMUNICATION
sont bien sûr connus d’Ève. Alice va coder son message M en utilisant
l’algorithme f et la clé c ; ceci fournit un texte chiffré C qui ressemble à une
suite de caractères tirés au hasard :
C = f (M,c)
M = g(C,c,z)
Pour que le procédé soit utilisable, il faut avoir défini les fonctions f et
g ; cela demande une maîtrise des mathématiques que ni Ellis, ni Diffie ne
possédaient. Le système à clé publique n’a donc d’abord été qu’une idée dont
la faisabilité restait à démontrer. Les techniques de chiffrement ont été mises
au point par des mathématiciens experts en théorie des nombres (Hardy
et Wrigth [220]), une des branches les plus abstraites (mais aussi les plus
intéressantes) des mathématiques (Singh 3 [188]). La théorie des nombres
est cruciale pour l’informatique, qui n’appréhende les nombres réels qu’à
travers leur approximation par un sous-ensemble des nombres rationnels
(ce qui, dit Donald Knuth, pose aux mathématiciens des problèmes parmi
les plus difficiles ; voir la note au bas de la page 83).
Certains algorithmes de chiffrement utilisent le fait que la factorisation
(ou « mise en facteurs premiers ») du produit de deux grands nombres pre-
miers demanderait aux ordinateurs les plus puissants un temps de calcul de
plusieurs millions d’années, ce qui rend l’opération pratiquement impossible.
Le problème est ainsi résolu. Supposez en effet que la clé publique c soit
le produit de deux grands nombres premiers, que la clé privée z soit l’un
de ces deux nombres et que g comporte la factorisation de c : seul Bob, qui
connaît z, pourra factoriser c et donc déchiffrer C.
Le système à clé publique devient universel si chacun publie sa clé pu-
blique dans un annuaire : pour envoyer un message chiffré à Bob, il suffit de
trouver sa clé publique et de s’en servir pour chiffrer le message avant de le
lui envoyer ; seul Bob pourra le déchiffrer, puisqu’il est le seul qui possède
la clé privée.
Il faut bien sûr que l’annuaire soit fidèle, car il se pourrait que la perfide
Ève eût substitué sa propre clé publique à celle de Bob afin de pouvoir lire
les messages destinés à celui-ci : des procédés ont été inventés pour traiter
ce risque.
Si j’ai publié ma clé publique dans l’annuaire et que je reçois un message
signé « Bob », qu’est-ce qui garantit que ce n’est pas Ève qui me l’a envoyé
en imitant la signature de Bob? ici l’on rencontre une astuce d’une grande
3. Singh [187] est une introduction à la théorie des nombres pour le grand public.
11.3. SÉCURITÉ 371
beauté : le système peut servir non seulement à chiffrer les messages, mais
aussi à authentifier la signature de l’expéditeur. Voici comment :
1) Bob chiffre sa signature avec sa propre clé privée ; puis il chiffre avec
ma clé publique l’ensemble formé par le message M et sa signature déjà
chiffrée. Cela donne le texte chiffré C.
2) Lorsque je reçois C, je trouve en utilisant ma clé privée le message
M et la signature chiffrée de Bob ; je peux ensuite déchiffrer la signature
en utilisant la clé publique de Bob. Cela me garantit que c’est Bob qui a
envoyé ce message, puisque seul Bob peut chiffrer un texte en utilisant sa
propre clé privée.
* *
Le chiffrement à clé publique apporte tout ce dont on a besoin pour
communiquer en toute sécurité sur l’Internet, faire du commerce, protéger
des travaux confidentiels etc. Mais ce système a beaucoup contrarié la Na-
tional Security Agency (NSA) qui est chargée d’une part d’espionner tout
le monde pour le compte des États-Unis (comme avec le système Echelon
qu’elle a installé en Grande-Bretagne pour espionner l’Europe), d’autre part
de protéger les secrets des États-Unis contre tout le monde.
Il y a donc eu des disputes, dans le style juridique propre aux Américains,
entre tenants de la sécurité nationale et tenants de la confidentialité privée.
Pendant un temps, les industriels du logiciel n’ont pas eu le droit d’exporter
hors des États-Unis la version la plus efficace des algorithmes mais seulement
une version qui, utilisant une clé plus courte, pouvait être déchiffrée dans
un temps de calcul plus court (le temps de calcul double chaque fois que
l’on ajoute un bit à la clé).
* *
Les recherches sur la cryptographie sont menées dans deux mondes : les
chercheurs des services secrets, les chercheurs de l’université ou de l’indus-
trie. Pourquoi le système à clé publique a-t-il été découvert deux fois? parce
que les travaux réalisés par la NSA comme par ses homologues étrangers
sont secrets. Ellis travaillait chez l’homologue britannique de la NSA et sa
découverte est restée longtemps secrète. Lorsque Diffie découvrit le procédé,
il n’avait jamais entendu parler des travaux d’Ellis.
Les fonctions f et g sont de gros consommateurs de puissance informa-
tique. Pour que l’algorithme puisse être utilisé sur l’Internet il fallait l’adap-
ter au PC : ce fut le travail de Philip Zimmermann qui publia « Pretty Good
Privacy » (PGP) en 1991, non sans encourir les foudres de la NSA. Le tra-
vail de Zimmermann a pris plusieurs années car pour mettre au point ce
logiciel il a dû résoudre de délicats problèmes d’optimisation.
identifiant et leur état civil suivi de leurs diverses adresses (postale, télépho-
nique, de messagerie), de leurs mots de passe, ainsi que de leurs affectation,
statut administratif et fonction.
On peut également construire un annuaire des matériels contenant leur
identification et leur description (annuaire du réseau de PC, annuaire du
mobilier etc.). L’annuaire du réseau de PC, qui décrit les PC eux-mêmes
(versions des matériels et logiciels), serveurs et équipements du réseau, est
utile pour la gestion de configuration des postes de travail.
Un annuaire est pour le système d’information un pivot d’échanges : on
peut consulter l’annuaire des personnes pour trouver un numéro de télé-
phone, envoyer un message, composer une liste, établir des statistiques, au-
thentifier l’utilisateur lors de sa connexion au système d’information, fournir
le profil qui permettra de connaître ses droits (cf. ci-dessous).
L’annuaire peut être utilisé par une application de deux façons diffé-
rentes : soit il est interrogé au coup par coup chaque fois que l’application a
besoin de connaître la valeur d’un attribut (mode « pull »), et dans ce cas
l’application doit connaître la liste des annuaires qu’elle utilise ; soit il est
après chaque mise à jour répliqué dans la base de données de l’application
utilisatrice (mode « push »), et dans ce cas chaque annuaire doit connaître
la liste des applications qui l’utilisent et pouvoir les mettre à jour sans délai.
Le point le plus délicat de la gestion des annuaires réside dans leur délai
de mise à jour. Si les modifications du monde réel (embauche d’une nouvelle
personne, mutation d’un ancien, changement de la configuration d’un PC
etc.) ne sont pas enregistrées dans l’annuaire sous un délai raisonnable en
regard des exigences opérationnelles, le décalage entre l’annuaire et la réalité
compromettra la qualité du système d’information.
Comme l’informatique équipe de plus en plus complètement les proces-
sus, le délai « raisonnable » devient court : on acceptera peut-être d’attendre
une demi-journée avant de pouvoir installer une personne devant son poste
de travail, mais pas plus. Il faut donc définir la procédure de mise à jour
de l’annuaire, puis en contrôler l’exécution. Il sera souvent nécessaire de
désigner la personne qui administrera l’annuaire et sera chargée de garantir
sa qualité, en relation avec les personnes qui assurent les mises à jour et
qui, elles, seront souvent dispersées dans le réseau, au plus près du terrain
et donc du monde réel que l’annuaire doit refléter.
Un système d’information n’est pas un système ouvert dans lequel cha-
cun pourrait fouiller à sa guise ou introduire des données selon sa fantaisie.
L’accès aux données confidentielles (sur les personnes, les clients etc.) doit
être réservé à des personnes habilitées, ainsi que la saisie ou la correction
des données et que le lancement des traitements.
À chaque personne, qu’elle appartienne à l’entreprise ou à un partenaire,
sont donc associées des habilitations spécifiques de consultation, écriture et
traitement ; elles peuvent concerner la totalité d’un objet ou seulement une
partie de celui-ci.
Lorsqu’une personne se connecte au système d’information, elle s’identi-
fie (soit en fournissant son identifiant numérique, soit en utilisant un iden-
tifiant secondaire facile à retenir du type prenom.nom), et elle authentifie
11.4. LES WORKFLOWS 373
4. « Private Automatic Branch Exchange » : les PABX sont des commutateurs privés
installés dans les établissements ; ils utilisent des solutions techniques parfois différentes
de celles retenues pour les commutateurs du réseau public.
374 CHAPITRE 11. L’INFORMATIQUE DE COMMUNICATION
11.5.1 Infotel
Après son lancement en 1989, Lotus Notes a joui d’un monopole de fait
sur le marché du groupware : aucun autre logiciel n’apportait aux utilisa-
teurs la même richesse de fonctionnalités ni une plate-forme permettant de
programmer des applications spécifiques.
Par la suite Lotus Notes a eu des concurrents : Microsoft Exchange en
1996, puis surtout le World Wide Web lui-même. Le groupware, que certains
jugeaient futuriste, est devenu courant et même banal au plan technique
grâce à l’Internet et surtout à l’Intranet. Cependant il s’en faut de beaucoup
que ses implications sur le plan de l’organisation des entreprises aient été
tirées.
Ces implications sont illustrées par le service Infotel, mis en place en 1995
chez l’opérateur Euro Telecom. L’intérêt de ce cas réside moins dans son
aspect technique, qui est daté, que dans ses effets sur l’organisation d’Euro
Telecom et dans les leçons que l’on peut tirer des difficultés rencontrées.
* *
Au début des années 1990, Euro Telecom avait déployé une première
ligne de 2 000 personnes dans ses agences commerciales. Cette entreprise
fortement innovante lançait sur le marché un flot de nouveaux produits. Il
fallait que les vendeurs fussent en mesure de répondre aux questions que
posaient les clients, qu’elles portent sur la technique (utilisation du produit,
interfaçage entre produits divers), les tarifs, le contrat ou sur tout autre
sujet : « Tel client peut-il utiliser le réseau Datex-P de Deutsche Telekom
pour ses relations avec la Pologne ? » ; « Un client localisé en Belgique
propose d’acheter dix palettes de télécopieurs et paie avec un chèque tiré
sur une banque luxembourgeoise ; que faire ? » ; « Tel client demande à
renégocier sa ristourne de fin d’année, sachant qu’il prévoit telle croissance
de sa consommation ; que lui répondre? »
Les vendeurs recevaient une formation et une documentation lors du
lancement de chaque nouveau produit et si cela ne suffisait pas ils pouvaient
s’adresser à un centre d’appel. Le centre d’appel était lui-même en relation
avec 200 experts disséminés sur l’ensemble du territoire et spécialisés chacun
sur des questions techniques, commerciales ou juridiques (figure 11.1).
376 CHAPITRE 11. L’INFORMATIQUE DE COMMUNICATION
experts. Surchargé, il s’est mis en panne ; et comme il était (pour des raisons
de protocole de communication qu’il ne convient pas de détailler ici) solidaire
du serveur Notes sur le réseau local du centre d’appel, la panne s’étendit
à l’ensemble de l’application. Tout cela fut réparé assez rapidement mais
non sans coût supplémentaire, car il fallut installer un deuxième serveur de
télécopie au centre d’appel.
La maîtrise d’œuvre aurait pu prévoir cet incident si elle avait correcte-
ment anticipé les flux d’information : il existe en effet une analogie entre la
physique de l’information (volumes, dimensionnement) et celle de l’hydrau-
lique. Les flux d’information ne se compriment pas, ne se perdent pas ; ils se
dirigent vers les canaux qui leur sont offerts et si ces canaux sont trop étroits
(dimensionnement trop réduit, qu’il s’agisse des mémoires, des processeurs
ou des circuits de transmission), ils cassent tout.
La maîtrise d’œuvre pensait avoir réglé l’ensemble des problèmes mais
elle dut faire face à une nouvelle série d’incidents au moment de l’installation
de l’équipement des experts. Les experts avaient des PC, mais qui n’étaient
pas tous reliés à un réseau local (c’était en 1995) : or c’était indispensable
pour qu’ils puissent utiliser l’application. Il fallait donc mettre les PC des
experts à niveau. Dans un contexte d’équipement local sinistré la maîtrise
d’œuvre a eu des surprises : ainsi un PC était bien relié à sa prise sur le réseau
local, mais les fils de cuivre correspondants étaient « en l’air » dans le sous-
répartiteur et en fait le PC n’était pas connecté, ce dont personne ne s’était
rendu compte parce que l’utilisateur s’était servi jusqu’alors uniquement
d’applications qui tournaient sur son PC. Un autre PC utilisait une carte
Numéris qui marchait bien ; on change de carte, plus rien ne marche : il
fallut du temps pour découvrir que la première carte était alimentée par le
PC mais que la seconde carte devait être alimentée par la prise Numéris,
et que les câbles d’alimentation n’avaient pas été raccordés à la prise de ce
PC.
Pour régler de tels problèmes, il faut savoir poser le diagnostic et interve-
nir rapidement. Ce travail requiert des compétences techniques élevées, une
grande habileté manuelle, de l’expérience et un esprit vif, toutes qualités
qui ont un prix que le client n’est pas toujours prêt à payer. Le discrédit qui
s’attache au travail manuel dévalorise en effet, aux yeux de beaucoup de per-
sonnes, tout ce que peut faire quelqu’un qui utilise un tournevis, même s’il
s’agit d’un expert hautement qualifié et si cela demande, en fait, beaucoup
de réflexion : c’est stupide, mais c’est ainsi.
D’autres incidents étaient dus aux fournisseurs : celui du logiciel du ser-
veur de télécopie a modifié son produit ; l’ancienne version fonctionnait sur
un processeur 386 mais la nouvelle exigeait un 486. La maîtrise d’œuvre a
dû dire au client qu’il fallait acheter un micro-ordinateur supplémentaire...
Lors du passage à la « vraie grandeur », les travaux nécessaires pour
l’installation sur de nombreux sites ont dépassé les capacités physiques de
la petite équipe de la maîtrise d’œuvre, qui a dû les sous-traiter. Un premier
sous-traitant, choisi sur la recommandation du chef de projet client, estimait
avoir fait son travail lorsqu’il avait réalisé une liste convenue d’interventions,
et ne se sentait pas concerné si l’installation du client ne fonctionnait pas.
378 CHAPITRE 11. L’INFORMATIQUE DE COMMUNICATION
* *
Grâce à Infotel, le taux de réponse directe par les opératrices du centre
d’appel est passé à 40 % et la qualité du service s’est améliorée pour la
plus grande satisfaction des utilisateurs. L’opération était donc un succès.
Cependant Infotel a eu des effets pervers qu’il a fallu gérer :
- comme son utilisation était devenue facile, certaines personnes de la
première ligne l’ont utilisé de façon paresseuse en appelant le centre d’appel
au lieu de consulter la documentation. Les questions posées sont parfois
devenues élémentaires. Il a fallu lancer une action de communication sur le
bon usage d’Infotel ;
- les personnes de la première ligne n’appréciaient pas de recevoir une
réponse directement d’une opératrice : la réponse est plus rapide que si l’ex-
pert avait été consulté, mais elle inspire moins confiance. Il fallut que la
compétence du centre d’appel soit reconnue pour que la première ligne ac-
cepte de considérer ses réponses comme fiables. Ici aussi, une opération de
communication s’est avérée nécessaire.
La montée en compétence des opératrices du centre d’appel a posé des
problèmes de classification nouveaux pour Euro Telecom : les personnes pas-
sées par cette fonction avaient acquis une vue d’ensemble et connaissaient
les incidents qui peuvent survenir. Elles étaient aptes à assurer des res-
ponsabilités opérationnelles et les fonctions d’opérateur auraient donc dû
naturellement déboucher sur une promotion, mais ce n’était pas conforme
à la « grille » maison (voir page 568).
Les questions que pose une force de vente doivent être interprétées : cer-
taines reflètent des lacunes de la formation, d’autre traduisent une évolution
du marché et sont susceptibles d’une exploitation par le marketing. Il est
utile pour chaque chef de ligne de produit de recevoir des comptes rendus
sélectifs contenant quelques statistiques et quelques courbes, ainsi que des
questions et réponses significatives en texte intégral. Si le schéma de ces
11.5. ÉTUDES DE CAS 379
comptes rendus est simple, sélectionner une information pertinente pour les
confectionner relève d’une démarche éditoriale qui suppose de connaître les
besoins d’information des destinataires.
Les comptes rendus sont fondés sur une information objective, disponible
en temps réel sans qu’il soit nécessaire de faire une enquête supplémentaire,
les exploitations statistiques se faisant sur les données produites au fil de
l’eau par Infotel. L’exploitation de la base documentaire a également permis
de fournir des comptes rendus aux directeurs régionaux. Il s’agit alors non
seulement de diffuser des informations sur chaque produit, chaque région,
mais aussi de tirer les leçons des comparaisons entre divers produits, diverses
régions. Les éditions se démultiplient ainsi « sur mesure ».
Ainsi, à partir d’une demande initiale simple (accroître le taux des ré-
ponses directes par le centre d’appel) et pour un coût total relativement
modeste (500 000 e, y compris le coût de la mise à niveau des PC des
experts), la mise en place de la base documentaire et du workflow, puis de
l’exploitation éditoriale, ont procuré une meilleure qualité de service, modifié
l’organisation et la qualification des personnes, enfin permis une diversifica-
tion des comptes rendus qui n’avaient pas été envisagée initialement.
Un tableau de bord, pour être efficace, ne doit fournir aux dirigeants que
les indicateurs qui leur sont les plus utiles : un tableau de bord lourd ne
sera pas lu. Pour sélectionner les indicateurs utiles, il faut savoir entrer
dans le raisonnement stratégique, compétence rare. Il faut aussi traiter
les données, les corriger, les interpréter pour en extraire l’information :
cela suppose une expertise en statistique et en économie elle aussi rare.
La démarche la plus fréquente consiste à produire des tableaux de bord
lourds et à laisser le lecteur s’y retrouver : l’ambition est de décrire « com-
plètement » la réalité de l’entreprise, but inaccessible dont on croit se
rapprocher en publiant beaucoup d’indicateurs. Enfin, on suppose que
l’« objectivité » consiste à transcrire telles quelles les données comp-
tables en s’abstenant de toute estimation, alors même que ces données
comportent des défauts évidents.
* *
* *
Le bloc-notes est présenté au comité de direction par le DGA qui coiffe
la direction de la stratégie. Ce directeur se fait « briefer » avant la réunion
par le responsable du bloc-notes, et après celle-ci il lui rapporte les questions
qui ont été posées.
Le bloc-notes est soigneusement et sérieusement examiné par le comité
de direction : sa discussion occupe trois quarts d’heure dans une réunion
de quatre heures. Il fournit aux dirigeants une base cohérente et les pertes
de temps naguère occasionnées par les divergences entre statistiques ne se
produisent plus. Il a permis de graver dans la mémoire des dirigeants le profil
de certaines séries, ainsi que certaines proportions et ordres de grandeur
essentiels.
Comme les calculs réalisés par l’équipe du bloc-notes n’ont jamais été
mis en défaut un climat de confiance s’est créé. Les évaluations ne sont plus
discutées. En cas d’évolution brusque la première question porte toutefois
sur leur qualité, puis très vite le comité de direction passe à l’interprétation
du phénomène.
Les commentaires sont appréciés : ils sécurisent le chiffrage en montrant
que l’information a été analysée et contribuent à l’efficacité de la lecture.
Même si certains dirigeants disent avoir tout compris avant qu’on ne le leur
explique, aucun d’entre eux ne réclame la suppression des commentaires.
L’extraction des tendances nourrit le commentaire : en fait, la tendance
est l’information principale fournie par le bloc-notes. Elle a d’autant plus
de valeur qu’elle a été validée par les experts du domaine. La succession
des blocs-notes permet de signaler ses inflexions et retournements. Certains
dirigeants prétendent voir la tendance sur le graphique sans qu’on la leur
indique, mais ils ne pourraient sans doute pas détecter ses retournements.
Si la sélectivité du bloc-notes est une ascèse, celle-ci est appréciée. Il
est accompagné d’annexes fournissant des ventilations par marché. Elles ne
sont pas regardées par le comité de direction et ne sont là que pour apporter
un éventuel complément d’information.
Le bloc-notes est une aide pour la décision, mais une aide indirecte.
Il ne dicte pas la décision, qui suppose une réflexion et une concertation
approfondies. Par contre, comme il permet aux dirigeants de partager une
même connaissance des ordres de grandeur et des tendances, il leur fournit
un cadre conceptuel commun qui facilite la préparation de la décision.
Par ailleurs les indicateurs révèlent parfois un problème de façon précoce
et facilitent sa perception collective au sein du comité de direction, étape
nécessaire (même si elle n’est pas suffisante) de la solution.
Au total, la pérennité du bloc-notes semble assurée. Son rattachement à
la direction de la stratégie devrait être durable ; il pourrait être également
rattaché au directeur général. Il faut en tout cas qu’il soit établi par une
11.5. ÉTUDES DE CAS 385
direction généraliste. S’il était établi par le contrôle de gestion (et donc, dans
le cas de cette entreprise, rattaché à la direction financière) il accorderait
trop de place aux données financières. Toutefois le contrôle de gestion n’a
jamais accepté que le tableau de bord soit établi par un autre service. Son
opposition représente le principal risque politique.
Lorsque le bloc-notes a été lancé, le contrôleur de gestion a été invité
aux réunions du club mais il n’a pas accepté d’y participer. Son successeur
participe aux réunions. Il s’intéresse aux indicateurs, pose des questions,
mais ne contribue pas à leur interprétation. Lorsqu’il est là, le climat de la
réunion n’est d’ailleurs pas le même : le contrôle de gestion est craint parce
qu’il détient un pouvoir sur les budgets, et en sa présence les participants
se sentent moins libres de parler. Si sa participation aux réunions est en soi
un fait positif, elles sont plus productives quand il est absent.
Le conflit s’est durci lorsque le bloc-notes a publié un indicateur men-
suel du coût unitaire des produits. Le contrôle de gestion produisait des
comptes d’exploitation par produit (CEP) en principe trimestriels, en fait
souvent semestriels. L’équipe du bloc-notes a conçu un modèle pour esti-
mer des coûts mensuels en s’appuyant sur les indicateurs et en se calant
sur le CEP (l’économétrie est ici utilisée comme technique d’estimation).
L’écart constaté après coup entre cette estimation mensuelle et la mesure
trimestrielle que fournit le CEP est instructif.
La légitimité de ce travail a cependant été contestée par le contrôle de
gestion et la décision a dû remonter à l’arbitrage du directeur financier. Le
CEP a quelques défauts : comme il repose sur une comptabilité de trésorerie
et non sur une comptabilité au fait générateur, il porte la trace des aléas
des dates de facturation et de paiement. Cependant il était politiquement
impossible pour le bloc-notes de s’écarter des coûts publiés par le CEP,
du moins au niveau global et aux niveaux agrégés de la nomenclature des
produits. Par contre aux niveaux détaillés les erreurs du CEP étaient par
trop apparentes et l’équipe du bloc-notes a dû (et pu) s’affranchir de la
contrainte du calage.
Le contrôle de gestion a finalement supprimé le CEP pour construire le
modèle ACP (Analyse des Coûts de Production) alimenté par le progiciel
SAP qui équipe Elseneur. Comme SAP ne fournit pas de coûts unitaires au
niveau mensuel, ACP les évalue en multipliant les volumes par des coûts
standards annuels : cela repose sur l’hypothèse, très grossière, que les coûts
unitaires restent constants durant l’année. ACP fonctionne mal, ne satisfait
personne, et le contrôle de gestion reste sourd aux avis des utilisateurs.
Il n’y a pas eu de recouvrement entre CEP et ACP : le bloc-notes a donc
dû pendant un temps cesser de publier ses estimations de coût. L’équipe
du bloc-notes est en train de mettre au point une méthode qui s’appuiera
sur ACP et l’améliorera en répartissant au mieux la « poubelle » (quelques
centaines de millions d’euros par mois) où s’accumulent les écarts entre les
coûts constatés et l’estimation fondée sur les coûts standards. Le bloc-notes
publiera ainsi des coûts détaillés différents ce ceux que fournit ACP, et l’on
peut s’attendre à un nouvel affrontement.
386 CHAPITRE 11. L’INFORMATIQUE DE COMMUNICATION
ne pourront pas ouvrir les documents que vous leur envoyez (d’où message
de réclamation, nouvel envoi et perte de temps).
Notez les indications que donnent vos correspondants usuels et veillez
à transcoder avant envoi les fichiers dans un format qu’ils puissent utiliser.
Pour les correspondants occasionnels, si vous utilisez une version récente du
logiciel, transcodez d’office dans la version antérieure. Si un correspondant
usuel utilise la compression Zip, comprimez les documents volumineux avant
de les lui envoyer : le transfert sera plus performant.
Utiliser le moins possible les listes de diffusion
Certains croient leur parole d’une telle importance qu’ils en inondent les
boîtes aux lettres de toute l’entreprise en utilisant systématiquement des
listes de diffusion. Or il ne faut envoyer un message qu’aux personnes qu’il
peut intéresser. Si vous abusez des listes, vos messages ne seront pas lus et
votre réputation souffrira. Si l’un de vos collègues utilise les listes de façon
indiscrète, concertez-vous avec les autres pour utiliser l’arme absolue : ré-
pondre tous en termes gentiment ironiques. Sa boîte aux lettres sera inondée
et il cessera de vous importuner.
Dans certaines entreprises, les boîtes aux lettres sont encombrées de
notes administratives à diffusion générale. Cette inondation décourage les
utilisateurs et stérilise la messagerie. Les notes administratives seront de
préférence placées sur un serveur Intranet et la direction générale diffusera
une fois par mois un message récapitulatif décrivant brièvement leur contenu
et fournissant des liens pour les consulter. Il faut donner à ce message réca-
pitulatif une large diffusion ; les listes - c’est encore une exception à la règle
mais elle se comprend aisément - conviennent bien pour informer plusieurs
personnes de l’évolution d’un site Web. Il est poli d’indiquer aux destina-
taires comment procéder s’ils préfèrent que leur nom ne figure plus sur la
liste.
Consulter sa boîte aux lettres au moins une fois par jour
Les personnes qui vous envoient un message savent que vous ne le lirez
pas tout de suite (contrairement au téléphone, la messagerie est asynchrone)
mais ils espèrent que vous le lirez dans les heures qui suivent. Il faut donc
consulter votre boîte aux lettres au moins une fois par jour. Quand vous êtes
en déplacement, vous pouvez consulter vos messages en utilisant un service
(gratuit) de messagerie sur la Toile comme celui de Yahoo ou de Google.
Faire en sorte de ne pas recevoir plus que quelques dizaines de messages
par jour
Si vous recevez plus de vingt à trente messages par jour, vous risquez de
vous dégoûter de la messagerie et de ne plus la consulter. Il faut utiliser des
filtres pour réduire le flux qui vous arrive : si quelqu’un vous envoie réguliè-
rement des messages sans intérêt, détruisez les ou notez les comme spam ;
classez dans des dossiers les messages diffusés par des sources d’expertise
comme ZDNet ou Jesse Berst, vous les lirez quand vous en aurez le temps ;
transférez vers votre collaborateur concerné les messages de ceux qui, res-
pectant à l’excès la voie hiérarchique, ont cru devoir s’adresser à vous. Il
suffit de paramétrer votre messagerie pour qu’elle exécute automatiquement
ces diverses opérations.
11.6. ANNEXE : BON USAGE DE LA MESSAGERIE 389
L’informatique dans
l’organisation
392
393
Chapitre 12
394
12.1. LE MARKETING INTERNE 395
2. Le besoin de communiquer à distance est aussi ancien que l’humanité mais il n’a
pu s’exprimer sous forme de demande que lorsque le consommateur a eu connaissance de
l’offre du service téléphonique.
3. Cette phrase surprendra ceux qui voient dans la demande le point de départ du
raisonnement économique. Il suffit pourtant de s’examiner soi-même, par exemple lors-
qu’on fait construire une maison, pour voir que la première formulation de la demande est
maladroite et que le dialogue avec un architecte est nécessaire à l’expression du besoin.
396 CHAPITRE 12. ACTEURS, FONCTIONS ET RÔLES
mation est tenue à jour via la voie hiérarchique des responsables, directeurs
régionaux ou directeurs d’agence, et par des contacts directs avec le terrain
à l’occasion de missions d’inspection. Par ailleurs la direction générale, par
ses réflexions, anticipe les évolutions du métier et possède une vue pros-
pective que les utilisateurs ne peuvent pas avoir. Enfin, comme elle négocie
avec les puissances externes, elle peut tenir compte de contraintes que les
utilisateurs ignorent.
Le marketing interne n’aurait alors besoin ni d’observation des pratiques,
ni de remontée d’alertes : les pratiques sont connues et les alertes ne feraient
que manifester le mauvais esprit de personnes qui ignorent les contraintes
auxquelles l’entreprise est soumise.
Mais ce postulat est erroné. Sauf exception les personnes nommées à la
direction générale, quelles que soient leur qualité et la richesse de leur expé-
rience, perdront en quelques mois une part de leur sensibilité opérationnelle
à mesure qu’elles acquerront la sensibilité tactique qui est nécessaire à la di-
rection générale. Par ailleurs la voie hiérarchique ne s’exprime pas toujours
avec la précision et la vigueur des personnes du terrain car les dirigeants
locaux ménagent leur image auprès de la direction générale. Les missions
d’inspection, instructives sans doute, ont toujours un caractère artificiel :
personne ne dit le fond de sa pensée devant un inspecteur.
Les responsables de la direction générale chargés de concevoir les évo-
lutions du métier et de l’organisation doivent donc admettre la nécessité
du marketing interne, mais cela leur est difficile car ils craignent qu’il ne
compromette la légitimité de leurs décisions.
* *
Il est difficile de faire admettre l’idée du « marketing du système d’in-
formation », interne à l’entreprise, orienté vers les utilisateurs et impliquant
que l’on segmente leur population. Il est clair pourtant que l’utilisation du
système d’information n’est pas la même selon la fonction de l’utilisateur :
lorsqu’on parle de « l’utilisateur » au singulier on néglige cette diversité.
12.1. LE MARKETING INTERNE 397
Le refus de savoir
Un MOAD avait fait réaliser une enquête de satisfaction auprès des utili-
sateurs du système d’information. Les résultats furent présentés au CSSI.
Ils faisaient apparaître des défauts dans le fonctionnement du système
d’information, en particulier dans l’impression des courriers.
Le directeur responsable émit alors le petit bijou de rhétorique que voici
(citation textuelle) : « Nous connaissons déjà ce problème et nous avons
pris les mesures nécessaires, mais les gens du terrain n’y ont rien compris.
Il faut dire qu’il y a du mauvais esprit... »
Le directeur général en conclut que celui qui avait présenté les résultats
avait « exagéré » : c’est ainsi que l’on décourage la remontée directe
d’informations du terrain vers la direction générale.
4. Il est possible d’ouvrir des forums, mais il faut désigner un animateur si l’on veut
éviter qu’ils ne se dégradent.
12.1. LE MARKETING INTERNE 399
* *
L’exécution (conseiller dans une agence de l’ANPE, commandant de
bord et hôtesse de l’air dans une compagnie aérienne, agent du centre d’ap-
pel, trader dans une banque, acheteur d’une chaîne de grands magasins,
commerciaux, administratifs chargés de la gestion des ressources humaines,
de la comptabilité etc.) occupe de l’ordre de 90 % des effectifs de l’entre-
prise. Il s’agit des personnes qui font tourner le processus de production,
sont en relation directe avec les clients et les fournisseurs ou manipulent la
matière première et les produits intermédiaires pour les transformer.
Le système d’information doit leur fournir à chaque instant les données
nécessaires à l’action en cours, les espaces où elles peuvent saisir les don-
nées qu’il faut entrer dans le système, les commandes qui leur permettent de
lancer des traitements. Le contrôle d’accès (identification, authentification)
doit être rigoureux mais aussi simple que possible (single sign on) ; les ha-
bilitations doivent être compatibles avec le travail à réaliser ; il ne doit pas
exister de double saisie et le système d’information doit assurer lui-même la
navigation entre les applications dont la personne a besoin ; la performance
informatique doit être convenable (pas de pannes, affichage rapide).
Rom et de lunettes sur lesquelles s’affichent le dessin des équipements et la liste des
opérations à effectuer.
402 CHAPITRE 12. ACTEURS, FONCTIONS ET RÔLES
* *
Le contrôle de l’exécution, ou encore son organisation et son animation
(directeur d’agence dans une banque, chef d’escale dans une compagnie aé-
rienne, directeur régional ou chef de division à l’INSEE, proviseur dans un
lycée etc.) occupe environ 10 % des effectifs.
Il est assuré sur le terrain par le personnel d’encadrement qui vérifie la
qualité et la quantité des travaux et prend les mesures nécessaires pour que
l’exécution se déroule efficacement.
Le manager opérationnel doit disposer d’indicateurs quotidiens permet-
tant de contrôler la qualité du travail et la bonne affectation des ressources :
indicateurs de volume, de délai, de temps de travail, indicateurs composites
(productivité, degré de réalisation d’un programme etc.), alertes. Le sys-
tème d’information doit lui fournir ces indicateurs de façon automatique,
12.1. LE MARKETING INTERNE 403
* *
La conception (directeur général, directeurs régionaux, directeurs d’ad-
ministration centrale entourés de leurs collaborateurs immédiats ; direction
du marketing, directeur commercial, direction de la production etc.) occupe
de l’ordre de 1 % des effectifs. Il s’agit de définir la stratégie de l’entre-
prise en termes de produits, commercialisation, distribution, partenariats,
tarification et de mettre au point les dispositions de détail nécessaires à
son application. Il faut distinguer plusieurs niveaux dans la conception des
tâches : les dirigeants stratégiques (comité de direction), les dirigeants régio-
naux ou locaux et responsables de lignes de produits, les chargés d’étude,
experts, chercheurs et planificateurs.
Comité de direction
Les dirigeants (président-directeur général, directeur général, DGA et
directeurs centraux) doivent disposer de données mensuelles corrigées des
biais et erreurs statistiques, de tableaux de bord sélectifs, commentés et
présentant sous forme graphique des séries chronologiques corrigées des va-
riations saisonnières qui décrivent l’essentiel de l’activité de l’entreprise :
part de marché et chiffre d’affaires dans les divers segments de clientèle et
les divers produits, avec l’explication des incidents exceptionnels ; situation
financière et estimation du résultat de l’entreprise ; indicateurs de produc-
tivité et de compétitivité etc. (voir page 379).
Ces tableaux de bord doivent permettre aux dirigeants de ne pas avoir
à s’interroger ni se disputer sur les sources statistiques. Ils doivent pou-
voir connaître la fonction de coût de l’entreprise et être complétés par des
rapports d’études (veille concurrentielle, veille technologique).
Responsables
Les directeurs régionaux ou locaux, les chefs de lignes de produit dis-
posent d’outils d’étude sous forme de datawarehouses (données relatives à
la production et au marché selon le croisement de plusieurs nomenclatures
prédéfinies, tableaux préformatés, voir page 299) ; une équipe d’experts na-
tionale traite les requêtes complexes.
Chargés d’étude, experts et planificateurs
Les chargés d’étude de la direction du marketing disposent d’un da-
tawarehouse qui leur permet d’étudier la segmentation de la clientèle, la
concurrence, les parts de marché, les tendances économiques ; ils exploitent
les enquêtes de satisfaction auprès des clients, les comptes rendus du service
après vente et de l’assistance à la force de vente etc. Ils utilisent en outre des
outils de datamining (voir page 296) pour identifier la cause des incidents et
anomalies. Des planificateurs préparent le programme des vols à Air France,
404 CHAPITRE 12. ACTEURS, FONCTIONS ET RÔLES
* *
Contrairement à une opinion étonnamment répandue, la distinction entre
MOA et MOE n’est pas « franco-française ». Seul le vocabulaire est propre
à notre pays. Aux États-Unis, les métiers d’une entreprise comportent évi-
demment des experts de la modélisation du système d’information : on les
appelle IT analysts, business technologists, business analysts 9 (organisers)
en Grande-Bretagne, IT coordinators au Japon, et certaines universités
forment à cette spécialité. Leurs fonctions sont celles des « maîtres d’ou-
vrage délégués » et « maîtres d’ouvrage opérationnels » que nous décrirons
ci-dessous.
Comme toute entité de l’organisation est à la fois maître d’ouvrage (de
son processus de production) et maître d’œuvre (de son produit), il est par-
faitement correct de dire que la DSI est maître d’ouvrage de son propre
processus de production. Mais dans le cas particulier du système d’informa-
tion le partage des rôles est clair : la DSI sera maître d’œuvre (du produit
que constitue le système d’information) et les autres métiers de l’entreprise
sont chacun maître d’ouvrage (de ses processus de production, que le sys-
tème d’information doit outiller) 10 .
9. Le titre de CIO (Chief Information Officer) ayant souvent été attribuée au DSI, la
personne qui anime l’expertise de l’agence en maîtrise d’ouvrage est nommée CTO (Chief
Technology Officer), l’acronyme IT étant ainsi réparti entre ces deux fonctions de façon
quelque peu paradoxale.
10. Cette formulation correspond au cas où le système d’information est conçu et ex-
ploité par la DSI de l’entreprise ; il faut transposer le vocabulaire si celle-ci a confié cette
responsabilité à une autre entreprise (outsourcing).
12.2. ORGANISATION ET RESPONSABILITÉS 407
qui est nouvelle pour elles. Nous utiliserons dans cet ouvrage le vocabulaire
des entreprises où la réflexion sur la maîtrise d’ouvrage nous semble la plus
avancée.
On distingue dans la MOA six fonctions : le maître d’ouvrage stratégique
(MOAS) ; le maître d’ouvrage délégué (MOAD) ; le maître d’ouvrage opéra-
tionnel (MOAO) ; l’assistant à maîtrise d’ouvrage (AMO) ; l’expert métier ;
enfin l’utilisateur, au service duquel se trouvent les cinq autres fonctions.
Le maître d’ouvrage stratégique (MOAS)
À la tête de toute entité se trouve un dirigeant : président-directeur gé-
néral ou directeur général pour l’entreprise, DGA ou directeur pour une
direction de l’entreprise, chef de service pour les unités qui constituent la
direction etc. Les appellations varient d’une entreprise à l’autre, mais on
comprend que nous pensons ici à l’organisation hiérarchique.
Le « maître d’ouvrage stratégique » (MOAS) est une personne physique ;
c’est le dirigeant de l’entité, le patron, ou encore le « stratège ». C’est lui
qui prend en définitive les décisions importantes concernant l’entité, qui
arbitre les différends entre ses collaborateurs, qui signe le contrat avec la
MOE. Comme le système d’information est, pour la plupart des entités,
à la fois concrétisation de la stratégie et condition de sa mise en œuvre,
des décisions essentielles seront prises par le MOAS notamment lors du
lancement des grands projets. Cependant le MOAS n’est pas, en général,
un expert en matière de système d’information. Même s’il a été un expert
dans une vie antérieure, ses responsabilités présentes lui interdisent de se
tenir au courant de l’état de l’art. C’est pourquoi il se fait assister par un
maître d’ouvrage délégué (MOAD) auquel il délègue (c’est le sens même
de l’expression) le soin, le souci de l’expertise dans le domaine du système
d’information.
Le principe qui sous-tend cette organisation est la séparation de l’exper-
tise et de la décision (voir page 421). L’expert n’a pas à porter le poids de
la décision, mais il la prépare en fournissant au décideur les éléments d’in-
formation nécessaires ; le décideur n’a pas à se tenir au courant de l’état de
l’art, mais il est attentif aux priorités de l’entreprise, vigilant envers son en-
vironnement, et il peut ainsi arbitrer entre les solutions possibles en situant
dans un contexte plus large les informations que lui apporte l’expert.
Le maître d’ouvrage délégué (MOAD)
Le « maître d’ouvrage délégué » (MOAD) est une personne physique
soit seule, soit à la tête d’une équipe si l’entité est importante. Il assiste le
MOAS dont il est un des proches collaborateurs.
Sa fonction est de veiller à la qualité du système d’information de l’entité,
tant dans sa conception que dans la façon dont il est utilisé. Il assiste le
MOAS en lui fournissant les éléments nécessaires à la décision et en veillant
à ce que l’on appelle l’« alignement stratégique » du système d’information.
Le MOAD est, au sein de l’entité, responsable de la qualité des méthodes
utilisées pour l’expression des besoins, l’explicitation des priorités, la sélec-
tion des projets, la réalisation des études préalables, la conduite de projet,
la recette finale, enfin il doit animer le bon usage du système d’information
existant. Ses interlocuteurs naturels au sein de l’entité sont les chefs de ser-
408 CHAPITRE 12. ACTEURS, FONCTIONS ET RÔLES
12. Dans certaines entreprises, la coordination des maîtrises d’ouvrage est appelée
« Maîtrise d’ouvrage stratégique ». Cette dénomination est correcte au plan logique
(puisque cette unité assiste le directeur général qui est le « stratège » de l’entreprise),
mais elle a l’inconvénient de laisser sans appellation le directeur d’un métier qui, lui, est
le « stratège » d’une maîtrise d’ouvrage particulière. Nous conseillons donc de réserver à
celui-ci l’expression « maître d’ouvrage stratégique ».
12.2. ORGANISATION ET RESPONSABILITÉS 411
13. Certains DSI ont l’ambition d’assumer à eux seuls toute les responsabilités sur le
système d’information, y compris celle de la maîtrise d’ouvrage. C’est faire prendre un
risque à l’entreprise (voir page 572).
14. Les petits développements sont souvent appelés « maintenance évolutive », alors
qu’il s’agit d’investissements et non de maintenance : mais comme il est souvent plus
commode de les financer dans le cadre des contrats de « tierce maintenance applicative »
(TMA) plutôt que de les considérer comme des projets on utilise souvent une dénomina-
tion trompeuse.
15. Même s’il n’est pas considéré comme un actif par la comptabilité, ici en retard sur
l’économie.
412 CHAPITRE 12. ACTEURS, FONCTIONS ET RÔLES
ser de descriptions complètes établies selon une procédure qui garantit leur
pérennité. Le modèle devient le langage dans lequel le métier structure et
décrit ses fondations conceptuelles. Il sert aussi (ou plutôt il servira, car nous
sommes ici en avance par rapport à la pratique de beaucoup d’entreprises)
à mettre en forme les choix stratégiques et à les expliciter.
Validation du besoin par le MOAS
Les spécifications générales (ou encore « fonctionnelles ») d’un système
d’information sont un document que le maître d’ouvrage fournit au maître
d’œuvre et qui indique à celui-ci ce que devra faire l’outil informatique qu’on
lui demande de réaliser. Ces spécifications prennent en principe aujourd’hui
la forme d’un modèle UML.
Il faudra vérifier que la représentation du métier que fournit le modèle est
conforme à la stratégie de l’entreprise, à son positionnement sur le marché,
à ses méthodes de gestion, à ses projets, bref à sa personnalité.
Cette vérification-là ne peut être faite que par ceux qui définissent,
qui orientent la personnalité de l’entreprise, c’est-à-dire par les dirigeants
(président-directeur général, directeur général, DGA, directeurs etc.). C’est
cette vérification que l’on appelle « validation ».
Cependant les choses se passent souvent de la façon suivante :
- le modèle prend la forme d’un classeur de quelques centaines de pages,
hérissé de graphiques et d’acronymes, rédigé dans le jargon particulier à l’in-
formatique (où tout texte devient un « livrable », tout donneur d’ordre un
« commanditaire », toute méthode une « méthodologie », tout problème une
« problématique » etc.). Le décideur y trouve divers types de diagrammes :
de classes, de cas d’utilisation, de séquences, d’interaction, d’activité, d’état,
de composants, de déploiement etc. Ni les cases, ni les flèches de ces dia-
grammes ne peuvent être compris par quelqu’un qui n’en a pas l’habitude ;
- on donne le modèle au dirigeant le vendredi soir en lui demandant de
le valider pour le lundi : on est en retard, il faut qu’il signe vite... et les
techniciens se disent in petto « tu es un dirigeant, tu l’as voulu, Georges
Dandin ! Tâche de comprendre et bon week-end ! » ;
- le dirigeant signe, parce qu’il ne veut pas être celui qui ralentirait la
procédure et qu’il ne veut pas avouer qu’il n’y comprend rien. Tout au plus
posera-t-il une question de détail pour faire preuve de vigilance ;
- les équipes se mettent au travail en se fondant sur les spécifications
ainsi « validées » ; elles passent aux spécifications détaillées, aux spécifica-
tions techniques, à la réalisation, aux tests, à la recette, au site pilote, au
déploiement ... et le dirigeant constate, quelques mois après sa « valida-
tion », que le produit n’est pas conforme à la stratégie de l’entreprise. Alors
il faudra soit admettre que la stratégie soit mal outillée, soit tout refaire à
grands frais.
Plusieurs choses sont choquantes dans ce scénario si fréquent. Tout
d’abord, le mépris avec lequel les techniciens traitent le dirigeant. Ce mépris
ne s’exprime certes pas par des paroles insultantes : il peut faire bon ménage
avec l’obséquiosité. Mais l’une des pires insultes que l’on puisse adresser à
quelqu’un, c’est de lui donner un travail impossible en le mettant au défi de
révéler son incompétence.
416 CHAPITRE 12. ACTEURS, FONCTIONS ET RÔLES
* *
La validation ne pourra être authentique que si elle porte sur un docu-
ment lisible et compréhensible pour le dirigeant, et que celui-ci puisse le
faire corriger s’il lui semble ne pas correspondre à la stratégie de l’entre-
prise : c’est sur ce dernier point que réside la valeur ajoutée qu’apporte la
validation. Alors le dirigeant se saura engagé par sa signature ; le risque
d’une inadaptation à la stratégie sera réduit ainsi que celui d’un désaveu
ultérieur de la validation.
Il faut donc trouver le moyen, lorsqu’on a en mains un modèle UML, de
le transcrire en un texte qui le représente fidèlement tout en étant lisible
par un dirigeant. L’exercice n’est pas facile mais il est possible. On peut
procéder de la façon suivante :
- rédiger une synthèse en langage naturel de quatre ou cinq pages, ex-
pliquant ce que l’on a voulu modéliser, la façon dont on s’y est pris, les
modifications que l’on a apportées au processus en le modélisant, les choix
que l’on a fait parmi les solutions possibles, les questions qui ont été laissées
pendantes par souci de simplicité 18 ;
- faire valider la fidélité de cette synthèse par quelqu’un qui connaît bien
le modèle, le « vérificateur » ; il vaut mieux que ce vérificateur ne soit pas le
responsable du modèle car il est difficile, pour celui qui a supervisé les détails
d’une production technique, d’en vérifier une présentation synthétique ;
- présenter les cases sur lesquelles doivent figurer les signatures comme
sur la figure 12.2.
Le « modèle », ce sera alors l’ensemble constitué par le modèle formel et
sa synthèse. Le modèle formel est signé par le responsable du modèle et par
le vérificateur ; la synthèse est signée par le vérificateur et par le dirigeant.
On communique au dirigeant la synthèse et le modèle formel. Il pourra
se reporter à ce dernier s’il veut vérifier un détail, mais il ne signe que la
synthèse : c’est le seul document qu’il sera censé avoir lu et qui engagera sa
responsabilité.
Convergence du modèle
L’élaboration du modèle, avec ses parties formelles et ses parties en lan-
gage naturel, se fait de façon itérative. On rédige la première expression
de besoins dans un langage clair et simple ; la modélisation formelle fait
apparaître les ambiguïtés et incohérences inévitables dans toute première
rédaction : on les corrige, ce qui conduit à construire une deuxième version
du modèle formel etc. (figure 12.3). À l’issue de ce processus, la maîtrise
d’ouvrage dispose d’un modèle qu’elle peut livrer à la maîtrise d’œuvre et
18. On pourra reprendre dans cette synthèse le diagramme d’activité, qui est le plus
facile à lire parmi les diagrammes que comporte le modèle, et lui annexer des images
d’écran qui illustreront utilement ce que l’on entend faire.
12.2. ORGANISATION ET RESPONSABILITÉS 417
dont les deux parties (formelle et en langage naturel) sont mutuellement co-
hérentes. Avant la livraison du modèle à la maîtrise d’œuvre, les documents
en langage naturel doivent avoir été validés par le MOAS.
générales » ; ces divers termes étant synonymes nous utiliserons ici l’expres-
sion « modèle métier ».
Lorsque le modèle métier est fourni au maître d’œuvre, celui-ci doit
se l’approprier et s’assurer qu’il l’a bien compris. Il peut ainsi relever des
points obscurs. On entre alors dans un cycle de remarques que le maître
d’œuvre adresse au maître d’ouvrage, auxquelles celui-ci répond en précisant
et adaptant le modèle (figure 12.4).
Toute réalisation doit parcourir ces trois étapes, et être conduite de telle
sorte que l’on n’ait pratiquement jamais à mettre en cause les choix opérés
lors des étapes précédentes.
La maîtrise d’ouvrage est responsable à la fois de la production et de
la validation du modèle métier ; pour le modèle d’analyse, la responsabilité
est partagée : production par la maîtrise d’œuvre, validation par la maîtrise
d’ouvrage. Enfin, la maîtrise d’œuvre est responsable à la fois de la pro-
duction et de la validation du modèle technique (figure 12.5). Le découpage
des rôles doit être clair dans l’esprit de chacun. Il ne signifie pas qu’il existe
une cloison étanche entre maîtrise d’ouvrage et maîtrise d’œuvre : les flux
d’information et les consultations doivent être réguliers tout au long de la
démarche.
À la fin du processus ci-dessus, et une fois le modèle technique élaboré,
on entre dans la phase de réalisation qui sera suivie du déploiement, de la
formation des utilisateurs etc.
420 CHAPITRE 12. ACTEURS, FONCTIONS ET RÔLES
Quelques pièges
- on sous-estime la difficulté de la logistique de consultation et de valida-
tion auprès des experts du métier : les rendez-vous sont difficiles à obtenir,
les personnes ne sont pas assidues, ou bien elles ne se sentent pas auto-
risées à donner un avis parce que leur mandat n’est pas clair, ou encore
elles sont désavouées après l’avoir donné etc. Les délais peuvent s’allonger
démesurément et la qualité de l’expression des besoins sera douteuse ;
- on présente aux dirigeants des documents d’une technicité qui ne cor-
respond ni à leur langage, ni à leurs préoccupations : dès lors la validation
prend beaucoup de temps, ou bien au contraire elle est rapide mais su-
perficielle et sera remise en cause par la suite : un dirigeant ne pourra en
effet jamais tolérer que l’application ne soit pas conforme à la stratégie de
l’entreprise ;
- on prend en compte les contraintes techniques de façon trop précoce :
nous avons vu ci-dessus la succession modèle métier → modèle d’analyse
→ modèle technique. Lorsqu’on construit le modèle métier, l’objectif est de
donner une bonne expression de besoin et non d’optimiser les solutions tech-
niques qui devront être examinées ensuite. Mais il arrive parfois que sous
prétexte de « sérieux », de « rigueur » ou de « méthodologie » un consul-
tant ou un informaticien impose au métier des règles de modélisation qui
anticipent sur les choix à réaliser dans le modèle d’analyse ou même dans le
modèle technique. Ces choix précoces (sur la structuration des composants,
les interfaces etc.) devront ensuite être révisés par le maître d’œuvre, d’où
travail en double et perte de temps ;
- la cloison entre maîtrise d’ouvrage et maîtrise d’œuvre est étanche :
même si la maîtrise d’œuvre n’est pas responsable du modèle métier, il est
utile que le maître d’ouvrage la consulte pour s’assurer de la faisabilité de
ce qu’il envisage ; par ailleurs, même si le modèle technique ne concerne
pas le maître d’ouvrage, il est utile que celui-ci soit informé de choix qui
auront pour lui des conséquences en termes de performances, fiabilité etc. :
la spécialisation des rôles, la séparation des responsabilités ne doivent pas
exclure la collaboration.
les recettes techniques (« recettes usine ») faites par les fournisseurs. Elle
assiste ensuite la MOA lors de la recette fonctionnelle. Enfin, elle assure la
mise en exploitation de la solution sur la plate-forme technique, puis son
exploitation continue, en garantissant la qualité du service (disponibilité,
fiabilité etc.) ainsi que le support aux utilisateurs.
19. Lors de l’affaire de la vache folle, des experts furent consultés pour éclairer la décision
sur les importations de viande venant de Grande-Bretagne. Lionel Jospin déclara qu’il
422 CHAPITRE 12. ACTEURS, FONCTIONS ET RÔLES
suivrait leur avis : cela mit les experts mal à l’aise, car ils sentaient la diversité des
dimensions que la décision devait prendre en compte et que leur expertise ne pouvait pas
couvrir.
12.4. COMPÉTENCES DE LA MAÎTRISE D’OUVRAGE 423
20. La programmation est cependant pour le MOAD un hobby salubre, car il l’aide à
entrevoir les difficultés que rencontre l’informatique. Mais il restera toujours un écart
important entre la programmation personnelle, qui est du bricolage, et la programmation
telle qu’elle se pratique dans les grandes usines que sont les SSII.
12.4. COMPÉTENCES DE LA MAÎTRISE D’OUVRAGE 425
21. La qualité des services d’impression est dans beaucoup d’entreprises un point faible
mais trop négligé.
426 CHAPITRE 12. ACTEURS, FONCTIONS ET RÔLES
Qualité du service
Pour administrer le système d’information, la direction informatique doit
être équipée d’outils qui lui permettent d’assurer la qualité du service et
facilitent les mises à jour : inventaire, supervision, télédistribution, support
aux utilisateurs. Il faut que le MOAD les connaisse et soutienne à l’occasion
les demandes budgétaires de l’informatique.
L’inventaire des machines (serveurs, équipements du réseau, poste de
travail) doit être tenu à jour, ainsi que celui des logiciels installés sur chaque
machine. Ce n’est pas une mince affaire surtout quand l’utilisateur est au-
torisé à charger des applications personnelles sur son poste de travail. La
discipline dans la répartition des rôles entre le serveur (central ou local) et
le poste de travail permet de contenir les tendances anarchiques.
Il est important que la qualité du service soit garantie du serveur cen-
tral jusqu’au poste de travail de l’utilisateur 23 . La supervision est, comme
une tour de contrôle, le lieu où arrivent les informations et alarmes sur le
fonctionnement des réseaux et des machines ; les superviseurs sont équipés
d’outils permettant de reconfigurer le réseau ou de déclencher des interven-
tions rapides sur le terrain. La mise à jour des versions logicielles sur les
serveurs locaux et les postes de travail, le chargement des nouveaux logi-
ciels, peuvent se faire « à la main » localement mais cela prend du temps et
pendant le délai de mise à jour l’entreprise doit faire fonctionner en parallèle
des versions différentes. La télédistribution des logiciels permet d’effectuer
les mises à jour via le réseau et de les synchroniser.
Le support aux utilisateurs recouvre l’installation des postes de travail
et équipements périphériques (explications orales, règlement « à chaud »
des questions de paramétrage et de connectique), le traitement des pannes
(explication de l’origine de la panne, indication sur sa durée, intervention du
réparateur), enfin l’aide patiente et bienveillante à l’utilisateur inexpert. Des
personnes physiquement proches de l’utilisateur effectuent une assistance de
premier niveau (on estime qu’il faut lui consacrer de 1 à 2 % des effectifs),
puis vient l’aide en réseau fournie par des centres d’appel qualifiés, enfin
pour les questions les plus difficiles les centres d’appel mobilisent des experts
nationaux ou des fournisseurs.
prise doit faire elle-même et ce qu’elle doit se procurer sur le marché. La plu-
part des systèmes d’information des grandes entreprises ont été construits
au fur et à mesure, alors que les méthodes et techniques informatiques évo-
luaient ; on peut qualifier certains d’entre eux de « bidonvilles de luxe » :
bidonvilles parce qu’ils sont en désordre, « de luxe » parce qu’ils coûtent cher
(une entreprise du secteur tertiaire dépense pour son système d’information
de 3 000 à 10 000 e par salarié et par an).
Du point de vue des maîtrises d’ouvrage la démarche d’urbanisme passe
par la construction d’un référentiel qui documente les domaines, processus,
activités, composants, données et aide l’entreprise à définir ses priorités pour
la mise à niveau du système d’information.
Du point de vue des maîtrises d’œuvre, l’urbanisme passe par une struc-
turation de la plate-forme technique que l’expression « Enterprise Appli-
cation Integration » (EAI) désigne par un acronyme d’une simplicité falla-
cieuse (voir page 294). L’urbanisme vise aussi à maîtriser le coût du système
d’information, notamment les coûts d’exploitation et de maintenance 24 .
La gestion du portefeuille applicatif doit s’appuyer sur des études écono-
miques qui éclaireront, fût-ce de façon qualitative (car les évaluations prévi-
sionnelles sont toujours imprécises) la définition et la sélection des projets.
* *
Nos entreprises utilisent désormais une grande diversité de médias pour
communiquer avec leurs clients et fournisseurs : aux médias traditionnels
(face-à-face, courrier et téléphone) se sont ajoutés la messagerie, la Toile,
parfois la carte à puce.
L’automatisation des traitements permet d’innover dans la relation com-
merciale. L’organisation de l’entreprise, son positionnement, le fonctionne-
ment des marchés sur lesquels elle intervient en sont transformés. Il importe
que le client perçoive l’unicité d’une entreprise avec laquelle ses relations
empruntent divers canaux : le système d’information doit permettre à l’opé-
rateur du centre d’appel de connaître les transactions que le client a réalisées
sur l’Internet, les comptes rendus des réunions avec le client sont mis sur
l’Intranet etc. La cohérence et l’enrichissement fonctionnel de la commu-
nication multimédia, que l’on désigne par le terme GRC (« Gestion de la
Relation Clientèle », en anglais CRM pour Customer Relationship Manage-
ment), imposent au système d’information une haute exigence de qualité.
Par ailleurs nos entreprises cherchent à consolider leur positionnement
en enrichissant leur offre grâce à des partenariats qui permettent d’offrir
au client des assemblages (packages) intégrant des produits offerts par plu-
sieurs entreprises. La commercialisation d’une offre conjointe fournie « sans
couture » suppose de faire interopérer des systèmes d’information. Or des
systèmes d’information ne peuvent interopérer que s’ils sont de haute qua-
lité. Une entreprise dont le système d’information est de mauvaise qualité
24. L’attention se focalise souvent sur le coût des projets, mais après un projet l’entre-
prise devra chaque année payer l’exploitation et la maintenance du produit : l’accumula-
tion des coûts d’exploitation et de maintenance finit par représenter un budget nettement
supérieur à celui qui est disponible pour les projets.
12.5. DÉFIS DE L’INFORMATIQUE AUJOURD’HUI 429
* *
L’élargissement des possibilités offertes par l’informatique a eu pour
contrepartie un accroissement de sa complexité. Elle connaît une évolution
analogue à celle de la médecine au début du xxe siècle et éclate en spécia-
lités dont chacune exige de l’expert un travail à temps plein. On n’est plus
informaticien tout court, mais spécialiste en sécurité, en administration de
réseau, en middleware, en Java etc. Chacune de ces spécialités éclate en-
core en spécialités plus fines et il n’est pas facile pour le DSI( d’animer la
coopération entre des experts relevant de tant de spécialités différentes.
Quelles sont les spécialités qu’une entreprise doit savoir maîtriser, quelles
sont celles qu’il vaut mieux se procurer auprès d’un prestataire ? Pour ré-
pondre à cette question, le DSI doit tracer une frontière aux contours déli-
cats.
Dans le domaine des logiciels, il devra encore tracer une autre frontière :
celle qui passe entre les logiciels spécifiques et les progiciels. Il serait stupide
de programmer un logiciel spécifique pour une tâche qu’un progiciel relati-
vement peu coûteux fait convenablement, comme par exemple le traitement
de texte ; à l’autre extrémité du spectre, dans le cœur de métier de certaines
entreprises, se condense une expertise très spécifique qu’aucun progiciel ne
pourrait outiller. Entre ces deux situations également simples on peut clas-
ser du plus au moins spécifique les logiciels dont l’entreprise a besoin. On
doit situer dans ce classement la frontière entre progiciel et spécifique, mais
elle se déplacera car l’offre de progiciels évolue. La veille système d’infor-
mation devra être attentive à cette évolution et au coût de mise en œuvre
d’un progiciel.
Chapitre 13
Méthodes
Clysterium donare,
Postea seignare,
Ensuitta purgare.
430
431
standard, la liste et le plan des documents que l’on doit produire. Le papier
s’empilera feuille après feuille, classeur après classeur, puis on programmera
en conséquence mais on aura en cours de route perdu de vue le but et les
priorités : alors l’erreur, devenue invisible, se glisse sournoisement entre les
lignes de la méthode.
La meilleure façon d’utiliser une méthode quelle qu’elle soit - qu’il s’agisse
de Merise, de COBIT, d’ITIL ou autres - c’est de la laisser d’abord de côté
pour réfléchir posément à la question posée et établir en toute liberté une
esquisse de solution. Il ne sera pas mauvais de disposer, pour cette première
étape, sinon d’une méthode, du moins d’une check-list sommaire permettant
de savoir par quel bout on doit aborder le problème.
C’est ensuite seulement que l’on pourra revenir à la méthode pour voir si
l’on n’a rien oublié d’important puis sélectionner, dans la liste des opérations
qu’elle énumère, celles qu’il est nécessaire d’effectuer - et laisser tomber les
autres.
Les méthodes, faites pour répondre à une grande diversité de cas, com-
portent en effet beaucoup trop de règles, beaucoup trop de documents pour
chaque cas particulier : il faut les élaguer tout comme on doit élaguer la
demande des utilisateurs pour établir une expression de besoin. Il ne faut
jamais se sentir obligé de suivre la méthode à la lettre, ni moins encore bien
sûr l’utiliser comme un parapluie en se disant « si le produit ne marche pas,
on ne pourra rien me reprocher puisque j’aurai suivi la méthode. »
* *
Lorsque les méthodes se concentrent sur l’évolution du système d’infor-
mation, sur le choix des projets à réaliser et la conduite de projet, elles
négligent le point le plus important : animer l’utilisation du système d’infor-
mation existant. À quoi servent les investissements, en effet, si l’on néglige
d’utiliser les outils dont on dispose?
Il faut donc observer et connaître les utilisateurs, segmenter leur popu-
lation en pratiquant un « marketing interne » (voir page 395), connaître
leurs pratiques afin de redresser courtoisement celles qui sont inefficaces
et d’encourager la diffusion des bonnes pratiques. L’animation du système
d’information suppose de collecter l’information par voie d’enquête (par
exemple une enquête de satisfaction périodique) puis de diffuser les bonnes
pratiques en se servant de l’Intranet, de la messagerie et des réunions.
Il faut aussi que le système d’information soit connu des concepteurs
qui préparent son évolution comme des décideurs qui doivent arbitrer entre
les priorités ; c’est l’un des buts de l’urbanisation (Longépé [119]). Il faut
enfin que les enjeux économiques soient convenablement évalués : le sys-
tème d’information constitue un patrimoine qui doit être géré en tant que
tel et, comme tout actif, il doit être judicieusement défini et correctement
dimensionné. Il faut éviter que l’entreprise soit sous-informatisée (ou sur-
informatisée), il faut qu’elle définisse la priorité relative de ses divers inves-
tissements : cela nous conduit au seuil de la préparation des projets.
Chaque année, les directions de l’entreprise proposent à la direction gé-
nérale d’investir dans le système d’information. Chaque direction juge na-
432 CHAPITRE 13. MÉTHODES
turellement ses projets plus importants que ceux des autres : il revient au
directeur général d’arbitrer.
Les MOAD contribuent à la préparation des projets de leur direction,
à l’instruction des dossiers, à la définition des priorités. Le choix proposé
au directeur général doit tirer parti des études qui permettent d’évaluer
l’opportunité de chaque projet et de la comparer à celle des autres projets.
Les projets, épisodes très visibles dans la vie de l’entreprise, monopo-
lisent l’attention au détriment de l’animation du système d’information
existant ; c’est un peu comme si, dans une ville, la priorité résidait dans
des chantiers de construction et non dans la vie quotidienne des habitants.
C’est un facteur d’inflation, et il en existe d’autres : le prestige d’une direc-
tion s’évalue parfois selon l’ampleur du budget qu’elle est capable d’obtenir.
La sobriété, quoi que l’on dise, n’est pas toujours à l’ordre du jour.
On utilise souvent l’expression « portefeuille de projets » pour désigner
l’ensemble des projets finalement sélectionnés. Cette expression est malheu-
reuse car le mot « portefeuille » s’applique en principe à un patrimoine
et non au flux des investissements. Elle trahit l’importance excessive que
l’on accorde aux projets, aux transformations du système d’information,
par rapport à sa bonne utilisation.
* *
Le désir de bien faire, le souci de faire preuve de compétence, poussent
parfois à réaliser des travaux trop lourds ou à anticiper sur les étapes sui-
vantes d’un projet.
1) Ainsi l’expression de besoin, établie par la maîtrise d’ouvrage, décrit
le produit nécessaire et indique pourquoi il est nécessaire, à quoi il doit ser-
vir. Elle répond aux questions « quoi, pourquoi ». La réponse à la question
« comment fournira-t-on ce produit » relève non de l’expression de besoin,
mais de l’étude qui vient ensuite. Or il arrive que le rédacteur d’une expres-
sion de besoin se sente obligé non seulement de décrire le besoin, mais aussi
de dire comment il sera satisfait - alors qu’il n’a pas la compétence technique
nécessaire et que son analyse sera souvent contredite lors de l’étude.
2) Les « spécifications générales » que comporte le cahier des charges
n’ont pas vocation à régler les questions qui devront être traitées lors de la
rédaction des « spécifications détaillées ». Il arrive que par souci de « sé-
rieux » le rédacteur des spécifications générales aille trop loin dans le détail :
l’échafaudage ainsi construit sera démoli par celui qui vient après et qui doit,
lui, établir les spécifications détaillées.
Il faut donc avoir pour principe de faire à chaque étape ce qu’il est prévu
de faire dans l’étape considérée, rien de moins et rien de plus.
L’enchaînement des tâches doit être organisé de telle sorte que les do-
cuments produits jusqu’à une étape donnée constituent un corpus docu-
mentaire cohérent et puissent être réutilisés tels quels, et enrichis, lors des
étapes suivantes. La rédaction des documents sera ainsi cumulative et l’on
n’aura pas à réécrire l’expression de besoins lors de l’étude OFR, l’étude
OFR lors du cahier des charges, les spécifications générales lors des spéci-
fications détaillées etc. Des corrections éventuelles devront être apportées
13.1. URBANISER UN SYSTÈME D’INFORMATION 433
aux documents amont pour tenir compte des éléments nouveaux survenus
lors de la réalisation.
La cohérence documentaire est un puissant facteur d’efficacité : si le pro-
jet est bien conduit, un même outil pourra être utilisé pour mettre en forme
les spécifications générale, puis détaillée, puis technique, et enfin alimen-
ter un générateur de code (par exemple Rose, de Rational) qui réalisera et
documentera automatiquement une partie du logiciel.
* *
Cette situation (migration massive, progrès en cours, méthodes à amé-
liorer) a incité Deutroisix à lancer une démarche d’urbanisme (Jean [91]).
Cette démarche vise à fournir une « portée de phares » de trois ans pour
1. Il s’agit d’un cas réel ; j’ai modifié le texte pour préserver l’anonymat de l’entreprise.
434 CHAPITRE 13. MÉTHODES
* *
Le schéma d’urbanisme a permis de mettre en circulation une représen-
tation d’ensemble du système d’information et de son évolution selon des
cartographies qui le détaillent par zooms successifs, de la vue d’ensemble
jusqu’au plan intérieur de chaque domaine, les évolutions prévisibles étant
représentées sous la forme d’une évolution de la cartographie. Les schémas
sont accompagnés de commentaires qui en précisent le contenu et expliquent
les choix de priorités sous-jacents.
Cet exercice a fourni aux spécialistes de chaque domaine une vue d’en-
semble qui permet de percevoir la solidarité entre les domaines et l’impor-
tance des flux transverses : les questions d’architecture que posent la gestion
des données de référence et les règles de mise à jour des bases de données,
ont acquis ainsi l’évidence palpable qui leur faisait défaut. De même, les ap-
ports de l’informatique de communication aux processus de production sont
plus aisément visualisés. Enfin les contraintes de synchronisme apparaissent
mieux. La présentation d’ensemble du système d’information a procédé, de
façon systématique, en partant du domaine couvert par chaque métier, en
identifiant les processus de production à l’œuvre dans chaque domaine, puis
les activités concourant à ces processus, les composants mobilisés par ces
activités, enfin les données rassemblées par ces composants (figure 13.1).
On est proche ici du langage UML que Deutroisix utilise désormais pour
modéliser ses processus. On en reste toutefois aux niveaux les plus agrégés
du langage : ce sont ceux qui conviennent à l’urbanisme.
13.1. URBANISER UN SYSTÈME D’INFORMATION 435
* *
Outre la mise en ordre du système d’information, l’exercice d’urbanisme
a fait apparaître des enjeux concernant le positionnement de l’entreprise,
que ce soit en creux ou en relief :
1) Faut-il ou non diversifier l’offre de services en allant au delà de la
plate-forme que constitue le « cœur de métier » ; faut-il ou non enrichir l’in-
termédiation du marché M en prenant en compte, outre les pôles « offre » et
« demande » sur ce marché, d’autres pôles constitués par des offres annexes?
Si la réponse est « oui », cela compliquera le schéma de l’intermédiation ;
par ailleurs la disponibilité de l’information sur les offres annexes est pro-
blématique.
2) Faut-il articuler le système d’information avec les services rendus sur
l’Intranet ? Si la réponse est « oui », cela implique une reconception des
processus de production et une modification des fonctions d’encadrement.
3) Faut-il intégrer les services rendus sur la Toile avec les services rendus
en face-à-face avec les clients ? La réponse est sans doute « oui », mais ce
ne sera pas simple.
4) Les partenaires de l’entreprise s’équipant de système d’information
de plus en plus perfectionnés, les partenariats devront s’enrichir d’une prise
en compte plus complète de leur identité professionnelle et institutionnelle.
Au total, l’exercice d’urbanisme aura permis d’élucider l’évolution du
système d’information de l’entreprise et d’éclairer la stratégie de celle-ci. Si
on réussit son appropriation par l’entreprise, on aura modifié la façon dont
elle perçoit sa relation avec son système d’information et fait progresser la
prise de conscience des enjeux professionnels et stratégiques.
2. Il est regrettable que la DSI de Deutroisix n’ait pas su percevoir les services que
peut rendre un produit comme OnMap (www.onmap.fr), et qu’elle ait ainsi refusé la
médiatisation du SESI.
13.2. APPROCHE PAR LES PROCESSUS 437
10) si les données de référence sont stockées dans plusieurs endroits dif-
férents, il faudra les mettre à jour à la main simultanément lors de tout
changement du contexte, ce qui entraîne des risques d’oublis suscitant des
incohérences dans le système d’information, etc.
L’élucidation des processus ne comporte donc pas seulement la phase
descriptive pendant laquelle on note ce qui se passe dans des diagrammes
avec cases, titres, flèches entre les cases et commentaires ; c’est aussi une
phase normative, mais très naturelle, car elle fait apparaître des défauts qui
sautent aux yeux et que les participants aux travaux trouveront tout simple
de corriger.
« Faire apparaître », « trouver tout simple », cela ne va pas de soi :
pour que cela marche il faut un animateur habile qui rendra les choses
perceptibles en éveillant l’intuition des participants.
La collecte de l’information sur les processus, la validation de leur éluci-
dation, la discussion des résultats, supposent des contacts avec des experts
du métier puis une animation plus large touchant l’ensemble des praticiens
concernés. L’expérience montre que les gens de métier participent avec en-
thousiasme à ces démarches. Le mot enthousiasme n’est pas trop fort : l’élu-
cidation clarifie des questions qu’ils se posaient confusément et qui les met-
taient mal à l’aise ; elle leur permet de supprimer des dysfonctionnements
irritants, ou de comprendre la rationalité sous-jacente à ce qu’ils prenaient
pour un dysfonctionnement.
Si l’on veut capitaliser le progrès accompli lors de l’élucidation il faut
articuler une transformation du système d’information à l’élucidation du
processus. C’est ce que certains consultants résument par la règle « pas de
processus sans workflow », No Process Without Workflow .
Il y a là une difficulté pratique. Les consultants spécialisés dans l’éluci-
dation des processus (on dit « l’analyse des processus ») sont souvent des
organisateurs, non des informaticiens, et il existe au sein des grands cabi-
nets une méfiance réciproque entre consultants en organisation et consul-
tants en informatique. À cette difficulté correspond un piège : d’excellents
travaux peuvent être réalisés sur les processus sans que l’on se soucie de
leur articulation avec le système d’information. Trop souvent ces travaux se
concentreront sur des améliorations de détail et de court terme, utiles certes
mais d’une utilité limitée car ils n’envisagent pas la totalité du processus
mais seulement une partie ; par ailleurs, il sera impossible, sur la base de
ces travaux, de disposer des outils de contrôle automatique qui seuls per-
mettraient de vérifier leur application.
* *
Un processus, c’est la succession des activités des acteurs qui contribuent
à l’élaboration d’un produit. Le « workflow », c’est l’outil informatique qui
rend visible cette succession et permet le contrôle de ses délais, de sa qualité
et de son efficacité. Lorsqu’un processus est équipé d’un workflow, il est
possible de :
- savoir à tout moment où en est la procédure appliquée à un dossier,
consulter les avis qui ont été donnés, relancer la procédure si elle s’enlise,
13.2. APPROCHE PAR LES PROCESSUS 439
* *
Pour décrire l’activité d’un utilisateur, il suffit d’indiquer les données
que celui-ci consulte, celles qu’il saisit, les traitements qu’il lance, ainsi que
l’ordre (éventuellement souple) dans lequel il réalise ces opérations. Chaque
utilisateur va consulter ou saisir quelques données, déclencher un nombre
limité de traitements : ceci conduit naturellement vers la programmation
orientée par objets.
Le langage UML (Fowler [181]), qui fédère les langages de modélisation
en matière d’approche objet, fournit les documents nécessaires pour décrire
les activités (« use cases » selon le vocabulaire de Jacobson), les classes
3. L’étude du cas « Infotel » illustre les conséquences pratiques de cette démarche ainsi
que les difficultés que l’on rencontre dans son déroulement (voir page 375).
440 CHAPITRE 13. MÉTHODES
13.3 Modélisation
Un « modèle », c’est une description d’un être réel conçue de telle sorte
qu’il soit possible de simuler mentalement le fonctionnement de cet être.
Tout modèle comporte à la fois des concepts qui permettent de décrire l’être
13.3. MODÉLISATION 441
* *
* *
Le socle sémantique du modèle est le référentiel, qui enregistre le voca-
bulaire de l’entreprise (identifiants, nomenclatures) et ses règles de gestion.
L’urbanisme est une modélisation globale de l’entreprise : il identifie ses
grands domaines de production et, à l’intérieur de ces domaines, les proces-
13.3. MODÉLISATION 443
* *
La modélisation obéit à deux finalités, l’une technique, l’autre intellec-
tuelle.
Au plan technique, le modèle précise la conception du système d’informa-
tion : son élaboration est la première étape de sa mise en place, tout comme
celle du plan d’un immeuble est la première étape de sa construction. Il doit
aussi préciser les conditions de fonctionnement du système d’information.
Au plan intellectuel, la modélisation permet à l’entreprise de partager
une représentation de son propre fonctionnement : les objets, concepts, pro-
cessus et référentiels de l’entreprise sont élucidés. Cette clarté permet de
compenser l’obstacle à la communication et à la compréhension que repré-
sente le cloisonnement en spécialités et, au plan psychologique, l’autisme
professionnel qui est si fréquent chez les spécialistes. Un modèle bien fait
et convenablement approprié par l’entreprise, permet à chacun de se repré-
senter le cours du processus pour lequel il travaille, son propre rôle dans le
processus ainsi que les rôles des autres acteurs, enfin les relations entre les
divers processus de l’entreprise.
Les deux finalités sont aussi importantes l’une que l’autre, ou plus pré-
cisément elles se situent sur des plans différents où elles sont toutes deux
cruciales. On a trop tendance à négliger la finalité intellectuelle parce que
l’on ne voit dans le modèle qu’une étape d’un projet technique.
Beaucoup d’entreprises ne modélisent pas car elles croient inutile de
comprendre comment elles font ce qu’elles savent faire (il est vrai que per-
13.3. MODÉLISATION 445
sonne ne sait comment son corps respire ou digère et que cela n’empêche
pas de vivre). Lorsqu’un salarié qui arrive dans une telle entreprise est mis
au travail 4 , il lui est demandé d’adhérer à une organisation locale sans qu’il
puisse en prendre la vue d’ensemble. Il se formera par imitation des anciens :
le savoir est « dans les murs ». L’architecture qui résulte des choix faits dans
le passé par des organisateurs est considérée comme un état de la nature.
Lorsqu’on présentera un modèle à ce salarié, il le trouvera déroutant car le
modèle relativise des conventions et règles d’organisation qu’il a l’habitude
de considérer comme des absolus.
Certaines entreprises doivent cependant modéliser : celles qui sont pla-
cées dans un contexte évolutif (concurrence, innovation technique, régle-
mentation) et doivent donc être agiles ; ou encore celles qui partagent avec
d’autres entreprises la production d’un produit (partenariats) et doivent
donc assurer l’interopérabilité des processus.
Or aujourd’hui la plupart des entreprises se trouvent ou se trouveront
bientôt dans l’un ou l’autre de ces deux cas : l’évolutivité et les partenariats
sont des contraintes de l’économie actuelle. Ainsi, alors qu’autrefois les en-
treprises pouvaient à peu près bien marcher en inculquant à leurs salariés
des habitudes professionnelles, il importe maintenant qu’elles élucident leurs
processus afin que leurs salariés puissent se les approprier 5 .
le dénaturer, puis pour le détailler dans un modèle central que l’on pourra
modifier jusqu’à l’implémentation. L’utilisation conjointe de ces diverses
techniques permet de s’adresser à des interlocuteurs qui diffèrent tant par
la forme de leur intuition que par le niveau de visibilité et de lecture des
modèles (figure 13.4).
* *
Une fois l’expression des besoins précisée et validée, il convient d’établir
en premier le dictionnaire du domaine considéré ; ensuite, une approche
systémique en fournit une vue globale. La définition des modèles conceptuels
peut accompagner la modélisation des processus métier, enrichie par la prise
en compte des règles de gestion. Enfin, les cas d’utilisation détaillent ce que
le modèle doit effectuer au sein du système global.
7. L’effet de tunnel doit être évité également dans la réalisation du logiciel : si l’au-
tomatisation du processus requiert un travail lourd (et donc long) il sera impératif de
définir des « livrables exploitables », produits intermédiaires dont la mise en exploitation
entre les mains des utilisateurs fournira des enseignements utiles.
13.3. MODÉLISATION 447
Expression de besoin
Toute modélisation informatique doit partir d’une expression de besoin
écrite, claire et validée par les responsables. Elle servira de référence tout
au long de la réalisation du projet (voir page 456).
Lorsque l’expression de besoin part comme il se doit du produit que
l’entreprise entend élaborer, elle comporte naturellement la description d’un
processus de production : toute action se ramène en effet à un processus (plus
ou moins complexe et ramifié) selon lequel, partant d’une situation initiale,
et par l’application de certaines ressources, on aboutit à un résultat, à un
produit.
L’expression de besoin doit essentiellement décrire la situation initiale
et le résultat, la définition des ressources relevant le plus souvent d’une
étape ultérieure. Il faut préciser aussi ce qu’il conviendrait de faire en cas
de défaillance : la modélisation du processus doit comporter la description
des cas de panne et des solutions à adopter en régime dégradé.
Dictionnaire
Le dictionnaire rassemble les définitions des termes relatifs au système
considéré. On doit être tolérant lors du recueil de la terminologie du métier
et accepter de noter les homonymes et synonymes qui coexistent dans l’or-
ganisation. Cependant la construction du modèle apportera une réduction
terminologique en n’associant plus qu’un nom et un seul à une même chose
ou à un même concept : l’amélioration du vocabulaire est l’un des apports
de la modélisation.
448 CHAPITRE 13. MÉTHODES
Approche systémique
Il est utile de produire un schéma général, validé par les acteurs, mettant
en évidence les structures de l’entreprise impliquées, leurs responsabilités et
leur mode de coopération. La notion de « flot d’information » introduite
dans UML 2.0 sera ici utile (figure 13.6).
Règles métier
La notion de « contrainte » dans UML permet de modéliser des règles
de gestion qui autorisent, provoquent ou empêchent le déroulement d’un
processus (exemples : « une direction départementale ne doit pas comporter
plus de dix agences », « un client ne peut commander via la Toile que s’il
a été enregistré au préalable », « un employé marié ne doit être muté qu’en
dernier recours » etc.).
Modélisation du processus
Décrire un processus, c’est décrire l’événement qui le déclenche, les étapes
(ou activités) par lesquelles il doit passer, les ressources qu’il doit consom-
mer, l’événement final auquel il doit aboutir. Ces informations sont rassem-
blées et documentées dans le diagramme d’activité qui décrit la succession
des activités, les messages qu’elles échangent, les éventuels sous-processus
et les livrables intermédiaires que ceux-ci fournissent (figure 13.7).
Le diagramme d’activité est, parmi les diverses vues sur le modèle, la
plus lisible et la plus facilement compréhensible pour les personnes qui ne
participent pas à son élaboration. Il joue un rôle important lors de sa vali-
dation.
Cas d’utilisation
L’étape suivante consiste à décrire les cas d’utilisation, chaque activité
en comportant un ou plusieurs. Un cas d’utilisation regroupe des opérations
13.3. MODÉLISATION 449
que l’acteur exécute et qui forment un ensemble cohérent : recevoir des mes-
sages, consulter des données ou du texte, saisir des données ou du texte,
lancer des traitements, envoyer des messages. On a défini le cas d’utilisation
lorsque (1) on l’a nommé et désigné par sa finalité au sein de l’activité, (2)
on a décrit son contenu en définissant les données consultées, saisies ou trai-
tées, la nature des traitements, les messages échangés, (3) on a identifié les
composants applicatifs qu’il met en œuvre au sein du système informatique
(figure 13.8).
Il arrive que des cas d’utilisation divers comportent des éléments sem-
blables, ou qu’ils soient des cas particuliers de cas d’utilisation plus gé-
néraux : on peut alors définir une hiérarchie de cas d’utilisation qui, par
abstraction, simplifie le modèle : c’est le diagramme des cas d’utilisation.
Pour valider un cas d’utilisation, on présente aux utilisateurs futurs une
succession d’écrans simulant l’exécution du processus.
« Modèle métier » et « modèle complet »
La maîtrise d’ouvrage est responsable du modèle métier, qui n’est rien
d’autre qu’une expression de besoin précise et ne considère les contraintes
techniques que de façon approximative. Pascal Roques et Franck Vallée [207]
ont proposé un schéma en Y pour la modélisation (figure 13.9). La réali-
sation du modèle métier occupe la branche gauche ; la prise en compte des
contraintes techniques occupe la branche droite ; la réalisation du modèle
complet est la branche verticale. Le modèle métier ne peut être que provi-
450 CHAPITRE 13. MÉTHODES
soire : il arrive que l’on doive le réviser pour tenir compte des contraintes
techniques ou de l’évaluation du coût de réalisation que fait apparaître l’éla-
boration du modèle complet.
techniques ont le niveau de stabilité le plus bas, car ils doivent évoluer
rapidement pour assurer le maintien de l’entreprise à l’état de l’art ; le dé-
coupage des domaines de légitimité de l’entreprise, que l’on nomme souvent
« organisation », un peu plus stable que les choix techniques, est cependant
évolutif. Le référentiel des données et des notions que le modèle manipule,
étant pour l’essentiel indépendant des choix techniques comme de l’organi-
sation, est la partie la plus stable du modèle et sera le socle sur lequel on
peut le bâtir.
L’évaluation du coût du projet est donc continue ; très floue dans les
premières étapes, elle gagne progressivement en précision. Il est bien sûr
souhaitable d’utiliser des méthodes aussi rigoureuses que possible, un « mo-
dèle de coût » étalonné et condensant l’expérience des informaticiens. Cela
ne supprime pas l’incertitude, mais cela peut la réduire et améliorer d’au-
tant la qualité des décisions. Il est d’ailleurs salubre, lorsque les décisions
sont prises sur la base d’une évaluation imprécise, que cette imprécision soit
considérée comme l’un des risques associés au projet.
Tab. 13.1 – Résultat des projets d’après les enquêtes du Standish Group
9. L’échantillon enquêté ne comprend que des entreprises américaines, mais il est vrai-
semblable que les entreprises françaises ne font pas mieux.
454 CHAPITRE 13. MÉTHODES
* *
abonde en bons produits qui furent détruits par une V2 où l’on a voulu
introduire tout ce qui avait été négligé par la V1. Les versions ultérieures - il
y en aura, bien sûr - ne devront pas tenter de satisfaire « toute la demande »
qui avait été recensée initialement, mais seulement les besoins nouveaux
survenus entre temps et toujours sous la même contrainte de sélectivité.
Un système d’information est fragile et instable, sujet à des pannes, des
incidents, il est difficile de le faire évoluer pour l’adapter à un environne-
ment changeant. Sa fragilité est à peu près proportionnelle au carré de la
taille des programmes ou du nombre des fonctionnalités : elle croît donc vite
avec la complexité. Plus un système est sobre, plus il sera solide, moins il
connaîtra d’incidents, mieux on pourra le faire évoluer. La sobriété facilite
non seulement la conception, mais l’exploitation et l’évolution, et l’utilisa-
teur y gagne.
* *
si celui qui propose une simplification est écouté avec intérêt, alors on verra
les projets se clarifier, les priorités s’exprimer, le langage s’épurer du jargon
par lequel les corporations cherchent à se protéger, enfin la communication
s’établir.
* *
L’expression de besoin est le premier document que produise une maîtrise
d’ouvrage pour amorcer un projet nouveau. En cours de projet, les soucis
de la réalisation risquent de faire perdre de vue les intentions initiales :
la relecture de l’expression de besoin permettra alors un utile retour aux
sources. C’est pourquoi elle doit rester accessible pendant toute la durée du
projet. Comme il s’agit d’un texte court, on aura intérêt à le reproduire
intégralement en tête des autres documents relatifs au projet (étude OFR,
FSM, spécifications générales etc.).
On peut décliner les qualités que doit posséder une expression de besoins
à partir de celles que l’on attend du système d’information (voir page 255) :
elle doit être (a) pertinente, (b) sobre, (c) complète, (d) claire à la lecture.
La pertinence se juge relativement à l’action qu’il s’agit de conduire.
L’expression de besoin doit contenir une description de cette action : il faut
dire à quoi servira ce que l’on demande, à qui cela sera utile, situer le
besoin dans le processus de travail ainsi que par rapport à la stratégie de
l’entreprise et à ses priorités, évoquer enfin ce qui se passerait si le besoin
n’était pas satisfait.
La sobriété concerne la façon dont on envisage de satisfaire le besoin.
Un système d’information sobre est celui qui satisfait raisonnablement les
besoins après un arbitrage entre coût et satisfaction de l’utilisateur : il laisse
donc délibérément non satisfaits des besoins non prioritaires. Quelle serait
la réponse minimale au besoin ? Une version réduite serait-elle possible ?
Quelles sont les fonctionnalités auxquelles il a été jugé préférable de renon-
cer?
La complétude n’est pas la fuite dans le détail (ce serait contraire à la
sobriété), mais l’assurance que l’on n’a rien oublié d’important tant en ce qui
concerne le projet lui-même que son insertion dans le système d’information.
Il faut décrire les relations entre le projet et le système d’information, situer
les points de coordination nécessaires, présenter enfin la méthode utilisée
pour établir l’expression de besoins (consultations, validations).
La clarté est indispensable pour un document qui doit circuler entre
plusieurs mains, nourrir des arbitrages, et qui restera pendant toute la vie
du projet la source à laquelle on se réfère pour revenir à l’intention initiale.
L’expression de besoin sera matériellement un texte en langage natu-
rel de deux à trois pages au plus, complété par quelques données fournies
en page de couverture : identité du chef de projet à la maîtrise d’ouvrage ;
identité du maître d’ouvrage stratégique (directeur du métier), du maître
d’ouvrage délégué, de l’auteur de l’expression de besoin ; indication sur la
priorité ; calendrier de réalisation souhaité, phasage éventuel ; estimation
qualitative de l’importance du projet ; indications qui permettront à la maî-
trise d’œuvre d’inférer la (ou les) solution(s) possible(s) et d’estimer leur
13.4. RÉALISATION DES PROJETS 461
* *
de coût. Nous avons vu page 453 que la plupart des projets informatiques
échouaient en cours de route, ou connaissaient des dépassement de coût et
de délai considérables : ce but à la formulation si simple n’est donc pas facile
à atteindre.
Le plus souvent, l’application sera réalisée par une SSII, mise en exploi-
tation par la DSI et utilisée par un métier de l’entreprise. C’est ce dernier
(maîtrise d’ouvrage) qui est donc le client final de la SSII ; il lui revient donc,
en bonne logique, d’assumer la responsabilité de la direction du projet ainsi
que la vérification du service fait et la gestion du budget.
Dans les faits, cependant, ces diverses tâches sont souvent déléguées à
la DSI par application du slogan favori des directeurs généraux : « tout ça,
c’est de l’informatique ». Il en résulte parfois des dommages, les impératifs
techniques de la plate-forme informatique recevant plus de poids dans les
arbitrages que les besoins du métier. Il faut dire aussi que les maîtrises
d’ouvrage se sont rarement dotées des compétences nécessaires et qu’il leur
est trop commode, trop tentant de faire porter par la DSI la responsabilité
d’échecs si fréquents.
* *
L’organisation qui convient dépend de la taille du projet, de la place
du processus concerné parmi les métiers de l’entreprise (est-il propre à un
métier, traverse-t-il plusieurs métiers?), de l’importance du projet en regard
de la stratégie de l’entreprise etc. Elle doit donc être définie au coup par
coup et il n’existe pas de formule générale s’imposant à tout projet.
Nous allons ci-dessous décrire des éléments que l’on rencontre le plus
souvent et signaler les pièges qui peuvent se présenter.
Directeur de projet
Le but du projet est de fournir un produit utile à une maîtrise d’ouvrage.
Il est donc naturel que la direction du projet soit confiée à un représentant
de la maîtrise d’ouvrage, dûment mandaté par le maître d’ouvrage stra-
tégique (qui sera, selon la nature du projet, le directeur d’un des métiers
de l’entreprise ou le directeur général lui-même). Le directeur de projet
« coiffe », dans la structure de projet, le maître d’ouvrage opérationnel et le
chef de projet maître d’œuvre. Il est assisté par un pilote de projet chargé
du reporting et du suivi de l’exécution des décisions.
Il revient au directeur de projet de définir dès le début du projet avec
ces trois responsables le contour de leurs missions, l’échéancier des travaux
que chacun doit réaliser, la nature de leur coopération.
Il faut que son mandat constitue une vraie délégation de responsabilité :
un directeur de projet dont les décisions sont fréquemment désavouées par
le mandataire devient rapidement un « zombie », personnage falot dont le
rôle n’est pas même symbolique.
Il faut aussi que ce directeur puisse réellement diriger le projet, qu’il
dispose pour cela d’informations sur la qualité de la réalisation, la tenue
des délais, l’avancement des travaux, la situation du budget (voir ci-dessous
le paragraphe consacré au reporting). Il arrive souvent que la partie finan-
cière du projet soit gérée par la DSI qui soit par désordre, soit par souci
13.4. RÉALISATION DES PROJETS 465
* *
Tout suivi de projet est scandé par les réunions de divers comités (voir
ci-dessous). L’expérience, fort pénible, montre que ces réunions sont souvent
longues et confuses, sans ordre du jour, durée limite ni compte rendu. Or la
conduite du projet dépend pour une bonne part de la qualité de ces réunions.
Il faut respecter quelques règles :
– il est interdit en réunion de critiquer une personne absente ou une
entité qui n’est pas représentée car il faut avant tout respecter le droit
de réponse ;
– l’ordre du jour de la réunion doit être établi avant la réunion, éven-
tuellement complété en début de réunion, et rigoureusement suivi en
proscrivant les digression et coqs-à-l’âne ;
– les tâches décidées en réunion doivent être affectées à une personne
ou une entité (ne jamais dire « on va faire cela » à la cantonade, sans
désigner qui devra le faire) ;
– les décisions doivent être notées par le pilote du projet et leur exécution
doit faire l’objet d’un pointage lors des réunions suivantes.
Outre son rôle purement technique et professionnel, le directeur de projet
doit se soucier de « l’ambiance » du projet. Tout grand projet comporte
des moments de crise, de doute, voire de désespoir et dans ces moments-là
les responsables cherchent moins à faire leur travail qu’à faire porter par
d’autres la responsabilité d’un échec qui leur semble inévitable.
Il faut alors du talent pour apaiser les conflits, restaurer ou maintenir
l’espoir de succès : le directeur de projet doit savoir maîtriser l’expression
de ses sentiments. En général il devra afficher de la sérénité et se comporter
avec bonhomie envers les personnes ; en de rares occasions, il devra aussi
manifester de l’inquiétude et se mettre en colère. La gestion de la psychologie
collective d’un projet est un art aussi délicat que la diplomatie.
Comité directeur
Le comité directeur d’un grand projet, mensuel ou trimestriel selon les
cas, réunit le directeur de projet, le DSI, le directeur général, les directeurs
concernés par le projet et les experts invités (y compris ceux qui représentent
le fournisseur, au moins pour une partie de la réunion). Son but est de
466 CHAPITRE 13. MÉTHODES
* *
Le projet doit faire l’objet d’un compte rendu régulier (« reporting »)
qui permette d’évaluer sa situation. Les reportings présentent souvent des
défauts :
– trop lourds, ils sont difficiles à lire et l’information utile est noyée dans
un fatras de nombres et de graphiques ;
– remplis à la va-vite, ils comportent des incohérences qui sautent aux
yeux : on passe plus de temps à se les faire expliquer qu’à traiter les
problèmes ;
– ils présentent les derniers événements sans les rattacher à l’historique
du projet, ce qui rend difficile leur interprétation : si par exemple le
fournisseur dit « la livraison du lot 3 sera reculée de trois semaines »,
le sens de cette phrase n’est pas le même selon que cette échéance a
déjà été reculée plusieurs fois ou non ;
– ils obéissent de façon pédante au formalisme d’une « méthode qualité »
sans faire le tri entre l’important et l’accessoire (c’est là un symptôme
d’incompétence, ou pis de mauvais esprit).
Les personnes engagées dans le projet jugent naturellement le travail de
production plus important que le reporting, qu’elles considèrent comme une
corvée. C’est ce qui les pousse à le remplir à la va-vite sans se soucier de sa
lisibilité ni de son exactitude. On voit ainsi apparaître des erreurs manifestes
13.4. RÉALISATION DES PROJETS 467
les lots suivants : il faut alors lui demander comment il s’y prendra pour
accélérer la cadence).
Pour le suivi de la dépense, on mettra en regard l’échéancier prévu et
le cumul des dépenses réalisées 10 , prolongé par l’estimation du montant et
des échéances des dépenses futures.
Il ne suffit pas de contrôler les délais et la dépense : il faut aussi s’assurer
du contenu des livrables (sinon, il serait trop tentant de tenir les délais en
faisant glisser un contenu vers le livrable suivant). La mise à jour de la
documentation doit indiquer en rouge (car cela doit sauter aux yeux) la
date et le contenu de chacune des modifications éventuelles d’un livrable
par rapport à sa définition initiale.
La fourniture initiale de la documentation décrite ci-dessus, puis sa te-
nue à jour, permettent au client de suivre la réalisation sans se noyer dans
des détails qui ne le concernent pas. La tenue à jour de cette documenta-
tion doit faire l’objet d’une clause du contrat et sa qualité doit engager la
responsabilité du fournisseur.
13.4.5 Recette
La « recette », c’est l’opération par laquelle le client reconnaît que le
produit qui lui a été livré est conforme à la commande passée, qu’il est
exploitable dans le système d’information de l’entreprise, enfin qu’il est op-
portun de le mettre à la disposition des utilisateurs. Elle est réalisée selon
des procédures qui ne s’improvisent pas. Elle comporte plusieurs étapes.
Enfin, elle présente des risques.
La théorie, confirmée par la pratique, enseigne qu’il est impossible de
prouver qu’un logiciel ne comporte aucune erreur (cf. théorème de Gödel,
page 85). La procédure de recette ne peut donc pas être exhaustive : quel
que soit le soin que l’on apporte à la définition des tests on n’aura jamais
la certitude que le logiciel ne comporte aucune bogue.
On peut toutefois, et cela relève du bon sens, vérifier qu’il remplit correc-
tement les fonctions essentielles que l’on attend de lui que ce soit en termes
de performances, de qualité des données ou d’interface homme-machine. La
liste des tests doit être établie à froid, avant la livraison du produit ; elle
porte le nom de « cahier de recette ».
La combinatoire des tests possibles étant infinie, le cahier de recette
résulte d’une sélection. Certains tests sont coûteux en raison de la volumé-
trie ou des difficultés techniques qu’ils impliquent : le cahier de recette doit
comporter la liste de tests la plus efficace pour un coût donné.
Il faut que la recette soit effectuée en partant de « vraies données » et non
de données de qualité parfaite : on sait en effet qu’en informatique de gestion
les données sont souvent, pour des raisons parfaitement compréhensibles,
10. Par « dépenses réalisées », on entend non les engagements, les décaissements ni les
factures reçues, mais l’estimation du coût des travaux effectivement réalisés à la date
d’évaluation de la dépense. On peut faire figurer dans des annexes, si on le juge utile, les
engagements, le montant des factures reçues et les décaissements etc.).
13.4. RÉALISATION DES PROJETS 469
* *
Toute recette présente des risques. La liste des tests que comporte le
cahier de recette est inévitablement limitée : certaines anomalies n’apparaî-
tront donc que lors du site pilote. Il est donc préférable que le délai entre
la vérification d’aptitude et la mise en exploitation soit court. Si le produit
est de grande taille, et livré sous forme de lots successifs, on s’efforcera de
définir ces lots de sorte que chacun soit un « module exploitable », qu’il soit
possible de le mettre en exploitation sur un site pilote dès sa livraison afin
d’éviter l’« effet tunnel » qui se produit lorsque la mise en exploitation ne
peut se faire qu’après la réception de l’ensemble des divers lots.
Il convient, lors de l’élaboration du cahier de recette, de ne pas trop
hiérarchiser les tests : on risquerait de bloquer longtemps certains tests en
l’attente de la correction des anomalies détectées en amont.
Le délai nécessaire à la convergence des tests est aléatoire : on ne peut
pas évaluer a priori la difficulté des corrections. Il faudra gérer la crise entre
client et fournisseur quand ce délai semble s’allonger indéfiniment ; elle peut
aboutir soit (finalement) à une livraison de qualité acceptable, soit au refus
du produit.
Enfin la recette est toujours pour le client un moment délicat, puisque
le produit qu’il découvre résulte à la fois des spécifications qu’il a fournies
et de la réalisation qu’a bâtie le fournisseur sur la base de ces spécifications.
Certaines des fiches d’anomalie seront interprétées par le fournisseur comme
des demandes d’évolution et il demandera pour les corriger un avenant au
contrat. Il en résultera des négociations lors desquelles la relation entre client
et fournisseur risque de se détériorer.
13.4.6 Déploiement
Il faut que la mise en place sur le terrain, que l’on appelle « déploie-
ment », ait été préparée conjointement par la MOA et la MOE avant la
VSR (« vérification de service régulier », étape ultime de la recette). L’or-
ganisation du déploiement doit préciser le calendrier des actions, identifier
les acteurs et préparer leur coopération y compris avec les éventuels sous-
traitants.
Le but du déploiement est de faire en sorte que l’application puisse
fonctionner sur les postes de travail des utilisateurs, sur les réseaux télécoms,
les imprimantes, les automates qui lancent les traitements en batch et, de
façon générale, sur tous les équipements que l’application utilise.
13.4. RÉALISATION DES PROJETS 471
* *
La maîtrise d’ouvrage doit assurer la communication, la formation des
utilisateurs et la préparation du support aux utilisateurs. Le plan de com-
munication doit préparer la communication institutionnelle (information du
directeur général, des directeurs régionaux) et la communication opération-
nelle (information des directeurs régionaux, des directeurs départementaux
et des directeurs d’établissement).
La formation vise les utilisateurs ainsi que les tuteurs qui vont former
les utilisateurs, mais aussi les techniciens d’installation, de maintenance, de
production et de support. Elle obéit à une logistique complexe sous une
472 CHAPITRE 13. MÉTHODES
contrainte d’échéance très précise car elle doit accompagner de près le dé-
ploiement physique de l’application.
Le support est assuré par des centres d’appel dont les personnels doivent
être formés à la nouvelle application. Il faut que les opérateurs du centre
d’appel disposent d’un guide de questionnement pour outiller leur dialogue
avec les utilisateurs. Les statistiques que l’on pourra produire à partir de
la base de données du help-desk donneront des indications sur le fonction-
nement de l’application, sur les besoins de formation complémentaire - et
même sur l’état du marché lorsque l’application traite la relation avec les
clients.
Il faut identifier parmi les actions à réaliser sur chaque site celles qui
serviront de jalon pour évaluer l’avancement du déploiement. Le tableau de
bord du déploiement doit être accessible sur l’Intranet. Il faut le préparer
deux à trois mois avant le début du déploiement.
13.4.7 Évaluation
Il est de bonne règle de procéder à une évaluation après la fin d’un projet,
lorsque les utilisateurs ont pris le produit en main : cela permet de tirer les
leçons de l’exercice et de faire progresser les méthodes en vue des projets
futurs. Il est cependant très rare que les entreprises procèdent à de telles
évaluations : lorsqu’un projet est terminé, l’attention est attirée par d’autres
projets ; si le projet a connu des épisodes pénibles (allongement des délais
et du coût, suppression de fonctionnalités), on préfère ne pas « retourner
le couteau dans la plaie », ne pas « faire la chasse aux coupables » et on
laisse « les cadavres dans les placards ». En cours de route, on avait parfois
sanctionné les « porteurs de mauvaises nouvelles » et on pense rarement
à les réhabiliter - si même on ne leur fait pas porter la responsabilité de
l’échec qu’ils avaient annoncé.
Pour évaluer un projet, il convient de répondre aux trois questions sui-
vantes : le produit fournit-il le service attendu ? le projet s’est-il bien dé-
roulé? quelles leçons doit-on tirer du déroulement du projet?
1) Le produit fournit-il le service attendu?
Une première évaluation a été fournie par la recette fonctionnelle ; il faut
la compléter, après la mise en œuvre du produit, en s’assurant que le service
est efficace en regard des exigences professionnelles. Une enquête auprès des
utilisateurs permettra de s’assurer de la pertinence des spécifications et de
la bonne insertion du produit dans le système d’information : est-elle « sans
couture »? pose-t-elle problème (doubles saisies, difficultés de codage et de
vérification, performances)?
On pourra ainsi voir des faiblesses que la mise en exploitation révèle
mais qui n’avaient pas été perçues lors de la recette ou du site pilote. Si
l’on détecte de telles faiblesses, sont-elles tolérables ou faut-il préparer une
évolution du produit?
2) Le projet s’est-il bien déroulé ? La réalisation a-t-elle été conforme
en termes de qualité (fonctionnalités, performances) ; de délais de livraison ;
de coût? Si des dépassements par rapport aux engagement initiaux se sont
13.4. RÉALISATION DES PROJETS 473
Vers la maturité
474
475
* *
Le découpage des DGA et des directions se cristallise lors de l’histoire de
l’entreprise et varie de l’une à l’autre. Cependant toute entreprise produit
et vend, et comporte aussi des fonctions « support » : gestion des ressources
humaines, finance, informatique, juridique, communication. Parfois, elle fait
de la R&D, parfois elle s’est associée à des partenaires.
Supposons que nous sachions reconstituer l’organigramme « vrai », et
que nous placions tout en haut, comme branches latérales de l’arbre, les di-
rections ou DGA les plus importantes pour le directeur général, celles dont
la dialectique anime la vie de l’entreprise et propulse son évolution : l’orga-
nigramme ainsi reconstitué révèle les priorités et la culture de l’entreprise.
Lorsque l’entreprise est dominée par ce que nous appellerons la culture
d’ingénieur (figure 14.2) le directeur général s’intéresse principalement à la
production et au commercial et il accorde beaucoup de soin à l’arbitrage
entre ces directions dont la dialectique est vive : la production s’étonne des
des entités qui la composent, leurs missions, leurs moyens, leurs responsa-
bilités, les indicateurs selon lesquels elles sont évaluées. Enfin, il définit les
fonctionnalités du système d’information, il le « modélise ».
La modélisation du système d’information est pour les « métiers » une
tâche relativement nouvelle ; certes, les entreprises ont déjà un système d’in-
formation (de qualité variable) mais jusqu’à la fin des années 1980 il n’a
pas été demandé à la maîtrise d’ouvrage de le modéliser. Elle émettait des
expressions de besoin le plus souvent vagues que l’informatique devait re-
formuler de façon assez précise pour pouvoir passer à la réalisation. Parfois
la maîtrise d’ouvrage ne se reconnaissait pas dans cette reformulation d’où
discussions, conflits et délais ; il arrivait aussi que la maîtrise d’ouvrage chan-
geât d’avis et modifiât sa demande, d’où pour l’informatique obligation de
reprendre le travail et bien sûr là encore discussions, conflits et délais.
Ce partage des tâches ayant provoqué l’échec de nombreux projets cer-
taines entreprises ont voulu organiser les maîtrises d’ouvrage, ce qui im-
plique de les doter des compétences, ressources et méthodes leur permettant
de maîtriser intellectuellement et pratiquement le système d’information : la
modélisation, quand elle est bien faite, favorise l’« alignement stratégique »
du système d’information tout en rendant plus claire, plus souple et surtout
plus raisonnable la relation entre maîtrise d’ouvrage et maîtrise d’œuvre
informatique.
* *
Quand un concepteur assure son rôle de maître d’ouvrage opérationnel,
il doit suivre la démarche suivante avant de lancer un projet nouveau :
- rédiger une expression de besoin en langage naturel (voir page 456) :
elle doit consacrer l’accord ou le compromis passé entre les directions de
l’entreprise, refléter une compréhension partagée de ce que l’on entend faire,
et restera la référence principale pendant la réalisation du projet ;
- réaliser l’« étude OFR » (voir page 461) qui fournira les éléments
nécessaires à la décision de lancement.
Une fois le projet lancé, d’autres étapes s’enchaînent (modélisation pro-
prement dite, suivi de projet, recette, déploiement etc. ; voir page 453).
Mais pour une grande part le professionnalisme de la maîtrise d’ouvrage
réside dans la maîtrise des méthodes à employer pour établir l’expression de
besoin et l’étude préalable, dans la clarté d’esprit qui préside aux consulta-
tions, expertises et travaux d’écriture, dans la qualité de leur présentation
aux dirigeants qui auront à les valider et devront se les approprier.
On découvre souvent, lorsqu’on met en place ces méthodes, que le travail
des concepteurs présentait des défauts dont on ne s’était pas avisé :
1) Les difficultés de la rédaction de l’expression de besoin montrent que
l’on ne se souciait pas, auparavant, de préciser les périmètres de respon-
sabilité et les prérogatives des acteurs concernés par un projet : certes ces
questions finissaient par se régler, mais à la longue et à chaud donc souvent
plutôt mal alors qu’il est efficace de les traiter à froid, de façon préventive.
2) Les réunions se tenaient souvent sans ordre du jour, sans compte
rendu, sans enregistrement des décisions ni suivi de leur exécution : ce n’est
14.1. PROFESSIONNALISATION DE LA MOA 479
* *
* *
Toute entreprise est organisée autour de quelques spécialités qu’elle maî-
trise et que l’on appelle « métiers ». Il est rare que le système d’information
figure parmi ces spécialités. C’est le cas chez American Airlines ou chez
FedEx, dont les dirigeants connaissent parfaitement leur système d’infor-
mation, mais le plus souvent les compétences des métiers s’appuient sur un
système d’information mal maîtrisé.
Lorsque le spécialiste du système d’information arrive dans un métier il
est d’abord impressionné par la technicité de celui-ci : dans le cockpit d’un
avion de ligne, dans un hôpital, dans une salle de marché, dans une usine, la
virtuosité des personnes qui utilisent des équipements complexes saute aux
yeux. Mais l’examen attentif fait bientôt apparaître des carences. Le système
d’information de l’avion de ligne ou du bateau de guerre est « ringard », car
la conception de ces machines demande quelques années, après quoi elles ont
une durée de vie de quelques dizaines d’années. Le système d’information
de l’hôpital, pourtant vital au sens précis du terme, est d’un désordre inouï.
La salle de marché, où les écrans abondent, n’est tout comme l’usine pas
vraiment bien équipée.
Tout métier, vu de près, est par ailleurs une superposition géologique
d’habitudes, vocabulaires, méthodes, logiques, outils définis à des époques
diverses et qui délimitent des micro-métiers. Le système d’information re-
flète et pérennise le désordre sémantique, le fouillis de procédures que ché-
rit leur sociologie. Il en résulte des redondances, délais, surcoûts, erreurs
dont les dirigeants s’accommodent avec une bonhomie étonnante. Il fau-
drait, semble-t-il, que l’entreprise fût menacée dans son existence même
pour qu’elle consentît à être tout simplement rigoureuse, logique, claire,
méthodique. C’est la lutte pour la survie qui explique que les systèmes d’in-
14.2. SERVITUDES ET GRANDEUR 481
Aspect intellectuel
Questions humaines
* *
sur leur crête, même si c’est inconfortable et inefficace. Tel est le poids des
symboles ! L’évolution sera donc lente. C’est la rançon du succès de l’infor-
matique : si celle-ci était restée confinée à quelques grandes applications, les
informaticiens auraient pu continuer à modéliser le système d’information
à partir d’expressions de besoin plus ou moins précises. Mais comme elle
est devenue à la fois le langage de l’entreprise et son système nerveux, son
modèle ne pourra être pertinent que s’il est établi sous la responsabilité des
métiers utilisateurs eux-mêmes, dotés de modélisateurs qualifiés qui seront
pour l’informatique des « clients compétents ».
La situation du DSI est aujourd’hui en crise : sa « durée de vie » diminue.
Au milieu des années 1990, un DSI restait en fonction 4,7 ans en moyenne ;
en 2005, cette durée se réduit à deux ans. Le « turn over » est donc très
rapide. C’est que l’entreprise n’est pas certaine d’avoir, demain, besoin d’un
DSI alors qu’il est (semble-t-il) si simple d’externaliser l’informatique ou de
recourir à des progiciels. La fonction informatique se serait-elle banalisée?
La « simplicité de l’informatique » est une de ces illusions qui fleurissent
lors des périodes de transition, quand un changement de repères suscite le
désarroi. Le rôle de l’informatique s’est transformé à la fin des années 1990,
avec l’introduction du traitement du langage naturel dans l’informatique de
communication, la fusion de la donnée et du commentaire dans les docu-
ments XML, l’approche du système d’information par les processus etc. Les
outils se sont diversifiés, le discours commercial est devenu de plus en plus
séduisant (mais sans doute pas plus sincère).
Les directions générales, qui n’ont jamais été un repaire d’experts en sys-
tème d’information, sont dépassées. Elles trouvent donc reposant de croire
que se débarrasser de l’informatique en l’« outsourçant » auprès d’un four-
nisseur externe peut résoudre tous les problèmes (Strassmann [195]).
Il est vrai que l’outsourcing résout quelques problèmes. La direction in-
formatique, tout comme l’entreprise dans son ensemble, doit savoir modifier
son périmètre. Quelles sont les tâches qu’il convient de réaliser en interne?
Celles qu’il vaut mieux confier à un fournisseur ? Quelles sont, parmi les
spécialités selon lesquelles s’est diversifiée la compétence de l’informaticien,
celles dont on pourra rentabiliser la formation et l’entretien au sein de la
DSI, et celles que l’on devra se procurer auprès des SSII, mieux placées pour
les rentabiliser?
Faut-il conserver quelques programmeurs en interne, ou transformer la
direction des études en gestionnaire de contrats ? Parmi les logiciels dont
l’entreprise a besoin, quels sont ceux qu’il vaut mieux acheter sur étagère,
sous forme de « progiciels » ou d’ERP, quels sont ceux qu’il est préférable
de spécifier et de réaliser soi-même (ou de faire réaliser sur mesure par des
fournisseurs) ? Lorsqu’un produit est développé par une SSII, comment se
l’approprier, comment s’approprier les outils qui ont servi à l’élaborer?
Ces questions préoccupent le DSI. Il doit donc assurer une veille tech-
nologique. Comment évolue l’offre des SGBD ? des EAI ? des ERP ? des
machines, réseaux, langages? Que penser (et faire) de Linux? de XML? des
Web Services ? de XQuery ? Dans sa relation avec une innovation, le DSI
passe par des étapes. D’abord il l’ignore parce qu’elle est née loin de lui. Puis
488 CHAPITRE 14. VERS LA MATURITÉ
Un DSI de mes amis m’a donné la recette pour durer trois ans et ainsi ac-
croître de 50 % la durée de ses fonctions par rapport à la moyenne. C’est
une caricature mais elle est assez ressemblante pour être instructive. Je
la cite donc in extenso :
« Tu suggères à l’entreprise d’outsourcer l’informatique. Les fournisseurs
soutiennent ta suggestion avec enthousiasme et la font miroiter aux yeux
du directeur général.
« Pendant un an, tu fais des études, un appel d’offres, tu compares les
propositions, tu négocies avec les syndicats, tu rends compte au comité
de direction, ça t’occupe et ça te donne de l’importance. Enfin tu choisis
un fournisseur.
« Pendant une autre année tu assures la transition : tu fais passer les don-
nées, les applications, le personnel chez le fournisseur tout en maintenant
l’informatique en marche. C’est du boulot ! Tu es encore plus occupé.
« Durant la troisième année, l’informatique est enfin outsourcée. On at-
teint le régime de croisière, mais le fournisseur ne tient pas ses promesses
car, bien sûr, il était impossible de les tenir. C’est le désenchantement,
un contentieux se crée. Tu consultes des juristes, tu négocies, ça t’occupe
encore. Finalement tu fais part au directeur général de ton impuissance
à régler les problèmes ; il s’irrite de plus en plus et finit par te virer mais
tu auras tenu trois ans, sinon plus.
« Ton successeur dira que l’outsourcing était une erreur et qu’il faut tout
ramener dans l’entreprise. Il lui faut un an pour dénouer le contrat et
définir la manœuvre, un an (au moins) pour exécuter celle-ci, un an pour
reconnaître que ça ne va pas mieux, ce qui entraînera son éviction.
« Le successeur de ton successeur pourra, lui, recommander de nouveau
l’outsourcing. Si le directeur général a changé (en six ans, c’est possible),
l’entreprise n’aura pas gardé un souvenir précis de sa première aventure
et ce DSI sera écouté, ce qui nous ramène au premier paragraphe.
« Une carrière de DSI peut donc se conduire ainsi : quand on est recruté,
recommander l’outsourcing si l’entreprise gère elle-même l’informatique
et recommander de tout ramener dans l’entreprise si elle a déjà outsourcé.
Le scénario se décline en variantes selon que l’entreprise a outsourcé tout
ou partie de l’informatique, qu’elle utilise un ERP ou non etc.
« Dans tous les cas cette tactique te donne au moins trois ans ; après
quoi tu pourras la rejouer dans une autre entreprise, si tu trouves un
autre poste de DSI. »
14.2. SERVITUDES ET GRANDEUR 489
* *
Tout en réfléchissant à ses frontières et en observant l’évolution tech-
nique, le DSI doit veiller au bon fonctionnement de l’informatique : il est
responsable d’une usine qui ne doit jamais s’arrêter. Peu importe qu’un PC
se « plante » ici ou là, mais une panne générale serait une catastrophe :
les chaînes de production s’arrêtent, les files d’attente s’allongent, les agents
protestent tout en tentant de se débrouiller, les clients s’énervent, l’image de
l’entreprise souffre. L’architecture des serveurs, routeurs, réseaux, doit donc
être sécurisée, robuste, supervisée en continu, et les informaticiens doivent
être insérés dans une organisation qui garantit la qualité de leurs travaux.
d’une DSI plusieurs sociologies ombrageuses : celle des opérateurs qui font
tourner les serveurs ; des programmeurs qui écrivent les codes et des chefs
de projet qui pilotent les contrats avec les SSII ; du support aux utilisateurs,
dispersé sur le territoire et dans des centres d’appel ; des administrateurs,
des superviseurs ; des hommes des réseaux télécoms ; des responsables de
la qualité, de la sécurité, des méthodes, de l’architecture etc. Le DSI doit
les recruter, les organiser, arbitrer leurs conflits, faire prévaloir l’intérêt de
l’entreprise sur celui de leurs corporations.
* *
3) Architecture
L’entreprise a-t-elle organisé des maîtrises d’ouvrage déléguées dans ses
divers métiers et auprès du directeur général? Ces maîtres d’ouvrage délé-
gués connaissent-ils les besoins des utilisateurs du métier? Ont-ils procédé à
une segmentation de cette population? Font-ils une veille sur la façon dont
les entreprises analogues utilisent leur système d’information?
Existe-t-il un comité des systèmes d’information? Les méthodes à utiliser
pour établir le programme des travaux d’une année, pour assurer l’exécution
d’un projet sont-elles définies? Connues?
Les budgets informatiques sont-ils gérés par les maîtres d’ouvrage ou
par la direction informatique? La relation entre maîtrise d’ouvrage et maî-
trise d’œuvre est-elle convenable, tant en ce qui concerne les relations entre
personnes que l’efficacité de leur coopération?
Les nomenclatures (produits, clients, organisation etc.) et les identifiants
sont-ils documentés? Résident-ils dans un référentiel consultable dans l’en-
treprise? L’entreprise dispose-t-elle d’un annuaire des agents? Cet annuaire
est-il utilisé pour gérer les habilitations ? Les mises à jour des données de
référence sont-elles répercutées immédiatement dans les applications?
4) Maîtrise
L’entreprise a-t-elle établi un plan d’urbanisme du système d’informa-
tion? Ce plan d’urbanisme a-t-il fait l’objet d’une communication? Peut-on
dire que le plan d’urbanisme a été « approprié » par les dirigeants? par les
utilisateurs? Le plan d’urbanisme est-il mis à jour chaque année? Éclaire-t-il
les discussions budgétaires?
Le « portefeuille système d’information » de chaque domaine de l’en-
treprise a-t-il été défini ? Son évolution est-elle gérée de façon à assurer
l’évolutivité du système d’information?
Les échanges d’information entre domaines sont-ils connus ? Gérés ? La
façon dont les divers domaines utilisent les référentiels de l’entreprise est-elle
cohérente?
La direction de l’informatique dispose-t-elle des compétences dont elle a
besoin? Utilise-t-elle bien les connaissances informatiques de ses personnels?
La mise en œuvre du produit d’un fournisseur est-elle accompagnée par les
informaticiens d’efforts de formation et d’appropriation?
La veille technologique permet-elle de connaître l’offre de progiciels ?
de définir la frontière entre ce que l’on doit confier aux progiciels, et ce
qu’il vaut mieux réaliser en spécifique? de définir la frontière entre ce qu’il
convient d’externaliser, et ce qu’il vaut mieux réaliser en interne ? Est-elle
prolongée par des essais à petite échelle (Linux, Web Services etc.?)
Le réseau télécoms est-il bien dimensionné pour les besoins présents? Les
besoins futurs ? la part des dépenses télécoms dans le budget informatique
est-elle excessive, raisonnable? les solutions télécoms sont-elles conformes à
l’état de l’art?
L’architecture informatique (middleware etc.) est-elle conforme à l’état
de l’art ? Est-elle convenablement sécurisée (sauvegarde, pare-feux etc.) ?
Les travaux de réfection nécessaires ont-ils été engagés ? Les dépenses de
494 CHAPITRE 14. VERS LA MATURITÉ
* *
Le système d’information de certaines entreprises est enfin arrivé à ma-
turité. Pour cela, il a fallu se battre, surmonter des obstacles, modifier l’orga-
nisation, faire accepter de nouvelles valeurs et de nouvelles compétences. La
lutte a été longue mais elle a porté ses fruits : le référentiel est en bon état, les
processus de production sont bien outillés, les composants 4 sont modulaires
(ce qui facilite leur évolution), le « bus » qui les relie au sein du système
informatique 5 est bien maîtrisé, l’interopérabilité avec les partenaires fonc-
tionne bien 6 , des workflows équipent les procédures administratives dont ils
permettent de contrôler la qualité, les divers médias sont convenablement
articulés 7 , le système d’aide à la décision est en place, l’Intranet et l’Internet
sont entrés dans les mœurs.
Le système d’information a ainsi été urbanisé. Les utilisateurs sont sa-
tisfaits ; ils trouvent d’ailleurs tout cela aussi simple, aussi naturel que l’air
qu’ils respirent : ingrat par nature, l’utilisateur, est peu conscient des efforts
qui ont été nécessaires pour son confort.
À partir d’un certain stade, cela ne vaut plus la peine de lancer de nou-
veaux grands projets : leur apport serait inférieur au coût des perturbations
qu’ils provoqueraient 8 . Il faut donner la priorité à la bonne utilisation du
système d’information existant. Alors les pionniers qui l’avaient mis en place
s’ennuient.
3. Dans l’industrie du début du xixe siècle la liste des « moteurs » était la suivante :
moulins (à vent, à eau, à manège), machines à vapeur, chevaux et mulets, bœufs (Statis-
tique générale de la France, Industrie 1847 ).
4. Au sens des langages à objets : le « composant » est un ensemble de classes qui,
dans le système d’information, représente un être du monde réel ou fournit un service.
5. Le « bus » est un « middleware » qui traite des questions importantes tant au plan
fonctionnel qu’au plan technique : compatibilité des codages, synchronisme, concurrence,
persistance, performance, accès à des services commun (sécurité, supervision, métrologie
etc.).
6. L’interopérabilité avec les partenaires suppose non seulement que les systèmes d’in-
formation soient de bonne qualité, mais aussi que l’entreprise ait pratiqué l’« ingénierie
d’affaires » convenable pour partager les responsabilités, coûts et recettes entre elle et
ses partenaires.
7. Le SI est cohérent, pour le client externe de l’entreprise comme pour l’utilisateur
interne, quel que soit le média utilisé (courrier, téléphone, Internet, « présentiel », carte
à mémoire etc.). C’est une des conditions du commerce électronique.
8. De même, dans une ville, on doit trouver l’équilibre entre les chantiers et la vie
courante : les chantiers visent une amélioration future mais perturbent le fonctionnement
aujourd’hui.
496 CHAPITRE 14. VERS LA MATURITÉ
Peut-être faut-il une relève : les hommes qui savent faire fonctionner un
système existant n’ont pas le même caractère que ceux qui ont lutté pour
« changer le monde 9 ».
* *
9. Alors que j’étais responsable de la maîtrise d’ouvrage dans une grande entreprise,
j’ai eu avec son DSI un échange qui m’a paru révélateur :
DSI - « Je ne comprends pas ce que tu cherches à faire ; quel est le but que tu poursuis? »
MV - « Je cherche à faire en sorte que le système d’information équipe convenablement
les métiers, que l’entreprise soit efficace. »
DSI - « Holà, tu veux donc changer le monde ! »
MV - « Oui, modestement bien sûr ; quel autre but peut-on poursuivre dans la vie? »
DSI - « Mon but à moi, c’est de faire du business. »
10. Ces possibilités vont évoluer rapidement au moins tant que la loi de Moore jouera,
c’est-à-dire au moins jusqu’en 2015 ou 2020.
14.5. ÉTUDES DE CAS 497
* *
* *
Le FBI emploie 27 000 personnes ; son budget a été en 2002 de 4 371
millions de dollars, dont 714 millions pour le système d’information. Ce-
pendant sa plate-forme technique, obsolète, ne répond pas aux besoins des
utilisateurs : en septembre 2000 plus de 13 000 PC, ayant de quatre à huit
ans d’âge, étaient incapables de faire tourner les logiciels de base ; certains
des réseaux avaient plus de douze ans.
Les applications ne sont ni conviviales, ni capables de communiquer via
la Toile : par exemple la messagerie fonctionne mal. Les procédures de sé-
curité (contrôles, authentification, sauvegardes etc.) sont déficientes. L’uti-
lisation des bases de données est difficile et pénible pour les agents. Le FBI
n’a pas de référentiel.
N’ayant pas urbanisé son système d’information, le FBI le connaît mal.
Il ne s’est doté ni d’un comité stratégique des systèmes d’information, ni
d’une méthode de gestion du portefeuille applicatif, ni d’une procédure de
sélection : les diverses divisions entassent les expressions de besoin sans avoir
connaissance des priorités et besoins globaux. La direction financière et la
direction informatique croient chacune que l’autre est chargée de la sélection
des projets.
Le FBI consacre ainsi des centaines de millions de dollars à des projets
informatiques sans pouvoir s’assurer qu’ils répondent à leurs objectifs. Les
projets ne sont pas vraiment suivis. Ils souffrent d’importants dépassements
en délai et en coût en raison des déficiences de leur gestion. Les tout pre-
miers efforts pour améliorer l’organisation ont été engagés... au moment du
lancement de l’audit.
Le processus d’investissement est jugé « incohérent, mal structuré et
aléatoire ». L’attention se concentre sur les dépenses d’investissement et
néglige les dépenses d’exploitation et de maintenance. Les responsabilités
sont mal définies, les compétences nécessaires ne sont pas mobilisées, les
décisions sont prises à la va-vite.
* *
Ces défauts sont connus depuis longtemps, mais il a fallu le 11 septembre
2001 pour que les responsables se décident à lancer un audit et, parallèle-
ment, à faire un premier progrès dans les méthodes. Le rapport d’audit est
d’une grande clarté, et il est publié sur la Toile : si le système d’informa-
tion du FBI est défectueux, la publication de ce rapport témoigne d’une
transparence qui annonce un redressement.
Cinquième partie
L’informatique dans le
fonctionnement
500
501
Chapitre 15
Économie de l’informatique
Dans leur majorité les entreprises ne font pas encore beaucoup d’efforts
pour connaître le coût de leur informatique. Cela surprend si l’on se rappelle
que l’étude détaillée des coûts de production, puis l’effort pour les réduire,
ont été l’un des moteurs les plus puissants des progrès de l’industrie. Tout
se passe comme si la dépense informatique était une fatalité à laquelle on
ne peut opposer que deux attitudes également aveugles : soit un laisser-aller
que l’on croit nécessaire au suivi de l’état de l’art, soit une politique de
« réduction des coûts » sans discernement.
Cet aveuglement n’est plus tenable dans telle grande entreprise de ma
connaissance dont l’informatique représente 15 % des coûts, pour un mon-
tant annuel de deux milliards et demi d’euros, et où les salariés passent plus
de la moitié de leur temps de travail devant l’ordinateur en réseau. Lors-
qu’on en est là il importe non seulement d’évaluer le coût de l’informatique,
mais de disposer d’un modèle permettant de maîtriser la dynamique des
projets, la durée de vie des produits, l’accumulation des travaux de main-
tenance ainsi que les coûts cachés que comporte la mise du poste de travail
à la disposition des utilisateurs.
L’élaboration de ce modèle supposera souvent un retraitement des don-
nées comptables pour redresser des biais systématiques : à la comptabilité
fondée sur la trésorerie ou la facturation devra être préférée la comptabilité
au fait générateur, même si celle-ci nécessite des estimations ; la frontière
entre dépense d’exploitation et immobilisation devra être redéfinie en fonc-
tion de critères économiques et non selon la réglementation fiscale ; l’éva-
luation de l’annuité équivalente à une dépense d’immobilisation devra te-
nir compte de la durée de vie anticipée de l’actif ; le coût associé à une
décision en informatique devra couvrir l’ensemble des dépenses qu’elle oc-
casionne, même lorsqu’elles sont supportées par d’autres entités de l’orga-
nisation (coûts de la maîtrise d’ouvrage, du déploiement, de la formation)
etc.
La clarté sur les coûts et sur leur dynamique responsabilise les métiers
de l’entreprise et en premier la direction informatique elle-même. Celle-ci,
responsable de la gestion de la plate-forme technique, doit régler divers
« curseurs » selon son anticipation des coûts, de la pérennité des fournis-
502
15.1. ENJEU MACROÉCONOMIQUE 503
seurs et des évolutions de l’état de l’art ; elle doit distinguer les compétences
à posséder en interne, et celles que l’on achètera à des SSII ; puis les pro-
duits qu’il faut réaliser de façon spécifique, et ceux que l’on peut obtenir
en paramétrant un progiciel ; enfin les travaux à externaliser, et ceux qu’il
vaut mieux faire soi-même. Elle doit aussi maîtriser la pente qui, partant
du classement des projets selon leur coût, risque de privilégier la solution la
plus coûteuse parce qu’elle est la seule visible pour le directeur.
La connaissance des coûts modifie les priorités du stratège. Dans l’en-
treprise qui ignore ses coûts l’attention du DG se focalise sur les projets,
épisodes glorieux de l’entreprise. Mais les projets ne représenteront parfois
que 10 % du coût de l’informatique alors que le réseau de postes de travail en
représente 50 %, la maintenance et l’exploitation du « stock » applicatif 40
%. Mieux vaut alors, avant de lancer de nouveaux projets, animer la bonne
utilisation des outils existants et veiller à la satisfaction des utilisateurs.
Au début des années 2010, les salariés français passeront plus de la moitié
de leur temps de travail devant l’ordinateur en réseau (voir page 201). L’en-
jeu principal des entreprises réside donc déjà, même si elles ne le savent pas
toutes, dans la définition du pivot qui articulera la capacité de synthèse et de
décision de l’être humain organisé à la souple puissance de l’automate pro-
grammable. La réflexion sur le coût de l’informatique est alors un préalable
à la maîtrise du coût des processus de production : les décisions relatives à
l’automate ne se séparent pas de celles, qui lui sont duales, concernant la
gestion de la ressource humaine et de ses compétences.
Ainsi la « physique » de l’entreprise, c’est-à-dire la définition pratique
de son organisation interne comme de son articulation avec le monde exté-
rieur, associée à la définition sémantique (et donc symbolique) du système
d’information, revient au premier rang. Cela rappelle ces années 1880 lors
desquelles les usines furent transformées par l’apparition du moteur élec-
trique, et le travail de bureau par le changement d’échelle qui s’amorça
dans le « loop » de Chicago.
comprimer la dépense publique ? Les échecs passés (Plan Calcul etc. : voir
Brulé [28]) incitent au scepticisme envers les politiques publiques dans ce
domaine.
Il existe cependant un domaine où l’économie européenne, l’économie
française pourraient progresser sans qu’il fût besoin de lancer un programme
macroéconomique de dépense publique et de politique industrielle représen-
tant quelques pourcents du PIB : c’est celui des systèmes d’information, de
l’utilisation des TIC.
C’est là en effet que réside l’enjeu économique principal. Donner des
microprocesseurs rapides, des mémoires volumineuses, des réseaux à haut
débit, des logiciels performants à une entreprise qui ne sait pas les utiliser,
c’est comme donner une moto puissante à une personne qui ne sait pas
conduire : elle aura tôt fait d’avoir un accident.
L’efficacité des TIC ne se dégage que si l’on sait utiliser convenable-
ment les outils qu’elles fournissent. Or ce savoir-faire est difficile à acquérir.
Les entreprises qui ont cru qu’il suffisait d’acheter des machines, réseaux
et logiciels ont été déçues. Certains en ont déduit, trop vite, que les TIC
étaient inefficaces 1 : elles ne le sont que quand on les met entre des mains
maladroites.
L’erreur la plus fréquente consiste à faire comme si l’utilisation des TIC
était une affaire essentiellement technique. L’informaticien est alors consi-
déré comme un pur technicien : on lui demande de faire fonctionner une
machine, sans pannes et sans que l’entreprise n’ait à s’en préoccuper. Cette
erreur, notons-le, est commise par des personnes qui savent bien par ailleurs
que l’informatique transforme l’entreprise, qu’elle modifie la pratique des
métiers comme le domaine du possible : mais il y a loin entre cette intuition
vague et la maîtrise pratique, opératoire, qui seule permettrait de savoir s’y
prendre. Un adolescent peut se passionner pour les avions, s’en faire une
idée qui n’est pas fausse : il lui reste beaucoup à apprendre pour en piloter
un. Certaines personnes, ayant un goût sûr en peinture, apprécient à leur
juste valeur les tableaux les mieux réussis ; mais quand elles entreprennent
de peindre elles ne produisent que des croûtes.
La maîtrise du système d’information suppose :
- que l’entreprise ait explicité son langage, ses concepts, nomenclatures,
classifications, identifiants, définitions, segmentations, organisations, de fa-
çon à pouvoir les faire évoluer ;
- qu’elle sache distinguer les tâches qu’elle confiera à l’automate de celles
qui doivent être exécutées par des êtres humains ;
- qu’elle ait impliqué l’automate dans ses divers processus : approvision-
nement, production, commercialisation, distribution, documentation, ges-
tion ;
- que ses processus soient élucidés par des indicateurs et tableaux de
bord ;
- que l’entreprise elle-même soit élucidée, le système d’information four-
1. Cette erreur de perspective est à l’origine du « paradoxe de Solow » (voir page 181).
15.1. ENJEU MACROÉCONOMIQUE 505
nissant aux salariés, dirigeants, partenaires etc. une vue claire de ce qu’elle
est et de ce qu’ils ont à faire.
« Élucider », « clarifier », tout le monde peut comprendre ces objectifs -
et lorsqu’ils sont atteints tout paraît simple. Mais pour les atteindre il faut
une bonne maîtrise des procédés de pensée, de la sémantique, de l’articula-
tion entre le langage et l’action : l’entrepreneur efficace est ici un praticien
de la philosophie de l’action.
Les économistes parlent de « rationalisation », « optimisation », « maxi-
misation du profit » etc., mais beaucoup d’entre eux ignorent les conditions
pratiques auxquelles est soumise la poursuite de ces objectifs. Les mana-
gers s’appuient sur la tautologie du business is business et confortent leur
légitimité en répétant des formules de consultant : « business process reen-
gineering », « bottom line », « créer de la valeur pour l’actionnaire » etc.
Il y a loin entre la trivialité de ces slogans et la finesse du discernement
nécessaire !
Il est possible de conduire une politique économique en matière de sys-
tème d’information : il s’agit de définir et de partager de « bonnes pra-
tiques ». Cela passe par l’exemple et l’animation. Une telle action suppose
de l’intelligence, mais ne réclame pas un budget d’ampleur macroécono-
mique.
L’exemple peut être donné par les grandes entreprises dont certaines
ont déjà bien avancé dans la maîtrise du système d’information, et que
rassemblent le CIGREF (Club Informatique des Grandes Entreprises Fran-
çaises) 2 et le Club des maîtres d’ouvrage des systèmes d’information 3 . Il
faudrait les inciter à diffuser des analyses, des études de cas, des monogra-
phies.
L’exemple peut être donné aussi par les administrations : une préfecture
est le nœud d’un grand nombre de processus administratifs. L’administra-
tion fiscale, la sécurité sociale peuvent élucider leurs processus, articuler de
façon raisonnable l’automate et l’être humain (c’est l’objet du projet Co-
pernic du ministère de l’économie et des finances dont la toute première
démarche, fait significatif, a consisté en une mise en ordre des identifiants).
Les entreprises qui ont mis en place une maîtrise d’ouvrage profession-
nelle et qualifiée auront gagné en efficacité en même temps qu’elles donnent
le bon exemple : c’est ainsi, par contagion et imitation, que se déclenchent
les effets de boule de neige qui font mûrir les conséquences d’une innovation.
Un tel enjeu justifierait la mobilisation des politiques comme des éco-
nomistes qui les conseillent. Se mobiliseront-ils ? Considérons le cas de la
CNAM-TS 4 . L’enjeu de son système d’information est d’ampleur macroé-
conomique : il s’agit de la maîtrise du déficit public, du respect des accords
de Maastricht, et bien sûr aussi de la qualité du système de santé. Le gouver-
nement, justement alarmé par le « trou de la sécu », fera-t-il figurer dans la
liste de ses mesures prioritaires l’amélioration du système d’information de
2. www.cigref.fr
3. www.clubmoa.asso.fr
4. Caisse nationale d’assurance maladie des travailleurs salariés.
506 CHAPITRE 15. ÉCONOMIE DE L’INFORMATIQUE
* *
Il est difficile d’évaluer la rentabilité d’un investissement dans le système
d’information. L’anticipation de son coût est incertaine et l’estimation du
résultat que l’on peut attendre de l’investissement l’est plus encore : s’il
s’agit d’un gain de productivité, sera-t-il réel ou devra-t-on conserver des
personnels peu productifs? s’il s’agit d’un gain de part de marché, pourra-
t-on le réaliser ? Nous avons tous entendu un directeur général dire « si le
système d’information avait permis les gains de parts de marché que l’on
m’a promis, nous aurions depuis longtemps dépassé les 100 % »...
Cependant sans système d’information l’entreprise s’arrêterait : aucun
transporteur aérien ne peut survivre sans système de réservation, aucune
banque ne peut vivre sans gestion informatique des comptes, aucun opéra-
teur télécoms ne peut se passer de la commutation électronique etc.
508 CHAPITRE 15. ÉCONOMIE DE L’INFORMATIQUE
* *
Le système d’information, en tant que facteur de production, relève de la
catégorie du capital : c’est un stock qui s’accumule d’abord et qui s’utilise en-
suite dans la durée. Comme tous les autres types de capital, il s’use : chaque
année, une partie des applications devient obsolète. On peut donc appliquer
à l’informatisation les méthodes de la micro-économie, la notion clé étant
« l’intensité capitalistique », volume du capital par tête. On peut évaluer le
degré d’informatisation d’une entreprise en considérant le « volume du sys-
tème d’information » par utilisateur (qu’il soit mesuré en nombre de points
de fonction, en nombre de lignes de code source ou autrement, peu importe
ici).
Le calcul (voir page 537) montre alors qu’il existe un degré d’informa-
tisation optimal : si l’entreprise ne l’atteint pas, elle est sous-informatisée ;
si elle le dépasse, elle est sur-informatisée. Il serait cependant en pratique
difficile d’utiliser la formule que fournit le calcul : le bon niveau d’informati-
sation doit être atteint par tâtonnement et en usant du bon sens. La solution
efficace ne sera en tout cas jamais fournie par une politique extrême (refus
de l’informatisation ou informatisation forcenée).
Ce que nous venons de dire suppose que diverses questions d’efficacité
aient été résolues au préalable, comme c’est l’usage en microéconomie. Elles
ne sont pas faciles pour autant. Chacune des couches du système d’informa-
tion pose des problèmes de qualité et d’efficacité spécifiques, leur fonction-
nement conjoint en pose encore d’autres. Ce n’est qu’après avoir résolu ces
problèmes, ainsi que ceux que posent la construction des programmes et le
déroulement des projets, qu’il convient de s’interroger sur le degré d’infor-
matisation optimal.
* *
La nature et l’ampleur de l’évolution que le système d’information ap-
porte aux entreprises sont difficiles à se représenter. Les historiens futurs
diront que nous avons vécu l’âge de l’informatique mais si nous en avons
quelque peu conscience il nous est difficile d’en tirer des conclusions : sans
doute en était-il de même pour ceux qui ont vécu sans le savoir l’âge de la
machine à vapeur (sans parler de ceux qui ont vécu l’âge de la pierre taillée,
les premiers à tirer parti des propriétés électroniques du silicium).
La part du tertiaire dans l’emploi est largement majoritaire dans toutes
les économies riches : en France, ce secteur représente plus de 75 % des
emplois et sa part continue à croître sans fléchir (voir le tableau 5.1 page
5. Il m’est arrivé de dire, lors de la présentation d’un projet qui dégageait dès la
première année un flux de trésorerie positif, « dans ce cas là il est impossible d’évaluer
la rentabilité » : en effet elle est infinie. Parler en mathématicien était une erreur : le
directeur financier, énarque distingué, en a conclu que le projet n’était pas rentable et
malgré mes protestations il en a convaincu le comité de direction.
15.2. UN FACTEUR DE PRODUCTION 509
6. Les vendeurs dans les grands magasins ne sont cependant généralement pas équipés
de la sorte.
7. Tout comme aujourd’hui le téléphone mobile équipe le corps et non plus le bureau
ou l’appartement.
510 CHAPITRE 15. ÉCONOMIE DE L’INFORMATIQUE
* *
Voici sans souci d’exhaustivité quelques exemples des pièges que ren-
contrent les entreprises :
1) Une entreprise du tertiaire travaille depuis trois ans pour « dématéria-
liser » son offre de services, en l’occurrence faire passer du papier à l’Internet
la relation avec ses clients. Les consultants ont été consultés ; les groupes
de travail ont travaillé ; les cadres ont fourni leur expertise ; les clients ont
exprimé leurs demandes ; les plans sont prêts.
On sait où aller et cependant rien ne bouge : les directeurs se faisant
la guerre, chacun change d’avis lorsqu’il pourrait arriver à un accord avec
les autres. Un des groupes de travail a dit qu’il fallait une « conduite du
changement », ce qui signifie que l’on va s’efforcer de faire accepter par les
personnels les changements de l’organisation et des procédures de travail.
Cette entreprise n’aurait-elle pas plutôt besoin d’un « changement de la
conduite »?
2) Un consultant a conseillé au chef d’un projet de système d’aide à la
décision d’utiliser les données vérifiées par le service statistique plutôt que
de faire faire en double les vérifications et redressements. « Non, répondit
celui-ci, car alors je serais dépendant d’eux ».
L’image qui s’impose est celle d’une ville où les immeubles ne s’appuie-
raient pas l’un sur l’autre et auraient chacun ses quatre murs porteurs, et
en outre un puits pour s’approvisionner en eau, un groupe électrogène etc.
3) Plusieurs dirigeants de grandes entreprises françaises, longtemps rétifs
devant l’Internet (« cette mode, ce gadget futile etc. »), ont fait vers la fin
de 1999 8 un pèlerinage aux États-Unis. Ils en sont revenus illuminés : il leur
fallait un e-business tout de suite, dans six mois au plus.
Une de ces entreprises avait dans le monde 800 commerciaux qui connais-
saient bien leurs acheteurs et savaient comment les fidéliser. « Qu’allez-vous
faire de vos commerciaux quand vous vendrez sur l’Internet ? » demanda
* *
Dans le futur, l’entreprise va mettre en valeur le capital fixe 10 qu’elle
détient aujourd’hui ; elle va investir pour le modifier ; elle va s’adapter aux
modifications de l’environnement réglementaire ou concurrentiel ; elle va ti-
rer parti des opportunités. Les critères que nous allons examiner visent à
évaluer son aptitude à investir ou à évoluer de façon judicieuse.
Le but d’une entreprise est de fournir sur le marché des produits utiles à
ses clients. Il faut pour cela qu’elle soit bien organisée (qualité de l’organisa-
tion), qu’elle connaisse ses clients (qualité du marketing) et qu’elle maîtrise
ses moyens de production (maîtrise de la fonction de production).
Qualité de l’organisation 11 : la fonction première de l’entreprise est
d’organiser l’action des personnes qui la composent en vue de produire des
biens et services utiles aux consommateurs (directement s’il s’agit de biens
de consommation, indirectement s’il s’agit de biens intermédiaires). Une
entité inorganisée, qu’elle soit parasitée par des réseaux qui pompent sa
substance 12 ou que chacun soit laissé libre d’y agir selon son caprice, ne
mérite pas le nom d’entreprise.
L’organisation est donc l’actif le plus précieux de l’entreprise, bien qu’il
ne figure pas au bilan. Sa qualité réside dans la clarté du vocabulaire et des
consignes de travail partagés par le personnel ; dans l’équilibre du découpage
des missions des entités, qui doit simplifier autant que possible les flux
internes de produits et d’informations ; dans la bonne articulation entre
expertise et légitimité lors de la préparation des décisions.
Il est difficile d’évaluer directement la qualité de l’organisation, mais
on peut l’évaluer indirectement en transitant par l’évaluation du système
d’information, qui la reflète (cf. ci-dessous).
Qualité du marketing : pour que l’entreprise puisse fournir des pro-
duits utiles à ses clients, il faut qu’elle connaisse ceux-ci et leurs besoins.
Le marketing est donc pour l’entreprise une des disciplines intellectuelles
essentielles.
La qualité du marketing s’évalue en examinant la segmentation de la
clientèle. Il existe des segmentations mal conçues : celles qui classent les
clients selon leur opinion sur l’entreprise ne considèrent pas le client lui-
même, ni ses besoins. Il arrive aussi que la segmentation ne soit pas mise à
jour alors que le marché à changé.
Un marketing de qualité suppose la maîtrise de méthodes statistiques de
classification, ainsi que la formation des agents opérationnels à l’utilisation
des outils de diagnostic et de prescription forgés par le marketing.
Le marketing s’intéresse aussi au positionnement de l’entreprise par rap-
port à ses concurrents : il examine les parts de marché, en identifie les fac-
teurs explicatifs, propose des stratégies commerciales compétitives (diver-
sification des produits, « packaging », partenariats, tarification, fidélisation
etc.).
Maîtrise de la fonction de production : la « fonction de produc-
tion », c’est la relation qui existe entre les quantités d’inputs (facteurs de
production, matières premières) et les quantités d’outputs (produits). Si l’on
associe à chaque input son prix unitaire, on peut à partir de la fonction de
production calculer la fonction de coût qui donne le coût de production en
fonction de la quantité produite. La fonction de production évolue avec le
progrès technique qui transforme méthodes et outils.
L’efficacité de la mise en œuvre de la fonction de production est le grand
souci de l’entreprise : il s’agit de minimiser le coût de production et de
faire évoluer la fonction de production pour utiliser des techniques efficaces,
conformes à l’état de l’art.
L’entreprise connaît-elle sa fonction de production? se tient-elle au cou-
rant de l’état de l’art, a-t-elle organisé une veille technologique et des « bench-
marks » ? la mise en œuvre de sa fonction de production est-elle efficace ?
les évolutions des prix des facteurs et matières premières sont-elles suivies
avec attention 13 ?
Une entreprise qui a modélisé sa fonction de production peut réaliser
des simulations, des jeux stratégiques qui préparent la manœuvre à exécuter
en cas de changement du prix des facteurs de production ou des matières
premières, en cas de variation brusque du carnet de commande, ou encore
pour diversifier l’offre sur de nouveaux segments de clientèle.
13. La maîtrise de la fonction de production suppose en particulier que les achats soient
gérés avec vigilance et que les acheteurs soient soigneusement encadrés.
514 CHAPITRE 15. ÉCONOMIE DE L’INFORMATIQUE
* *
Pour évaluer une entreprise il convient ainsi, avant tout recours à la
comptabilité, de suivre la check-list suivante :
1) évaluer les trois critères principaux :
- qualité de l’organisation ;
- qualité du marketing ;
- maîtrise de la fonction de production.
2) conforter l’analyse par l’évaluation de quatre critères secondaires mais
importants :
- qualité du système d’information ;
- qualité des produits ;
- qualité des compétences ;
- qualité de la direction.
3) recouper les informations précédentes en évaluant :
- la satisfaction des clients ;
- les engagements financiers ;
- la satisfaction des créanciers et des actionnaires.
14. C’est le cas des entreprises qui font un métier éventuellement compliqué mais selon
une structure simple (réseau répétitif construit en nids d’abeille par réplication d’une
même structure de base, comme celui d’une chaîne de magasins à grande surface). Les
entreprises qui doivent synchroniser des activités diverses auraient par contre du mal à
se passer d’un système d’information.
15. « L’illustre Galuchat était justement célèbre pour ses travaux sur les chaînes de
montage. L’usine organisée suivant ses principes avait été fréquemment imitée, et était
encore visitée par maintes délégations françaises et étrangères. La vente des systèmes de
tapis roulants dits “chaînes Galuchat” avait rapporté gros à l’entreprise. Cependant, ses
idées sur la gestion étaient singulières. Par exemple, il avait des paramètres de contrôle
personnels, faisait faire de temps en temps quelques mesures, griffonnait parfois des règles
de trois sur de petits bouts de papier » (« B.I.D.U.L.E. », 01-Informatique, décembre 76-
janvier 77).
516 CHAPITRE 15. ÉCONOMIE DE L’INFORMATIQUE
* *
Le système d’information est pour l’entreprise un actif, un équipement,
même s’il est d’un type particulier. Cependant les conventions comptables et
fiscales masquent cette réalité. Les dépenses de développement étant consi-
dérées comme des frais d’exploitation, le système d’information n’apparaît
15.2. UN FACTEUR DE PRODUCTION 517
* *
Mesurer la rentabilité d’un système d’information, cela équivaut à me-
surer la rentabilité d’un langage de qualité ou d’une organisation correcte.
Or si tout le monde sait qu’une entreprise mal organisée est inefficace, on
n’applique pas pour autant le calcul de rentabilité à un effort d’organisation.
Posons cependant quelques repères. Aucun transporteur aérien ne peut
vivre aujourd’hui sans système de réservation, sans segmentation tarifaire,
sans supervision ; aucun opérateur télécoms ne peut vivre sans commutation
électronique, sans système de facturation ; aucune banque, aucune compa-
gnie d’assurance ne peuvent vivre sans une gestion informatique des comptes
des clients. Dans ces entreprises, la rentabilité du système d’information est
proprement infinie.
Le calcul économique indique cependant (voir page 537) qu’il existe pour
chaque entreprise un taux d’informatisation optimal ainsi qu’une définition
optimale du portefeuille applicatif - mais quel que soit son intérêt ce calcul
théorique ne se prête pas à l’application pratique. L’entreprise ne peut ap-
procher l’optimum que par tâtonnement, en suivant quelques règles simples
qui se résument en trois mots clés que nous avons souvent répétés : perti-
nence, sobriété, cohérence (voir page 255).
La pertinence, c’est l’adéquation aux besoins des métiers. Elle s’acquiert
par l’écoute des praticiens et par le benchmark auprès d’entreprises ana-
logues, ainsi que par l’évaluation des applications en cours d’exploitation.
Il s’agit d’une démarche expérimentale, qui procède donc au rebours du
dogmatisme que l’on rencontre parfois à la direction générale.
La sobriété est le complément nécessaire de l’écoute. Si l’on suivait à la
lettre la demande des utilisateurs on produirait des systèmes peu efficaces.
Il faut prioriser, élaguer, simplifier le plus possible. C’est en partie parce
que nos systèmes d’information sont trop lourds qu’il faut si souvent les
remettre en chantier.
518 CHAPITRE 15. ÉCONOMIE DE L’INFORMATIQUE
* *
La connaissance des coûts vise des finalités diverses : s’assurer que l’on
respecte une enveloppe financière ; comparer diverses solutions entre elles ;
15.2. UN FACTEUR DE PRODUCTION 519
vérifier que l’on n’est pas en train de « déraper ». Des évaluations en homme-
jour peuvent à la rigueur suffire pour traiter ce dernier point, mais il faut
impérativement mesurer des coûts en euros si l’on veut obéir à l’une des
deux autres finalités.
Souvent la DSI ne fournit pas l’information sur les coûts : elle dispose
certes de toute l’information détaillée, mais elle ne la traite pas de façon
convenable soit parce qu’elle est sous-informatisée 16 , soit parce qu’elle en
élabore une présentation purement comptable et non économique. Parfois
le DSI craint que le système d’information ne semble trop onéreux à l’en-
treprise, car elle ne sait pas en évaluer la rentabilité : alors il préfère qu’elle
ignore son coût.
La codification comptable des dépenses est souvent malencontreuse et
gêne la compréhension de l’économie du système d’information. Le contrôle
de gestion et le directeur financier raisonnent alors selon une classification
qui masque l’économie du système d’information. Il faut que l’entreprise
sache utiliser deux langages : celui de la comptabilité, nécessaire pour ré-
pondre à la réglementation fiscale, et celui de l’économie qui seul permet de
comprendre l’entreprise.
Examiner le cycle de vie d’un logiciel permet de n’oublier aucun poste
de dépense : cela implique en effet d’évaluer les coûts de maintenance et la
durée de vie. Pour estimer cette dernière il faut considérer que l’obsolescence
dépend d’une part de l’usure du logiciel, elle-même fonction du nombre de
modifications qu’on lui apporte (un logiciel se dégrade chaque fois qu’il est
modifié), d’autre part de l’évolution du métier dont les processus peuvent
dériver par rapport à ce qui avait été modélisé (réglementation, adaptation
à de nouveaux marchés etc.). Souvent l’évolution du métier obligera à re-
toucher le logiciel, ce qui accélérera son usure.
* *
La préparation du budget du système d’information part (ou devrait
partir) des informations suivantes :
- un cadre (plan d’urbanisme, schéma d’évolution etc.) donnant une
visibilité pluriannuelle sur l’évolution du système d’information, et mis à
jour chaque année ;
- la liste des projets en cours qu’il est nécessaire de poursuivre ;
- les nouvelles demandes des maîtrises d’ouvrage (les demandes sont-
elles priorisées ou non ? le coût de chacune a-t-il été évalué ainsi que leur
rentabilité ? les demandes nouvelles sont-elles classées en « TMA », avec
l’ambiguïté que cela comporte, ou en « projet nouveau »?) ;
- les demandes de la DSI : maintenance, redimensionnement ou rénova-
tion de la plate-forme technique (réseaux, machines, logiciels) ;
- l’état de la trésorerie : reports de budget disponibles, contraintes finan-
cières de l’entreprise.
* *
Il importe de savoir qui maîtrise l’exécution du budget. A-t-il été attribué
à la DSI (sous la forme d’une « enveloppe informatique ») ou à chaque
direction, responsable du coût de son système d’information?
Si le budget a été attribué à la DSI, quels sont les moyens dont dispose
une direction pour faire prévaloir ses objectifs ? Lui sera-t-il possible de
mettre la DSI en concurrence avec des fournisseurs extérieurs à l’entreprise?
d’exercer des sanctions si la fourniture n’est pas conforme en termes de délais
ou de qualité?
Qui dirige le projet : un directeur de projet issu de la maîtrise d’ouvrage,
ou un chef de projet MOE ? Ce directeur de projet dispose-t-il réellement
de l’autorité qui permet de le diriger - et en particulier, vérifie-t-il le service
15.3. CALCUL ÉCONOMIQUE 521
17. On observe que la qualité des rapports tend à se dégrader en cours de projet : on
démarre avec un bon format de reporting, puis on le remplit de plus en plus mal et si
l’on n’y prend garde il devient inefficace : alors le projet est conduit à l’aveuglette...
522 CHAPITRE 15. ÉCONOMIE DE L’INFORMATIQUE
Une fois que l’entreprise a déterminé les fonctionnalités dont elle sou-
haite équiper ses processus de production on peut évaluer le volume des pro-
grammes (qu’il soit mesuré mesuré par le nombre de lignes de code source,
le nombre de points de fonction ou par tout autre indicateur de volume)
qu’il faut produire pour réaliser ces fonctionnalités, puis estimer la durée
et le coût du développement ainsi que le nombre des programmeurs néces-
saires. Ici on dispose de « règles de pouce » qui fournissent des indications
certes imprécises, mais utiles pour éclairer la décision comme le pilotage des
projets 18 .
Il est difficile d’évaluer la rentabilité du système d’information car ce
qu’il produit est souvent impossible à quantifier (il serait, de même, dif-
ficile d’évaluer la rentabilité d’un effort d’organisation : cela ne veut pas
dire que l’organisation soit inutile !). Il en résulte que des directions géné-
rales, dépourvues des critères qui permettraient une évaluation quantitative,
s’en remettent à certaines règles simples (maintenir le budget informatique
constant, maintenir constante la part des nouveaux développements dans le
budget etc.). Il est utile d’examiner ce que peuvent être les conséquences
de ces règles simples lorsque leur application est poussée au delà du rai-
sonnable : nous avons construit un modèle de simulation qui fera apparaître
d’éventuels effets pervers.
La critique des règles simples conduit naturellement à se demander quel
est le « bon » niveau du système d’information, le degré d’informatisation
que l’on puisse juger optimal. Pour y répondre, il faut poser des hypothèses
sur la contribution du système d’information à la production de l’entreprise.
Un programme que l’on développe dans l’année A sera utilisé durant les
années suivantes : les programmes constituent donc un stock. Le choix du
niveau optimal d’informatisation relève d’un arbitrage intertemporel que
l’on pourra modéliser si l’on précise la fonction objectif de l’entreprise.
Une fois posées ces hypothèses, on pourra en déduire la dynamique op-
timale de l’informatisation, c’est-à-dire la chronique des dépenses informa-
tiques qui permet de maximiser la fonction objectif une fois maîtrisés les
risques associés à la maîtrise des délais et des coûts de réalisation de chaque
programme.
* *
On calcule, à partir du flux de trésorerie que suscite un projet, deux
indicateurs synthétiques : la « valeur actuelle nette » (VAN) et le « taux de
rentabilité interne » (TRI, en anglais ROI pour Return on Investment 20 ).
Nous noterons V la VAN et τ le TRI d’un projet.
La VAN est la somme actualisée de la variation de trésorerie disponible
Ft ; le taux d’actualisation r à retenir est égal au taux d’intérêt du marché
monétaire i, augmenté pour tenir compte de l’incertitude de la prime de
risque π : r = i + π. Le choix du taux d’intérêt et de la prime de risque est
fait par la direction générale en s’appuyant sur l’expertise de la direction
financière et il doit être révisé chaque année. La prime de risque peut en
outre varier d’un projet à l’autre selon la « classe de risque » à laquelle
appartient chaque projet.
La VAN d’un projet s’écrit alors, en sommant sur la durée de vie d du
produit :
Xd
Ft
V =
0
(1 + r)t
Le TRI τ est le taux d’actualisation pour lequel la VAN serait nulle. Il
est donc solution de l’équation :
d
X Ft
=0
0
(1 + τ )t
20. Certains utilisent l’acronyme ROI pour désigner le délai du retour sur investisse-
ment, c’est-à-dire le délai au bout duquel le cumul du flux de trésorerie s’annule, le flux
des recettes induites par le projet ayant exactement compensé son coût. On entend dire
par exemple « le ROI est de six mois ».
524 CHAPITRE 15. ÉCONOMIE DE L’INFORMATIQUE
À chaque projet caractérisé par sa VAN et son TRI, ces relations per-
mettent d’associer les valeurs K et R correspondant au projet simple qui
lui serait équivalent en ce sens qu’il aurait la même VAN et le même TRI.
Dans le plan (K, R) un projet sera ainsi représenté par un point P, la
pente du segment OP étant égale à son TRI puisque τ = R/K (figure 15.1).
Classons alors les projets dans l’ordre des TRI décroissants en enchaînant
l’un à l’autre des segments de droite représentant chacun un projet. On
obtient une courbe polygonale dont la concavité est tournée vers le bas
(figure 15.2).
Supposons que l’on décide de réaliser les projets dont le TRI est le plus
élevé en bornant l’effort d’investissement par un montant fixé à l’avance. La
dépense initiale totale sera la somme K des coûts de ces projets, le résultat
brut annuel total R sera la somme des résultats bruts ; la rentabilité de
l’investissement total ainsi réalisé est le rapport R/K de ces deux totaux.
Ce rapport est le taux de rentabilité maximal que l’entreprise puisse obtenir
pour l’effort K.
Le raisonnement ci-dessus appelle quelques remarques et précautions
complémentaires :
1) Le budget annuel nécessaire à la réalisation de ces projets ne sera pas
exactement égal à la somme K, puisque nous avons considéré pour évaluer
les coûts K non les projets eux-mêmes, mais des « projets simples » qui
leur sont équivalents. Néanmoins K donne une mesure de l’effort d’inves-
tissement nécessaire. On peut d’ailleurs en partant de la liste des projets
et, pour chacun d’entre eux, de la chronique des investissements, évaluer
l’effort annuel correspondant.
15.3. CALCUL ÉCONOMIQUE 525
l’on avait jugé rentable ou de « repêcher » tel autre projet qui avait été
mal classé. Il faut que les experts acceptent la valeur ajoutée qu’apporte le
dirigeant, qui est le mieux placé pour avoir une vue d’ensemble des enjeux
stratégiques.
7) Certains estiment que l’importance d’un projet se mesure non selon
son TRI, mais selon sa VAN : ils classent donc les projets non dans l’ordre
des TRI décroissants mais dans l’ordre des VAN décroissantes. Cependant
comme la VAN est fonction croissante à la fois du TRI et de la taille du
projet son montant résulte du jeu conjugué de ces deux paramètres. Nous
préférons pour notre part laisser au directeur général le soin d’apprécier
l’importance relative des projets et lui présenter un classement qui, fondé sur
le seul critère du TRI, maximise la rentabilité (anticipée) de l’investissement
global.
21. Parfois, les nouvelles lignes de code remplacent les lignes initiales (et donc la taille
du logiciel ne croît pas). Mais leur introduction se paie souvent par une complication
du logiciel, voire par une perte de cohérence, tant il est difficile de vérifier celle-ci lors
d’une correction ; ce phénomène équivaut qualitativement à une croissance de la taille du
logiciel.
15.3. CALCUL ÉCONOMIQUE 527
* *
Supposons que l’entreprise retienne le taux d’actualisation r et que la
durée de vie du logiciel soit d.
À la fin de la durée de vie, le logiciel est entièrement refait pour le même
coût C0 , puis s’ensuit un nouveau cycle de vie.
Le coût actualisé du logiciel sur un cycle de vie est :
Z d
A = C0 (1 + p e(p−r)t dt)
0
Soit, si p 6= r,
h i
A = C0 1 + p(e(p−r)d − 1)/(p − r)
pe(p−r)d − r
a = rC0
(1 − e−rd )(p − r)
528 CHAPITRE 15. ÉCONOMIE DE L’INFORMATIQUE
Le logiciel sera refait à neuf toutes les d∗ années ; la chronique des dé-
penses annuelles aura non l’allure que l’on voit sur la figure 15.3, mais celle
indiquée par la figure 15.5, où l’on a retenu une durée de vie de 7 ans.
On observe que le coût de maintenance est, à la fin de la durée de vie,
égal à 36,89 % de C0 : ce résultat, conjugué au fait que nous avons choisi
pour p et r des valeurs réalistes, correspond à une règle de pouce d’usage
courant : « il faut refaire un logiciel quand le coût de maintenance annuel
atteint le tiers du coût de réfection ».
* *
Supposons maintenant que le coût de réfection du logiciel diminue dans
le temps au rythme annuel s, par exemple en raison des progrès des langages
de programmation.
Notons donc Ac le coût du cycle de vie de rang c : Ac = Ae−scd , où A
est le coût du premier cycle de vie et d la durée de vie. Le coût actualisé de
15.3. CALCUL ÉCONOMIQUE 529
pe(p−r)d − r
a = rC0
(1 − e−(r+s)d )(p − r)
Si l’on suppose que p = 15 %, r = 9 % et s = 4 %, on trouve que d∗ =
6,33 ans et que a∗ est égal à 34,58 % de C0 .
La baisse tendancielle du coût de réfection a donc pour effet de réduire
la durée de vie du logiciel ainsi que l’annuité équivalente. La chronique des
dépenses annuelles a alors l’allure que fait apparaître la figure 15.6.
* *
PHARE est une entreprise de service qui possède plus de 1000 implan-
tations en France. En 1997, 13 000 salariés étaient équipés de PC en réseau.
Le budget informatique annuel est de 76 millions d’euros. La part des PC
en réseau dans le coût total de l’informatique est de 58 % (dont 35 % pour
les PC et 23 % pour le réseau) : c’est la première des surprises apportées
par cette étude. Lors des réunions du Comité Système d’Information de
PHARE, l’essentiel des débats porte sur les grands projets alors que plus de
la moitié du budget informatique est consommée par le réseau de PC dont
on ne parle jamais : on fait comme si ce réseau allait de soi et fonctionnait
tout seul.
Évaluer le coût du réseau de PC a l’avantage de nous inviter à poser soli-
dement les pieds par terre en faisant percevoir les proportions qui prévalent
dans le coût de l’informatique. Ces proportions rappellent la structure du
coût d’un réseau de télécommunications : les parties « nobles » du réseau
(commutation, transmission) ne représentent que le quart du coût total,
15.3. CALCUL ÉCONOMIQUE 531
* *
Les personnels consacrés aux PC en réseau (installation des réseaux et
des PC, ingénieurs système réseau, ingénieurs système Micro et Serveur)
représentent 34 % des effectifs de l’informatique et 31 % de ses frais de
personnel. Les PC en réseau consomment par ailleurs 15 % des dépenses en
prestataires externes. La dépense en personnel la plus importante est celle
relative à l’installation et au support aux utilisateurs.
Le coût des logiciels consacrés au réseau de PC représente 86 % du coût
d’acquisition des logiciels et 51 % de leur coût de maintenance. Le poste de
coût le plus important est la maintenance des logiciels réseau.
Les dépenses consacrées au réseau et au PC représentent 71 % des dé-
penses totales de matériel et 59 % des dépenses de maintenance du matériel.
Les serveurs et micros consomment l’essentiel de cette dépense.
Enfin, le coût annuel total des réseaux utilisés (Transpac, Transfix, Nu-
méris etc.) est de 13 millions d’euros.
Au total, le coût annuel du réseau de PC est de 3 343 euros par PC. Le
poste le plus important est le coût du matériel.
St+1 = St + ∆St = St (1 − δ) + Nt
* *
Nous allons examiner l’évolution du budget informatique sous diverses
hypothèses sur le comportement de la direction générale et qui déterminent
chacune la série Nt :
- valeur constante du flux des nouveaux développements ;
- part constante des nouveaux développements dans le budget ;
- budget constant.
Les entreprises qui les appliquent peuvent certes changer la règle quand
ses conséquences deviennent déraisonnables, mais il faut qu’elles soient vigi-
lantes : si une même règle est appliquée trop longtemps avant que l’entreprise
ne réagisse les dégâts peuvent être considérables : réguler en appliquant une
succession de règles explosives présente des risques qu’il faut savoir maîtri-
ser.
Les simulations numériques sont réalisées à partir des hypothèses sui-
vantes : a = 0,5 ; b = 1 ; δ = 20 % (la durée de vie est de cinq ans) ;
k = 20 %. Pour calculer les valeurs limites, nous tirerons parti d’un théo-
rème classique : « Si la série un est telle que un+1 = aun + b avec |a| < 1,
un converge vers la limite u∗ = b/(1 − a) ».
Budget constant
Dans ce cas Ct = c. Cette règle est celle qui est plus fréquemment
invoquée par les directions générales, qui la retiennent souvent après avoir
tenté en vain de faire décroître le budget de l’informatique.
Le coût d’exploitation at St tend alors vers :
ca
(at St )∗ =
b[1 − (1 − k)(1 − δ)] + a(1 − k)
Le coût des développements bt Nt tend vers (bt Nt )∗ = c − (at St )∗ .
Nous n’avons jusqu’à présent considéré que les dépenses proprement in-
formatiques car c’est sur elles que l’attention se focalise en général. Le coût
d’un système d’information comprend aussi les dépenses de la maîtrise d’ou-
vrage. Elles se classent selon les rubriques suivantes :
536 CHAPITRE 15. ÉCONOMIE DE L’INFORMATIQUE
26. Nous supposons que le coût de la maîtrise d’ouvrage est pris en compte.
538 CHAPITRE 15. ÉCONOMIE DE L’INFORMATIQUE
* *
Associons à toutes les quantités (S, N etc.) une quantité par personne
représentée par une lettre minuscule (s = S/L, n = N/L etc.).
La fonction de production s’écrit alors :
F (S, L)
y= = f (s) = sµ
L
La variable d’état sera le « taux d’informatisation » s.
Supposons le prix des unités d’œuvre constant (k = 0). Dans ce cas le
budget informatique par tête est :
ct = ast + bnt
πt = yt − w − ct
ds f (s) − w − π a
= − λs, avec λ = + δ + θ
dt b b
27. On démontre que si les entreprises d’un secteur ont une fonction de production
à facteurs complémentaires, le jeu de la concurrence et de la libre entrée fera que le
secteur, considéré dans son ensemble, a pour fonction de production une Cobb-Douglas
à rendement constant (Volle [213] p. 49).
15.3. CALCUL ÉCONOMIQUE 539
· ¸ 1−µ
1
∗ µ
s =
a + b[r + δ + θ(1 − ξ)]
* *
Ainsi, et sous les hypothèses que nous avons retenues sur la fonction
de production et le coût du système d’information, le taux d’informatisa-
tion optimal existe et il est unique. L’entreprise qui le respecte maximise
l’efficacité de son système d’information. Si elle s’en écarte elle est soit sous-
informatisée, soit sur-informatisée.
L’expression de ce taux résulte des hypothèses. La relation ci-dessus
ne saurait donc être utilisée sans précautions par une entreprise réelle, ne
Simulations numériques
- le phénomène de péage est d’autant plus brutal que ξ est plus élevé
(c’est-à-dire que l’entreprise raisonne davantage en terme de profit actua-
lisé) ;
- lorsque le coût du système d’information diminue (k > 0) la variable
d’état qu’il convient de contrôler est non le taux d’informatisation st , mais
la part du budget informatique dans la valeur ajoutée ; le taux d’informati-
sation optimal (en volume) croît alors de façon exponentielle.
Chapitre 16
Pathologie de l’entreprise
543
544 CHAPITRE 16. PATHOLOGIE DE L’ENTREPRISE
Comme tout être vivant, l’entreprise a une histoire : elle naît, elle croît,
elle meurt. L’âge d’une personne est un paramètre important de son carac-
tère ; de même il est utile de savoir où l’entreprise en est dans sa trajectoire
pour comprendre les rôles et ambitions des personnes qui la composent,
l’articulation des structures de décision etc. Il est utile aussi de réaliser que
l’entreprise mourra un jour : on la croit trop souvent éternelle. Traçons donc
la trajectoire à grands traits.
Créée par des pionniers qui pèsent risques et opportunités, l’entreprise
est à l’origine modeste et aventureuse. Son système d’information est d’au-
tant plus souple et évolutif qu’il reste léger, l’entreprise étant de petite taille.
Pour l’essentiel, elle se contente de la bureautique et d’un Intranet.
Après le succès, la formule des pionniers est érigée en recette par des
organisateurs qui en feront une paisible mais efficace routine (ainsi Ray Kroc
a systématisé et généralisé la formule de restauration rapide mise au point
par Maurice et Richard McDonald). Les pionniers s’ennuient et partent. Le
système d’information s’est alourdi et structuré : des « applications » sont
apparues, qu’il faut maintenir et faire évoluer. Une DSI est née.
Puis l’entreprise prospère et dégage une trésorerie qu’il faut gérer. Les
financiers arrivent. Ils transformeront l’entreprise en vache à lait. Désormais
ses dirigeants ne cherchent plus à « changer le monde » mais à « faire
du business ». Ses cadres savent que pour réussir il faut se conformer aux
dogmes maison et ne pas faire de zèle.
16.1. SOCIOLOGIE DE L’ENTREPRISE 545
* *
Toute entreprise traverse, durant son histoire, des situations dont ce scé-
nario illustre la diversité. La direction générale est le théâtre de conflits dont
l’enjeu est, à travers l’entrelacement des intérêts particuliers, la personnalité
de l’entreprise. Sur le terrain et au jour le jour, cette personnalité semble
stable comme la surface d’un lac qui cache courants et tourbillons, les échos
des conflits internes à la direction s’estompant avec la distance.
Le pire n’est cependant jamais certain car des marges de manœuvre
existent. Si l’entreprise est un être vivant, elle n’est pas dotée comme le
sont les plantes et les animaux d’une horloge biologique qui fixe l’échéance
de sa décrépitude : elle peut se rajeunir et rebondir. Cependant l’innovation
sera d’autant plus difficile que l’entreprise est plus grande et que les réseaux
d’influence l’enserrent plus étroitement. On tente parfois de faire passer l’in-
novation par le système d’information, mais si l’organisation de l’entreprise
s’y oppose cela ne pourra pas aboutir.
5. Les choses évoluent : certaines banques ont redéfini leur système d’information de
façon à pouvoir rassembler toutes les données relatives à un même client (et, accessoire-
ment, lui permettre de les consulter sur la Toile). Les opérateurs télécoms se débattent
avec l’héritage de leur système de facturation pour pouvoir « reconstruire le client ». Mais
ces modifications sont lourdes, lentes, et rencontrent encore de fortes résistances.
6. Dans le cas du système d’information, l’expertise du terrain vient des utilisateurs ;
les concepteurs métier sont les maîtres d’ouvrage opérationnels ; l’expertise technique est
fournie par les informaticiens.
16.1. SOCIOLOGIE DE L’ENTREPRISE 549
* *
Le président de l’entreprise incarne, comme le fait la Couronne en Grande-
Bretagne, la légitimité suprême. Il se charge des relations avec les action-
naires, les banquiers, l’administration ; dans les grandes entreprises, il est en
rapport avec le gouvernement. Il représente l’entreprise devant les médias.
Le dirigeant français n’est généralement pas un ingénieur mais plutôt un
politique : depuis les années 1970, le pouvoir dans les grandes entreprises a
été pris par des inspecteurs des finances ou par des personnes qui singent
les inspecteurs des finances (il existe des exceptions, mais encore une fois
nous schématisons).
Ce dirigeant estimerait incompatible avec son statut social de mettre
les mains sur un clavier d’ordinateur : ce serait pour lui aussi exotique que
de prendre le métro. S’il a une boîte aux lettres électronique, c’est son
assistante qui trie et imprime les messages. Même quand il dit être conscient
de l’importance « stratégique » du système d’information, il n’en a qu’une
notion vague et il est mal à l’aise pour arbitrer les décisions le concernant.
Il arrive qu’il soit volontariste (« je veux que nous soyons présents sur
l’e-commerce dans six mois », disait un président-directeur général de mes
amis au début de l’année 2000), mais devant les difficultés ce volontarisme
se dégradera en velléités. Les contraintes pratiques, techniques du système
d’information lui paraissent mesquines, comparées à ses grandioses attentes
stratégiques : si vous lui parlez du poste de travail des utilisateurs, du ré-
férentiel de l’organisation, des processus à équiper, il vous trouvera bien
terre-à-terre.
À l’orée de l’économie de l’« immatériel » et des « services », certains
dirigeants en viennent à penser que la technique n’a aucune importance,
l’essentiel étant affaire d’image de marque 7 . Ils surestiment alors l’impor-
7. « La technique, moi, je n’en ai rien à foutre » a déclaré Michel Bon lors d’une
conférence à Dauphine. Venant du président d’une entreprise qui exploite un gigantesque
550 CHAPITRE 16. PATHOLOGIE DE L’ENTREPRISE
* *
L’administration de l’entreprise, c’est l’ensemble constitué par la direc-
tion financière, le contrôle de gestion, la direction des ressources humaines
etc. Ce sont des activités de contrôle et d’organisation, de support et de nor-
malisation. En relation directe avec la direction de l’entreprise, elles relayent
sa stratégie. Les responsables de l’administration ne sont généralement pas
des ingénieurs mais des juristes, des économistes ou des sociologues. Pour
eux aussi, le système d’information est une chose abstraite, même si se
conformant à la mode ils le disent « stratégique ».
L’administration est jalouse du pouvoir que l’informatique tire de son
gros budget. Elle pratiquera donc volontiers une politique de compression
des coûts : quelles que soient les priorités et contraintes, le budget de l’infor-
matique ne devra pas dépasser un montant fixé à l’avance, l’« enveloppe ».
Celle-ci sera parfois libellée non en euros, mais en hommes-mois de dévelop-
pement et le budget proprement dit sera alors entouré d’un flou qui facilite
les dérives. Sa discussion se réduira à une séance lors de laquelle le directeur
général, pour manifester sa mauvaise humeur, barre quelques projets dans
une longue liste.
L’administration préfère que l’organisation soit simple : elle s’oppose
donc à la constitution de pôles de compétence en maîtrise d’ouvrage, en-
chaînant des phrases fameuses : « tout ça, c’est de l’informatique », « la
maîtrise d’ouvrage doit être faite par l’informatique », « l’administration
des données est un travail intellectuel, donc superflu ».
Il est difficile pour ces organisateurs d’instaurer dans l’entreprise à pro-
pos du système d’information, qu’ils comprennent mal, une dialectique entre
deux pôles professionnels qui seraient chargés l’un des aspects fonctionnels,
l’autre des aspects techniques. Une telle dialectique existait naguère entre
la direction de la production et la direction commerciale, elle constituait la
respiration de l’entreprise ; mais elle était subie, et non voulue, alors que
la constitution d’une maîtrise d’ouvrage professionnelle suppose que l’on
veuille créer un tel dipole.
Dans son utilisation des systèmes d’information, l’administration est sou-
vent maladroite. Elle produit pour la direction les tableaux de bord et aides
à la décision mais il est rare qu’ils soient de bonne qualité car elle n’a pas
les compétences nécessaires en statistique 8 (voir page 379).
* *
Par « métiers » nous entendons les directions qui produisent et qui
vendent : marketing, commerce, production, maintenance, exploitation, dis-
tribution etc. C’est dans les métiers que réside la physique de l’entreprise :
ils sont le lieu où se construisent ses produits et sa relation avec le marché.
Ils détiennent le savoir technique et économique mais à la façon dont des
consommateurs détiennent le savoir sur leurs besoins : s’ils en sont les por-
teurs, cela ne veut pas dire qu’ils sachent les exprimer. Étant accaparés par
l’activité quotidienne il leur est d’ailleurs souvent difficile de définir leurs
priorités, de les communiquer entre eux et à la direction de l’entreprise.
La conception du système d’information suppose que les métiers tra-
versent dans le bon ordre trois couches différentes. Il faut d’abord que les
utilisateurs « réalisent », c’est-à-dire qu’ils perçoivent que la solution existe
réellement. Il faut ensuite qu’ils comprennent comment cela marche. Ce n’est
qu’après ces deux étapes qu’ils peuvent assimiler le savoir-faire et apprendre
à s’en servir. Supposez que vous installiez une messagerie dans une entreprise
qui en était auparavant dépourvue. La première difficulté pour l’utilisateur
sera de « réaliser » en quoi la messagerie consiste : il découvre avec étonne-
ment la possibilité d’ouvrir les messages en cliquant dessus, d’envoyer une
réponse, l’existence du carnet d’adresse et des pièces jointes etc.
S’il est impossible d’utiliser un outil dont on n’a pas « réalisé » l’exis-
tence, il n’est par contre pas absolument indispensable que l’utilisateur com-
prenne comment il fonctionne : d’excellents conducteurs ignorent comment
fonctionne leur automobile ; par contre cette compréhension est nécessaire
aux maîtres d’ouvrage, aux concepteurs qui doivent définir l’outil, le para-
métrer, l’articuler à d’autres au sein du système d’information.
Enfin, une fois ces étapes franchies (l’étape « comprendre » pouvant être
légère pour certaines personnes), on peut passer à l’acquisition du savoir-
faire, des réflexes qui permettront d’utiliser l’outil sans même y penser et
comme s’il était tout naturel.
La mise en place des workflows se heurte à cette difficulté intellectuelle :
bien que la conception et la réalisation d’un workflow ne soient pas plus
délicates que d’autres démarches, il est difficile pour une personne qui n’en
a jamais vu de « réaliser » en quoi cela consiste. Je garde un souvenir cuisant
de certains exposés où je me démenais comme un pasteur en plein sermon
mais ne recevais en retour que des regards vides, incrédules ou hostiles.
Un métier aura du mal à modéliser son activité, à définir les priorités
entre ses besoins, parce qu’il lui est difficile de « réaliser » par avance les
services que le système d’information lui apportera. C’est cela qui rend si dé-
licate l’utilisation d’UML par les maîtrises d’ouvrage ainsi que la validation
des modèles par le maître d’ouvrage stratégique.
Enfin le système d’information apporte des changements à l’organisation
des métiers et cela suscite parfois l’appréhension. La transparence, que tout
le monde souhaite en principe, n’est pas la bienvenue pour ceux dont elle
compromet le pouvoir ; la suppression des niveaux hiérarchiques intermé-
diaires est souhaitée par tous, sauf par ceux dont le poste sera supprimé.
* *
L’innovation réussie, c’est la clé du succès pour l’entreprise (voir page
172) : elle lui permet de diminuer le coût de production, d’offrir des produits
552 CHAPITRE 16. PATHOLOGIE DE L’ENTREPRISE
* *
À chacune de ces étapes des personnes ont été mises sur la touche. Des
activités que sottement l’on croit ancillaires, comme la programmation, sont
devenues de plus en plus compliquées sans acquérir pour autant un meilleur
statut social. Par ailleurs il est devenu impossible à une DSI de maîtriser
l’ensemble des savoirs nécessaires à son activité : pour choisir dans la diver-
sité des solutions, maîtriser les langages et interfaces, évaluer la pérennité de
fournisseurs dont elle dépendra, elle doit faire appel à des SSII. Elle est alors
confrontée à des séductions parfois trompeuses : il est rare qu’un fournisseur
tienne intégralement ses promesses une fois le contrat signé. Les montants
en jeu étant importants, il en résulte des tentations fortes.
La sociologie de l’informatique est donc en crise et sans doute en transi-
tion vers une nouvelle informatique dont on ne voit pas clairement ce qu’elle
sera. Cependant les informaticiens d’aujourd’hui ont gardé de leur histoire
certains traits qui les caractérisent. Par formation, ils restent attachés aux
grands systèmes centraux et s’ils participent au déploiement de la bureau-
tique, c’est sans plaisir. L’informatique de communication (messagerie, do-
cumentation électronique) ne correspond pas à leur culture qui s’attache
plutôt au traitement des données structurées. Si le système d’information
est fécondé par la rencontre entre l’informatique de communication (qui vé-
hicule le langage connoté, symbolique, des êtres humains) et l’informatique
de traitement des données structurées (qui repose sur un langage conceptuel
qui facilite la modélisation), cette rencontre ne s’opère pas aisément dans la
sociologie de l’informatique.
L’expérience montre combien il est difficile, pour quelqu’un qui a été
formé à la rigueur des langages conceptuels, de s’accommoder du flou des
connotations alors que celui-ci est si efficace dans la communication entre
personnes. L’informaticien de formation parle souvent une langue de bois ; il
lui est difficile de comprendre, de sentir les situations et les personnes : c’est
là une vraie maladie professionnelle, même si bien sûr certains informaticiens
en sont exempts.
* *
Personne ne reconnaît exactement son propre comportement dans une
étude sociologique ; de même, personne ne reconnaîtra exactement son en-
treprise dans les esquisses que nous venons de présenter. Leur intérêt n’est
pas tant de décrire des situations concrètes que d’illustrer des perspectives,
des points de vue que chacun pourra utiliser pour interpréter la situation
de sa propre entreprise : à quel point de sa trajectoire se trouve-t-elle? Quel
est le régime de son organisation (caciques, rationnel, organique?) Quelle
est la nature des relations entre les pôles de légitimité?
Il est vrai que nous n’avons pas procédé ici avec la rigueur scientifique
que réclame la sociologie : nous n’avons pas fait d’enquête ni établi de sta-
tistiques. Nous nous sommes contentés d’interpréter une expérience, de l’en-
richir par la confrontation avec d’autres expériences. Nous ne nous sommes
donc pas beaucoup éloignés du Café du Commerce mais peut-être celui-ci
est-il trop décrié. Il faut bien en effet, avant que ne se mettent en place les
enquêtes et méthodes rigoureuses, que des naïfs posent des jalons concep-
tuels vers un point de vue inédit ou du moins peu fréquenté.
554 CHAPITRE 16. PATHOLOGIE DE L’ENTREPRISE
9. Dans L’île noire, des pompiers cherchent longuement la clé du local où est rangée
16.2. CRISE DE L’ENTREPRISE 555
* *
Lorsqu’il y a crise de l’entreprise, chacun cherche non à résoudre les
problèmes - tâche devenue impossible - mais à en faire porter par d’autres
la responsabilité. Les dirigeants sont comme quelqu’un qui, perdu dans le
désert, marcherait dans la direction opposée à celle du salut : même s’ils
sentent où se trouve la solution, sa simplicité leur inspire une sorte de crainte
et ils changent son signe comme s’ils permutaient le Sud et le Nord d’une
boussole. Le meilleur, ils le rejettent ; le pire, ils le choisissent.
La crise se manifeste par un symptôme qui ne trompe pas : le langage
que l’on parle dans l’entreprise se dégrade (voir page 556). Si le vocabulaire
est pollué par des synonymes et homonymes, si les données que fournit le
système d’information sont ambiguës ou, ce qui revient au même, s’il faut
des redressements préalables pour les utiliser, les réunions seront encombrées
de discussions stériles. L’incertitude sur les faits entraîne l’imprécision de
l’action et la légèreté des décisions.
La « langue de bois » empêchant l’évaluation pondérée des problèmes,
il faut un bouc émissaire. On le cherche, on le trouve. Son exécution (mise
au placard, dépression, départ) se prépare dans son dos avec fébrilité et
jubilation. Elle procure une détente momentanée mais ne résoud rien : il
faudra donc le remplacer par une nouvelle victime expiatoire. Les énergies
de l’entreprise en crise se consument dans la destruction des personnes.
* *
Peut-on soigner le mal en corrigeant le langage? Non, car il n’est qu’un
symptôme. Si l’on restaure le processus de décision, par contre, le langage
suivra.
Cependant le langage des dirigeants conditionne ce processus : c’est à
eux en effet qu’il revient de « donner du sens » à l’entreprise. Il s’agit non
de lui apporter un « supplément d’âme », expression un peu méprisante,
mais de consolider l’architecture de l’entreprise : processus de production
et de gestion, outils de connaissance et d’interprétation, élaboration de la
stratégie. Or pour une entreprise, comme pour un bâtiment, ce qui a été
construit s’impose par son évidence et sa pérennité apparente ; ce qui se
conçoit, puis se construit, relève de l’imagination et de la volonté. Les per-
sonnes qui manquent d’imagination ne voient que l’existant (elles appellent
cela du pragmatisme) et ignorent le possible.
la pompe à incendie.
556 CHAPITRE 16. PATHOLOGIE DE L’ENTREPRISE
qualité et d’indiquer les critères dont il se sert pour l’évaluer : on découvrira alors souvent
qu’il ne sait pas de quoi il parle.
16.3. OBSTACLES AU CHANGEMENT 557
* *
Le système d’information alimente les tableaux de bord de l’entreprise et
lui permet d’élaborer une expertise. On peut représenter cette construction
par un modèle en couches. À la base se trouve l’enregistrement des faits
qui peut s’opérer de façon automatique à partir des processus opérationnels
(communications des clients pour un opérateur télécoms, tickets de caisse
pour un magasin, coupons de vol pour un transporteur aérien etc.). À partir
de cet enregistrement élémentaire l’entreprise peut produire des indicateurs
sur la demande, les coûts, le partage du marché etc. Cela suppose qu’elle
sache estimer les données manquantes, analyser les séries chronologiques,
558 CHAPITRE 16. PATHOLOGIE DE L’ENTREPRISE
10. Ils préféreront souvent un indicateur fallacieux comme « rapport entre le dernier
mois et le mois correspondant de l’année précédente » qu’il est impossible d’interpréter
mais qui, semble-t-il, leur « parle » davantage qu’une série corrigée des variations sai-
sonnières. Ils aiment bien aussi les « comparaisons entre prévision et réalisation », en
nommant « prévision » le chiffrage établi lors de la préparation du budget annuel.
16.3. OBSTACLES AU CHANGEMENT 559
11. Un bon exemple de ce type de dirigeant est fourni par Bob Crandall, d’American
Airlines(Petzinger [159]).
12. L’exemple vient du sommet : « Le mécanisme de prise de décision me paraissait,
depuis longtemps, constituer un des points faibles de notre manière de gouverner » (Valéry
16.3. OBSTACLES AU CHANGEMENT 561
que la qualité de leurs décisions soit médiocre : l’intuition, nourrie par des
contacts informels avec des collaborateurs et par des visites sur le terrain,
peut leur permettre d’éviter les plus graves erreurs. Nous les représentons
par le point à gauche de la figure 16.6. Leurs décisions ne peuvent cependant
avoir ni l’énergie, ni la précision, ni la cohérence que l’on trouve chez ceux
qui sont attentifs aux faits.
Supposons qu’un tel dirigeant, conscient de ses lacunes, se mette à com-
pulser des statistiques, à regarder des tableaux et des courbes. Cet effort
méritoire aura d’abord un effet négatif : la fraîcheur, le bon sens qui sou-
tenaient son intuition sont momentanément détruits sans qu’il soit pour
autant devenu un expert. L’arbre lui cache la forêt, tel détail vu dans les
données le préoccupe à l’excès. La qualité de ses décisions a baissé et ses
collaborateurs regrettent le temps où il travaillait moins mais où il était plus
raisonnable. Il se trouve au point bas de la figure 16.6.
Celui qui commence à regarder les données passe en effet par une phase
pénible durant laquelle ses décisions seront moins bonnes, son intuition
moins fidèle. L’effort finira par payer s’il est poursuivi mais la transition
aura été rude. C’est pourquoi la position située à gauche de la figure 16.6
est un point d’équilibre, même s’il n’est pas optimal, car le rendement mar-
ginal du travail y est négatif. Cette position sera presque toujours adoptée
par les dirigeants qui, étant nommés par un pouvoir politique, sont novices
en matière de stratégie.
* *
Dans une entreprise où la direction est essentiellement politique, les mé-
tiers eux-mêmes sont incités à s’écarter de la rigueur professionnelle et à
obéir aux règles classiques du conformisme : « pas de vagues », « pas vu,
pas pris », « après moi le déluge ».
Ceux qui évitent les vérités désagréables trouveront les paragraphes ci-
dessous de mauvais goût, d’autres y reconnaîtront certaines de leurs expé-
riences.
« Pas de vagues »
Le premier devoir d’un responsable est de couvrir les fautes de ses su-
bordonnés ; il n’y a jamais de sanctions - sauf envers ceux qui faisant « des
vagues », « du zèle », ont fait apparaître des problèmes que l’on aurait
préféré ignorer.
L’acception institutionnelle du mot « compétence » s’écarte de l’usage
courant. En français courant, la personne compétente est celle qui possède
le savoir nécessaire à sa fonction. En français administratif, la personne
compétente pour traiter une question est celle dont cette question relève
selon l’organigramme. Lorsque la compétence administrative entre en conflit
avec la compétence du savoir, c’est à la première que l’on donnera raison,
sinon ce serait l’anarchie.
Une innovation risque toujours d’entraîner des réorganisations et un
changement des conditions d’utilisation de la force de travail. Pour com-
* *
La conception d’un système d’information réclame une compétence en
sémantique et en physique : il faut tout à la fois définir les concepts et les
modèles qui alimenteront la couche « représentation » et aussi dimensionner
les ressources qu’utilisera la plate-forme informatique, ce qui suppose de
savoir anticiper le comportement des utilisateurs du système d’information.
Traiter cela par le calcul supposerait de manier en virtuose les probabilités
des trafics, des pannes, des comportements en cas de panne etc. Dans la
pratique, l’expertise remplace ici le calcul.
L’expert est quelqu’un qui est déjà tombé dans les pièges et qui s’en
est sorti, à chaud, sous les lazzi des utilisateurs. Il a appris à anticiper,
par l’intuition, les accidents possibles sur un réseau. Cette intuition peut
16.3. OBSTACLES AU CHANGEMENT 563
13. J’ai connu ainsi une entreprise qui entendait « mettre le client au cœur de l’entre-
prise » mais qui ne savait pas identifier ses clients : le directeur général ne percevait pas
cette incohérence.
14. Alors que nous travaillions à l’élaboration d’un modèle qui nous donnait bien du mal,
un directeur nous demanda : « Mais alors, qui fait le travail? » - pour lui, « travailler »,
c’était écrire des lignes de codes ; modéliser, ce n’était pas du travail.
564 CHAPITRE 16. PATHOLOGIE DE L’ENTREPRISE
15. Cette dernière phrase ne s’entend plus guère en 2006, mais elle était courante dans
la deuxième moitié des années 1990.
16.3. OBSTACLES AU CHANGEMENT 565
alors parlé avec un débit précipité [...]. L’hypothèse la plus probable est donc
que je ne voulais pas entendre le récit de cet épisode capital - sur lequel je
ne posai d’ailleurs aucune question - parce que de le prendre en considéra-
tion m’aurait conduite à réviser la version que je m’étais alors constituée de
l’histoire des Babin ».
Le système d’information se trouve dans la tache aveugle des dirigeants
parce que la formation au système d’information ne fait pas partie de leur
bagage initial 16 , de la formation qui, leur ayant permis de « réussir », leur
semble suffisante. Pour que l’entreprise assimile son système d’information
et sache en faire un instrument de l’action, il faut que ses dirigeants soient
à l’aise pour créer, réviser et détruire les concepts et catégories qui fondent
leurs représentations - ce qui implique qu’ils soient devenus dans une cer-
taine mesure des penseurs ou plus exactement qu’ils aient appris à maîtriser
certains procédés de pensée (voir page 229). L’importance que prend le sys-
tème d’information dans la vie des entreprises aidera cette évolution mais
celle-ci ne sera ni facile, ni rapide.
16. Cela changera, mais notre économie, notre société peuvent-elles s’offrir le luxe d’at-
tendre la relève de cette génération-là?
16.3. OBSTACLES AU CHANGEMENT 567
17. Le président d’une grande entreprise a dit ainsi un jour à un de mes amis « je préfère
ne pas donner suite à vos recommandations concernant le système d’information parce
qu’elles poseraient des problèmes de personnes ». Leur coopération s’est arrêtée là.
568 CHAPITRE 16. PATHOLOGIE DE L’ENTREPRISE
Elles ne sont pas seules coupables. Les agents des centres d’appel ne
travaillent pas dans les mêmes locaux que les autres, ne mangent pas à
la même cantine, n’ont pas les mêmes horaires. Alors joue le syndrome
du village gaulois : les agents du « siège » ou de la direction régionale se
sentent supérieurs aux « gens du centre d’appel », qu’ils ont tendance à
traiter en parias. Ces réactions instinctives, animales, ne font que conforter
le comportement des directions générales.
Pourtant si l’entreprise était rationnelle elle s’y prendrait autrement. Le
centre d’appel serait considéré comme le creuset où l’on doit faire passer
les meilleurs éléments. L’accès aux fonctions de direction - qu’il s’agisse de
diriger un établissement, une région, une direction à la direction générale -
serait précédé par un passage de quelques semaines au centre d’appel pour
que le futur directeur puisse voir de près les problèmes qui se manifestent
dans la relation avec la clientèle, ou au « help desk » pour qu’il voie les
difficultés que rencontrent les agents opérationnels. On assurerait la promo-
tion des agents des centres d’appel vers des fonctions d’encadrement afin
que l’entreprise capitalise les connaissances qu’ils ont acquises « au front »
et à chaud. On analyserait les statistiques et commentaires provenant des
centres d’appel, qui sont autant d’indicateurs utiles pour la stratégie.
Une entreprise qui mette un futur directeur en stage pendant quelques
semaines au centre d’appel ? Mais c’est du rêve ! Nos entreprises cherchent
plus à conforter le statut des dirigeants, à les initier aux aspects relationnels
de leur fonction, qu’à former leur compétence. Le stage ne se fera donc pas
au centre d’appel, mais plutôt dans les couloirs de la direction générale ; le
futur directeur n’y apprendra rien sur les clients ni sur les utilisateurs, mais
il y sera initié aux méandres de l’intrigue.
Les entreprises négligent ce que pourraient leur apprendre les observa-
tions accumulées dans le centre d’appel ; elles laissent s’évaporer, par turn-
over, le savoir des agents qui y sont passés ; elles gaspillent un excellent
moyen pour former leurs cadres. Il existe des contre-exemples, et c’est heu-
reux 18 , mais la situation décrite ci-dessus est la plus fréquente : le centre
d’appel est l’un des aspects du système d’information où se révèle le plus
clairement la crise de l’entreprise.
18. Je connais une entreprise dont les dirigeants passent, de temps à autre, quelques
jours au centre d’appel ou dans une agence commerciale. C’est l’exception qui confirme
la règle.
570 CHAPITRE 16. PATHOLOGIE DE L’ENTREPRISE
* *
La corruption prend des formes diverses, parfois subtiles. Les commer-
ciaux des fournisseurs sont des gens intelligents et très sympathiques. Sous
prétexte de vous faire rencontrer des experts, ils vous invitent dans d’ex-
cellents restaurants ou à des compétitions sportives intéressantes. Ils vous
flattent sans aucune vergogne. J’occupais naguère des fonctions impliquant
un pouvoir de prescription et les commerciaux fréquentaient assidûment
mon bureau. Il étaient parfois accompagnés d’experts à qui je faisais part
de mes réflexions sur les systèmes d’information. Je me rappelle le cri d’ad-
miration que mes propos ont arraché un jour à un commercial qui, certes,
de sa vie ne s’était jamais soucié de classes abstraites : « C’est génial, ce que
vous venez de dire ! » Il savait bien, pardi, que personne n’a jamais assommé
un client à coups d’encensoir.
Il est pénible, pour le DSI d’une grande entreprise, de passer de la douche
tiède de ces flatteries à la douche froide que lui administrent en réunion ses
collègues, patrons des directions utilisatrices, lorsqu’ils tentent de lui faire
endosser tout ce qui va mal dans l’entreprise. Rien d’étonnant si les DSI
sont, parfois, des personnes un peu susceptibles et irritables.
* *
Si les DSI sont injustement maltraités par leurs collègues, ils peuvent se
consoler en regardant leur budget. Supposons que vous soyez le DSI d’une
entreprise de 50 000 salariés. Le budget informatique tourne autour de 300
millions d’euros, l’effectif de la DSI est de l’ordre de 2 000 personnes. Le
montant du budget comprend des dépenses incontournables : salaire des per-
sonnels en place, location des équipements etc. Cependant une part signifi-
cative est sujette à décision. Le turn over des personnels étant de l’ordre de
3 % pour de simples raisons démographiques, vous embaucherez au moins
60 personnes par an. Par ailleurs chaque projet est une occasion de contrat
avec un fournisseur et il faut renouveler les équipements. Sur les 300 mil-
lions, il vous reviendra ainsi d’affecter chaque année quelques dizaines de
millions.
Dès lors vous êtes une puissance. Les fournisseurs vous font la cour.
Les collègues vous ménagent, car vous pourriez embaucher tel ou tel fils ou
neveu. Comme vous êtes capable de rendre des services, vous pouvez aussi en
demander : le troc des services rendus est la clé de bien des comportements.
16.3. OBSTACLES AU CHANGEMENT 571
* *
Après un séjour dans le service public qui m’avait accoutumé à une
stricte déontologie, j’ai dirigé des entreprises de conseil. J’ai eu d’excellents
clients que je respecte mais j’ai aussi loupé des contrats que j’aurais dû
avoir. Je m’en étonnais naïvement : comment le client pouvait-il refuser
une proposition d’un coût modique et de la plus grande utilité pour son
entreprise ? Une partie de l’explication résidait dans la modicité du coût,
cf. ci-dessus. Une autre dans un manque de compréhension : le client ne
« réalisait » pas ce que nous disions, comme cela s’est souvent produit
pour les projets de workflow. Mais je ne peux pas exclure une troisième
hypothèse : dans certains cas, si j’avais su émettre le signal annonciateur
d’un cadeau, les choses se seraient mieux passées.
J’ai vu parfois le client potentiel se mettre dans une colère noire au
beau milieu d’une discussion calme et professionnelle. Il m’a fallu du temps
pour en comprendre la raison. Mettez-vous à la place du malheureux : je
* *
Les qualités qui aident à résister à la tentation forment une constellation
identifiable : sens de l’humour et des proportions, esprit clair, goût de la
concision et du travail bien fait, courage. L’honnêteté professionnelle, c’est
l’addition de la compétence et de ce dévouement au métier qui fait percevoir
l’erreur comme une faute contre l’évidence et contre la nature. Il peut arriver
qu’un chirurgien compétent sabote un patient qu’il juge sans importance
sociale, mais le chirurgien dévoué à son métier ne sabotera jamais personne.
On n’en a pas fini avec l’exigence morale quand on a les mains propres.
Sommes-nous assez courageux ? assez volontaires ? assez vigilants ? nous
laissons-nous aller à des idées toutes faites, ou tâchons-nous d’approfondir
notre expérience? sommes-nous respectueux des autres, et de nous-mêmes?
savons nous écouter et comprendre celui qui parle ? Celui qui se pose ces
questions-là a d’autres priorités que de satisfaire sa vanité ou de piquer dans
la caisse.
Ils souhaitent, pour pouvoir parler en stratège, être celui qui définit les
services que le système d’information rendra à l’entreprise et la façon dont
les processus de production seront automatisés. Il faut pour cela qu’ils se
mêlent de la validation des expressions des besoins, du choix des priorités,
et qu’ils soient donc tout à la fois client et fournisseur, maître d’ouvrage et
maître d’œuvre du système d’information.
Cette organisation convient à ceux des directeurs généraux qui pensent
que « tout ça, c’est de l’informatique » et préfèrent, comme l’adjudant qui
aligne une troupe, « ne voir qu’une seule tête ». Mais elle implique une
confusion périlleuse entre des rôles différents.
Le DSI qui a pris la responsabilité de la maîtrise d’ouvrage, et qui a
donc sous ses ordres les personnes qui établissent les expressions de besoin
des divers métiers, participe en effet à deux univers mentaux différents :
- celui de la gestion de l’usine informatique, usine complexe et fragile qui
doit tourner en continu sans défaillance perceptible par les utilisateurs ;
- celui de la conception du système d’information qui, elle, exige une
vue prospective, une vigilance périscopique et l’aptitude à parler les divers
langages de l’entreprise.
Ce DSI doit ainsi être à la fois le physicien de l’informatique et l’or-
ganisateur de l’entreprise. Or il est très difficile, et en fait humainement
impossible, de conjuguer ces deux rôles : cela supposerait un écartèlement
entre des préoccupations intellectuelles très différentes, une dispersion de la
vigilance, et enfin des rythmes de vie et de décision inconciliables.
Certes, certains directeurs généraux croient pouvoir exiger qu’une même
personne soit à la fois un saint, un héros et un génie. Mais il est dangereux
de fonder une organisation sur une exigence qui ne sera pratiquement jamais
satisfaite.
Dans les faits, le DSI qui ambitionne de devenir le leader effectif de la
maîtrise d’ouvrage est contraint de relâcher l’attention qu’il accorde à la
plate-forme technique de l’informatique. Certains d’entre deux trouveront
expédient de la confier à un adjoint : alors l’organigramme de la DSI pren-
dra la forme indiquée par la figure 16.8. Les maîtrises d’ouvrage des divers
métiers seront, selon l’entreprise, rattachées hiérarchiquement soit au DSI,
soit aux directeurs des métiers ; dans ce dernier cas, le DSI n’aura d’autorité
directe que sur la coordination des maîtrises d’ouvrage, qui est une petite
équipe.
Le DSI est ainsi devenu le conseiller du directeur général, l’expert qui
éclaire la stratégie de l’entreprise en matière de système d’information. Le
fonctionnement quotidien de l’informatique n’est plus son premier souci,
c’est son adjoint qui s’en charge.
Il s’est mis ainsi dans un piège : que se passera-t-il si l’informatique
connaît une défaillance grave, si par exemple une panne trop longue com-
promet le fonctionnement de l’entreprise ? Le directeur général cherchera,
ne serait-ce que pour émettre un signal salubre, un responsable pour le pu-
nir et éventuellement le chasser de l’entreprise. Le DSI pourra-t-il dire alors
« c’est mon adjoint le coupable, je n’y suis pour rien, c’est lui qui s’occupe
de la plate-forme technique » ? Non, car le directeur général lui répondra
574 CHAPITRE 16. PATHOLOGIE DE L’ENTREPRISE
« c’est vous le patron, c’est vous le capitaine, c’est donc vous le responsable
et c’est vous qui sautez ».
Ainsi le DSI qui concentre son attention sur le rôle stratégique du sys-
tème d’information, qui s’érige en patron de la maîtrise d’ouvrage et délègue
à un autre la responsabilité de l’usine informatique, vit avec une épée de
Damoclès sur la tête : il a lâché les rênes de la plate-forme mais il sait qu’en
cas d’incident grave, c’est lui qui sautera.
C’est là une situation psychologiquement et pratiquement intenable. Dans
les faits ou bien l’adjoint à qui le DSI a confié l’informatique devient le vé-
ritable directeur de l’informatique, pleinement responsable, et le DSI n’est
plus qu’un coordinateur de la maîtrise d’ouvrage, tâche importante mais
dont les entreprises n’ont pas encore toutes reconnu la nécessité et qui ne
lui donne d’autorité directe (et encore dans un rôle non hiérarchique d’ani-
mateur, de coordinateur) que sur un effectif de taille modeste par rapport
à l’informatique 20 ; ou bien le DSI garde la main sur l’informatique, ses
machines et son personnel, et alors inévitablement le poids des décisions et
responsabilités que celle-ci implique tirera ses priorités du côté de la plate-
forme, ce qui lui fera oublier ou négliger les aspects stratégiques du système
d’information.
On risque de retrouver dans ce second cas un schéma déjà très fréquent :
alors qu’il prétend s’occuper du système d’information (puisqu’il porte le
titre de « directeur du système d’information »), le DSI ne se préoccupe en
fait que de la plate-forme et se limite à jouer le rôle, d’ailleurs utile et très
prenant, du physicien.
Certains DSI, jaloux de leur titre, s’emploient à empêcher l’émergence
d’une compétence en maîtrise d’ouvrage car ils voient en elle un concurrent
en termes de légitimité : ils ne sont pas pour rien dans la lenteur avec laquelle
se met en place la maîtrise d’ouvrage professionnelle. D’autres, au contraire,
souhaitent qu’une telle compétence se forme mais il leur est difficile de définir
les rapports qu’ils doivent entretenir avec elle et, souvent, un conflit naîtra
autour de la maîtrise du budget.
20. Les effectifs consacrés à la maîtrise d’ouvrage sont de l’ordre du quart ou du cin-
quième de ceux de l’informatique.
16.4. LA DEMI-STRATÉGIE 575
16.4 La demi-stratégie
Beaucoup de nos entreprises ont non pas une stratégie, mais une moitié
de stratégie. Elles veulent « grossir pour survivre », mais restent campées sur
leur activité traditionnelle et refusent de diversifier leur offre. Elles veulent
« réduire les coûts », mais négligent le marketing. Elles veulent « assainir les
finances », mais répudient la R&D. Leurs dirigeants négligent la polyphonie
de l’entreprise, la multiplicité des logiques qu’elle articule et qui toutes sont
nécessaires, pour n’accorder d’attention qu’à une seule ligne mélodique.
Elles ne consacrent pas beaucoup d’efforts à l’« ingénierie d’affaires »,
aux « montages » qui permettraient d’offrir aux clients, sur la plate-forme
traditionnelle, une gamme de services différenciés et enrichis :
- ce sont les Coréens, non les Français, qui ont introduit dans la puce du
téléphone mobile les fonctions de la carte bancaire ; ce sont les Israéliens,
non les Français, qui ont été le plus loin dans les services de télémédecine ;
- c’est Google, et non la Bibliothèque nationale, qui a pris l’initiative de
mettre en ligne un grand nombre d’ouvrages 21 ;
- ce sont les Américains, non les Français, qui ont transformé l’avion en
un magasin où le passager peut acheter à l’occasion d’un vol des ordinateurs
portables, appareils de photo numériques, CD-Rom, DVD etc. qui lui seront
livrés au sol, éventuellement hors taxes et dédouanés 22 .
Il est vrai que l’ingénierie d’affaires suppose l’aptitude à la négociation
de contrats entre égaux, aptitude rare dans des directions générales dont
l’attention est absorbée par leur propre organisation interne.
21. Le service gallica.bnf.fr n’a jamais pris l’ampleur qu’il aurait pu et dû avoir : il a
fallu que Google annonce la mise en ligne des livres pour que les politiques se réveillent.
22. Les Français en restent à la vente à bord de foulards Hermès, parfum Chanel n◦ 5
et autres produits « de luxe ».
576 CHAPITRE 16. PATHOLOGIE DE L’ENTREPRISE
23. Voir les sièges sociaux des banques à Paris, boulevard des Italiens.
24. L’organisation hiérarchique n’a pas pour origine l’art de la guerre, comme en té-
moigne l’Anabase de Xénophon : des êtres humains normaux ne vont pas au combat sans
se concerter et ils ne sacralisent pas l’autorité. La discipline mécanique « à la prussienne »,
si souvent prise pour exemple, est l’héritage des moines soldats de l’ordre Teutonique.
16.4. LA DEMI-STRATÉGIE 577
* *
Si notre économie n’est pas entreprenante, ce n’est pas parce qu’elle est
parasitée par l’État : beaucoup de grandes entreprises souffrent des travers
bureaucratiques que l’on attribue à l’administration. Si nos dirigeants sont
des demi-stratèges, ce n’est pas parce qu’ils sont stupides : ils ont beaucoup
de talents mais ils sont coincés, tant par leur milieu que par leurs propres
valeurs, dans la « position du gestionnaire ».
Nous admirons l’esprit pratique des Américains, leur tempérament de
pionniers et d’entrepreneurs, la souplesse et l’organisation de leurs entre-
prises 25 . Ces qualités s’expliquent par l’histoire. Leur nation, fondée par
des sectes protestantes séparées de l’Église et chassées d’Europe par l’État,
a accordé l’hégémonie culturelle à l’Entreprise (Gramsci [72]). Confrontée à
un continent pourvu de ressources naturelles immenses, elle a mis toute son
énergie dans l’organisation de l’action sur la nature en vue de produire des
choses utiles.
Mais il ne nous servirait à rien de copier leurs méthodes. On ne copie que
les défauts des autres quand on les imite sans faire effort sur soi-même et
les Américains ne sont pas sans défauts : ils ont sans doute poussé trop loin
l’exploitation de la nature et nous ferions mieux de ne pas adopter la cruelle
classification en winners et losers qu’a décrite Edward Luttwak [120], ni la
priorité absolue qu’ils accordent à la compétition, ni encore leur tendance à
délaisser une entreprise (même utile) dès qu’elle cesse de croître.
Si nous voulons que nos entreprises soient vivantes, si nous voulons don-
ner aux entrepreneurs l’espace qui leur est nécessaire, ce n’est pas seulement
de méthodes, de procédés que nous avons besoin. Il nous faut élucider nos
valeurs, les faire venir à la surface de notre conscience pour les examiner,
les trier et les corriger ; il nous faut désacraliser le veau d’or des institutions
pour réserver le sacré au seul monde des valeurs. Nous trouverons alors en
nous-mêmes des ressources que nous avons négligées et nous pourrons avoir
de vraies entreprises, de vraies stratégies, de vrais stratèges.
25. Elles ne sont pas parfaites (cf. Enron, Worldcom, Pan Am, et les travers des très
grandes entreprises comme IBM et AT&T) ; mais elles ont un ressort qui nous surprend.
Un Bill Gates n’aurait pas pu réussir en France (voir le parcours de « Guillaume Portes »
dans Brulé [28] p. 307) .
Conclusion
578
16.4. LA DEMI-STRATÉGIE 579
Comment vivre avec
l’automate?
Les artefacts, dès qu’ils sortent des mains de leur producteur, trans-
forment le monde de la nature : nos maisons, nos routes, nos ponts le rendent
habitable. L’ubiquité de l’automate a ainsi modifié notre rapport à l’espace,
sa mémoire notre rapport au temps, sa puissance les conditions du travail
mental.
Il en est résulté pour nos entreprises une évolution de la fonction de
production et de la fonction de coût, d’où depuis les années 1970 une trans-
formation des formes de la concurrence. L’industrie, automatisée, n’a plus
besoin d’autant de main d’œuvre. L’emploi se déploie dans les services pour
assister le consommateur, désormais confronté à une offre diversifiée d’as-
semblages (Volle [213]).
Du coup des institutions péniblement construites au cours de notre his-
toire comme l’éducation, la santé, l’emploi, la justice, le syndicalisme sont
frappées d’obsolescence, tout comme le mécanisme des pouvoirs législatif et
exécutif. Comme elles ont sacralisé la lettre de leurs procédures il leur est
difficile de revenir à l’esprit de leur mission : écrasant la bonne volonté des
personnes, elles luttent autant ou même plus pour survivre que pour servir.
L’entreprise, institution décentralisée et, en outre, sans cesse renouvelée
par des décès et des naissances, est le laboratoire où peut se construire le
nouvel édifice institutionnel. C’est dans l’entreprise, en effet, que l’on s’ap-
privoise à l’informatique, que l’on apprend à raisonner sur les processus, à les
élucider, à articuler l’être humain organisé avec l’automate programmable
doué d’ubiquité, l’EHO et l’APU. À sa mission civique de toujours, qui est
de produire des choses utiles 26 , s’ajoute ainsi aujourd’hui pour l’entreprise
une deuxième mission.
* *
Les décisions que cette mission réclame forment à l’horizon de la réflexion
un enjeu des plus impressionnants. S’il est facile en effet d’évoquer en une
26. Certains prétendent que le mot « utilité », familier aux économistes, ne veut rien
dire. Ils sont pourtant sans aucun doute attentifs à leur propre bien-être et ils protes-
teraient si on les privait des produits qui y contribuent. Certes le bien-être n’est pas le
bonheur, mais c’est une autre question.
580
581
* *
chain. Le bien ou le mal résident dans l’intention, non dans l’outil. Mais
comme l’automate change le monde, comme il déplace la frontière du pos-
sible, il invite à poser des questions que nous pouvions croire réglées depuis
longtemps : que voulons-nous être, quel sens donnons-nous à notre huma-
nité ? Que voulons-nous faire du monde que notre action transforme ? Et,
pour commencer comme il se doit à petite échelle, que voulons-nous faire
de nos entreprises?
Leur valeur suprême, c’est l’efficacité : il s’agit de faire au mieux, de
produire le plus d’utilité possible, avec les ressources dont elles disposent.
Mais l’automate modifie la façon dont s’incarne l’efficacité et, pour anticiper
l’avenir de celle-ci, il est utile d’examiner sa généalogie.
Notre économie, nos entreprises, sont en tant qu’institutions nées avec
l’industrie dans l’Angleterre du xviiie siècle. L’économie industrielle s’est
bâtie sur l’échange équilibré qui seul pouvait procurer la sécurité et les dé-
bouchés nécessaires à la rentabilisation de ses machines. Celui qui achète
et celui qui vend, également libres de leurs transactions, se rencontrent sur
le marché : l’équilibre de l’échange suppose non seulement que les valeurs
des biens échangés soient égales mais aussi qu’aucune des parties n’ait le
pouvoir de contraindre l’autre.
L’économie agricole et féodale antérieure (Bloch [12]) s’était appuyée sur
l’échange inégal, sur une prédation qu’équilibrait la charité : celui qui s’était
emparé de la richesse à la pointe de l’épée devait subvenir, en principe, aux
besoins des pauvres. C’est pour polémiquer contre le couple de la prédation
et de la charité, pour faire l’éloge de l’échange équilibré qu’Adam Smith
[191], le génial fondateur de la science économique, a évoqué la main invisible
qui guiderait la société vers un optimum que personne n’a explicitement
voulu 27 . Si on lit les passages où il critique l’égoïsme des négociants, on
comprend qu’il n’a jamais entendu faire l’apologie de la prédation.
Dans l’économie réelle où, des plus archaïques au plus récentes, les formes
d’organisation se superposent comme des couches géologiques, la prédation
n’a bien sûr jamais disparu : les prédateurs sont à l’affût et tirent profit,
c’est le cas de le dire, de toutes les occasions en particulier sur le marché du
travail ou sur celui des matières premières (Verschave [208]) 28 . Le combat
qu’Adam Smith a engagé pour l’échange équilibré a donc dû, devra encore
être poursuivi avec persévérance, mais c’est lui qui, associé à la division du
travail, a orienté nos institutions et nos lois.
27. “Every individual necessarily labours to render the annual revenue of the society as
great as he can. He generally neither intends to promote the public interest, nor knows
how much he is promoting it. By preferring the support of domestic to that of foreign
industry, he intends only his own security; and by directing that industry in such a
manner as its produce may be of the greatest value, he intends only his own gain, and he
is in this, as in many other cases, led by an invisible hand to promote an end which was
no part of his intention. Nor is it always the worse for society that it was no part of his
intention. By pursuing his own interest he frequently promotes that of the society more
effectually than when he really intends to promote it. I have never known much good
done by those who affected to trade for the public good.” (Adam Smith, An Inquiry into
the Nature and Causes of the Wealth of Nations 1776).
28. www.volle.com/lectures/verschave.htm.
583
* *
Ceux à qui répugne, à juste titre, l’ornière des bons sentiments tombent
parfois, sous prétexte de réalisme, dans celle du cynisme : certains se réfèrent
ainsi à Darwin pour justifier, dans les entreprises, un sacrifice humain censé
contribuer à la promotion des plus capables. Lorsqu’on évoque, avec une
admiration gourmande, le caractère de ces « tueurs » et « tueuses » dont
« les dents rayent le parquet », on encourage des comportements nuisibles.
Notre esthétique enfin accorde une place prédominante au spectacle de la
violence, comme si nous avions la nostalgie de la prédation. Nous n’avons
pas fait le ménage dans l’édifice des valeurs.
Au combat contre la prédation et pour l’échange équilibré doit cependant
désormais s’associer le combat pour l’équilibre de la considération. Outre le
bien-être des populations, l’enjeu réside dans le choix entre les perspectives
également ouvertes, également possibles, de la civilisation et de la barbarie :
l’automate, neutre par lui-même, peut en effet mettre sa puissance au service
de l’une comme de l’autre.
Il est facile, si l’on réfléchit un tant soit peu, d’entrevoir les horizons sur
lesquels débouchent ces perspectives. Apprendre à vivre avec l’automate ap-
paraît alors comme un objectif que chacun doit poursuivre pour son propre
compte et pour lequel il convient de militer d’abord dans nos entreprises,
puis au niveau de la société entière.
Bibliographie
584
BIBLIOGRAPHIE 585
[55] Jeanne Favret-Saada. Les mots, la mort, les sorts. Gallimard, 1985.
Si la magie est la manipulation des symboles en vue d’obtenir du pouvoir, ne se
pratique-t-elle pas aussi dans nos entreprises ?
Voir www.volle.com/lectures/favret.htm.
[56] Daniel Friedman et Matthias Felleisen. The Little Schemer. MIT
Press, 2000.
La présentation pédagogique de ce livre est astucieuse, mais il réclame une lecture
lente et répétée.
Voir www.volle.com/lectures/littleschemer.htm.
[57] Matthias Felleisen, Robert Bruce Findler, Matthew Flatt et Shriram
Krishnamurthi. How to Design Programs. MIT Press, 2001.
[58] Daniel Fixari. Le calcul économique, ou de l’utilisation des modèles
irréalistes. Annales des Mines, avril 1977.
Pour qu’un modèle soit utile, il n’est pas nécessaire qu’il soit réaliste.
[59] Terry Winograd et Fernando Flores. Understanding computers and
cognition. Addison-Wesley, 1989.
[60] George Forsythe. Computer science and education. In Information
processing 68. North-Holland, 1969.
[61] Michel Foucault. Les mots et les choses. Gallimard, 1966.
[62] Bill Gates. An open letter to lobbyists. Computer Notes, février 1976.
La lettre qui a inauguré le marché des logiciels pour micro-ordinateur.
[63] Kurt Gödel. Über formal unentscheidbare sätze der principia mathe-
matica und verwandter systeme. Monatshefte für Mathematik und
Physik, (38), 1931.
L’article où est démontré le théorème de Gödel.
[64] Michel Gensollen. Économie des biens informationnels. In « Autour
du Libre », colloque de l’Institut National des Télécommunications,
Evry, mai 2002.
[65] Louis V. Gerstner. Whos Says Elephants Can’t Dance ? Harper Bu-
siness, 2002.
Le redressement d’IBM.
[66] Bertrand Gille. Histoire des techniques. Gallimard La Pléiade, Paris,
1978.
La modélisation de l’histoire sous la forme d’une succession de systèmes techniques.
Voir www.volle.com/lectures/gille.htm.
[67] Étienne Gilson. Le thomisme. Librarie philosophique J. Vrin, Paris,
quatrième edition, 1944.
[68] Étienne Gilson. L’être et l’essence. Librarie philosophique J. Vrin,
Paris, 1948.
[69] James Gleick. Chaos: Making a new Science. Penguin, 1988.
[70] James Gleick. Genius : the Life and Science of Richard Feynman.
Vintage Books, 1992.
[71] Robert Gordon. Has the "new economy" rendered the productivity
slowdown obsolete? Technical report, juin 1999.
Dans la lignée de Solow, le travail d’un sceptique.
[72] Antonio Gramsci. Note sul Machiavelli, Americanismo e fordismo.
Istituto Gramsci, 1975.
588 BIBLIOGRAPHIE
[112] Jean Tirole et Josh Lerner. The simple economics of open source.
Journal of Industrial Economics, (52), juillet 2001.
[113] Steven Levy. Hackers. Delta Publishing, 1994.
Les rêves et l’aventure des pionniers qui ont inventé l’informatique d’aujourd’hui.
Voir www.volle.com/lectures/hackers.htm.
[114] Steven Levy. Crypto. Viking, 2001.
[115] J. C. R. Licklider. Man computer symbiosis. IRE Transactions on
Human Factors in Electronics, mars 1960.
Un texte dont nous n’avons pas encore épuisé la profondeur.
[116] J. C. R. Licklider. The computer as a communication device. Science
and Technology, avril 1968.
Un texte prophétique, si l’on pense à la date de sa publication.
[117] L. Landau et E. Lifchitz. Mécanique. MIR, 1966.
[118] Robert Ligonnière. Préhistoire et histoire des ordinateurs. Robert
Laffont, 1987.
[119] Christophe Longépé. Le projet d’urbanisation du SI. Dunod, 2004.
Un excellent manuel pour ceux qui doivent urbaniser un système d’information.
[120] Edward N. Luttwak. Turbo Capitalism. Harper Collins, 1999.
Une analyse lucide de l’économie américaine.
Voir www.volle.com/lectures/luttwak.htm.
[121] Pierre Lévy. L’intelligence collective et ses objets. La Découverte,
1994.
[122] Pierre Lévy. World Philosophy. Odile Jacob, 2000.
[123] Katie Hafner et Matthew Lyon. Where Wizards Stay Up Late. Touchs-
tone, 1998.
Une excellente histoire de l’Internet.
[124] Michael Malone. The Microprocessor, a Bibliography. Springer-Verlag,
1995.
Pour comprendre comment le micro-processeur est né, comment il est fabriqué et
comment il fonctionne.
[125] René Mandel. De la stratégie business aux systèmes d’information.
Lavoisier, 2006.
De la modélisation de l’entreprise à l’alignement stratégique du système d’infor-
mation.
[126] Richard Stiller et Jos Marlowe. Asunder. Briarwood, 1999.
Récit des origines de Java.
[127] Richard Mattessich. Spreadsheet: Its first computerization (1961-
1964).
www.bricklin.com/history/sai.htm.
[128] Marshall McLuhan. Understanding Media : The Extensions of Man.
MIT Press, 1964.
[129] Elliotte Rusty Harold et W. Scott Means. XML in a Nutshell.
O’Reilly, 2004.
[130] Jean-Pierre Meinadier. Le métier d’intégration de système. Hermès,
2002.
L’ingénierie des systèmes d’information est un cas particulier de l’ingénierie de
système, et peut s’inspirer utilement des acquis de cette discipline.
BIBLIOGRAPHIE 591
Étude OFR, 432, 452, 460–462 American Airlines, 181, 190, 455, 480,
Œuvre, 405 560
de Valence François, 14 Amiga, 135
3Com, 113, 118, 120 AMO (Assistant à maîtrise d’ouvrage),
405, 407, 409
Abelson Harold, 203, 232, 283, 581, Andrieux François, 14
594 Annuaire, 363, 371, 425
Abramson Norman, 341, 346, 355, 584 ANPE, 13–15, 99, 168, 228, 268, 274,
Acadys, 200 399, 400, 454
Access, 323 Aoki Masahiko, 50, 584
ACM (Association for Computing Ma- AOL, 119
chinery), 588, 589, 593
AOS, 135
ACM (Association for Computing Ma-
Apache, 121, 126, 130, 591
chinery), 13, 333, 352
API (Application Programming In-
Adobe, 118
terface), 127
ADSL (Asymmetric Digital Subscri-
Apple, 51, 113–115, 117, 118, 120,
ber Line), 9, 146, 354, 425
586
Adventure, 346
Appletalk, 133
AFAI (Association Française des Au-
Apple I, 113
diteurs Informatiques), 15,
517 Apple II, 25, 51, 113, 115, 135, 139
Aillagon Jean-Jacques, 167 Apple III, 113
Air France, 13–15, 152, 169, 399, 403 APT, 282
Air Inter, 14 APU (Automate Programmable doué
Akers John, 118 d’Ubiquité), 10, 30, 41, 200,
Alcatel, 152 201, 203–205, 232, 444, 581
Aldus, 118 Arcome, 13, 14, 133
Algol, 282 Areva, 152
All-in-One, 137 Aristote, 234–237, 271, 317, 481
Allen Paul, 111, 112 Arobase, 344
Aloha, 341, 355–358, 593 ARPA(Advanced Projects Research
Aloha discrétisé, 355, 357, 358 Agency), 330, 331, 333, 335,
Alohanet, 341, 346 341, 346, 347
Altair, 51, 107, 109, 111, 112 Arpanet, 335, 339–341, 343, 344, 346–
AltaVista, 96 349
Altime, 14 Ashton & Tate, 117
Alto, 113, 114, 341 Ashton Alan, 134
Amazon, 123 AT&T, 49, 106, 173, 174, 322, 330,
AMD, 51, 53, 121 332, 333, 335, 336, 346, 347,
Amdahl, 45, 126 577
596
INDEX 597
Hypercube, 229, 300, 301, 304, 308, Java, 114, 129, 178, 277, 282, 440,
309 581
JD Edwards, 292
IBM, 25, 29, 45, 51, 71, 73, 97, 105, Jean Gérard, 14, 433
113–121, 123–127, 135–137, Jobs Steven, 113
139, 140, 173, 174, 282, 325, Joskowicz Jean, 14
333, 335, 336, 348, 361, 410, Jouannin Yannick, 14
425, 426, 497, 577 Joule Robert-Vincent, 213
IBM Global Services, 127 Jullien François, 168, 213, 225
Idéliance, 15
IEEE, 13 Kahn Bob, 340, 346
iMac, 120 Kahn Philippe, 108
IMP (Interface Message Processor), Kalevala, 128
333–335, 341, 343, 347, 348 Kandel Eric, 215, 229
Informatique de communication, 362 Kannounikoff Dimitri, 14
Kant Emmanuel, 209, 239
Informix, 425
Kapor Mitch, 140
Ingals Dan, 114
Kasparian Jean-Jacques, 14
INRA, 108
Kay Alan, 53, 114, 128, 282, 322
INSEE, 13, 55
Keen Peter, 373, 532
Intel, 26, 49–53, 55, 103, 105, 108,
Kenbak-1, 108
109, 115–119, 121, 124, 361,
Kent William, 272
367
Keynes John Maynard, 10, 208
Internet, 9, 20, 52, 59, 76, 78, 98, 104,
Khiplea, 14, 325
106, 111, 113, 119–121, 123,
Kidder Tracy, 143
125, 128, 129, 131, 173, 174,
Kierkegaard Søren, 238
262, 284, 298, 331, 332, 337,
Kilby Jack, 50
338, 342, 346–349, 371, 375,
Kleinrock Leonard, 334
495
Knuth Donald, 3, 6, 33, 44, 45, 71,
Internetting Project, 346
83, 86, 103, 201, 283, 289,
Intranet, 20, 75, 76, 104, 119, 120,
354, 370, 581
133, 144, 253, 263, 296, 298,
Kodak, 118
299, 328, 342, 362, 365, 366,
Korzybski Alfred, 223
368, 375, 383, 386, 388, 399,
Kott Jean, 13
431, 433, 436, 494, 495
Kroc Ray, 544
Intriligator Michael, 537, 539
KSpread, 140
INWG (International Network Wor-
king Group), 346 Lévy Michel-Louis, 14
IP (Internet Protocol), 339, 340 Lévy Pierre, 87, 209
IPTO (Information Processing Tech- Laganier Jean, 14, 207, 221, 239
niques Office), 331 Lai Vincent, 296, 298
ISO (International Standard Organi- Lampson Butler, 114
zation), 42, 340 LAN (Local Area Network), 337, 354
ITIL, 431 Landau Lev, 224
Landweber Larry, 348
J2EE, 321 Langage, 31
Jacobson Ivar, 323, 324 Langage conceptuel, 33
Jacq Francis, 14 Langage connoté, 34
Jancovici Jean-Marc, 14, 27 Laudauer Thomas, 181
602 INDEX
Xénophon, 93
Xerox, 106, 113–115, 120, 165, 173,
282, 322, 335, 341, 361, 552
XML (eXtensible Markup Language),
122, 299, 349
Yablonsky Serge, 15
Yates Frances, 215, 241
ZDNet, 388
Zeitoun Jean, 15
Zimmermann Philip, 119, 371
Table des matières
Introduction 3
Remerciements 13
1 Du côté de l’ordinateur 19
1.1 Un changement du rapport avec la nature . . . . . . . . . . . 21
1.2 Qu’est-ce qu’un ordinateur? . . . . . . . . . . . . . . . . . . . 23
1.3 Qualité du vocabulaire . . . . . . . . . . . . . . . . . . . . . . 28
1.3.1 « Ordinateur » . . . . . . . . . . . . . . . . . . . . . . 29
1.3.2 « Langage » . . . . . . . . . . . . . . . . . . . . . . . . 31
1.3.3 « Objet » . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.3.4 « Donnée » et « Information » . . . . . . . . . . . . . 36
1.3.5 « Numérique » . . . . . . . . . . . . . . . . . . . . . . 39
1.4 Modèle en couches . . . . . . . . . . . . . . . . . . . . . . . . 42
1.4.1 Couches de l’ordinateur . . . . . . . . . . . . . . . . . 43
1.4.2 Portée du modèle en couches . . . . . . . . . . . . . . 46
1.5 Vers l’ordinateur individuel . . . . . . . . . . . . . . . . . . . 47
1.5.1 Origines et évolution du microprocesseur . . . . . . . . 50
1.5.2 La loi de Moore . . . . . . . . . . . . . . . . . . . . . . 52
1.5.3 Évolution du prix des micro-ordinateurs . . . . . . . . 55
1.6 Conjoncture des TIC . . . . . . . . . . . . . . . . . . . . . . . 56
2 Automatisme et intelligence 66
2.1 L’informatisation de l’entreprise . . . . . . . . . . . . . . . . . 67
2.1.1 Organisation du travail de bureau : années 1880 . . . . 68
2.1.2 Arrivée de l’informatique : années 1950 . . . . . . . . . 71
2.1.3 La bureautique communicante : années 1980 . . . . . . 74
2.1.4 Du concept au processus : années 1990 . . . . . . . . . 76
608
TABLE DES MATIÈRES 609
13 Méthodes 430
13.1 Urbaniser un système d’information . . . . . . . . . . . . . . 433
13.2 Approche par les processus . . . . . . . . . . . . . . . . . . . 436
13.3 Modélisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 440
13.3.1 « Modéliser » l’entreprise . . . . . . . . . . . . . . . . 442
13.3.2 Démarche de modélisation . . . . . . . . . . . . . . . . 445
13.3.3 Quelle est l’utilité du modèle métier? . . . . . . . . . 450
13.3.4 Modélisation et évaluation du coût . . . . . . . . . . . 452
13.4 Réalisation des projets . . . . . . . . . . . . . . . . . . . . . . 453
13.4.1 La première expression de besoin . . . . . . . . . . . . 456
13.4.2 Étude Opportunité, Faisabilité, Risques . . . . . . . . 461
13.4.3 Fiche de synthèse de mission . . . . . . . . . . . . . . 463
13.4.4 Conduite de projet . . . . . . . . . . . . . . . . . . . . 463
13.4.5 Recette . . . . . . . . . . . . . . . . . . . . . . . . . . 468
13.4.6 Déploiement . . . . . . . . . . . . . . . . . . . . . . . 470
13.4.7 Évaluation . . . . . . . . . . . . . . . . . . . . . . . . 472
Conclusion 580