Zacklad - Intelligence Artificielle Repreì Sentations Et Imp

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 16

Intelligence Artificielle : représentations et impacts

sociétaux
Manuel Zacklad

To cite this version:


Manuel Zacklad. Intelligence Artificielle : représentations et impacts sociétaux. [Rapport Technique]
CNAM. 2018. �halshs-02937255�

HAL Id: halshs-02937255


https://shs.hal.science/halshs-02937255
Submitted on 13 Sep 2020

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
Intelligence Artificielle : représentations
et impacts sociétaux

Manuel Zacklad
Professeur du Conservatoire National des Arts et Métiers
Sciences de l’Information et de la Communication
Laboratoire Dicen-IdF
Equipe Pédagogique Nationale Innovation

Version 1. (petites coquilles résiduelles)


Table des matières

Intelligence Artificielle : représentations et impacts sociétaux .................................................................... 1


Introduction............................................................................................................................................... 3
Transhumanisme et représentations sociales de l’intelligence ................................................................ 4
Transhumanisme et névrose des milliardaires...................................................................................... 4
Super intelligence et super-pouvoirs .................................................................................................... 5
Enjeux socio-économiques : innovation et nouveau compromis serviciel ............................................... 8
Stratégies substitutives et augmentatives ............................................................................................ 8
Comment passer d’emplois vulnérables à des emplois résilients ? ...................................................... 9
Enjeux pour le management et la gestion des connaissances ................................................................ 12
L’IA au service de l’intelligence individuelle et collective des collaborateurs .................................... 12
Gestion des connaissances relationnelle vs codifiée .......................................................................... 13
Implication sur le management........................................................................................................... 14
Introduction
Si les scénarios dans lesquels l’IA est susceptible de réduire des postes sont en partie plausibles, l’idée
selon laquelle ces scénarios seraient la conséquence du développement inéluctable d’une intelligence
artificielle concurrençant voire supplantant l’intelligence humaine est hautement discutable comme
nous l’avons vue dans le précédent rapport.

Dans une première partie nous chercherons à comprendre comment ces scénarios ont pu prendre corps
dans les représentations d’une partie de l’opinion et de la presse. En rappelant certaines croyances de
l’idéologie transhumaniste auquel s’alimentent les discours catastrophistes, nous soulignerons le fait que
la plupart leurs discours font appel à la notion d’un accroissement « d’intelligence » résultant du
développement technologique. Cela nous amènera à interroger aussi les représentations de l’intelligence
sur lesquelles ces discours sont basés.

Dans une deuxième partie, nous montrerons comment, si des licenciements ne sont pas justifiés par
l’émergence d’une super-intelligence technologique, ils peuvent résulter de choix socio-économiques.
Ces choix privilégient l’option « substitutive » sur l’option « augmentative » au prix d’une standardisation
importantes des prestations. La généralisation de ces choix conduirait à un appauvrissement sociétal et
culturel et à une montée des inégalités mais ils ne sont en rien obligatoire. En prenant un exemple dans
le domaine des emplois peu qualifiés a priori du Facilites Management, censés être les plus exposés
selon le CoE, nous montrerons comment des innovations produits-services tirant partie des technologies
pourraient rendre ces emplois plus résilients.

Dans la troisième partie nous aborderons les difficultés organisationnelles et institutionnelles à la mise
en place des options augmentatives qui sont réelles notamment du point de vue de la gestion des
« ressources humaines » et des enjeux managériaux. Nous montrerons que les enjeux liés à l’adaptation
aux transformations liées à l’IA sont très proches de celles liées à l’adaptation à la transition numérique,
mais que ces deux courants mettent en avant des dimensions différentes de l’intelligence collective et de
la gestion des connaissances.
Transhumanisme et représentations sociales de l’intelligence

Transhumanisme et névrose des milliardaires


Les idées générales de ce courant de pensée auxquels sont apparentés des auteurs catastrophistes tels
que Laurent Alexandre ou Stephen Hawkins, sont que les limitations intrinsèques de l’être humain sont
en passe d’être dépassées grâce à la science et à la technologie pour faire entrer l’homme dans une
« post-humanité ». Les progrès de la science sur lesquels comptent les transhumanistes sont
essentiellement focalisés sur l’amélioration intrinsèque du corps et de l’esprit humain pour en
augmenter drastiquement les capacités. Ces progrès seront rendus possibles grâce aux moyens
d’intervention sur le génome mais aussi et surtout par un couplage avec les machines au moyen de
greffes électroniques et d’incorporation de capacités issues de l’IA. L’objectif final est de mettre fin au
vieillissement et in fine à la mort.

Comme dans les croyances transhumanistes figurent celle de la possibilité du téléchargement d’un esprit
dans une machine, ils croient également que les machines sont en mesure de déployer la même
intelligence que les êtres humains en référence à des représentations de l’intelligence ou de la super-
intelligence particulièrement naïves et mal informée (cf. infra). De ce fait, les plus pessimistes d’entre
eux sont inquiets de la concurrence que les machines pourraient exercer vis-à-vis de l’humanité, la
singularité technologique désignant le stade ou les machines auront dépassé l’intelligence humaine.

D’ailleurs, le phénomène le plus troublant ne relève pas du fond du propos qui est assez indigent mais de
l’attention que leur porte des entrepreneurs milliardaires de la Silicon Valley, parmi lesquels les
fondateurs de Paypal de Google, de Telsa ou de Facebook1 qui soit, financent des « travaux » dans une
pure tradition eugéniste, visant à atteindre l’immortalité, soit s’inquiètent des risques associés à la
super-intelligence de l’IA.

Comment expliquer cette dérive ? Jamais sans doute dans l’histoire du capitalisme de telle fortunes ne
s’étaient retrouvés dans les mains de ces hommes très jeunes associant le pouvoir symbolique des
média, de l’argent et l’influence des produits de leurs firmes qui concernent des centaines de millions
d’individus. Faut-il voir une forme de névrose chez ces dirigeants qui du fait de leur position ne trouvent
finalement aucun réconfort dans les formes classiques de la spiritualité face à l’inéluctabilité de la mort
(cf. J.G Ganascia pour une interrogation sur la cause de ces croyances) ? Leur inculture en socio-
économie leur empêche le plus souvent de comprendre à quel point ils sont eux-mêmes les purs
produits du capitalisme financiarisé et de son corollaire, le capitalisme de la rente, qui décorrèle travail
et revenu et explique l’essentiel de leurs privilèges.

Mais les discours catastrophistes relèvent également une stratégie rhétorique. Pour mieux faire passer
leurs idées farfelues certains transhumanistes se présentent comme des sages dont le souci éthique les
amène à prévenir les populations des dangers que les découvertes récentes des sciences sont
susceptibles de faire courir à la population. Laurent Alexandre et Stephen Hawkins sont les meilleurs
exemples de ces pseudo lanceurs d’alertes servi par des média aussi mal informé que peu scrupuleux.
Leur argumentation emprunte presque toujours à certains prétendus succès de l’IA qui sont évoqués en

1
https://www.lesechos.fr/28/03/2017/lesechos.fr/0211922553772_quand-les-patrons-de-la-silicon-valley-revent-d-
immortalite.htm
minimisant toujours le contexte de ces succès et le travail des équipes de programmation, pour faire
croire à l’apparition imminente d’une super-intelligence.

Notons que ces craintes, qui relèvent d’une assez mauvaise science-fiction sont à distinguer d’autres
craintes beaucoup plus justifiées celles-là, dans lesquelles des programmes utilisant des techniques de
l’IA, sans relever d’une super-intelligence susceptible de concurrencer l’espèce humaine, pourraient
néanmoins être utilisées par certaines entreprises pour supprimer des postes dans le domaine de
l’analyse de l’information et de la relation client pour ne citer que deux exemples bien connus.

En effet, même en restant strictement dans la perspective de l’IA faible, l’inventivité des programmeurs
et des entrepreneurs peut leur permettre de trouver dans tous les secteurs des gains de productivité
amenant au remplacement des opérateurs dans une multiplicité de tâches spécialisées actuellement
pourvoyeuses d’emploi. Ce scénario qui n’implique aucune super intelligence et qui s’en tient à l’état de
l’art actuel est beaucoup plus inquiétant que les prédictions fantaisistes des transhumanistes qui ne
reposent sur aucun fondement empirique.

Super intelligence et super-pouvoirs


Si ces croyances trouvent un tel écho auprès des journalistes et de leurs lecteurs c’est parce qu’elles
s’appuient elles-mêmes sur des représentations sociales de l’intelligence comme conférant une forme de
super pouvoir. L’intelligence serait un attribut expliquant les réussites des individus dans différents
secteurs : scolaires, entrepreneuriaux, scientifiques et bien sûr réussite à divers tests… Pour d’autres
performances, sportives, politiques ou artistiques, on crédite d’ailleurs moins volontiers leur auteurs
d’une intelligence supérieure. Ce sont bien des conventions et des normes sociales qui associent à la
réalisation de certaines performances et pas à d’autres la possession d’une « intelligence supérieure »

Rappelons d’abord qu’il n’y a pas de consensus clair sur l’intelligence. La naturalisation de cette notion
doit beaucoup à la généralisation des tests dit « d’intelligence ». Pourtant, on attribue à leur inventeur,
Alfred Binet, l’expression prudente et modeste « l’intelligence c’est ce que mesure mon test » qui
souligne l’impossibilité d’une définition rigoureuse. Cette réponse est logique : tous ces tests sont
spécifiquement construits pour refléter une distribution des performances s’inscrivant dans une courbe
de Gauss ou loi normale (Fig. 1), un modèle probabiliste qui décrit de nombreux phénomènes naturels
comme la taille des individus dans une population. Les tests d’intelligences sont utiles pour détecter
l’éventualité de possible formes de déficience mentale dans une large population, possibilité qu’il faut
toujours confirmer par de très nombreux autres examens. Pour le reste, toutes les conjonctures sont
assez oiseuses comme les différences de QI des populations entre zones géographique. De facto, comme
les tests de QI sont par construction culturellement dépendant qu’il n’y a aucune définition consensuelle
de la « réalité » qu’ils sont censés mesurer, toute comparaison interculturelle, à l’intérieur d’une aire
géographique et entre des aires géographiques est dénuée de sens.
Fig. 1. Une loi normale : tous les tests d’intelligences sont travaillés « artificiellement » que pour les résultats se
conforment, dans une période de temps donné et pour une population test assez localisée, à cette courbe.

En psychologie cognitive on ne parle pas d’intelligence mais de capacité de résolution de problème plus
ou moins efficaces dans certains domaines, c’est-à-dire de capacité à élaborer une procédure pour
atteindre un but quand aucune routine n’est disponible. Rien n’est dit bien sûr de la supériorité
intrinsèque de certains buts par rapport à d’autres qui renverrait à une hiérarchie d’intelligence. La
psychologie cognitive s’attacherait plutôt à évaluer l’inventivité en situation et à en comprendre les
ressorts. Mais, dans toute une série de situations problème, notamment les problèmes dit de
« conception », c’est davantage la capacité à faire émerger des situations problème qui est importante.
Dans les problèmes de conception, il n’y a pas de but à atteindre défini ex-ante mais génération d’un
ensemble de contraintes par un dialogue avec différentes partie prenantes, contraintes qui permettront
d’évaluer les propositions originales qui seront générées. Ce sont ces situations de conception qui sont
considérées comme les plus complexes et ce sont aussi celles qui sont le plus éloignées de ce que
« mesurent » les tests de QI.

Selon une d’autres perspectives, les sciences humaines et sociales montrent à quel point les
performances dépendent de nombreux facteurs différents. Par exemple, si la sociologie des sciences ne
s’opposerait sans doute pas à l’idée selon laquelle un chercheur scientifique est souvent un « créatif »,
au sens où il s’attache à la défense d’une idée originale qu’il aurait « trouvé », elle insiste beaucoup sur
le fait que ce chercheur ne « percerait pas » s’il n’était pas aussi un entrepreneur. En effet, dans la très
grande majorité des cas, il n’y a pas de succès scientifique sans la capacité à mobiliser une équipe,
trouver des financements, convaincre des assemblées, etc.

Quant aux entrepreneurs, avant d’être des inventeurs ce sont souvent des vendeurs et organisateurs
hors pairs qui ont su convaincre des clients et des financiers de la pertinence de leurs produits. B. Gates
et M. Zuckerberg ne sont pas à l’origine des idées de logiciels qui ont fait leur fortune et leur
« intelligence » tient souvent d’une forme de ruse (la « métis » des grecs anciens), doublée d’une bonne
dose de chance, comme dans la plupart des grands succès et ce quel que soit les secteurs.

En résumé, il n’existe pas de mesure de l’intelligence « objective » puisque tous les tests sont conçus
pour se conformer à une courbe de Gauss et soigneusement « manipulés » jusqu’à l’obtention de cette
conformité sur certaines dimensions stéréotypées et sur la base d’un matériel culturellement situé
(compréhension verbale, raisonnement, visualisation spatiale, mémoire...). L’intelligence est une notion
qui vise à exprimer de manière laudative la capacité qu’ont certains individus à réaliser des
performances dans certains domaines jugés difficiles et importants au sein d’une communauté humaine.
La définition des domaines qui sont considérés comme pertinents comme la définition des critères de
performance résultent de débats plus ou moins techniques et démocratiques qui changent d’une société
à l’autre.

L’évaluation de la nature des performances, qui ne peut jamais faire l’objet d’une mesure au sens
physique du terme, peut mobiliser des outils scientifiques notamment de nature statistique. Mais la
définition de l’intelligence et de son corollaire, l’imbécilité, fait toujours l’objet de conventions sociales
visant à établir des hiérarchies de mérite et de reconnaissance. Il n’existe dont pas de super-intelligence
intrinsèque qui conférerait des super-pouvoir permettant de supplanter des compétiteurs dans les
situations complexes de la vie réelle indépendamment de la mobilisation des affects et de la volonté de
nombreux acteurs assez largement autonomes et critiques, au moins dans les sociétés démocratiques
qui sont les nôtres.

De fait, la notion d’Intelligence Artificielle au sens strict du terme n’a aucune signification ni du point de
vue des sciences humaines et sociales ni du point de vue des sciences cognitives. De nombreux
informaticiens, parmi les pionniers comme parmi les chercheurs du domaine, ont critiqué et critiquent
cette appellation ambiguë. Rappelons que l’intelligence artificielle n’est autre que la dénomination
arbitraire d’un domaine de recherche et d’applications de l’informatique contribuant à la réalisation de
tâches que l’on ne peut pas programmer par des méthodes classiques pour aider des individus ou des
collectifs à atteindre certaines performances difficiles et valorisées dans un contexte donné, ou pour
automatiser cette résolution dans un cadre bien défini au préalable par les concepteurs et les clients. La
valeur de ces programmes est relative à la valeur des productions dont ils facilitent la réalisation.
Enjeux socio-économiques : innovation et nouveau compromis serviciel
Cette première partie visait à exclure de manière définitive l’idée selon laquelle le développement d’une
super-intelligence issue des laboratoires de recherche conduirait à la suppression inéluctable des
emplois. De manière générale les approches selon lesquelles le progrès technique détermine à lui seul
l’évolution de la société et donc des emplois sont assez dépassée.

Il n’en reste pas moins, comme nous l’avons déjà souligné, qu’il est tout à fait possible qu’après avoir
supprimé de nombreux postes dans l’industrie, la conjonction de l’internet/web, du cloud/big data et de
l’IA puisse conduire à la suppression de nombreux postes dans le tertiaire. Soulignons d’emblée que ces
suppressions attribuées à l’IA ne seraient pas possibles sans les deux étapes précédentes de
l’internet/web et du cloud/big data. D’ailleurs, les premières menaces sur l’emploi salarié sont venues de
la désintermédiation (Uber, Airbnb…), indépendamment de l’IA. En effet, comme nous l’avons vu dans le
document consacré à la vision technique, les progrès de l’IA et en particulier ceux liés à l’apprentissage
automatique, sont d’autant plus puissants qu’un grand nombre de « transactions » se déroulent via le
médium de l’internet/web et que ces transactions sont mémorisées dans le cloud/big data. C’est
uniquement à cette condition que les programmes d’IA peuvent s’interposer entre les individus pour
proposer les « réponses » plausibles.

Dans cette partie consacrée au enjeux socio-économiques, nous montrerons comment l’innovation est la
meilleure piste pour préserver les emplois et passer d’une logique substitutive à une logique
augmentative.

Stratégies substitutives et augmentatives


Confronté à une offre de nouvelles technologies ayant un potentiel d’automatisation pouvant conduire à
la substitution opérateurs/machines les entreprises ont trois choix :

• Stratégie substitutive : standardisation et automatisation des tâches permettant le


remplacement des opérateurs par des machines ayant pour conséquence des gains de
productivité à court terme mais de nombreux problèmes sociaux et des risques de perte de
compétences au profit de prestataires sur les tâches automatisées.
• Stratégie augmentative sans innovation de produit : automatisation partielle des tâches laissant
les opérateurs dans la boucle en utilisant les logiciels dans une optique « capacitante »2 pour
accroitre leurs compétences et la QVT. Risque de perte relative de productivité si les autres
entreprises du secteur s’investissent dans la stratégie substitutive.
• Stratégie augmentative avec innovation de produit : automatisation plus ou moins importante
des tâches avec réinvestissement dans l’innovation de service (produit serviciel) faisant appel
aux nouvelles compétences des opérateurs et compensant l’accroissement des couts par une
montée en gamme des produits (compétitivité hors-prix).

2
Dans le rapport précédent nous introduisons trois formes d’impact du numérique sur le travail correspondant à
une informatique substitutive (remplacement de l’opérateur humain ou passage en mode supervision
maintenance), rationalisante (travail piloté par les algorithmes avec risque sur la QVT), capacitante (augmentation
des compétences avec gains en terme de QVT).
Nous allons voir comment la troisième stratégie semble la plus pertinente d’un point de vue économique
et social (RSE et DD) mais qu’elle est confrontée à des obstacles d’un point de vue managérial (partie
suivante).

Comment passer d’emplois vulnérables à des emplois résilients ?


Critiquant les chiffres catastrophistes de Frey et Osborne (2013), le rapport du Conseil d’Orientation
pour l’Emploi (COE) « Automatisation, numérisation et emploi » utilise une méthode différente basée sur
un indice d’automatisation de de l’emploi agrégant quatre définitions identifiées par la littérature
économique « comme déterminant la vulnérabilité de l’emploi à l’automatisation dans les conditions
technologiques actuelles » (Synthèse, p. 10).

Le COE commence par rappeler les effets sur l’emploi des dernières vagues d’innovations technologiques
qu’il résume dans un tableau (Tab. 1). Celui-ci montre que quand les innovations portent sur le procédé
elles sont potentiellement destructrice d’emploi en l’absence de croissance tandis que quand elles
portent sur l’innovation de produit elles ont toujours un effet positif sur l’emploi. Il semble donc
raisonnable d’utiliser le plus possible l’innovation technologique pour soutenir l’innovation de produit,
même quand celui-ci à une forte composante servicielle, et/ou de réorienter le temps dégagé par
l’automatisation dans une innovation de service qui permet également d’accroitre l’intérêt des emplois.
Cette stratégie est possible même quand les opérateurs n’ont pas un haut niveau de qualification
scolaire notamment quand l’innovation porte sur des dimensions relationnelles. En effet les quatre
dimensions qui contribuent à l’indice de vulnérabilité sont les suivantes :

1. le manque de flexibilité ;
2. la faible capacité d’adaptation ;
3. la faible capacité à résoudre les problèmes ;
4. l’absence d’interactions sociales.

La flexibilité et l’adaptation ont trait au rythme et à la diversité du travail, notamment en réponse à des
demandes extérieures (client, public). La capacité à résoudre des problèmes renvoie à l’autonomie : prise
d’initiative qui ne soit pas strictement cadrée par la hiérarchie. Les interactions sociales sont à la fois une
condition et une conséquence de la flexibilité et de l’adaptation.

Nous allons montrer brièvement que même dans les emplois qui sont qualitativement et
quantitativement jugés comme étant les plus vulnérables, comme celui des agents d’entretien (Fig. 1),
il est possible par l’innovation de service de rendre les emplois beaucoup résilients. Nous prendrons
comme exemple le domaine du Facilities Management (FM) dans la veine des travaux pilotés par le
CRDIA sous la coordination de X. Baron (www.crdia.org).

Les métiers du FM qui regroupent notamment ceux de la propreté, de l’accueil, de la sécurité sont assez
largement externalisés et représentent un marché estimé à 3 milliards d’euros qui concerne environ 1
million d’emplois. On comprend pourquoi le COE le considère comme un secteur vulnérable. Les travaux
du CRDIA correspondent à une prise de conscience de la nécessité de revaloriser ces emplois qui sont les
victime d’une vision excessivement industrialiste du service rendu : encadrement par des référentiels
stricts, intensification du travail, baisse de la qualité, baisse des salaires.

Pour lutter contre cette dévalorisation qui est néfaste à la QVT et qui fragilise ces emplois face à
l’automatisation, il serait tout à fait possible et souhaitable de développer la valeur « aménitaire » du
travail de FM. Selon X. Baron, les aménités sont aspects agréables de l’environnement ou de
l’entourage social qui sont ni appropriables ni strictement quantifiables. Le développement de
prestation de service aménitaires, renvoient (1) à une analyse de la pertinence du service plutôt qu’à une
vision de la qualité au sens industriel, (2) à des gains de productivité basés sur l’intégration services, (3) à
la nécessité d’éviter les spécialisations par métiers excessives qui appauvrissent les tâches. La capacité à
développer la valeur aménitaire dans une prestation de service implique de travailler les compétences
des opérateurs sur toutes les dimensions pointées dans l’étude du COE : flexibilité, adaptation, capacité
à résoudre des problèmes de manière autonome, accroissement des interactions sociales…

Ces innovations de service dans le sens d’une valeur aménitaire accrue peuvent tirer profit des nouvelles
technologies, robotique, IoT mais aussi IA qui, notamment à travers la domotique, pourrait être appelé à
jouer un rôle significatif (commande vocale, robotique intelligente, caractérisation des situations basée
sur l’apprentissage, etc.). Si les entreprises s’engagent dans la voie d’une stratégie augmentative couplée
à une innovation produit/service elles feront nécessairement évoluer les postes de leurs opérateurs,
leurs compétences, qui n’impliquent pas un niveau de diplôme plus élevé que ceux qu’ils ont
actuellement, et ce faisant elles augmenteront la résilience des emplois qui ne pourront plus être
automatisés.

Mais cette stratégie sera facilitée par trois levier. Le premier est celui d’une action sectorielle à laquelle
s’emploie par exemple le CRDIA. Si globalement donneurs d’ordre et prestataires arrivent à inclure dans
les marchés les critères de la valeur aménitaires qui sont également garant d’une meilleur QVT et d’une
meilleure atteinte des critères de la RSE, cela facilitera grandement les innovations de service. A ce
niveau les pouvoirs publics peuvent jouer un rôle incitatif.

Le deuxième est lié aux compétences des collaborateurs. S’il n’est pas nécessaire d’avoir des niveaux de
diplôme élevés pour contribuer à la valeur aménitaire, il faut, pour tirer parti des nouvelles technologies
dans le sens de dialogue homme-machine performants s’assurer que les compétences en littératie
numérique et informationnelle des opérateurs seront suffisantes comme le souligne le COE. Enfin, il faut
que le management soit en mesure d’accompagner cette montée en compétence et les nouvelles formes
de relations client, point ne que nous aborderons dans la partie suivante.

En conclusion, l’exemple des emplois du FM, qui sont considérés comme les plus vulnérables dans
l’étude du CoE, nous semble bien illustrer comment, face à l’arrivée de nouvelles technologies dont l’IA,
la mise en place d’innovation servicielle peut permettre d’accroitre la résilience des emplois en
transformant les compétences des collaborateurs. Nous pensons qu’il est possible de reproduire le
raisonnement dans un grand nombre d’emploi du tertiaire potentiellement menacés tout en accroissant
la compétitivité hors prix des entreprises.

Ces stratégies d’innovation relèvent de différents modèles de croissances alternatifs à l’industrialisation


qui sont décrits dans différentes théories : économie de la fonctionnalité, économie territoriale ou de la
proximité, économie de la singularité, économie de la relation…
Enjeux pour le management et la gestion des connaissances
Dans la partie précédente nous avons montré qu’il était possible d’éviter la mise en place de stratégies
substitutives par la mise en place d’innovations de service en renforçant les compétences en littératie
numérique et informationnelles des opérateurs de manière à accroitre leur capacité à dialoguer avec des
programmes d’aide à la décision avancés basés sur l’IA. Nous allons examiner ici deux leviers permettant
d’accompagner cette transformation. Le premier consiste à s’assurer que les démarche de numérisation
se font bien dans une optique capacitante et à y impliquer les ressources humaines et les responsables
de la transformation. Cette approche implique également que l’entreprise soit bien consciente du
potentiel de l’IA pour le développement de nouvelles stratégies de gestion des connaissances qui
participent du nouveau design des postes et des emplois. Le deuxième consiste à accompagner le
management dans les nouvelles formes d’accompagnement des équipes dans une logique proche de
celles qui concernent la transition digitale.

L’IA au service de l’intelligence individuelle et collective des collaborateurs


Dans un billet récent, Pierre Levy opposait Intelligence Collective et Intelligence Artificielle3. Cette
approche est tout à fait compréhensible si l’on souscrit aux visions des thuriféraires de l’IA forte qui
considèrent que la super-intelligence technologique pourrait remplacer les humains. Si l’optique est celle
de l’IA réelle, ou IA faible, il n’y a pas de raison d’opposer ces notions. Au contraire l’inscription dans la
vision d’un numérique capacitant et pas substitutif ou rationalisant (cf. rapport n°1), va plutôt dans le
sens d’une IA pouvant renforcer le potentiel de l’intelligence collective. Mais l’inscription dans cette
approche implique une posture ferme et volontaire de la part des RH et des responsables de la
transformation.

En effet, dans un grand nombre de projets, le numérique que nous qualifions de « rationalisant », dont
certain ERP sont l’exemple, s’est développé contre le travail et pas en soutien au développement de ce
dernier. En effet, en s’appuyant sur des visions « industrialistes » de la transformation, y compris dans le
tertiaire, de nombreux projets visent « l’optimisation » des processus métiers en considérant les
opérateurs comme des composants d’un chaine de production tertiaire agissant mécaniquement avec
toutes les nuisances sur la QVT que ces configurations induisent. Ce numérique rationnalisant est
également essentiellement vu par les collaborateurs comme un outil de contrôle et pas comme un outil
contribuant à l’apprentissage, au développement des compétences et à l’employabilité.

Il y a en effet deux manières d’aborder la question de l’augmentation. L’une relèverait d’une forme de
« d’amplification symbiotique » dans laquelle un nouvel organe viendrait remplacer un organe défaillant
avec plus de force. C’est le modèle de la prothèse qui d’une certaine manière est le modèle du
transhumanisme. L’autre modèle, celui de la capacitation (cf. la notion d’environnement capacitant des
ergonomes, Falzon), vise à accroitre le pouvoir d’agir des salariés en contribuant notamment à leur
montée en compétence.

3
https://motherboard.vice.com/en_us/article/ypw9vw/how-the-internets-collective-human-intelligence-could-outsmart-
ai?utm_campaign=sharebutton
Dans ce modèle capacitant, l’IA est vu comme un instrument qui, tout en automatisant certains
dialogues simples, facilite l’analyse des « big data » ou des « big corpus4 » mis à disposition suite aux
premières phases de la transformation numérique. Prenons l’exemple des agents conversationnels ou
chatbots. Pour une large part, ils s’appuient sur des bases de connaissances métiers permettant, par
exemple, de répondre aux demandes des clients. Quand les agents conversationnels sont mis à défaut, il
y a appel à un opérateur humain qui prend le relais. Selon la vision du numérique rationalisant,
l’opérateur est uniquement mis à contribution pour pallier aux insuffisances de l’agent conversationnel,
mais il n’est pas directement mis à contribution pour analyser les défaillances de la base de
connaissances et pour progressivement l’améliorer en s’appuyant sur sa double connaissance des
problèmes clients d’un côté, de l’offre et de son évolution, de l’autre.

Dans une vision augmentative, c’est l’inverse. Les agents conversationnels sont vus comme une
technologie permettant simultanément d’accroitre l’accessibilité temporelle des services et comme
permettant le développement des compétences des collaborateurs en charge de la relation client. Les
agents conversationnels permettent d’alimenter une base de connaissances qui tout à la fois informe les
opérateurs des besoins rencontrés par les clients, leur suggère des stratégies de réponse, permet de
faire remonter de nouveaux besoins relatifs à la clarification de l’offre. En accroissant la compétence des
chargés de relations clients ceux-ci deviennent des interlocuteurs plus légitimes pour les services
marketing, numérique, innovation, contribuant au développement d’une intelligence collective.

Gestion des connaissances relationnelle vs codifiée


En enrichissant des bases de connaissance clients dans une optique qui pourrait relever autant de la
sociologie des usages et de l’ergonomie que de celle du marketing stricto sensu, l’IA contribue donc aux
processus de « gestion des connaissances » à l’intérieur de l’entreprise. Mais elle le fait dans une
direction différente de celle qui prévaut dans le processus de transition numérique orienté 2.0. En effet,
dans celui-ci ce sont les réseaux socio-numériques qui sont principalement à l’honneur. Leur usage dans
un contexte de communauté de pratique vise également à contribuer à la gestion des connaissances au
sein de l’organisation.

Mais il s’agit d’une approche plus « relationnelle » (ou sociale) que « codifiée » (ou technique). En effet,
les RSE visent principalement à faciliter la structuration et la mobilisation d’une communauté de
pratique susceptible de résoudre des problèmes par elle-même, là où l’IA vient contribuer à synthétiser
l’information, faciliter sa formalisation, sa codification et offrir un archivage ouvert sur des processus de
recherche d’information plus puissants que ceux des systèmes de requête ou des moteurs de recherche
traditionnels.

D’ailleurs, à un certain niveau de généralité, tous les systèmes d’IA peuvent être vu comme des bases de
connaissances numériques à dominante statistique ou symbolique, synthétisant de nombreuses données
au service de leur utilisateurs (cf. rapport n°1). Dans la même veine, toutes les interfaces des systèmes
d’IA peuvent être vu comme des systèmes de recherche d’information, plus ou moins adaptables et
transparent dans leur capacité à expliciter les critères mis en œuvre pour extraire l’information
pertinente. Même un système de jeu d’échec peut être appréhendé comme un système de recherche

4
Pour nous l’analyse d’un corpus (texte, image…) rend possible à la fois des analyses quantitatives et qualitatives.
Les analyses qualitatives implique de restituer le contexte dans lequel la « donnée » est recueillie, contexte qui
conditionne le sens.
d’information calculant pour un joueur la meilleure information disponible dans sa base de connaissance
pour jouer le coup suivant étant donné la disposition des pièces sur le plateau. C’est selon cet usage que
se développent de nouvelles compétitions où les joueurs sont « augmentés » par les programmes d’IA
qu’ils utilisent pour avoir des suggestions de « coups ».

Implication sur le management


Si les managers et les responsables des ressources humaines veulent favoriser les approches
capacitantes dans l’introduction des nouvelles technologies numériques et de l’IA, ils doivent s’impliquer
dans le déploiement de ces dernières. Ils doivent notamment s’assurer que ces technologies sont bien au
service de la conception d’environnement capacitants (cf. Falzon) permettant la montée en compétence
des collaborateurs ce qui implique un « design des postes » qui laisse une part d’autonomie significative
aux collaborateurs à la fois dans le travail individuel et dans le travail collaboratif, condition de
l’émergence d’une intelligence collective au service des missions de l’entreprise.

Mais comme pour la transformation numérique, cette nouvelle autonomie implique une évolution assez
drastique des pratiques managériales qui n’est pas sans soulever des difficultés. En particulier, la prise en
compte d’une autonomie accrue, comme l’attention portée aux connaissances individuelles et collectives
développées par les collaborateurs, implique que le manager devienne un manager du travail comme le
dit l’ANACT. Devenir un manager du travail ou prendre au sérieux le travail de management selon nos
termes, correspond à « favoriser l’intégration effective du travail dans les modes d’organisation et le
fonctionnement global de l’entreprise ».

En conformité avec les ergonomes et les psychologues du travail c’est reconnaître que « l’activité réelle »
des collaborateurs dépasse toujours les prescriptions du poste et doit, pour se développer, s’inscrire
dans des dispositifs de reconnaissance du métier et des compétences qui dépassent le strict cadre de
l’entreprise (Clot). Ces approches font évoluer les modalités de contrôle traditionnelles et impliquent la
mise en place d’espaces de discussion plus ou moins formels consacrés au travail. Dans ces espaces de
discussion, les spécialistes du numérique, qu’il s’agisse des spécialistes de la transformation ou de l’IA,
doivent jouer un rôle important pour adapter en permanence les bases de connaissances et les outils de
recherche d’information aux situations professionnelles des opérateurs.

Cela implique également de reconnaitre les différents collectifs dont sont membres les collaborateurs,
des collectifs qui sont de plus en plus outillés par les dispositifs techniques de médiation numérique :
structure organisationnelle classique comme le projet, communauté, réseau, etc. Il existe différents
cadres théoriques qui visent à rendre compte des « configurations dialogiques homme machine »
(Poitou), cadres qui doivent intégrer l’apport des réseaux sociaux et celui des bases de connaissances de
l’IA (même s’il est bien clair que les dialogue homme machine sont toujours des simulations de dialogue,
cf document 1).

Cela ouvre la voie à des formes de régulation managériales elles-mêmes augmentées par l’IA dans la
veine des premiers travaux en Computer Supported Cooperative Work (cf. rapport n°1) dans lesquelles le
numérique ne visait pas à surveiller mais à « collectiviser les connaissances, capitaliser les expériences,
amplifier l’efficience des savoirs de l’entreprise grâce à l’amélioration et à l’informatisation [de certaines]
pratiques observées dans l’entreprise » (Poitou5), dans le but de renforcer le pouvoir d’agir des
collaborateurs.

5
http://intellectica.org/SiteArchives/archives/n22/22_10_Poitou.pdf

Vous aimerez peut-être aussi