50 2113 ER Intelligence Artificielle en Education 2
50 2113 ER Intelligence Artificielle en Education 2
50 2113 ER Intelligence Artificielle en Education 2
net/publication/346952655
CITATIONS READS
2 1,294
1 author:
Hélène Gaudreau
Government of Quebec
6 PUBLICATIONS 4 CITATIONS
SEE PROFILE
All content following this page was uploaded by Hélène Gaudreau on 10 February 2022.
en éducation : un aperçu
CONSEIL
Études et recherches
Document préparatoire pour le Rapport sur l’état et les besoins de
l’éducation 2018-2020 du Conseil supérieur de l’éducation.
Le Conseil supérieur de l’éducation a confié la coordination de la préparation et de la diffusion du
présent document de recherche à sa présidence. Ce document et les positions qu’il peut contenir
n’engagent pas le Conseil ni ses instances consultatives.
Rédaction et recherche
Hélène Gaudreau, coordonnatrice du Comité du rapport sur l’état et les besoins de l’éducation,
avec la contribution de Marie-Michèle Lemieux, agente de recherche
Révision linguistique
Des mots et des lettres
Dépôt légal
Bibliothèque et Archives nationales du Québec, 2020
ISBN : 978-2-550-87964-0 (version PDF)
Toute demande de reproduction du présent document doit être faite au Service de gestion des droits
d’auteur du gouvernement du Québec.
Ce document a été produit dans l’esprit d’une rédaction épicène, c’est-à-dire d’une représentation
équitable des femmes et des hommes.
Avis aux lectrices et aux lecteurs
Pour accomplir sa mission, le Conseil supérieur de l’éducation (CSE) peut mener ou faire effectuer des
études et des recherches qu’il juge nécessaires à la préparation de ses avis et de ses rapports. Le cas
échéant, il peut décider de rendre publiques de telles productions s’il estime que la richesse et l’utilité
potentielle des renseignements colligés le justifient. C’est dans cette perspective que le Conseil publie le
présent document. Cette publication reprend les éléments d’une recherche sur l’intelligence artificielle
effectuée dans le cadre de la production du Rapport sur l’état et les besoins de l’éducation 2018-2020.
Ce rapport présente une réflexion sur le numérique en éducation et sur les responsabilités nouvelles
que ce contexte implique pour le système éducatif.
Le point de départ du document original est une recension d’écrits ayant servi d’élément déclencheur
d’une discussion du Comité du rapport sur l’état et les besoins de l’éducation (CREBE) avec des acteurs
de terrain et des experts réunis lors d’une table ronde sur l’intelligence artificielle. Cette recension
d’écrits a par la suite été enrichie en tenant compte des points de vue exprimés. Le tout a fait l’objet
d’un chapitre du deuxième rapport d’étape préparé par le CREBE et examiné par le Conseil lors de sa
672e réunion, le 16 juin 2020.
Les personnes suivantes ont participé à la table ronde sur l’intelligence artificielle : Suzanne Lajoie,
Lajoie
professeure à l’Université McGill (Department of Educational and Counselling Psychology) et directrice
des équipes de recherche ATLAS et LEADS
LEADS; Lyne Bouchard,
Bouchard vice-rectrice aux ressources humaines
et directrice de l’Observatoire de gouvernance des technologies de l’information à l’Université
Laval; Alexandre Brunet,
Brunet enseignant de philosophie au Cégep de Saint-Hyacinthe; Pascale Blanc, Blanc
coordonnatrice de la Vitrine technologie éducation;
éducation Benoit Petit,
Petit conseiller pédagogique au Service
national du RÉCIT (domaine du développement de la personne).
Table des matières
Avis aux lectrices et aux lecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1 Éléments de définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Enjeux sociaux et éthiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1 Des lignes directrices pour une IA responsable et digne de confiance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Un marché du travail transformé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
–V–
L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux
Introduction
–1–
L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux
exemple, tromper l’IA en modifiant quelques pixels sur une image. Les machines semblent capables de
prendre des décisions, mais elles appliquent des modèles. Elles ne pensent pas; elles ne peuvent donner
de réponses qu’aux questions connues.
Cette éventualité nécessite une large réflexion – collective et pluraliste – pour que soient anticipées
d’éventuelles dérives de même qu’une sensibilisation, voire une éducation, visant à prévenir ces dérives.
L’objectif est d’adopter des comportements permettant d’induire un cercle vertueux et non de laisser
l’inverse se produire. Mieux vaut en effet anticiper l’avenir plutôt que de le subir.
« Parce que former les enseignants à l’IA, c’est aussi en quelque sorte œuvrer à prévenir
les dérives potentielles qui pourraient survenir dans un proche futur. […] L’incursion
de l’IA en éducation ne peut résolument [pas] être décidée uniquement par ceux qui
en profitent sur le plan financier. Son arrivée doit être clairement balisée par différents
acteurs éducatifs de notre société tout entière, à commencer par les enseignants et les
apprenants. […] L’un des défis auquel fait face notre système d’éducation confronté à
l’arrivée de l’IA est de trouver un juste équilibre entre le maintien de certains aspects
traditionnels qui ont fait la richesse de l’enseignement depuis des siècles et la mise à
profit des nouvelles possibilités qu’offre l’IA en éducation. » (Karsenti, 2018, p. 118-119.)
–2–
Conseil supérieur de l’éducation
1 Éléments de définition
Bien qu’il soit connu et populaire, le terme « intelligence artificielle » n’aurait pas encore été défini de
façon scientifique : « I first heard the term more than 50 years ago and have yet to hear a scientific
definition. Even now, some AI experts say that defining AI is a difficult (and important) question – one
that they are working on. ‘‘Artificial intelligence’’ remains a buzzword, a word that many think they
understand but nobody can define1 » (Parnas, 2017, p. 1).
1 « J’ai entendu ce terme pour la première fois il y a plus de 50 ans et je n’en ai pas vu jusqu’à maintenant de
définition scientifique. Encore aujourd’hui, certains experts estiment que définir l’IA est une question difficile
(et importante) sur laquelle ils travaillent. ‘‘Intelligence artificielle’’ reste un mot à la mode que beaucoup
pensent comprendre, mais que personne ne peut définir » (notre traduction).
–3–
L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux
relevant normalement de celle-ci. Les applications de l’IA sont variées et diverses; elles vont de la
reconnaissance automatique vocale ou visuelle à l’assistance médicale robotisée en passant par des
outils de résolution de problèmes » (MESI, 2017).
Mentionnons enfin que tous les systèmes d’IA n’ont pas le même degré de sophistication. « On distingue
IA faible (IA capable de simuler l’intelligence humaine pour une tâche bien déterminée) et IA forte (IA
générique et autonome qui pourrait appliquer ses capacités à n’importe quel problème, répliquant en
cela une caractéristique forte de l’intelligence humaine, soit
une forme de “conscience” de la machine). » (Commission
nationale de l’informatique et des libertés de France, 2017, p. 75.)
Le robot conversationnel (chatbot)
Le développement de l’IA, en particulier lorsqu’elle est forte,
Tay, censé « apprendre » en discutant
Tay
devrait donc être rigoureusement encadré.
sur les réseaux sociaux avec des
adolescentes et des adolescents, s’est Selon un groupe d’experts de la question, une intelligence
rapidement mis à tenir des propos artificielle digne de confiance doit être légitime, c’est-à-dire
vulgaires et racistes (Tual, 2016), au conforme aux lois et aux règlements en vigueur. Elle doit
grand désarroi de ses concepteurs, également être éthique ou conforme aux valeurs et aux principes
qui l’ont aussitôt retiré du marché. établis. Enfin, elle doit être robuste, tant du point de vue
Ce dérapage a été volontairement technique que du point de vue social, car les systèmes d’IA
provoqué par des utilisatrices et des pourraient causer des dommages non intentionnels. Ces trois
utilisateurs qui voulaient le tester. composantes doivent être en harmonie et s’équilibrer : la société
doit s’efforcer de les aligner si des tensions naissent entre elles.
Il est particulièrement important de veiller à la transparence
et à la compréhensibilité des processus ainsi qu’au respect de l’autonomie humaine, en tenant compte
de la diversité des personnes et en portant une attention accrue aux plus vulnérables, c’est-à-dire aux
personnes qui risquent de ne pas être entendues ou d’être exclues. Les systèmes d’IA comportent de
nombreux avantages, mais ils impliquent aussi des risques, dont certains sont difficiles à anticiper ou à
mesurer (High-Level Expert Group on Artificial Intelligence, 2019).
–4–
Conseil supérieur de l’éducation
2 Enjeux sociaux et éthiques
Au quotidien, l’IA nous rejoint plus particulièrement par des publicités ciblées selon nos habitudes de
consommation ou encore par les assistants personnels intelligents et autres objets du quotidien – y compris
des jouets (Commission nationale de l’informatique et des libertés de France, 2019) – connectés à Internet.
Dans le premier cas, cela peut conduire à une forme de manipulation psychologique. Dans le second
–5–
L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux
cas, les individus ne savent pas quelles sont les données
récoltées sur eux ni à quoi elles servent. Ces exemples « Understanding is a major issue […]: only
confirment que l’intelligence artificielle se développe 4 percent of Canadians felt confident about
actuellement selon un objectif de maximisation du explaining what AI is and how it works. » (Omnia
profit, sans réglementation ni obligation éthique AI, 2019, p. 4.) En effet, « la compréhension
(Bengio, 2019). La réflexion éthique devrait normalement est un problème majeur […] : seulement 4 %
accompagner le développement de la technologie, des Canadiennes et des Canadiens se sentent
soit une réflexion collective et pluraliste, pour capables d’expliquer l’IA et son fonction
représenter la diversité des personnes et des points nement » (notre traduction).
de vue, et diminuer le risque de biais. Il reviendrait au
monde politique de tracer la limite morale, la ligne à
ne pas transgresser.
De nombreux incidents montrent des biais ou une performance plus faible pour les intelligences artificielles
qui analysent des données photographiques pour les personnes d’origine autre qu’européenne, en raison du
manque de diversité dans les bases de données d’entraînement (Zou et Schiebinger, 2018). Il en va de même pour
les données linguistiques autres qu’anglophones. Les biais des bases de données sont attribués à leur tour au
manque de diversité des personnes responsables de l’écriture des algorithmes (Eubanks, 2018 ; Gilbert, 2020).
En France, la Commission nationale de l’informatique et des libertés (CNIL) a formulé des recommanda-
tions qui s’adressent « tant aux pouvoirs publics qu’aux diverses composantes de la société civile (grand
public, entreprises, associations, etc.) :
–6–
Conseil supérieur de l’éducation
• Constituer une plateforme nationale d’audit des algorithmes;
• Encourager la recherche sur l’IA éthique et lancer une grande cause nationale participative autour
d’un projet de recherche d’intérêt général;
• Renforcer la fonction éthique au sein des entreprises » (CNIL, 2017, p. 7).
Pour fournir un cadre, anticiper les controverses et inclure les citoyennes et les citoyens, la Déclaration
de Montréal pour un développement responsable de l’intelligence artificielle (Déclaration de Montréal
IA responsable, 2018) a retenu 10 principes : bien-être, respect de l’autonomie, protection de l’intimité
et de la vie privée, solidarité, participation démocratique, équité, inclusion de la diversité, prudence,
responsabilité, développement soutenable. Dans le même esprit d’inclusion et afin de réunir le plus
grand nombre de parties prenantes, l’Institut d’éthique appliquée (IDEAIDEA) de l’Université Laval a mis sur
pied l’Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique.
Par ailleurs, les gouvernements du Québec et du Canada ont mis en place le Centre d’expertise
international de Montréal en IA (CEIMIA
CEIMIA), qui prend part aux travaux du Partenariat mondial sur l’in-
telligence artificielle (PMIA
PMIA), dont le secrétariat est hébergé par l’Organisation de coopération et de
développement économiques (OCDE OCDE). Composé d’experts mandatés par les différents États, le PMIA
a pour mandat de contribuer au développement responsable et à une utilisation centrée sur l’humain
de l’intelligence artificielle dans le respect des droits de la personne, des libertés fondamentales et de
leurs valeurs démocratiques communes.
De son côté, le cadre de référence (éthique) pour une IA digne de confiance publié par l’Union européenne
est le fruit du travail d’un comité de 52 experts internationaux (issus du milieu universitaire ou de
l’industrie), alimenté par une consultation publique. Ce cadre mentionne sept exigences : 1) agence et
supervision humaines; 2) robustesse technique et sécurité; 3) confidentialité et gouvernance des données;
4) transparence; 5) diversité, non-discrimination et équité; 6) bien-être environnemental et sociétal;
7) responsabilité (High-Level Expert Group on Artificial Intelligence, 2019).
Selon le Consensus de Beijing sur l’intelligence artificielle et l’éducation, « le développement de l’IA devrait
être contrôlé par l’être humain et centré sur lui; […] l’IA devrait être déployée au service de l’être humain
et pour renforcer ses capacités; […] elle devrait être conçue de
manière éthique, non discriminatoire, équitable, transparente et
vérifiable; et […] les incidences de l’IA pour l’être humain et la
En septembre 2019, le Cégep de société devraient être suivies et évaluées à chaque étape des
Sainte-Foy (Québec) accueillait la chaînes de valeur » (UNESCO, 2019b, p. 16). Ce rapport fait
première cohorte du programme également état de préoccupations relatives à l’inclusion des
Sp é c i a l i sa t i o n te c h n i q ue e n personnes ayant des troubles d’apprentissage ou vivant en situation
intelligence artificielle, qui mène à de handicap ainsi que des personnes qui étudient dans une autre
une attestation d’études collégiales langue que leur langue maternelle. Il souligne enfin que l’écart
(AEC) et qu’il offre en exclusivité dans entre les genres dans la maîtrise des compétences liées à l’intel-
l’Est de la province. Cette cohorte ne ligence artificielle risque d’aggraver les inégalités.
comptait que des hommes.
–7–
L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux
D’un cadre à l’autre, même si l’ordre et le regroupement des concepts clés sont différents, les
valeurs et les principes se rejoignent et priorisent le bien commun, la transparence et le respect
de la diversité des personnes. La discussion sur ces questions devrait être inclusive pour représenter
la diversité des points de vue. Bref, les systèmes d’IA ne devraient pas demeurer une boîte noire
pour la population.
Le défi pour la société est alors de ne pas laisser tomber les personnes qui risquent de perdre leur
emploi sans avoir les compétences exigées pour les postes qui seront créés. « Une spécialisation toujours
croissante des machines conduit à une automatisation des tâches normalement accomplies par les
humains, et donc à une refonte du marché du travail. Pratiquement aucun type d’emploi ne sera à l’abri
d’une automatisation plus ou moins grande au cours des prochaines années. » (MEES, 2018, p. 1.)
« De récentes études sur la question ont conclu que, outre les emplois qui risquent de
disparaître [14 %] à cause de l’automatisation, environ 34 % des emplois actuels seront
profondément modifiés, car de nombreuses tâches actuellement réalisées par des
[personnes] pourraient être automatisées. Ces emplois s’orienteront dès lors vers des
tâches non routinières et plus spécialisées, obligeant les [personnes] à améliorer leurs
compétences pour éviter de perdre leur emploi et être capables d’effectuer les tâches
plus exigeantes. La transformation numérique entraînera également l’apparition de
nouveaux types d’emplois et de nouvelles formes de travail qui nécessiteront vraisem-
blablement des compétences d’un niveau plus élevé. Il semble donc peu probable que
les [personnes qui travaillent dans] des secteurs en déclin ou […] qui seront licenciées
trouvent dans ces nouveaux créneaux une solution de repli. » (OCDE, 2019, p. 21.)
Bien que certaines professions libérales puissent être radicalement transformées (Parnas, 2017), les
conséquences de cette mutation du marché du travail risquent d’être particulièrement défavorables
aux personnes les moins scolarisées. Dans un contexte où l’apprentissage tout au long de la vie devient
la norme, elles auraient moins tendance que les autres à profiter des possibilités offertes en matière de
perfectionnement et de formation continue (CSE, 2013).
Toutefois, les Québécoises et les Québécois ne paraissent pas particulièrement inquiets : « La majorité
d’entre eux (61 %) semblent d’ailleurs vouloir faire partie de la solution puisqu’ils se disent prêts à suivre
une formation pour s’adapter à ces bouleversements technologiques. Les hommes (67 %) y sont davantage
en faveur que les femmes (54 %) ainsi que les moins de 54 ans. Plus le niveau de scolarité augmente, plus
les Québécois se disent prêts à suivre une telle formation (il s’agit par exemple de 68 % des Québécois
avec un diplôme universitaire de 1er cycle et de 71 % avec un diplôme universitaire de 2e ou 3e cycle) »
(De Marcellis-Warin et Peignier, 2018, p. 43).
–8–
Conseil supérieur de l’éducation
Les curriculums et les programmes de formation doivent suivre ce mouvement de transformation du marché
du travail et permettre de développer les nouvelles compétences relatives à l’intelligence artificielle.
Ce faisant, ils ne doivent pas perdre de vue l’importance de la lecture, du calcul et de l’écriture, et il
leur faut tenir compte de l’interdépendance des disciplines, y compris les compétences développées
en sciences humaines (UNESCO, 2019b). Le développement des nouvelles compétences relatives à la
compréhension de l’intelligence artificielle ferait donc partie intégrante d’une responsabilité nouvelle
qui transcende les disciplines : éduquer au numérique.
Ainsi, restreindre l’utilisation de l’IA ne résoudra pas les problèmes de comportement qui découlent de la
culture et de la société. Surtout, ce n’est pas de cette façon que l’on outillera les personnes pour qu’elles
en fassent un usage positif (lucide) et qu’elles se protègent des éventuels usages malveillants (World
Economic Forum, 2019). Par exemple, les données massives peuvent devenir des outils de surveillance
de masse comme le Système de crédit social, social développé en Chine (Wikipédia, 2020g).
Il y a également lieu d’exploiter le potentiel de l’intelligence artificielle pour développer des parcours
d’apprentissage flexibles qui soient adaptés aux possibilités et aux objectifs de chaque personne, sans
oublier les travailleuses et travailleurs plus âgés (UNESCO, 2019b).
–9–
L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux
3 Possibilités et défis pour l’éducation
– 10 –
Conseil supérieur de l’éducation
profonds dans la façon d’exercer cette profession. Le personnel enseignant sera de plus en plus appelé à
jouer un rôle de conseiller, de guide et d’accompagnateur. Il disposera d’outils pour ajuster ses stratégies
selon les problèmes relevés, de manière à offrir un enseignement plus personnalisé (Sijing et Lan, 2018).
Les systèmes tutoriels intelligents se caractérisent par la connaissance du contenu éducatif, de l’élève ou
encore de l’étudiante ou de l’étudiant (de son profil) ainsi que la connaissance des procédés d’apprentissage
et de la méthodologie. Ils font des suggestions lorsque les personnes doutent ou sont bloquées pendant
la résolution d’un problème. Ils les guident dans leurs apprentissages. Par exemple, les personnes en
situation de handicap pourraient vivre une meilleure expérience d’apprentissage grâce à ces systèmes.
Par des tests corrigés automatiquement, les systèmes d’évaluation automatique ciblent les forces et les
faiblesses des personnes dans leurs activités d’apprentissage. Ils fournissent des informations utiles sur
les compétences et aptitudes qu’elles ont développées.
De leur côté, les environnements d’apprentissage collaboratif sont destinés à faciliter le processus en
fournissant à la fois le contexte et les outils permettant d’interagir et de travailler de manière collaborative.
Dans les systèmes intelligents, la collaboration a lieu généralement à l’aide d’agents logiciels responsables
de la médiation et du soutien aux interactions des étudiantes et des étudiants pour l’atteinte des objectifs
proposés (Sanchez et Lama, 2008).
L’apprentissage par le jeu permet, quant à lui, de réaliser des activités qu’il serait impossible d’effectuer
avec les ressources traditionnelles en raison du budget alloué, du temps et des infrastructures disponibles
ainsi que de la sécurité (Sanchez et Lama, 2008).
À partir de données sur l’apprentissage (résultats que le personnel enseignant consigne dans un
portail ou traces que l’apprenante ou l’apprenant y laisse), l’analyse de l’apprentissage (learning
learning
analytics) permet de suivre les parcours des personnes en formation ou des élèves pour une rétroaction
analytics
– 11 –
L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux
métacognitive personnalisée, intelligente et efficace. Différentes
plateformes peuvent en effet faciliter la rétroaction ou accumuler
« Les applications de l’intelligence
des informations qui permettent de réajuster le contenu ou
artificielle les plus discutées en
la formule d’un cours. L’École branchée en propose plusieurs
éducation aujourd’hui sont celles
exemples (Miller, 2019).
qui touchent à l’analyse de l’appren-
tissage. Elles pourraient permettre Autrement dit, les données sur l’apprentissage permettent un
de mieux comprendre comment les suivi personnalisé, qui consiste à repérer les difficultés d’une
apprenants apprennent et donner personne afin d’y réagir en temps réel (UNESCO, 2019a).
ainsi la possibilité de personnaliser Par ailleurs, en alertant le personnel enseignant quand certains
l’enseignement. Ces recherches élèves manifestent une perte d’intérêt, les tuteurs intelligents
pourraient également aider les peuvent conduire à l’amélioration de la pédagogie. Certains outils
enseignants à améliorer leur cours peuvent contribuer à prévenir le décrochage et jouer aussi un
et les [établissements] à améliorer rôle de soutien dans l’orientation scolaire et professionnelle.
leurs plans d’aide à la réussite. » En outre, l’IA favorise la différenciation pédagogique; elle permet
(Blanc, 2017, p. 40.) de jumeler les personnes les plus susceptibles de s’entraider et
de s’assurer que leurs échanges demeurent pédagogiquement
pertinents (Van Ranst, 2019).
Adaptation
Intervention
– 12 –
Conseil supérieur de l’éducation
plus enclins à apprendre, le tout sans nécessairement passer par l’utilisation des écrans. Une telle
plateforme permet d’observer et d’encourager le développement de compétences relationnelles
comme la collaboration. Elle garde des traces de l’activité des élèves (des données) qui pourraient
être mises au service de décisions pédagogiques.
Par ailleurs, le projet de recherche-action ÉCRAN (Évaluation Collaborative Réussie des Apprentissages
par le Numérique), dirigé par Thérèse Laferrière,
Laferrière porte sur les plateformes qui peuvent enregistrer
des traces du raisonnement des élèves. L’un des objectifs est de proposer des outils conformes
aux valeurs de justice sociale, d’égalité et d’équité qui pourraient être utilisés pour les épreuves
officielles du futur.
Il existe donc actuellement de nombreuses applications qui pourraient permettre d’améliorer l’apprentissage.
Les principaux défis consistent à trouver ces applications et à en évaluer la pertinence pédagogique, à
revoir le design des cours et des activités en conséquence, à repenser l’évaluation des apprentissages et
à élaborer des scénarios pédagogiques appropriés. C’est l’occasion de rendre les personnes plus actives
dans leurs apprentissages. C’est aussi l’occasion de les former à la compréhension de l’intelligence
artificielle et du monde dans lequel nous vivons.
Si l’intelligence artificielle propose des outils pour améliorer l’apprentissage, il n’en reste pas moins
qu’il s’agit surtout d’une technologie qui a des répercussions sur notre vie quotidienne et à l’égard de
laquelle nous devons demeurer critiques.
– 13 –
L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux
• Des compétences complémentaires permettant la pensée critique, la créativité, l’innovation et
l’entrepreneuriat ainsi que le développement de compétences dites humaines comme l’empathie
(soft skills). » (OCDE, cité dans MEES, 2018, p. 8.)
Il est intéressant de souligner que l’on parle de plus en plus dans les écrits de power skills (Ibrahim,
2017) ou de durables skills (Fisher, 2019) pour désigner les compétences complémentaires en question,
développées via les sciences humaines et les arts.
Comme l’illustre l’arborescence suivante, l’utilisation de l’intelligence artificielle pour répondre à des
défis éducatifs se trouve au même niveau que l’éducation des individus au sujet de l’intelligence
artificielle (qui inclut la question de l’éthique). Les deux aspects sont donc aussi importants l’un que
l’autre : il faut éduquer à l’IA tout autant qu’avec l’IA.
Automatisation et
intelligence artificielle
– 14 –
Conseil supérieur de l’éducation
3.3 Des enjeux qui concernent l’éducation
Développée et utilisée par des humains susceptibles de prendre de mauvaises décisions, l’intelligence
artificielle risque de provoquer des problèmes que Sijing et Lan (2018) regroupent selon trois possibilités :
la conception des algorithmes, des données incomplètes ou des intrants inexacts. Si le potentiel de
l’intelligence artificielle en éducation est prometteur, une utilisation mal avisée pourrait avoir des
conséquences sur le parcours des personnes. Des dérives sont donc à prévenir.
3 « Les algorithmes vérifiables sont préférables aux algorithmes heuristiques. Les appareils qui utilisent
l’heuristique pour créer l’illusion de l’intelligence présentent un risque que nous ne devrions pas accepter »
(notre traduction).
4 « Les personnes que nous avons interviewées présumaient qu’elles étaient constamment en interaction avec
l’IA. Plusieurs d’entre elles ont exprimé ne pouvoir imaginer une vie sans IA tant la technologie semble répandue.
Malgré tout, elles rapportent se sentir profondément mal informées sur comment et quand elles utilisent l’IA. »
(notre traduction).
– 15 –
L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux
(Karsenti, 2018, p. 113.) En éducation comme dans tous les domaines,
les personnes doivent être informées sur la façon dont leurs données
« Les algorithmes sont au cœur seront gérées et avoir un droit de refus. Le personnel qui les utilise
de l’intelligence artificielle. Il doit être formé à la protection des données et à la compréhension
s’agit d’une suite d’instructions des algorithmes que ces données alimenteront. Ainsi, on ne peut
visant à définir le comportement protéger l’identité de l’élève si les traces de ses apprentissages sont
d’un système […] pour permettre destinées à lui fournir une aide personnalisée. Dans ce contexte,
d’obtenir un résultat à partir de comment éviter qu’il soit stigmatisé? Qui est en mesure de donner un
données fournies en entrée. » consentement éclairé? Combien de temps ces traces seront-elles
(Karsenti, 2018, p. 114.) gardées? Qui possède les droits de conservation?
En Chine, où la compétition pour l’accès aux études supérieures est particulièrement féroce, certains
centres d’apprentissage privés offrant des services périscolaires ont massivement investi dans des
tuteurs intelligents. Malgré une amélioration des apprentissages, certains spécialistes craignent que
ces pratiques conduisent à une standardisation des apprentissages et de l’évaluation, ce qui pourrait
laisser les prochaines générations démunies devant un monde en constant changement. En effet, la salle
de classe du 21e siècle devrait faire ressortir les forces et s’appuyer sur les champs d’intérêt de chaque
personne – ce que l’IA facilite également – plutôt que de transmettre un ensemble de connaissances
canoniques plus adaptées à l’ère industrielle, comme le font actuellement certains centres d’apprentis-
sage (Hao, 2019). Autrement dit, mieux vaut investir dans des tuteurs intelligents qui permettent une
éducation personnalisée et inclusive que dans un modèle qui se contente d’une éducation adaptée
mais standardisée.
– 16 –
Conseil supérieur de l’éducation
Dans un contexte où l’information disponible ne cesse de croître, l’accès à cette information est
notamment filtré par des algorithmes en fonction des préférences manifestées par notre comportement
sur Internet. C’est la théorie des bulles de filtres (Wikipédia, 2020d), proposée par Eli Pariser (Leloup,
2018). Pour d’autres, ce sont plutôt nos choix personnels qui, à la base, déterminent les contenus qui nous
sont proposés, y compris la publicité. Il semble que nous nous retrouvions en quelque sorte devant le
paradoxe de l’œuf ou de la poule. Quoi qu’il en soit, nous devons être sensibilisés à la situation suivante :
Internet nous propose des contenus qui renforcent nos croyances, nos idéologies et nos biais cognitifs
(Wikipédia, 2020c).
Bref, chaque personne a des biais qui reposent sur des valeurs, des croyances, des champs d’intérêt, un
bagage culturel, etc., et les spécialistes n’y échappent pas totalement. Dans le contexte actuel, les élèves
auraient donc besoin d’être plongés dans des démarches collectives de recherche de définitions, ce qui
les amènerait à réfléchir et à se faire leur propre représentation en prenant en considération plusieurs
points de vue différents. Il ne s’agit donc pas de dire aux élèves quoi penser, mais de leur proposer des
avenues qui leur permettent de réfléchir et de développer leur esprit critique ainsi que des outils qui
peuvent les aider à évaluer la fiabilité des informations dont ils disposent. De plus, comme la cybersécurité
dépend des comportements, il est nécessaire que chaque individu apprenne à protéger ses données et
celles des personnes dont il a la responsabilité.
« Il est essentiel, dans un monde où les algorithmes vont prendre un nombre croissant
de décisions dans nos vies, d’instaurer une régulation compréhensible, transparente
et démocratiquement validée sur la propriété et l’usage de nos données personnelles.
Nous devons pouvoir piloter nous-mêmes nos recherches de corrélations entre notre
sommeil, notre alimentation, notre éducation, notre santé, nos déplacements, et mille
autres choses encore. » (Taddei, 2018, p. 302.)
Bien entendu, il ne s’agit pas de rejeter en bloc les outils numériques et les médias sociaux ni de prétendre
que l’on pourrait revenir en arrière et s’en passer. Mais « [l]es utilisateurs commencent à se rendre compte
des différentes dérives des outils numériques : surveillance de leur vie privée, addictions, insatisfaction,
perte de temps sur les réseaux sociaux » (Busson, 2019; Pouly, 2017). Si elle était mieux connue, la
manipulation de l’attention à des fins commerciales serait-elle socialement acceptée?
La Fondation Internet nouvelle génération (FINGFING) a lancé un groupe de travail sur la façon dont les
plateformes, les interfaces et les applications captent l’attention des utilisatrices et des utilisateurs.
Ses premières conclusions préconisent de ne pas culpabiliser ou surprotéger les personnes, mais plutôt
de concevoir des outils qui leur permettent de se responsabiliser dans la gestion de leur attention (Busson,
2019). « Les espaces d’enseignement et de formation, qu’ils soient présentiels, hybrides ou à distance,
constituent des terrains fertiles pour penser collectivement, et développer des capacités à résister et à
développer sa lucidité. » (Busson, 2019, p. 102.)
– 17 –
L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux
Au cœur du Cadre de référence de la compétence numérique, la dimension « Agir en citoyen éthique à
l’ère du numérique » comporte quatre éléments, dont « être conscient de l’impact de son utilisation du
numérique sur son bien-être physique et psychologique » et « comprendre les enjeux liés à la marchan-
disation des renseignements personnels, à l’influence de la publicité numérique et à la perception
de la crédibilité des sites Web » (MEES, 2019, p. 10). Comment seront développés ces éléments de la
compétence qui ne sont pas associés d’emblée à une discipline? Sous la responsabilité de qui? On voit
donc que l’ajout au Programme de formation de l’école québécoise d’une discipline particulièrement liée
à l’informatique ou à la programmation permettrait d’aborder le fonctionnement des algorithmes, mais
que cela ne réglerait pas tous les aspects de cette importante dimension de la compétence numérique.
– 18 –
Conseil supérieur de l’éducation
4 Le futur de l’intelligence artificielle
en éducation
Il y a plus de 10 ans, on prévoyait déjà que, par l’intégration d’agents pédagogiques, l’exploitation
de données et l’introduction de techniques d’apprentissage automatique, l’intelligence artificielle en
éducation fournirait des diagnostics cognitifs sur les apprenantes et les apprenants en vue de les situer
dans leur processus d’apprentissage et de leur offrir un soutien personnalisé (Sanchez et Lama, 2008).
Aujourd’hui, on s’inquiète surtout des dérives possibles et des capacités qu’il faut développer pour
préserver notre pouvoir d’agir.
L’éducation prépare-t-elle les jeunes aux technologies émergentes qui les entourent? Les applications
de l’IA forte sont essentiellement utilisées à des fins commerciales; elles agissent autour de nous
quotidiennement, et ce, de façon exponentielle. Sommes-nous en mesure de faire des choix qui
tiennent compte des effets de cette nouvelle réalité?
– 19 –
L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux
Les dérives anticipées ne tiennent pas tant à la technologie elle-même, mais aux créateurs de cette
technologie et à l’usage, par des humains, qui en est fait (Sijing et Lan, 2018), d’où quelques recomman-
dations à l’intention des différentes parties prenantes :
• Dans tout développement de système fondé sur l’intelligence artificielle, les programmeuses et
les programmeurs doivent d’abord penser à la personne en s’assurant que toute décision prise
par le système respectera les droits humains.
• Les apprenantes et les apprenants doivent avoir l’occasion de développer leur littératie numérique
afin de bien saisir les divers enjeux de l’intelligence artificielle, notamment les enjeux éthiques.
• Deux responsabilités incombent au personnel enseignant. Il doit d’abord agir comme un guide
afin que chaque situation-problème soit abordée selon des angles multiples (déontologie,
utilité, valeurs) et portée par une réflexion éthique (Burton, Goldsmith, Koenig et autres, 2017).
Le personnel enseignant doit également enrichir continuellement sa propre compréhension des
développements éthiques concernant l’intelligence artificielle.
Pour trouver l’équilibre entre les aspects traditionnels de l’enseignement et les nouvelles possibilités
offertes par l’intelligence artificielle, « il ne faut pas se limiter à la seule vision utilitaire de l’IA, mais bien
cerner les transformations éducatives qu’elle pourrait alimenter. L’intelligence artificielle ce n’est ainsi
pas uniquement pour participer à la réussite scolaire des apprenants, c’est aussi pour mieux tous nous
comprendre et nous respecter, entre humains » (Karsenti, 2018, p. 119). Il est donc nécessaire de réunir
les conditions requises pour que l’intégration de l’intelligence artificielle permette une éducation plus
équitable et plus inclusive – et non l’inverse –, ce qui touche notamment les programmes de formation
et les méthodes pédagogiques.
– 20 –
Conseil supérieur de l’éducation
Conclusion
L’enseignement ne fait pas partie des professions qui risquent d’être remplacées par l’intelligence
artificielle. Le rôle du personnel enseignant est néanmoins appelé à se transformer. Toutefois, les usages
réels en classe sont encore très éloignés des possibilités.
Les systèmes d’intelligence artificielle adaptifs et évolutifs, au service de l’humain, permettent une
intelligence augmentée (Datafranca, 2020b), et ce, notamment parce que l’on gagne en temps et en
précision dans la collecte et le traitement, par la technologie, d’informations qui fondent la prise de
décisions par l’humain. Autrement dit, en s’appuyant sur le potentiel de traitement et d’analyse décuplé
que permet l’IA, l’humain peut prendre plus rapidement de meilleures décisions.
Enseigner avec l’intelligence artificielle suppose d’abord de réfléchir aux objectifs pédagogiques, de
se demander quels sont les problèmes à résoudre et de déterminer ensuite si l’IA peut y contribuer et
comment elle peut le faire. En effet, l’IA est insurpassable pour certaines opérations (traiter rapidement
une quantité énorme de données). En revanche, elle est limitée pour certaines tâches. Par exemple, l’IA
ne peut interpréter de façon juste ce qui apparaît hors contexte, résoudre des problèmes complexes ou
donner en toutes circonstances la rétroaction appropriée. Ses suggestions doivent alors être validées par
l’humain. C’est la compréhension de ce que l’IA fait mieux que lui qui permet à l’humain de devenir
plus efficace avec elle.
Éduquer à l’intelligence artificielle permettrait que nous soyons collectivement plus aptes à nous
protéger des dérives possibles. Pour éviter l’enfermement dans les bulles de filtres, la population doit
comprendre le fonctionnement des algorithmes. Elle doit également être en mesure d’exercer une certaine
vigilance pour que le développement de l’IA se fasse dans le respect de la diversité des personnes.
C’est la compréhension de l’IA qui permet qu’elle ne demeure pas une boîte noire pour la population.
– 21 –
L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux
Bibliographie
Bengio, Yoshua (2019). « Intelligence artificielle, apprentissage profond, logiciel libre et bien commun »
dans Actes du 6e Colloque libre de l’ADTE (4 juin 2019, Université Laval, Québec), Montréal, ADTE,
réf. de juillet 2020, https://adte.ca/actes-du-6e-colloque-libre-de-ladte-2019/
https://adte.ca/actes-du-6e-colloque-libre-de-ladte-2019/.
Blanc, Pascale (2017). Les environnements numériques d’apprentissage (ENA) : état des lieux
et prospective : rapport d’analyse et de synthèse, Montréal, Vitrine technologie éducation,
réf. de septembre 2020,
https://www.vteducation.org/sites/default/files/file_attach/Pascale%20Blanc/2017/12/les_environne-
ments_numeriques_dapprentissage_ena_etat_des_lieux_et_prospective.pdf.
ments_numeriques_dapprentissage_ena_etat_des_lieux_et_prospective.pdf
Brundage, Miles, Shahar Avin, Jack Clark, Helen Toner, Peter Eckersley, Ben Garfinkel, Allan Dafoe,
Paul Scharre, Thomas Zeitzoff, Bobby Filar, Hyrum Anderson, Heather Roff, Gregory C. Allen, Jacob
Steinhardt, Carrick Flynn, Sean O. hÉigeartaigh, Simon Beard, Haydn Belfield, Sebastian Farquhar,
Clare Lyle, Rebecca Crootof, Owain Evans, Michael Page, Joanna Bryson, Roman Yampolskiy et Dario
Amodei (2018). The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation,
99 p., réf. de septembre 2020, https://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c6b-
376b92c619de/downloads/1c6q2kc4v_50335.pdf.
376b92c619de/downloads/1c6q2kc4v_50335.pdf
Burton, Emanuelle, Judy Goldsmith, Sven Koenig, Benjamin Kuipers, Nicholas Mattei et Toby Walsh
(2017). « Ethical Considerations in Artificial Intelligence Courses », AI Magazine, vol. 38, no 2, Summer,
p. 22-34, réf. de septembre 2019, https://aaai.org/ojs/index.php/aimagazine/article/view/2731
https://aaai.org/ojs/index.php/aimagazine/article/view/2731.
Busson, Héléna (2019). « Attention et discernement pour penser le rapport au numérique », Éducation
permanente, no 219, p. 94-103.
Caneva, Christiane (2018). « L’intelligence artificielle au service des apprenants : trois avenues en
progression », École branchée, vol. 21, no 1.
Chemla, Laurent (2016). « Si vous êtes le produit, ce n’est pas gratuit », La Quadrature du Net,
17 août 2016, réf. de septembre 2020,
https://www.laquadrature.net/2016/08/17/si-vous-etes-le-produit/.
https://www.laquadrature.net/2016/08/17/si-vous-etes-le-produit/
Commission nationale de l’informatique et des libertés de France (2019). « Jouets connectés : quels
conseils pour les sécuriser? », Lettre d’information, 16 décembre, réf. de septembre 2020,
https://www.cnil.fr/fr/jouets-connectes-quels-conseils-pour-les-securiser.
https://www.cnil.fr/fr/jouets-connectes-quels-conseils-pour-les-securiser
Conseil supérieur de l’éducation (2013). Un engagement collectif pour maintenir et rehausser les
compétences en littératie des adultes, Québec, Le Conseil, 188 p., réf. de septembre 2020,
https://www.cse.gouv.qc.ca/wp-content/uploads/2013/09/50-0482-AV-litteratie-adultes.pdf.
https://www.cse.gouv.qc.ca/wp-content/uploads/2013/09/50-0482-AV-litteratie-adultes.pdf
– 22 –
Conseil supérieur de l’éducation
Cox, Margaret et Thérèse Laferrière (2019). « The Action Agendas of EDUsummIT2019 »
dans Learners and Learning Contexts : New Aligments for the Digital Age, EDUsummIT2019
(29 septembre au 2 octobre 2019, Université Laval), Ottawa, Commission canadienne
pour l’UNESCO, réf. de septembre 2020,
https://edusummit2019.fse.ulaval.ca/sites/iscar17.ulaval.ca/files/edusummit2019_actionagendas.pdf.
https://edusummit2019.fse.ulaval.ca/sites/iscar17.ulaval.ca/files/edusummit2019_actionagendas.pdf
De Marcellis-Warin, Nathalie et Ingrid Peignier (2018). Perception des risques au Québec : baromètre
CIRANO 2018, Montréal, CIRANO, 46 p., réf. de septembre 2020,
https://cirano.qc.ca/files/publications/2018MO-02.pdf.
https://cirano.qc.ca/files/publications/2018MO-02.pdf
Dyens, Ollivier (2019). La terreur et le sublime : humaniser l’intelligence artificielle pour construire un
nouveau monde, Montréal, Éditions XYZ, 237 p.
Educause (2020). Next Generation Digital Learning Environment (NGDLE), réf. de septembre 2020,
https://library.educause.edu/topics/teaching-and-learning/next-generation-digital-learning-envi-
ronment-ngdle#?page=1&sortBy=relevance&sortOrder=asc&topic_search=Collaborative%20Lear-
ning%7CNext%20Generation%20Digital%20Learning%20Environment%20(NGDLE).
ning%7CNext%20Generation%20Digital%20Learning%20Environment%20(NGDLE)
Eubanks, Virginia (2018). Automating Inequality: How High-Tech Tools Profile, Police,
and Punish the Poor, New York (N.Y.), St. Martin’s Press, 260 p.
Fisher, Anne (2019). « “Soft” Skills are Hard to Measure and in Demand. Can they Be Taught », Fortune,
11 mai, réf. de septembre 2020, https://fortune.com/2019/05/11/soft-skills-training/training/
https://fortune.com/2019/05/11/soft-skills-training/training/.
Gilbert, Martin (2020). Faire la morale aux robots : une introduction à l’éthique des algorithmes,
Montréal, Atelier 10, 95 p., réf. de septembre 2020,
https://edition.atelier10.ca/documents/faire-la-morale-aux-robots.
https://edition.atelier10.ca/documents/faire-la-morale-aux-robots
Hao, Karen (2019). « China Has Started a Grand Experiment in AI Education : it Could Reshape How
the World Learns. », MIT Technology Review, 2 août, réf. de septembre 2020,
https://www.technologyreview.com/2019/08/02/131198/china-squirrel-has-started-a-grand-experi-
ment-in-ai-education-it-could-reshape-how-the/.
ment-in-ai-education-it-could-reshape-how-the/
– 23 –
L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux
High-Level Expert Group on Artificial Intelligence (2019). Ethics Guidelines for Trustwhorthy AI,
Brussels, European Commission, 39 p.
Ibrahim, Lila (2017). « Let’s Call “Soft” Skills What They Really Are: Power Skills »,
Coursera Blog, 19 septembre, réf. de novembre 2020,
https://blog.coursera.org/lets-call-soft-skills-really-power-skills/.
https://blog.coursera.org/lets-call-soft-skills-really-power-skills/
Karsenti, Thierry (2018). « Intelligence artificielle en éducation : l’urgence de préparer les futurs
enseignants d’aujourd’hui pour l’école de demain? », Formation et profession, vol. 26, no 3, p. 112-119,
réf. de septembre 2020, http://formationprofession.org/pages/article/26/21/a159
http://formationprofession.org/pages/article/26/21/a159.
L., Bastien (2017). « Test de Turing : un test pour mesurer l’intelligence artificielle », Artificiel.net,
24 mars, réf. de septembre 2020, https://www.artificiel.net/test-de-turing
https://www.artificiel.net/test-de-turing.
Leloup, Damien (2018). « Eli Pariser : “Il est vital de résoudre les problèmes de l’information en ligne” »,
Le Monde, 12 septembre, réf. de septembre 2020,
https://www.lemonde.fr/pixels/article/2018/09/12/eli-pariser-il-est-vital-de-resoudre-les-problemes-
de-l-information-en-ligne_5353852_4408996.htmlde-html.
de-l-information-en-ligne_5353852_4408996.htmlde-html
Miller, Audrey (2019). « L’“évoluation” : fini les notes, maintenant on apprend! », École branchée,
30 octobre, réf. de septembre 2020,
https://ecolebranchee.com/evoluation-evolution-evaluation/evaluation/.
https://ecolebranchee.com/evoluation-evolution-evaluation/evaluation/
Omnia AI (2019). Canada’s AI Imperative: Overcoming Risks, Building Trust, Montréal, Deloitte,
37 p., réf. de septembre 2020, https://www2.deloitte.com/content/dam/Deloitte/ca/Documents/
deloitte-analytics/ca-overcoming-risks-building-trust-aoda-en.pdf?location=top.
deloitte-analytics/ca-overcoming-risks-building-trust-aoda-en.pdf?location=top
– 24 –
Conseil supérieur de l’éducation
Organisation de coopération et de développement économiques (2019). Stratégie 2019 de l’OCDE
sur les compétences : des compétences pour construire un avenir meilleur, Paris, OCDE, 257 p.,
réf. de septembre 2020, https://www.oecd-ilibrary.org/education/strategie-2019-de-l-ocde-sur-les-
competences_9789264313859-fr.
competences_9789264313859-fr
Parnas, David Lorge (2017). « Inside Risks: the Real Risks of Artificial Intelligence », Communications of
the ACM, vol. 60, no 10, réf. de septembre 2020, http://www.csl.sri.com/users/neumann/cacm242.pdf
http://www.csl.sri.com/users/neumann/cacm242.pdf.
Sanchez, Eduardo et Manuel Lama (2008). « Artificial Intelligence and Education », dans Juan Ramon
Rabuñal Dopico, Julian Dorado et Alejandro Pazos (dir.), Encyclopedia of Artificial Intelligence,
Hershey (Pa.), Information Science Reference, p. 138-143.
Sijing, Li et Wang Lan (2018). « Artificial Intelligence Education Ethical Problems and Solutions »
dans The 13th International Conference on Computer Science and Education (8-11 août 2018, Colombo
(Sri Lanka)).
Stiebert, Julius (2019). « Notre top 6 des meilleurs livres sur l’intelligence artificielle », NextPit, 20 mai,
réf. de septembre 2020, https://www.nextpit.fr/meilleurs-livres-intelligence-artificielle
https://www.nextpit.fr/meilleurs-livres-intelligence-artificielle.
Tual, Morgane (2016). « À peine lancée, une intelligence artificielle de Microsoft dérape sur Twitter »,
Le Monde, 24 mars, réf. de septembre 2020, https://www.lemonde.fr/pixels/article/2016/03/24/a-
peine-lancee-une-intelligence-artificielle-de-microsoft-derape-sur-twitter_4889661_4408996.html-
lancee-html.
lancee-html
UNESCO (2019a). Artificial Intelligence in Education: Challenges and Opportunities for Sustainable
Development, Working Papers on Education Policy, Paris, UNESCO, 46 p.
UNESCO (2019b). « Consensus de Beijing sur l’intelligence articielle et l’éducation » dans Conférence
internationale sur l’intelligence artificielle et l’éducation « Planifier l’éducation à l’ère de l’IA : un bond
en avant » (16-18 mai, Beijing (République populaire de Chine)), réf. de septembre 2020,
https://unesdoc.unesco.org/ark:/48223/pf0000368303.
https://unesdoc.unesco.org/ark:/48223/pf0000368303
UNESCO (2018). « Pour une éthique de la recherche en intelligence artificielle à l’échelle mondiale »,
Le Courrier de l’UNESCO, no 3, p. 3.
Van Ranst, Jérémy (2019). « Les enjeux éthiques de l’IA en éducation », carrefour éducation, 26 juin,
réf. de septembre 2020, https://carrefour-education.qc.ca/dossiers/lintelligence_artificielle_en_
education/les_enjeux_ethiques_de_lia_en_education.
education/les_enjeux_ethiques_de_lia_en_education
– 25 –
L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux
Villani, Cédric (2018). Donner un sens à l’intelligence artificielle : pour une stratégie nationale et
européenne, [Paris?], [s. e.], 233 p., réf. de septembre 2020,
https://www.ladocumentationfrancaise.fr/var/storage/rapports-publics/184000159.pdf.
https://www.ladocumentationfrancaise.fr/var/storage/rapports-publics/184000159.pdf
Ward, Valérie (2019). « L’intelligence artificielle au cinéma : 2001 l’Odyssée de l’espace, Terminator,
Matrix... », Le MagduCiné, 10 septembre, réf. de septembre 2020,
https://www.lemagducine.fr/cinema/dossiers/intelligence-artificielle-au-cinema-2001-lo-
dyssee-de-l-espace-terminator-matrix-10017588/.
dyssee-de-l-espace-terminator-matrix-10017588/
World Economic Forum (2019). Generation AI: Establishing Global Standards for Children and AI,
Geneva (Suisse), The Forum, 17 p., réf. de septembre 2020,
http://www3.weforum.org/docs/WEF_Generation_AI_%20May_2019_Workshop_Report.pdf.
http://www3.weforum.org/docs/WEF_Generation_AI_%20May_2019_Workshop_Report.pdf
Zou, James et Londa Schiebinger (2018). « Design AI so That it’s Fair », Nature, vol. 559, no 7714,
p. 324-326, réf. de septembre 2020,
https://media.nature.com/original/magazine-assets/d41586-018-05707-8/d41586-018-05707-8.pdf.
https://media.nature.com/original/magazine-assets/d41586-018-05707-8/d41586-018-05707-8.pdf
– 26 –
Conseil supérieur de l’éducation
50-2113
fli@csequebec
cse.gouv.qc.ca