Quelle est l’utilisation possible par les chercheuses, chercheurs, étudiantes et étudiants ?
L’intelligence artificielle est en train de révolutionner divers aspects de la recherche académique. L’une de ses applications les plus séduisantes est la création de synthèses de domaines de recherche. Cette tâche, qui consiste à compiler, analyser et condenser une vaste quantité de travaux sur un sujet donné, peut s’avérer laborieuse et chronophage pour les chercheur·e·s. Grâce à sa capacité à traiter rapidement de grands volumes de données, l’IA peut grandement faciliter ce processus.
Plusieurs applications, telles que Perplexity ou Sharly IA, sont conçues pour parcourir et comprendre un large éventail de documents de recherche : articles de revues, rapports d’études, thèses et autres publications. Elles détectent ensuite les idées, résultats et tendances clés et présentent ces informations de manière concise et aisément accessible. Cela offre aux chercheuses et chercheurs la possibilité de saisir rapidement l’état actuel d’un domaine, sans avoir à dépouiller eux-mêmes l’ensemble des documents.
Il reste toutefois important de noter que ces outils peinent encore à saisir pleinement le contexte, les nuances et les subtilités des écrits scientifiques. Ils peuvent, par exemple, mal interpréter ou simplifier à l’excès un concept complexe, ou passer sous silence une nuance importante qui semblerait évidente à un·e lecteur·rice humain·e. De plus, l’IA reproduit les biais présents dans les documents sur lesquels elle a été entraînée, ce qui peut affecter la fiabilité et la précision des synthèses produites.
L’une des utilisations possibles de l’intelligence artificielle est l’examen des lacunes existantes dans divers domaines de recherche. Les outils associés, capables de traiter et d’analyser de larges ensembles de données textuelles, peuvent se révéler bénéfiques pour déterminer où des recherches supplémentaires sont nécessaires.
Des plateformes telles que Elicit ou Consensus peuvent passer en revue un nombre considérable d’articles en un temps record, en extrayant conclusions, méthodes et principales théories. Elles parcourent ensuite ces informations pour repérer tendances, modèles et sujets relativement moins explorés. Par exemple, un système IA pourrait identifier une question fréquemment soulevée mais restée sans réponse satisfaisante, ou une approche méthodologique critiquée mais jamais améliorée. Il met ainsi en évidence les manques dans les connaissances actuelles et propose des orientations pour de futures investigations.
Néanmoins, il est essentiel de garder à l’esprit que l’IA présente des limites. Elle peut avoir du mal à saisir les nuances inhérentes à la recherche académique et donc à évaluer de façon fiable la qualité des études ou la pertinence des conclusions. De plus, ces méthodes reposant sur des données préexistantes, elles risquent de ne pas détecter des lacunes causées par des biais ou des limitations dans ces mêmes données.
L’adoption des solutions d’intelligence artificielle pour la rédaction d’ébauches d’articles scientifiques offre des perspectives attrayantes pour accroître l’efficacité et la productivité des chercheuses et chercheurs.
En matière de rédaction, des systèmes IA tels que ChatGPT ou SciSpace peuvent aider à structurer un document, définir un enchaînement logique des informations et même produire du texte. Par exemple, une chercheuse ou un chercheur peut fournir à ChatGPT un ensemble de points essentiels ou de résultats qu’il souhaite intégrer dans son article ; l’IA génère alors une ébauche basée sur ces informations. Ces outils peuvent aussi contribuer à formuler des sections techniques, en adoptant le jargon propre à la discipline.
Autrement dit, l’IA peut fournir un brouillon qui sert de point de départ et aide à surmonter le « syndrome de la page blanche », accélérant ainsi la rédaction.
Cependant, le contenu généré doit être minutieusement relu et retravaillé par la ou le chercheur. L’IA produit un texte plausible, mais qui peut contenir erreurs ou approximations. De plus, elle n’intègre pas toujours le contexte de manière adéquate, élément fondamental dans un article scientifique.
Enfin, ces algorithmes ne reproduisent pas la créativité et l’originalité humaines. Même si l’IA est un outil puissant pour générer du texte, elle ne conçoit pas de nouvelles idées ou perspectives : elle automatise certaines étapes du processus, sans remplacer la contribution intellectuelle et inventive des chercheuses et chercheurs.
Les assistants rédactionnels basés sur l’intelligence artificielle, tels que Grammarly, Google Gemini et DeepL Write, offrent divers services pour améliorer et faciliter la rédaction. Leur utilisation va de la correction grammaticale et stylistique à la génération d’un brouillon, en passant par des suggestions de structure pour des documents de recherche.
Pour l’amélioration du style, ces outils analysent un texte et détectent erreurs de grammaire, d’orthographe ou de ponctuation, ainsi que phrases maladroites ou ambiguës. Ils proposent ensuite des reformulations pour rendre le contenu plus clair, concis et cohérent, aidant ainsi à maintenir un ton uniforme tout au long du document.
Côté structure, certains assistants peuvent suggérer une organisation logique des idées : emplacement des sections, enchaînement des arguments et présentation cohérente des résultats. Cette aide s’avère particulièrement utile lors de la rédaction d’articles de recherche longs et complexes.
Cependant, malgré ces fonctionnalités, tout texte généré ou optimisé par un assistant IA doit être soigneusement relu et révisé par la ou le chercheur.
Les plateformes et frameworks autour de l’intelligence artificielle, par exemple Tableau, Power BI, TensorFlow, Keras ou Scikit-learn, ont révolutionné la manière dont les chercheur·e·s examinent de grandes quantités de données. Ils sont particulièrement utiles dans des domaines tels que la bio-informatique, l’étude du climat, l’analyse de sentiments sur les médias sociaux et d’autres secteurs qui génèrent des volumes massifs d’informations.
-
Structuration et organisation des données. L’IA peut classifier les données, repérer des groupes (clustering) et révéler des relations complexes entre variables. Des algorithmes de machine learning, tels que la classification supervisée ou le clustering non supervisé, organisent les données en fonction de caractéristiques communes.
-
Détection de tendances et de modèles. Des techniques comme le deep learning apprennent des représentations complexes et formulent des prédictions précises, qu’il s’agisse de motifs récurrents ou de projections basées sur les données existantes.
-
Visualisation claire et accessible. Divers logiciels génèrent graphiques, diagrammes et autres visualisations pour aider à comprendre tendances et relations.
Ces outils offrent d’énormes avantages mais comportent aussi des limites. Leur fiabilité dépend de la qualité des données : si celles-ci sont biaisées, incomplètes ou erronées, les résultats le seront aussi. En outre, de nombreux modèles d’IA restent des « boîtes noires » : ils produisent des prédictions parfois très exactes, mais il est difficile d’expliquer leur raisonnement en raison de la complexité, de la non-linéarité ou de l’usage de logiciels propriétaires.
L’intégration de l’intelligence artificielle dans le processus de recherche ouvre des perspectives susceptibles de transformer en profondeur l’activité scientifique. Ces solutions peuvent accompagner chaque étape du cycle de recherche et améliorer l’efficacité, la précision et le rythme de travail.
-
Collecte et préparation des données. Des services comme IBM watsonx Discovery (successeur d’IBM Watson Discovery) automatisent la recherche d’informations, structurent les données non structurées et facilitent leur nettoyage. Des outils open source tels qu’OpenRefine ou la plateforme visuelle KNIME Analytics Platform font référence pour le nettoyage et la normalisation, rendant les jeux de données plus simples à explorer et à interroger.
-
Analyse et modélisation. Des solutions d’AutoML comme DataRobot et H2O.ai Driverless AI accélèrent la création de modèles prédictifs, tandis que des suites cloud telles qu’Amazon SageMaker, Google Vertex AI ou Azure Machine Learning offrent des environnements complets pour le machine learning. Ces plateformes traitent de vastes ensembles de données, repèrent des tendances et fournissent des insights difficiles à obtenir manuellement.
-
Assistance à la rédaction. Des outils comme Grammarly (et sa fonction générative GrammarlyGO), DeepL Write, Microsoft Copilot ou Google Gemini servent d’assistants rédactionnels : génération de brouillons, suggestions stylistiques, correction grammaticale, aide à la structuration.
-
Revue de la littérature. Outre Semantic Scholar, des services comme ResearchRabbit, Connected Papers, Litmaps ou l’interface Q&A d’Elicit identifient rapidement les publications clés et mettent en évidence les lacunes dans la recherche, orientant ainsi les futures investigations.
Malgré ces avantages, intégrer l’IA dans la recherche comporte des défis. Les chercheur·e·s doivent conserver un esprit critique, comprendre le fonctionnement de base des outils qu’ils utilisent, évaluer les résultats, connaître les limites et rester vigilants face aux biais éventuels introduits.
Quelles sont les limites des outils d’IA dans l’activité de recherche ?
L’utilisation d’outils d’IA comme Elicit pour générer des revues de littérature dans les manuscrits procure un gain de temps appréciable et accroît l’efficacité. Cependant, cette pratique comporte aussi plusieurs risques.
Premièrement, si de nombreux chercheur·e·s recourent aux mêmes générateurs de revues, les articles scientifiques risquent de devenir uniformes et de manquer d’originalité. La diversité des points de vue pourrait s’appauvrir, réduisant l’intérêt et la richesse analytique de la littérature.
Deuxièmement, l’accès aux sources reste limité. Elicit s’appuie principalement sur des bases ouvertes, notamment Semantic Scholar (et, depuis 2024, le corpus OpenAlex), mais n’atteint pas la plupart des publications derrière des paywalls. Il indexe les résumés, les articles en libre accès et les preprints ; les textes strictement payants demeurent inaccessibles sans abonnement institutionnel ou individuel, ce qui restreint la profondeur des revues.
Enfin, une dépendance excessive à ces outils peut éroder l’esprit critique des chercheuses et chercheurs. La synthèse manuelle de la littérature reste essentielle pour repérer lacunes, controverses et pistes de recherche ; déléguer entièrement cette étape risque de nuire à l’analyse approfondie des travaux existants.
Les outils d’IA reposent sur des modèles statistiques entraînés à partir de vastes corpus de données ; leur fonctionnement n’est pas strictement déterministe : ils produisent des réponses probabilistes fondées sur les séquences les plus plausibles. Malgré leur capacité à « apprendre » pendant l’entraînement et à tenir compte d’un contexte limité (fenêtre de contexte), ils peuvent accorder trop de poids à certains termes ou expressions et négliger le sens global d’un prompt. Il en résulte parfois des réponses incohérentes ou déconnectées du contexte initial, surtout quand celui-ci est complexe ou subtil. L’ironie et le sarcasme demeurent notamment difficiles à détecter, car ils requièrent une compréhension pragmatique au-delà de la signification littérale.
De même, dans l’analyse de données complexes, l’IA peut repérer des tendances et des motifs sans toujours percevoir le contexte causal qui leur donne sens. Par exemple, en économie, un modèle peut détecter une baisse des prix mais ne pas saisir qu’elle résulte d’une hausse de la production, sauf si cette information est explicitement présente et correctement structurée dans les données d’entrée.
La capacité à fonder un résultat sur des sources fiables varie selon les outils. ChatGPT, Gemini, Microsoft Copilot et Claude peuvent fournir des références, parfois avec un DOI, pour des concepts scientifiques établis, mais ils peinent encore à proposer systématiquement des sources vérifiables pour des points de réflexion et peuvent même produire des citations fictives. Or le référencement rigoureux constitue un pilier de la recherche académique : il ne s’agit pas seulement de créditer les travaux originaux, mais aussi d’offrir une trajectoire claire permettant de vérifier et de reproduire les résultats.
Le domaine évoluant rapidement, des efforts visent à pallier ce manque. Des modèles récents comme GPT-4o ou Claude 4, combinés à des extensions de navigation Internet ou à des workflows de type retrieval-augmented generation (RAG), peuvent indiquer quand une information provient d’une source précise et extraire automatiquement les métadonnées (titre, revue ou DOI). Néanmoins, garantir l’exactitude et la fiabilité de ces références reste un défi : la détection de la bonne source n’atteint pas 100 % de précision, et la vérification humaine demeure indispensable.
En outre, même si l’IA citait correctement les sources, cela ne remplacerait pas la capacité humaine à juger de leur pertinence et de leur fiabilité.
La qualité des informations produites dépend étroitement de la quantité et de la qualité des données d’entraînement, ainsi que des ajustements humains réalisés durant ce processus. Un esprit critique vis-à-vis des résultats est donc indispensable. En effet, les outils d’IA reproduisent, voire amplifient, les biais et préjugés présents dans leurs données d’origine.
Le machine learning, branche de l’intelligence artificielle, fonctionne en repérant des motifs au sein d’ensembles de données. Si ces données contiennent des biais, ceux-ci se transmettent aux modèles. Par exemple, si un algorithme est formé sur un corpus majoritairement masculin, occidental et centré sur la science, ses réponses tendront à privilégier ces perspectives.
Ces distorsions peuvent avoir des conséquences importantes, surtout lorsque l’IA sert à la prise de décision automatisée. Ainsi, un système de recommandation de livres entraîné surtout sur des œuvres d’auteurs occidentaux risque d’ignorer des ouvrages issus d’autres régions du monde, entraînant une représentation culturelle déséquilibrée.
Les biais peuvent aussi renforcer des stéréotypes existants. Si les données lient de façon disproportionnée certains métiers à un genre donné, le système propagera ces stéréotypes dans ses résultats.
Pour atténuer ces risques, il est essentiel de veiller à la qualité et à la diversité des données fournies aux outils d’IA. Les chercheur·e·s doivent rester vigilants, vérifier et valider les sorties, et recourir à des méthodes complémentaires pour équilibrer les perspectives présentées par l’IA.
Les outils d’IA génèrent parfois des hallucinations, c’est-à-dire des réponses qui paraissent plausibles mais sont inexactes ou hors sujet, ce qui complique la vérification du contenu. On peut ainsi voir l’invention de statistiques pour une université sans données réelles, la création de termes scientifiques fictifs, ou la génération de références bibliographiques inexistantes ou erronées.
Plusieurs facteurs peuvent expliquer ces erreurs : le modèle peut mal interpréter les données d’entraînement ou extrapoler à partir de schémas incomplets. Surtout, ces modèles fonctionnent de façon probabiliste : ils prédisent chaque token suivant selon les probabilités apprises par l’architecture Transformer. Ils produisent donc des énoncés crédibles en surface, mais pas forcément conformes à la réalité.
Les hallucinations sont particulièrement problématiques lorsque ces systèmes analysent de grands volumes de données ou produisent du contenu spécialisé, car vérifier chaque information devient difficile. Si les utilisateur·trice·s acceptent les réponses sans examen critique, cela peut conduire à des erreurs ou à la confusion.
Il est donc essentiel de réduire ces risques : vérifier le contenu généré, recouper avec des sources fiables et conserver un esprit critique lors de l’utilisation d’outils d’IA.
Le manque d’originalité parfois reproché aux contenus générés par les IA est souvent qualifié de « perroquet stochastique » : le modèle assemble du texte à partir des motifs rencontrés durant son entraînement, sans créer de contenu réellement autonome ou novateur.
Les modèles de langage, tels que GPT-4, sont entraînés sur d’immenses corpus et apprennent à prédire le token suivant (et non simplement le mot entier) le plus probable, étant donné le contexte précédent. Ce processus probabiliste ne « comprend » pas le sens comme un humain le ferait ; les textes produits, bien que cohérents et bien structurés, n’inventent pas d’idées véritablement inédites.
La communauté débat toutefois de la notion de créativité : certain·e·s avancent qu’en recombinant des schémas appris, l’IA peut produire des métaphores ou des tournures inattendues, relevant d’une créativité combinatoire.
Il reste néanmoins clair que l’IA ne remplace pas l’ingéniosité humaine : elle n’a ni intention créative, ni conscience de ses objectifs.
La simplicité d’utilisation des programmes d’intelligence artificielle en recherche peut créer une dépendance, avec plusieurs conséquences possibles.
On peut d’abord redouter un affaiblissement des aptitudes chez les chercheuses, chercheurs, étudiantes et étudiants. Un recours constant aux applications d’IA pour des tâches qu’ils devraient exécuter eux-mêmes peut entraîner un déclin des compétences de recherche traditionnelles. Ils pourraient devenir moins habiles à analyser des données, formuler des hypothèses ou rédiger des rapports et articles, ce qui affaiblirait leur capacité à mener une analyse critique et autonome, compétence fondamentale en recherche. Cette dépendance risque aussi de favoriser une confiance excessive dans les résultats produits par l’IA.
La qualité des instructions données par la personne utilisatrice influence fortement la qualité des résultats obtenus.
Voir: Quel intérêt y a-t-il à intégrer les outils d’IA dans l’enseignement ?
Dans leurs premières versions, la créativité et l’empathie n’étaient pas des objectifs explicites des modèles d’IA, et les textes générés manquaient souvent de ces qualités, paraissant ternes ou stéréotypés. Aujourd’hui, les avancées de modèles plus récents, tels que GPT-4 (et ses itérations ultérieures, par ex. GPT-4o), marquent un tournant. Avec ces versions, la différence entre un texte rédigé par un humain et un texte généré par l’IA devient parfois difficile à percevoir.
Plagiat et fraude
La législation suisse sur le droit d’auteur et les règles universitaires relatives au plagiat s’appliquent également lorsque des IA génératives sont utilisées pour des travaux académiques : la directive 0.3 de l’UNIL rappelle que tout travail doit rester authentique. Remettre un travail produit (ou largement rédigé) par une IA sans mentionner cet usage constitue donc un manquement grave aux principes d’intégrité académique.
Interview de Philippe Gilliéron
L’évolution rapide de l’IA et son adoption croissante dans la recherche soulèvent des questions éthiques et juridiques complexes. L’IA rend plus difficile la détection du plagiat et l’attribution de la paternité. Les cadres actuels du droit d’auteur peinent à suivre la technologie ; il est donc crucial de poursuivre la réflexion et d’adapter les lois. Dans tous les cas, la transparence s’impose pour respecter l’intégrité scientifique.
Une IA peut réécrire une œuvre au point d’échapper aux logiciels anti-plagiat, ce qui pose un problème éthique majeur : exploiter une œuvre sans créditer l’auteur enfreint les principes d’intégrité et potentiellement le droit d’auteur. Comme le rappelle le Comité d’éthique du CNRS, « le plagiat va de la copie brute sans crédit jusqu’à l’emprunt paraphrasé ».
Concernant la paternité, la difficulté est d’identifier l’auteur lorsque le texte est généré par une IA. Les droits d’auteur protègent traditionnellement les créations issues de l’esprit humain ; l’IA n’ayant pas d’“esprit”, ses productions ne sont pas, à ce jour, reconnues comme des œuvres protégées en leur propre nom. Selon le Prof. Gilliéron, présenter un texte généré par ChatGPT comme une création personnelle, sans l’indiquer, reste trompeur et contraire à l’éthique, même si cela n’entre pas encore dans la définition juridique stricte du plagiat.
En résumé, il ne s’agit pas seulement de droit d’auteur : c’est un enjeu d’intégrité scientifique. Déclarer clairement l’usage de l’IA est indispensable.
Comment rendre acceptable l'utilisation des outils d'IA dans la recherche ?
Comme c’est déjà largement le cas pour l’analyse de jeux de données statistiques, les commandes et procédures employées doivent être clairement exposées afin de satisfaire aux standards de reproductibilité.
À cet égard, plusieurs éditeurs ont publié des directives explicites :
-
Elsevier — “The use of generative AI and AI-assisted technologies in writing” : obligation de mentionner tout recours à l’IA et interdiction de citer l’IA comme auteur d'après www.elsevier.com/about/policies-and-standards/the-use-of-generative-ai-and-ai-assisted-technologies-in-writing-for-elsevier.
-
Springer Nature — “Artificial Intelligence (AI) editorial policies” : divulgation obligatoire, interdiction de soumettre des images générées et de faire relire un manuscrit par un chatbot d'après www.springernature.com/gp/policies/editorial-policies.
-
Cambridge University Press — “Publishing ethics” : l’IA ne satisfait pas aux critères d’auteur ; tout usage doit être clairement décrit dans l’article www.cambridge.org/core/services/publishing-ethics/publishing-ethics.
-
COPE (Committee on Publication Ethics) — “Authorship and AI tools” : les chatbots ne peuvent pas être co-auteurs et leur intervention doit être retracée dans la section Méthodes publicationethics.org/guidance/cope-position/authorship-and-ai-tools.
Une autre composante clé de la transparence est la description des limites et sources d’imprécision liées à ces systèmes : biais dans les données d’apprentissage, difficulté de vérifier les contenus générés ou limites dans la compréhension contextuelle . Documenter ces points aide à prévenir les malentendus et à fixer des attentes réalistes.
La clarification des responsabilités est également essentielle : il convient de préciser quelle part du travail relève des programmes d’IA et quelle part revient aux chercheuses et chercheurs. Faire cette distinction permet d’identifier la responsabilité scientifique et garantit un usage éthique de l’IA.
En résumé, clarification et transparence restent indispensables pour préserver l’intégrité de la recherche, renforcer la confiance du public et assurer un emploi responsable de l’intelligence artificielle.
Les maisons d’édition qui se sont penchées sur la question recommandent généralement aux auteur·e·s de déclarer l’usage d’outils d’IA générative dans une section distincte placée à la fin du manuscrit, juste avant la liste de références.
Cette déclaration doit préciser :
-
le nom de l’outil utilisé ;
-
la version ou, à défaut, l’année de l’outil ;
-
les sections du document où la technologie est intervenue.
Les maisons d’édition alignent leurs lignes directrices sur ces principes : ils exigent la divulgation complète et interdisent de citer l’IA comme coauteur. Cette transparence garantit la traçabilité des contributions humaines et automatisées, conformément aux standards de reproductibilité.
Non. La paternité scientifique implique de pouvoir assumer la responsabilité du contenu, de signer un accord de publication et de garantir l’intégrité du travail. Ces obligations, définies par les critères d’auteur·e des grands éditeurs, ne peuvent être remplies par une IA, qui n’a ni personnalité juridique ni capacité à répondre de l’article. Par conséquent, les outils d’IA ne doivent pas être crédités comme auteur·e·s ; leur utilisation doit simplement être déclarée dans une section appropriée, sans les lister parmi les auteurs humains.
Non. Lorsqu’une experte ou un expert est sollicité·e pour évaluer un manuscrit, la confidentialité du contenu doit être strictement préservée : il est interdit aux évaluateur·trice·s de téléverser tout ou partie du manuscrit dans un outil d’IA générative. Une telle action violerait les droits de propriété intellectuelle de la maison d’édition et des auteur·e·s, ainsi que les obligations de confidentialité prévues par la plupart des revues. Si le manuscrit contient des données personnelles identifiables, cela enfreindrait en outre la législation sur la protection des données.
Par ailleurs, l’intégrité du processus d’examen par les pairs implique des responsabilités exclusivement humaines. Les technologies d’IA ne doivent pas être utilisées pour rédiger ou faciliter le rapport d’évaluation : la réflexion critique, l’analyse originale et le jugement éthique nécessaires dépassent leurs capacités, et il existe un risque de conclusions erronées, incomplètes ou biaisées.
En général non : les grandes maisons d’édition interdisent toujours l’insertion d’images générées ou altérées par IA dans les articles soumis, car les questions de droit d’auteur et d’intégrité scientifique restent non résolues.
Cela dit, une certaine tolérance existe concernant l'utilisation d'images générées par IA dans des contextes de communication plus informels, tels que des flyers, des posters, des courriels ou des pages web d’événements.
Remarque : si vous utilisez un outil d’apprentissage machine non génératif pour fusionner, segmenter ou améliorer une image existante, précisez-le dans la légende et décrivez la procédure afin que les réviseurs puissent évaluer le cas individuel .
Oui, il est possible d’utiliser des outils d’IA pour rédiger des requêtes de financement scientifique, à condition de respecter strictement les principes d’intégrité scientifique, de confidentialité et de propriété intellectuelle.
Les requérant·e·s demeurent entièrement responsables du contenu généré ; ils doivent notamment vérifier l’exactitude des informations et citer correctement les sources.
Produire le résumé ou la traduction intégrale d’un dossier via une IA générative peut contrevenir aux clauses de confidentialité : transmettre le texte à un fournisseur d’IA non autorisé équivaut à divulguer des données à un tiers. Le Fonds national suisse de la recherche scientifique (FNS) rappelle que ces données ne doivent pas être communiquées à d’autres parties, y compris aux services d’IA : https://www.snf.ch/en/LE2hc62fQoNDMoFb/topic/towards-a-responsible-use-of-ai-in-research.
Sur le plan éthique et juridique, il faut aussi évaluer les questions de propriété intellectuelle : l’auteur humain conserve la responsabilité de la formulation et de l’originalité, même si l’IA a participé à la rédaction. De plus, toute donnée personnelle ou sensible incluse dans la proposition doit être protégée conformément aux réglementations nationales et européennes sur la protection des données.
Certaines agences de financement internationales exigent déjà que les candidat·e·s déclarent tout recours à des IA génératives et assument « l’entière responsabilité » de la soumission. Pour les évaluateurs, l’usage d’IA est généralement interdit afin de préserver la confidentialité du manuscrit et la qualité de l’expertise.