
Guide pour une utilisation responsable de l’IA générative dans la recherche universitaire
Recommandations de la Commission européenne (mars 2024)
La recherche universitaire est l’un des secteurs qui pourrait être le plus significativement transformé par l’IA.
Ces recommandations visent à promouvoir une utilisation responsable de l’IA générative dans la recherche.
L’IA transforme la recherche universitaire, rendant le travail scientifique plus efficace et accélérant les découvertes. Les outils d’IA générative apportent rapidité et commodité dans la création de textes, d’images et de code. Cependant, les chercheurs doivent rester vigilants face aux limites de cette technologie, comme le plagiat, la divulgation d’informations sensibles et les biais présents dans les modèles.
Le «Living guidelines on the responsible use of generative AI in research» (European Commission, mars 2024) établit des lignes directrices pour soutenir la communauté de la recherche en enseignement supérieur dans son utilisation responsable de l’intelligence artificielle générative. S’appuyant sur les principes de l’intégrité de la recherche, il définit les responsabilités des chercheurs, des institutions de recherche et des organismes de financement. Il souligne l’importance de la transparence, de la responsabilité, du respect des normes éthiques et juridiques, et de la formation continue dans ce domaine en évolution rapide.
«We are committed to innovation of AI and innovation with AI. And we will do our best to build a thriving AI ecosystem in Europe. With these guidelines, we encourage the research community to use generative AI to help supercharge European science and its applications to the benefit of society and for all of us.»
– Iliana Ivanova
Commissaire chargée de l’innovation, de la recherche, de la culture, de l’éducation et de la jeunesse
Les principaux éléments à retenir
Recommandations pour les chercheurs
Rester ultimement responsable du résultat scientifique
- Les chercheurs sont responsables de l’intégrité du contenu généré avec l’aide d’outils d’IA.
- Ils doivent maintenir une approche critique et être conscients des limitations des outils (biais, hallucinations, inexactitudes).
- Les systèmes d’IA ne sont ni auteurs ni co-auteurs.
- La paternité des contenus implique l’agentivité et la responsabilité, elle incombe donc aux chercheurs humains.
- Ne pas utiliser de matériel fabriqué par l’IA pour falsifier ou manipuler des données de recherche.
Utiliser l’IA générative de manière transparente
- Détailler quels outils d’IA ont été utilisés de manière substantielle dans le processus de recherche.
- Si c’est pertinent, rendre disponibles les «prompts» et les résultats, conformément aux principes de science ouverte.
- Tenir compte de la nature stochastique des outils et viser la reproductibilité et la robustesse de leurs résultats et conclusions.
- Divulguer ou discuter des limitations des outils d’IA générative utilisés, y compris les biais possibles dans le contenu généré.
Faire attention aux questions de confidentialité et de propriété intellectuelle
- Être conscient que les données entrées pourraient être réutilisées pour entraîner des modèles d’IA.
- Protéger les travaux non publiés ou sensibles en veillant à ne pas les télécharger dans un système d’IA en ligne, sauf s’il y a des garanties que les données ne seront pas réutilisées, par exemple pour entraîner de futurs modèles de langage ou pour une réutilisation non traçable et non vérifiable des données.
- Obtenir le consentement avant de fournir des données personnelles de tiers.
- Comprendre les implications techniques et éthiques des outils utilisés concernant la confidentialité, la protection des données et les droits de propriété intellectuelle.
Respecter la législation applicable
- Être attentif au risque de plagiat dans les résultats de l’IA.
- Gérer de manière responsable toute donnée personnelle générée par l’IA.
Se former en continu à l’utilisation appropriée des outils d’IA générative
- Les chercheurs se tiennent au courant des meilleures pratiques et les partagent avec leurs collègues et autres parties prenantes.
S’abstenir d’utiliser substantiellement les outils d’IA générative dans des activités sensibles qui pourraient avoir un impact sur d’autres chercheurs
- Protéger les travaux originaux non publiés des autres chercheurs d’une exposition potentielle ou d’une inclusion dans un modèle d’IA.
Recommandations pour les organismes de recherche
Promouvoir et soutenir l’utilisation responsable de l’IA générative dans la recherche
- Fournir et/ou faciliter la formation sur l’utilisation de l’IA générative (vérification des résultats, respect de la vie privée, gestion des biais et protection de la propriété intellectuelle).
- Fournir un soutien et des directives pour assurer la conformité aux exigences éthiques et légales.
Surveiller activement le développement et l’utilisation de l’IA générative au sein de leur établissement
- Rester attentif aux activités et processus de recherche utilisant l’IA générative pour mieux soutenir son utilisation future.
- Utiliser ces connaissances pour fournir des orientations supplémentaires
(identifier les besoins de formation et le type de soutien serait le plus bénéfique.) - Anticiper et se prémunir contre les possibles utilisations abusives des outils d’IA.
- Publier et partager ces informations avec la communauté scientifique.
- Utiliser ces connaissances pour fournir des orientations supplémentaires
- Analyser les limites de la technologie et des outils et fournir des recommandations à leurs chercheurs.
Référencer ou intégrer ces lignes directrices sur l’IA générative dans leurs directives générales
- Consulter ouvertement leur personnel de recherche et les parties prenantes sur l’utilisation de l’IA générative.
- Les organismes de recherche appliquent ces lignes directrices dans la mesure du possible.
- Demander la transparence aux équipes de recherche sur leur utilisation de l’IA générative.
Si c’est possible, mettre en œuvre des outils d’IA générative hébergés localement ou basés sur l’infonuagique qu’ils gouvernent eux-mêmes.
- Cela permet à l’équipe de recherche d’alimenter leurs données scientifiques dans un outil qui garantit la protection et la confidentialité des données.
- Les établissements assurent un niveau approprié de cybersécurité pour ces systèmes, en particulier ceux connectés à Internet.
Les principes clés qui sous-tendent ces lignes directrices
Le document s’articule autour de quatre axes : la fiabilité, l’honnêteté, le respect et la responsabilité.
Fiabilité
Implique une qualité de la recherche à chaque étape : conception, méthode, analyse et utilisation des ressources. Cela implique de vérifier et de reproduire les informations fournies par l’IA. Il est également crucial de rester attentif aux questions d’égalité et de discrimination, car l’IA peut comporter des biais ou des erreurs.
Honnêteté
Exige une transparence à chaque étape, y compris la divulgation de l’utilisation de l’IA générative. Elle implique une conduite juste, complète et impartiale, avec une attention particulière à la vérification des informations produites par l’IA et à la prise en compte des questions d’égalité.
Respect
Le respect en recherche inclut la considération pour les collègues, les participants, la société, les écosystèmes, le patrimoine culturel et l’environnement. L’utilisation responsable de l’IA générative doit tenir compte des limites de la technologie, de son impact environnemental et de ses effets sociétaux, telles que les biais, la diversité, la non-discrimination et l’équité. Cela comprend aussi une gestion appropriée des informations, le respect de la vie privée, de la confidentialité, des droits de propriété intellectuelle et une citation correcte des sources.
Responsabilité en recherche
La responsabilité en recherche couvre chaque étape, de l’idée initiale à la publication, y compris la gestion, l’organisation, la formation, la supervision et le mentorat. Elle prend en compte les impacts sociétaux plus larges. Les chercheurs sont responsables de tous les résultats qu’ils produisent, en s’appuyant sur l’intervention et la supervision humaines.
Développer des solutions sur mesure
L’émergence rapide de l’IA générative dans le domaine de la recherche offre à la fois des opportunités et des défis pour l’ensemble des établissements universitaires. Bien que les directives européennes fournissent un cadre de référence utile, il est crucial que chaque université développe ses solutions d’accès aux outils d’IA, ses propres lignes directrices, adaptées à son contexte spécifique et à ses valeurs. À titre d’exemple, des universités comme celle-ci au Canada donnent accès à des outils d’IA sous licence universitaire conférant certaines protections relatives à la sécurité de l’information dans un environnement protégé et garantissant ainsi la confidentialité des données. Cela nécessite une réflexion approfondie et une collaboration étroite entre chercheurs, administrateurs, éthiciens et experts en IA. L’objectif est de créer un environnement où l’IA générative dans la recherche est utilisée de manière responsable et éthique, tout en préservant l’intégrité de la recherche et en encourageant l’innovation.
Référence
European Commission. (2024). Living guidelines on the responsible use of generative AI in research. ERA Forum. https://research-and-innovation.ec.europa.eu/document/download/2b6cf7e5-36ac-41cb-aab5-0d32050143dc_en?filename=ec_rtd_ai-guidelines.pdf