27 mars 2025

Politiques encadrant l’IA générative en recherche universitaire

Déjà en 2023 (Prillaman, 2024), on estimait que près de 30 % des scientifiques utilisaient déjà des outils d’IA générative pour la rédaction de manuscrits et que 15 % le faisaient pour la préparation de demandes de subventions. L’établissement de cadres réglementaires devenait donc crucial.

Au sein de 61 universités mondiales classées par l’ARWU 2024

L’émergence de l’IA générative transforme en profondeur les pratiques de recherche académique mondiale. L’étude menée par Song et Yu (2025) de la BI Norwegian Business School est l’une des premières analyses systématiques des politiques régissant l’utilisation de ces technologies dans les institutions universitaires mondiales.

Cette étude vise à évaluer de manière exhaustive les politiques et pratiques liées à l’IA générative dans la recherche universitaire menée dans plusieurs universités du monde. Pour ce faire, l’équipe de chercheurs ont examiné les politiques publiées par les 100 premières universités du classement ARWU 2024. Parmi ces 100 établissements, seuls les 61 ayant des politiques pertinentes et accessibles au public ont été retenus comme échantillon d’analyse.

Structure du cadre des politiques

Cette étude a permis de mettre en évidence 10 thèmes et 29 sous-thèmes qui abordent des questions, telles que la confidentialité et la sécurité des données, la transparence et la responsabilité, l’intégrité et la conformité académiques, la vérification et l’exactitude du contenu, ainsi que les utilisations permises et les restrictions.

Les résultats sont structurés sous forme d’une architecture des politiques composée de dix thèmes :

Fréquence des thèmes principaux dans les politiques de recherche de 61 établissements d’enseignement supérieur — Song et Yu (2025)
  1. Transparence et responsabilité
    • 93.4 % des universités exigent que les chercheurs divulguent l’utilisation de l’IA (y compris la version de l’outil, son but et ses contributions), soient transparents quant à son influence sur les résultats de recherche, assument la responsabilité du contenu généré par l’IA en validant son exactitude, veillent à ce que les résultats soient exempts d’erreurs, et maintiennent des registres détaillés des activités liées à l’IA pour garantir la transparence du processus de recherche.
  2. Utilisations autorisées et limitations 
    • 80,3% des universités définissent les scénarios d’utilisation acceptables (comme le brainstorming et l’organisation des données), exigent que les chercheurs connaissent les fonctions et limites des outils d’IA pour une application correcte, et restreignent l’utilisation de l’IA dans les domaines sensibles, tels que le traitement des données personnelles, nécessitant une approbation préalable.
  3. Vérification et exactitude du contenu 
    • 78,7% des universités exigent un examen approfondi des résultats générés par l’IA, particulièrement pour l’analyse de données, une revalidation périodique des sorties de l’IA dans les contextes à haut risque, et la mise en place de processus de vérification des faits pour éviter de s’appuyer sur des informations incorrectes produites par l’IA.
  4. Protection des données et sécurité 
    • 73,8% des universités exigent le respect des réglementations (comme le RGPD), interdisent l’entrée d’informations sensibles dans les outils d’IA, imposent la conformité aux politiques institutionnelles, déconseillent l’utilisation d’outils d’IA externes qui pourraient être à haut risque, préconisent la mise en place de mesures de sécurité complètes contre les menaces liées à l’IA, et soulignent l’importance de sensibiliser aux risques de sécurité, notamment les hypertrucages (deepfakes) et les activités malveillantes générées par l’IA.
  5. Intégrité académique et conformité
    • 72,1% des universités stipulent que l’IA doit compléter le travail intellectuel humain sans le remplacer, interdisent de citer les outils d’IA comme auteurs, découragent leur utilisation comme sources principales d’information, exigent que l’utilisation de l’IA soit conforme aux normes de publication académique et aux politiques institutionnelles, tout en veillant au respect de l’éthique de la recherche.
  6. Propriété intellectuelle et propriété du contenu 
    • 57,4% des universités ont des politiques qui visent à éviter l’utilisation non autorisée de données propriétaires dans les outils d’IA, à garantir que le contenu généré par l’IA respecte les lois sur le droit d’auteur et soit correctement cité, et à prévenir les infractions à la propriété intellectuelle lors de la publication des recherches.
  7. Supervision humaine et responsabilité éthique 
    • 57,4% des universités stipulent que l’IA doit compléter le jugement humain sans le remplacer, particulièrement pour les décisions éthiques, exigent un examen humain des résultats générés par l’IA pour garantir le respect des normes académiques et éthiques, et recommandent d’évaluer les implications éthiques de l’utilisation de l’IA afin d’éviter les risques moraux.
  8. Biais et équité
    • 50,8% des universités ont des politiques qui visent à identifier et atténuer les biais dans les résultats générés par l’IA pour éviter des conclusions de recherche injustes, à évaluer les outils d’IA pour s’assurer qu’ils n’ont pas d’impact négatif sur la diversité ou les groupes marginalisés, et à surveiller les biais linguistiques et culturels dans le contenu produit par l’IA.
  9. Collaboration et alignement des politiques
    • 49,2.% des universités ont des politiques qui visent à respecter les directives d’organismes externes (comme les éditeurs et les agences de financement) concernant l’IA, à promouvoir des politiques adaptables qui suivent l’évolution technologique, et à encourager la collaboration pour ajuster les normes d’IA en fonction de l’évolution des exigences éthiques.
  10. Durabilité environnementale
    • 11.5% des universités seulement encouragent une utilisation judicieuse de l’IA pour minimiser la consommation d’énergie et l’empreinte carbone, tout en préconisant des pratiques d’IA durables qui prennent en compte les impacts environnementaux.

Tendances et déséquilibres révélateurs

L’analyse quantitative des thèmes révèle des priorités claires, mais aussi des déséquilibres significatifs. Les résultats montrent que la plupart des universités accordent une grande importance à la transparence, à la sécurité des données et à l’intégrité académique.

En revanche, certains thèmes cruciaux demeurent marginaux. Par exemple, la durabilité environnementale n’est mentionnée que dans 11,48 % des politiques examinées, même si les technologies d’IA ont une empreinte écologique considérable. Cette lacune représente un angle mort préoccupant dans la gouvernance actuelle dans le milieu académique.

Cette étude propose un ensemble complet de directives politiques pour l’IA générative dans le milieu universitaire. Les résultats fournissent des indications précieuses pour les responsables universitaires. Les auteurs suggèrent qu’une politique sur l’IA devrait couvrir l’ensemble des dimensions identifiées, avec une attention particulière pour les domaines actuellement sous-représentés.

Limites et conclusion

Les auteurs reconnaissent certaines limites à leur étude, notamment en termes de taille de l’échantillon et de couverture géographique. Bien que l’analyse de 61 institutions ait été faite, les résultats peuvent ne pas représenter complètement la diversité mondiale des approches politiques.

En conclusion, cette étude offre un cadre de référence précieux pour mieux comprendre et améliorer les politiques de l’IA pour la recherche universitaire assistée par de l’IA. Elle comble un vide dans la littérature existante en fournissant un cadre politique complet sur l’utilisation de l’IA spécifique à la recherche académique.

Bibliographie

Song, R., & Yu, S. (2025). Generative AI policies in academic research. Available at SSRN.

Prillaman, M. (2024). Is ChatGPT making scientists hyper-productive? The highs and lows of using AI. Nature, 627(8002), 16–17. https://doi.org/10.1038/d41586-024-00592-w

Sujets similaires