
Politiques encadrant l’IA générative en recherche universitaire
Déjà en 2023 (Prillaman, 2024), on estimait que près de 30 % des scientifiques utilisaient déjà des outils d’IA générative pour la rédaction de manuscrits et que 15 % le faisaient pour la préparation de demandes de subventions. L’établissement de cadres réglementaires devenait donc crucial.
Au sein de 61 universités mondiales classées par l’ARWU 2024
L’émergence de l’IA générative transforme en profondeur les pratiques de recherche académique mondiale. L’étude menée par Song et Yu (2025) de la BI Norwegian Business School est l’une des premières analyses systématiques des politiques régissant l’utilisation de ces technologies dans les institutions universitaires mondiales.
Cette étude vise à évaluer de manière exhaustive les politiques et pratiques liées à l’IA générative dans la recherche universitaire menée dans plusieurs universités du monde. Pour ce faire, l’équipe de chercheurs ont examiné les politiques publiées par les 100 premières universités du classement ARWU 2024. Parmi ces 100 établissements, seuls les 61 ayant des politiques pertinentes et accessibles au public ont été retenus comme échantillon d’analyse.
Structure du cadre des politiques
Cette étude a permis de mettre en évidence 10 thèmes et 29 sous-thèmes qui abordent des questions, telles que la confidentialité et la sécurité des données, la transparence et la responsabilité, l’intégrité et la conformité académiques, la vérification et l’exactitude du contenu, ainsi que les utilisations permises et les restrictions.
Les résultats sont structurés sous forme d’une architecture des politiques composée de dix thèmes :

- Transparence et responsabilité
- Utilisations autorisées et limitations
- Vérification et exactitude du contenu
- Protection des données et sécurité
- Intégrité académique et conformité
- Propriété intellectuelle et propriété du contenu
- Supervision humaine et responsabilité éthique
- Biais et équité
- Collaboration et alignement des politiques
- Durabilité environnementale
Tendances et déséquilibres révélateurs
L’analyse quantitative des thèmes révèle des priorités claires, mais aussi des déséquilibres significatifs. Les résultats montrent que la plupart des universités accordent une grande importance à la transparence, à la sécurité des données et à l’intégrité académique.
En revanche, certains thèmes cruciaux demeurent marginaux. Par exemple, la durabilité environnementale n’est mentionnée que dans 11,48 % des politiques examinées, même si les technologies d’IA ont une empreinte écologique considérable. Cette lacune représente un angle mort préoccupant dans la gouvernance actuelle dans le milieu académique.
Cette étude propose un ensemble complet de directives politiques pour l’IA générative dans le milieu universitaire. Les résultats fournissent des indications précieuses pour les responsables universitaires. Les auteurs suggèrent qu’une politique sur l’IA devrait couvrir l’ensemble des dimensions identifiées, avec une attention particulière pour les domaines actuellement sous-représentés.
Limites et conclusion
Les auteurs reconnaissent certaines limites à leur étude, notamment en termes de taille de l’échantillon et de couverture géographique. Bien que l’analyse de 61 institutions ait été faite, les résultats peuvent ne pas représenter complètement la diversité mondiale des approches politiques.
En conclusion, cette étude offre un cadre de référence précieux pour mieux comprendre et améliorer les politiques de l’IA pour la recherche universitaire assistée par de l’IA. Elle comble un vide dans la littérature existante en fournissant un cadre politique complet sur l’utilisation de l’IA spécifique à la recherche académique.
Bibliographie
Song, R., & Yu, S. (2025). Generative AI policies in academic research. Available at SSRN.
Prillaman, M. (2024). Is ChatGPT making scientists hyper-productive? The highs and lows of using AI. Nature, 627(8002), 16–17. https://doi.org/10.1038/d41586-024-00592-w