Repenser l’évaluation universitaire à l’ère de l’IAg
Le modèle AICAI pour promouvoir la créativité et l’intégrité
Au-delà du cadre théorique, cet article propose des exemples concrets, un modèle visuel détaillé ainsi que des références scientifiques récentes.
Martine Peters, professeure titulaire au département de l’éducation de l’Université du Québec en Outaouais, et Dimitar Angelov, professeur adjoint au Research Centre for Global Learning (GLEA) de la Coventry University, proposent un cadre systémique pour transformer les pratiques d’évaluation face à l’arrivée de l’intelligence artificielle générative (IAg).
Dans leur article paru en septembre 2025 dans l’International Journal for Educational Integrity, Peters et Angelov présentent le modèle Academic Integrity and Creativity in the age of Generative Artificial Intelligence model (AICAI).
Ce modèle est très utile pour accompagner le corps enseignant et les personnes conseillères en pédagogie universitaire dans la refonte des évaluations, de manière à les repenser pour qu’elles puissent demeurer justes, équitables, stimulantes et résistantes aux dérives liées à l’IAg.
Contexte marqué par deux bouleversements majeurs
Au cours des cinq dernières années, le secteur de l’enseignement supérieur a subi deux bouleversements majeurs.
- Tout d’abord, la pandémie de COVID-19 a accéléré la numérisation de l’enseignement, ce qui a entraîné une augmentation des cas de plagiat en ligne. Ensuite, certains membres de la communauté étudiante ont profité de l’apprentissage à distance et de l’accès facilité aux ressources numériques pour contourner les règles d’intégrité.
- Puis l’IAg, en particulier les outils comme ChatGPT, est venue bouleverser à nouveau le paysage éducatif en permettant la production instantanée de textes difficiles à détecter par les logiciels existants.
Cette double évolution oblige le corps enseignant à revoir de fond en comble ses méthodes d’évaluation. Il ne s’agit plus seulement de détecter et de punir la tricherie, mais de concevoir des exercices qui favorisent l’engagement sincère et qui découragent la tentation de plagiat.
Redéfinir le concept de « plagiat » à l’ère de l’IAg
Peters et Angelov proposent une définition actualisée du plagiat qui intègre les productions générées par l’IAg :
« Présenter les mots ou les idées d’une autre personne, ou ceux générés par une IA, sans référencement à la source d’où provient l’information, dans le but d’en tirer un bénéfice dans un contexte d’évaluation. » p.3 (en français dans Peters 2023, p. 4)
Cette redéfinition met sur le même pied les contenus générés par l’IAg et ceux produits par un être humain, obligeant ainsi les étudiantes et étudiants à les citer explicitement. Elle marque un tournant important dans la manière dont les institutions doivent encadrer l’usage des outils numériques dans les travaux académiques.
Cette modification de la compréhension du plagiat met en évidence la nécessité de revoir les méthodes d’évaluation dans un environnement dominé par l’IA. Pour répondre à ces nouveaux défis, Peters et Angelov proposent un cadre général : le modèle AICAI (Academic Integrity and Creativity in the Age of Artificial Intelligence).
Le modèle AICAI
Le schéma ci-dessous présente tous les éléments que le personnel enseignant doit prendre en compte dans la planification d’une évaluation à l’ère de l’IAg. Ce modèle se lit de gauche à droite, mais le processus de planification ne suit pas nécessairement cet ordre : l’enseignant ou l’enseignante peut commencer par choisir son type d’évaluation authentique, puis sélectionner les objectifs pertinents.

Le modèle se décline en sections, chacune accompagnée d’explications montrant comment les personnes enseignantes peuvent à la fois favoriser la créativité et assurer l’intégrité chez les personnes étudiantes. Sa structure est non linéaire : toute personne enseignante peut commencer par la dimension la plus adaptée à ses priorités et à son contexte pédagogique.
- Caractéristiques du personnel enseignant
Ainsi, lors de la planification de toute tâche d’évaluation pour un cours, un enseignant ou une enseignante doit tenir compte de ses propres caractéristiques. Pour planifier une tâche d’évaluation, on tient compte de l’expérience en enseignement, du nombre de fois où le cours a été donné, de la maîtrise du contenu, de la connaissance du programme (par exemple, prérequis), du niveau d’études, du contexte de l’offre (réalité géographique, climat politique) et de tout lien éventuel avec la recherche. S’ajoute la connaissance de l’IA générative et des outils propres à la discipline. - Objectifs pédagogiques ambitieux
Dans cette section du modèle AICAI, la définition des objectifs d’évaluation doit partir des besoins et intérêts des personnes étudiantes. Explicitez ce qui sera appris et pourquoi c’est pertinent, pour soutenir l’engagement. La taxonomie de Bloom sert à calibrer la complexité et à décourager le plagiat : les objectifs centrés sur « mémoriser » et « comprendre » produisent des tâches simples, propices à des réponses standardisées via l’IAg. Viser « appliquer, analyser, évaluer, créer » engage dans des tâches plus riches et rend la délégation à un outil d’IAg plus difficile.- Créativité réaliste plutôt qu’originalité absolue :
Peters et Angelov remettent en question l’idéal d’originalité totale, souvent irréaliste pour la communauté étudiante en apprentissage. Selon eux, la créativité doit être définie de manière réaliste : elle combine nouveauté et utilité. L’originalité absolue est rarement attendue dans un contexte d’apprentissage. Il s’agit plutôt de trouver des informations pertinentes, puis de les filtrer, de les réorganiser et de les adapter à un objectif précis. Présenter ainsi la créativité rend les tâches moins intimidantes, réduit la tentation de plagier ou d’utiliser l’IAg sans intégrité, et soutient le développement de la pensée critique et de la résolution de problèmes.
- Créativité réaliste plutôt qu’originalité absolue :
- Diversification des types d’évaluation
Le modèle encourage à équilibrer les évaluations diagnostiques, formatives et sommatives. Actuellement, les évaluations sommatives dominent l’enseignement supérieur, bien qu’elles augmentent la tentation de plagiat par leur nature à enjeux élevés et leurs délais fixes. À l’inverse, les évaluations formatives et diagnostiques, trop peu utilisées, offrent une rétroaction précieuse, réduisent la pression et diminuent les comportements frauduleux. Dans le contexte de l’IAg, une évaluation diagnostique initiale peut servir à détecter le plagiat ultérieur. L’intégration de tâches authentiques, orales ou en contexte professionnel, renforce également l’engagement et l’intégrité.

- Gestion du délestage cognitif
Le délestage cognitif consiste à confier certaines fonctions mentales à des technologies pour accroître les performances dans divers domaines, tels que la perception, la mémoire et le raisonnement spatial. Dans le contexte de l’intelligence artificielle générative, les personnes enseignantes doivent préciser clairement quand, comment et pour quel objectif les personnes étudiantes peuvent utiliser l’IAg lors des évaluations. Par exemple, dans un cours de droit, l’IAg pourrait être autorisée pour peaufiner la forme d’un texte juridique, tandis que dans un cours de langue, son usage pour corriger la grammaire serait interdit, puisque c’est précisément cette compétence qui est évaluée.
L’article recommande également une approche d’échafaudage inversé à l’échelle des programmes : par exemple, en administration des affaires, les personnes étudiantes de première année ne seraient pas autorisées à utiliser l’IAg pour créer un plan d’affaires (compétence fondamentale à maîtriser), tandis que celles de quatrième année pourraient y recourir pour préparer leurs plans, tout en devant assurer elles-mêmes l’implémentation.
- Évaluation authentique
L’essor de l’IAg renforce l’intérêt de l’évaluation authentique pour limiter le plagiat et rapprocher les tâches des pratiques réelles. Une tâche authentique met l’accent sur la valeur sociale, dépasse le simple exercice et peut viser un changement transformateur. Elle prend des formes variées : projet, étude de cas, résolution de problème, simulation, présentation orale, analyse de données. Ces tâches, complexes et proches du milieu professionnel, favorisent la réflexion et l’autoévaluation ; les oraux interactifs sont jugés très pertinents et compatibles avec un usage encadré de l’IAg. Il faut intégrer l’IAg pour maximiser l’apport humain, développer l’esprit critique et distinguer la contribution personnelle de celle de la technologie. L’évaluation authentique ne supprime toutefois pas le plagiat ; l’engagement des personnes étudiantes reste déterminant.
- Consignes claires et stratégies anti-plagiat
Rédigez des consignes précises, brèves et soignées sur le plan visuel, en indiquant clairement l’usage permis ou interdit de l’IAg pour chaque tâche. Pour prévenir le plagiat, privilégiez notamment l’échelonnement du travail en étapes avec échéanciers, l’exigence de bibliographies annotées (avec critères), l’intégration de présentations orales et une courte réflexion métacognitive où les personnes étudiantes explicitent leurs apprentissages et les difficultés rencontrées. Autant d’éléments qui rendent la fraude via l’IAg nettement plus difficile. - Critères d’évaluation transparents et co-construits
Rendez les critères et la grille explicites dès le départ. Ensuite, impliquez les personnes étudiantes dans le choix, la pondération et, au besoin, les échéances pour clarifier les attentes et renforcer l’engagement. Peters et Angelov suggèrent d’évaluer non seulement le contenu disciplinaire, mais aussi le processus (démarche, réflexion métacognitive, traçabilité des sources, explicitation de l’usage de l’IAg) et le produit final (respect des consignes, qualité des références) en intégrant des critères propres à la discipline et à des situations professionnelles. Cette approche globale renforce l’intégrité académique et rend plus difficile un recours exclusif à l’IAg, mais ne prétend pas protéger entièrement les travaux des risques liés à l’IA.
Des recommandations pratiques et un tableau de critères
L’article présente également un tableau concret de critères d’évaluation axés sur le contenu, le processus et le produit, qui visent à promouvoir l’intégrité.

On y trouve des critères tels que :
- « Expliquez où et comment vous avez trouvé vos sources » (1 %).
- « Surlignez en jaune les passages où vous avez utilisé l’IAg et expliquez en une phrase comment vous l’avez utilisé » (2 %).
- « Rédigez une réflexion métacognitive de 500 mots expliquant ce qui a été facile ou difficile dans la rédaction du travail » (5 %).
Ces exemples montrent comment intégrer l’IAg de manière transparente et responsabiliser la communauté étudiante.
Le modèle AICAI pour atténuer les défis et maximiser les bénéfices
Peters et Angelov mettent en évidence le fait que, si l’IAg présente un risque pour l’intégrité académique, elle offre également des opportunités uniques pour renforcer la créativité, l’équité, l’engagement et la métacognition au sein de la communauté étudiante. Le modèle AICAI propose donc une approche systémique et des conseils pratiques pour atténuer les défis et maximiser les bénéfices de cette technologie pour toutes les parties prenantes de l’enseignement supérieur.
Lire ce document permet de mieux comprendre comment intégrer ces dimensions dans un programme complet, en utilisant une approche d’échafaudage inversé qui prépare véritablement les communautés étudiantes aux exigences professionnelles de demain.
Bibliographie
- Peters, M., & Angelov, D. (2025). Redefining assessment tasks to promote students’ creativity and integrity in the age of generative artificial intelligence. International Journal for Educational Integrity, 21(25). https://doi.org/10.1007/s40979-025-00201-x
- Peters, M. (2023). Note éditoriale : Intelligence artificielle et intégrité académique peuvent-elles faire bon ménage ? Revue des sciences de l’éducation, 49(1), 1-8. https://doi.org/10.7202/1107846ar




