La cinquième vague de l’IAg en enseignement supérieur
Une vue d’ensemble pour s’orienter dans ce déferlement de vagues successives
Profitant de la semaine de lecture de mars 2026, le responsable de la veille du Collimateur à l’UQAM, Yves Munn propose un regard macro sur les changements progressifs apportés par le déferlement de différentes vagues de l’IA générative (IAg) en éducation. Il s’appuie sur des sources choisies et récoltées entre 2018 et 2026.
Alvin Toffler avait annoncé dès 1980 que les grandes transformations de la civilisation arrivent en vagues successives qui se chevauchent et se déplacent les unes les autres¹. L’intelligence artificielle générative nous contraint maintenant à ajouter une nouvelle image à celle des vagues successives : ces vagues ne se retirent jamais. Chacune recouvre la précédente, fait monter le niveau de la mer et peut rendre insuffisantes les réponses institutionnelles produites à l’étape antérieure.
Marshall McLuhan avait formulé une mise en garde complémentaire : le médium transforme autant que le message². Dans le cas de l’IAg, la rupture ne tient pas seulement à ce que ces systèmes génèrent, mais s’étend aux changements qu’ils installent dans les pratiques cognitives, pédagogiques et organisationnelles. Voici cinq vagues (des mini-révolutions) qui permettent de suivre ce roulement, non pas comme une évolution linéaire, mais comme une montée successive où chaque déferlante conserve l’enjeu de la précédente tout en en déplaçant le centre.
Cinq documents québécois récents, de nature juridique et normative distincte, organisent ce paysage selon une structure séquentielle et hiérarchisée.
- Le rapport CSE-CEST (2024)³ sert de base avec ses vingt recommandations.
- Le Cadre de référence du MES (2025)⁴ en tire une vision commune et cinq principes directeurs.
- Le Guide pratique MES-IVADO (2025)⁵ opérationnalise ces principes en outils concrets.
- L’arrêté ministériel MCN no 2025-02 et l’indication d’application IA-RI-2025-003-OP⁶ forment enfin le plancher légal contraignant applicable à tous les organismes publics québécois.
Ces cinq textes partagent une fondation éthique commune qui leur est antérieure : la Déclaration de Montréal pour un développement responsable de l’IA (2018)⁷. Cette dernière comprend dix principes qui en structurent les orientations : bien-être, autonomie, vie privée, solidarité, participation démocratique, équité, diversité, prudence, responsabilité, durabilité.
Vue d’ensemble
Le tableau ci-dessous propose une vue d’ensemble des différentes vagues. Les vagues 3 et 4 se chevauchent partiellement. L’agentique expérimentale et l’intégration aux systèmes institutionnelle pourraient potentiellement coexister à des degrés variés de maturité, comme deux vagues qui se croisent avant de se fondre.
| Vague | Quoi | Les enjeux | L’image |
|---|---|---|---|
| 1. 2022 | ChatGPT génère du texte | – Décharge cognitive ; – La forme écrite cesse d’être une preuve suffisante de compétence. | Le simulateur de discours (et ses hallucinations) |
| 2. (2020) / 2023 | RAG ancre les réponses dans des sources | – Confiance aveugle aux sources ; – La responsabilité se déplace vers la gouvernance et la traçabilité des sources. | Le bibliothécaire contraint |
| 3. 2023–2024 (chevauchement) | L’agentique planifie et agit | – Effet Eliza ; – L’assistance porte aussi sur la démarche intellectuelle, pas seulement sur le produit. | Le stagiaire désorganisé |
| 4. 2024–2026 (chevauchement) | Le MCP intègre l’IA aux systèmes | – Déploiements non gouvernés et souveraineté numérique ; – L’IA devient une composante potentielle du système d’information des établissements. | La prise USB-C universelle |
| 5. 2026 et + | A2A (Agent to Agent) fait collaborer les agents | – La compétence devient orchestration – Équité des conditions d’accès | Le chef d’orchestre |
── 2022 ── Première vague : ChatGPT génère du texte
L’accès public à ChatGPT permet tout à coup de rédiger des textes académiques irréprochables sur le plan de la forme. La rédaction, longtemps considérée comme une preuve suffisante de maîtrise, cesse d’être un indicateur fiable de compétence. Les réactions vont de l’enthousiasme à l’interdiction, en concentrant souvent le débat sur la question du plagiat, alors qu’elle va bien au-delà.
Le vrai danger, documenté dans le rapport CSE-CEST, est la décharge cognitive : des usages de l’IA qui court-circuitent l’effort intellectuel nécessaire à l’acquisition des savoirs et au développement des compétences visées⁸. L’image du simulateur de discours est éclairante : le ton est juste, la syntaxe irréprochable, mais le raisonnement peut être creux et les faits, inventés.
Pour les personnes enseignantes et les conseillères et conseillers pédagogiques, la réponse n’est pas l’interdiction systématique, mais le renforcement de l’alignement pédagogique. C’est-à-dire une cohérence entre objectifs d’apprentissage, activités et évaluation⁸. Le rapport pose aussi une condition non négociable que chaque vague suivante confirme : tout encadrement doit respecter l’autonomie des établissements, l’autonomie professionnelle des personnes enseignantes et la liberté académique⁹. La première vague n’a pas tout emporté, elle a plutôt révélé que les dispositifs d’évaluation reposaient sur des présupposés qui devront dorénavant être clairement explicites. La deuxième vague entraînera un changement encore plus profond de ces fondements.
── (2020) / 2023 ── Deuxième vague : la RAG et les sources
La génération augmentée par récupération documentaire (RAG) est apparue dès 2020¹⁰, mais ce n’est qu’en 2023 qu’elle a réellement commencé à se répandre dans les milieux éducatifs. Au lieu de générer du contenu à partir d’un apprentissage statistique général, le système est désormais contraint de répondre à partir d’un corpus fourni. C’est là sa principale vertu pédagogique. À l’image d’un bibliothécaire contraint de consulter uniquement le corpus qui lui est soumis, mais qui cite toujours ses sources.
Cette contrainte met en évidence la valeur stratégique du corpus validé. Dans un environnement saturé de contenus probabilistes, les collections disciplinaires, les sources primaires et les données rigoureusement gouvernées reprennent leur valeur, que les bibliothèques universitaires et les équipes de soutien documentaire sont particulièrement bien placées pour soutenir. Reste un risque pédagogique spécifique identifié par le rapport CSE-CEST : la tendance à accorder à l’IAg une confiance aveugle au détriment du jugement critique — le système cite bien, mais uniquement ce qu’on lui a fourni, et le lecteur peut oublier d’interroger le choix même du corpus¹¹.
Cette vague ne supprime pas les risques de la vague précédente. Elle les redirige vers la gouvernance du corpus. La troisième vague les étendra jusqu’à la démarche intellectuelle elle-même.
── 2023–2024 ── Troisième vague : L’agentique planifie et agit
Avec l’agentique, l’IA franchit un nouveau seuil. Elle peut désormais planifier et exécuter une série de tâches enchainées de manière autonome. Ce n’est plus seulement le produit intellectuel qui peut être aidé, c’est aussi la stratégie qui y mène. L’image du stagiaire désorganisé est évocatrice : motivé et parfois efficace, mais sans accès fiable aux bons systèmes, sans supervision claire et sans responsabilités assumées.
Le rapport CSE-CEST identifie ici deux risques distincts. D’abord, l’effet Eliza, la tendance documentée à anthropomorphiser les agents conversationnels et à leur accorder une confiance démesurée, particulièrement chez des personnes en situation de vulnérabilité¹². Ensuite, le risque de délégation de tâches comportant un risque de préjudice, telles que la correction, l’orientation et la prise de décision évaluative, pour lesquelles la responsabilité professionnelle est non transférable¹³.
Le Cadre de référence inscrit cet impératif dans son principe d’humanisme et d’agentivité, selon lequel l’humain doit demeurer l’acteur central, l’IAg étant un appui complémentaire et non un substitut décisionnel¹⁵. L’indication d’application rend ce principe opérationnel en imposant une supervision humaine proportionnée au degré d’autonomie du système et à l’impact potentiel de ses décisions¹⁶. Cette vague ne règle pas la question de la gouvernance des sources ; elle y ajoute celle de la gouvernance de la démarche. La quatrième vague devrait intégrer cette double exigence dans les infrastructures mêmes des établissements.
── 2024–2026 ── Quatrième vague : le MCP intègre l’IA aux systèmes
Le Model Context Protocol (MCP), lancé par Anthropic en novembre 2024, représente moins une avancée de l’IA elle-même qu’une transformation de son mode de communication entre les systèmes. Ce standard ouvert permet à un agent d’IA de se connecter à des systèmes externes, tels que des environnements numériques d’apprentissage, des bases documentaires ou encore des outils administratifs, de façon standardisée. Il fonctionne à l’image d’une prise USB-C universelle qui remplace la prolifération des interfaces propriétaires par une connexion commune. Un système d’IA cesse d’être un outil périphérique pour devenir une couche possible d’orchestration au sein du système d’information de l’établissement¹⁷.
Deux dangers émergent avec cette vague. Le premier est similaire au Shadow IT en gestion des systèmes d’information¹⁸ . Par exemple, un membre du personnel qui déploierait localement un serveur MCP non autorisé créerait une faille de sécurité non traçable par l’établissement. C’est ce que des observateurs de la pratique désignent par Shadow MCP par analogie directe¹⁷. Le second est celui de la souveraineté numérique : qui contrôle les données, où sont-elles hébergées, quels fournisseurs y ont accès ?
L’indication d’application répond directement à ces deux risques en imposant une structure de gouvernance adaptée, un processus d’évaluation documenté pour chaque cas d’utilisation, une gestion stricte des accès et des lignes directrices internes précisant les usages autorisés¹⁹. Elle stipule qu’il faut préférer les solutions hébergées au Québec ou au Canada lorsque des informations confidentielles sont en jeu, et privilégier les modèles ouverts lorsque la traçabilité complète est nécessaire²⁰. L’ère du bannissement indistinct cède la place à un mode de gouvernance structuré et documenté. La cinquième vague étendra cette exigence jusqu’à l’orchestration d’ensemble.
── 2026 et + ── Cinquième vague : A2A fait collaborer les agents
Là où le MCP pose la question de savoir quels systèmes l’agent peut atteindre, l’A2A (Agent to Agent) pose la question de savoir qui, de l’humain ou de la chaîne d’agents, détient la responsabilité du raisonnement. Ainsi le MCP standardise le dialogue agent‑outil, A2A standardise le dialogue agent‑agent.
Les architectures A2A sont encore presque inexistantes dans les contextes éducatifs. Google a pourtant publié des spécifications sur ces architectures en 2025²². Elles visent à ce que des agents spécialisés puissent collaborer directement entre eux, l’un pourrait documenter, l’autre analyser, un troisième synthétiser, sous supervision humaine. Ce que cette évolution amplifie et rend plus visible est un enjeu qui se manifeste déjà dans les outils actuels : la compétence requise n’est plus de produire avec l’IA, mais d’orchestrer, d’arbitrer et de valider des contributions multiples tout en assumant la responsabilité d’ensemble. L’image du chef d’orchestre s’impose.
Dans un article paru en 2024 dans la revue Médiations & médiatisations, Giroux et al. mettent en évidence les facteurs sous-jacents à cette vague. Les écarts de compétences numériques entre les étudiantes et étudiants qui entrent à l’université, conjugués à la montée de l’IAg, risquent de creuser des inégalités déjà documentées et appellent, selon ces auteur·es, à repenser la place et la progression de la compétence numérique dans le système éducatif québécois²³. C’est précisément ce que le rapport CSE-CEST anticipait en recommandant de mettre à jour le Cadre de référence de la compétence numérique à la lumière des développements en IA générative²⁴. Le Cadre de référence du MES énonce quant à lui le critère d’évaluation suivant : l’IAg doit contribuer de manière significative et pertinente à la réussite éducative ou à la création de nouveaux savoirs, et ne pas se substituer à l’un ou à l’autre⁴.
Une expérience relatée par Giroux dans un billet de 2026 illustre concrètement ce que cette compétence rend possible et ce qu’elle présuppose. En 35 minutes, avec l’aide de Copilot et d’un article en libre accès, il a obtenu une trentaine de références pertinentes et une première analyse. Ayant ensuite ajusté son hypothèse, il a relancé l’agent, obtenu une analyse recentrée, puis un protocole de recension systématique, en plus d’un plan de méta-analyse²⁵. Ce qui importe dans ce récit, ce n’est pas la vitesse, mais l’itération dirigée. Giroux reformule, réoriente, valide. C’est ce geste de direction active qui constitue la compétence essentielle à la recherche universitaire. La question qui en découle est révélatrice d’une situation préoccupante :
« Est-ce possible de profiter autant de l’IA si tu ne sais pas comment faire de la recherche ? Peut-on réellement poser les bonnes questions à l’IA et lui donner les bonnes tâches à réaliser si on ne sais [sic] pas déjà faire de la recherche ? Si on n’est pas déjà critique ? Si on n’est pas déjà informé de l’état des connaissances dans un domaine particulier²⁵ ? »
En d’autres termes, l’IAg n’est pas un raccourci vers la compétence, mais elle en est l’amplificateur. Les personnes qui ne maîtrisent pas encore les fondements d’un champ disciplinaire ne pourront pas guider l’agent conversationnel avec la même précision que celles et ceux qui les maîtrisent.
Cette vague ne se retirera pas non plus et elle pose la question la plus profonde de toutes : si l’IA n’amplifie que l’expertise déjà constituée, qui est responsable de s’assurer que cette expertise soit réellement là ?
Cinq vagues qui ne se retirent pas
Ces cinq vagues successives ne se remplacent pas, elles s’accumulent et le niveau monte. La première a révélé la fragilité de la forme comme preuve de compétence. La deuxième a déplacé la responsabilité vers la gestion des sources. La troisième a étendu la délégation jusqu’à la démarche intellectuelle elle-même. La quatrième fait entrer l’IA dans les infrastructures organisationnelles des établissements. La cinquième vague annonce un double défi. Le premier défi est celui de l’orchestration d’ensemble, soit de diriger des agents sans abdiquer la responsabilité intellectuelle. Le deuxième défi est celui de l’équité numérique. Il faut s’assurer que les conditions sont accessibles à toutes et à tous.
Pour les conseillères et les conseillers pédagogiques, pour les professeures et les professeurs de cégep et d’université, aucune de ces vagues n’appelle ni l’enthousiasme sans discernement ni la posture défensive. Les cinq textes d’encadrement québécois convergent vers une position cohérente. Il faut intégrer l’IA de manière explicite, prudente et documentée, en maintenant l’humain comme décideur éclairé à chaque niveau critique du processus. Cette responsabilité incombe aussi, très concrètement, à chaque personne enseignante et à chaque conseillère ou conseiller pédagogique qui décide, à chaque jour, des conditions dans lesquelles l’IA entre ou non dans l’acte d’apprendre.
Shannon Vallor, citée dans le Guide pratique, résume cette responsabilité de manière claire et concise : « Si personne ne conduit le bus, c’est que nous avons lâché le volant. Tout ce que nous avons à faire pour reprendre le contrôle, c’est remettre nos mains sur le volant et réfléchir à la destination que nous voulons atteindre²⁶. »
Références
¹ Toffler, A. (1980). La Troisième Vague (trad. M. Deutsch). Denoël.
² McLuhan, M. (1968). Pour comprendre les médias : les prolongements technologiques de l’homme (trad. J. Paré). Mame/Seuil. (Œuvre originale publiée en 1964.)
³ Conseil supérieur de l’éducation (CSE) et Commission de l’éthique en science et en technologie (CEST). (2024). Intelligence artificielle générative en enseignement supérieur : enjeux pédagogiques et éthiques. Gouvernement du Québec. https://www.cse.gouv.qc.ca/publications/ia-enseignement-sup-50-0566/
⁴ Ministère de l’Enseignement supérieur (MES). (2025). Cadre de référence issu des travaux de l’Instance de concertation nationale sur l’IA en enseignement supérieur. Gouvernement du Québec. https://campus-ressources.gouv.qc.ca/item/4439
⁵ MES et IVADO. (2025). Guide pratique pour l’intégration responsable de l’IA dans les établissements d’enseignement supérieur. Gouvernement du Québec. https://campus-ressources.gouv.qc.ca/item/4440
⁶ Ministère de la Cybersécurité et du Numérique (MCN). (2025a). Arrêté no 2025-02 — Énoncé de principes pour une utilisation responsable de l’intelligence artificielle par les organismes publics. Gouvernement du Québec https://cdn-contenu.quebec.ca/cdn-contenu/adm/min/cybersecurite_numerique/Publications/Strategie_IA/Enonce_IA.pdf ;
MCN. (2025b). Indication d’application IA-RI-2025-003-OP : mesures applicables lors de l’utilisation de l’intelligence artificielle générative (5 décembre 2025). Gouvernement du Québec. https://cdn-contenu.quebec.ca/cdn-contenu/adm/min/cybersecurite_numerique/Publications/Strategie_IA/Indication_app_IAG.pdf
⁷ Comité sur l’intelligence artificielle responsable. (2018). Déclaration de Montréal pour un développement responsable de l’IA. Université de Montréal. https://declarationmontreal-iaresponsable.com
⁸ CSE et CEST (2024), recommandation 3.
⁹ CSE et CEST (2024), recommandation 6 ; MES (2025), vision de l’intégration de l’IA en enseignement supérieur.
¹⁰ Lewis, P., Perez, E., Piktus, A., Petroni, F., Karpukhin, V., Goyal, N., Küttler, H., Lewis, M., Yih, W., Rocktäschel, T., Riedel, S. et Kiela, D. (2020). Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. Advances in Neural Information Processing Systems, 33, 9459–9474. https://doi.org/10.48550/arXiv.2005.11401
¹¹ CSE et CEST (2024), recommandation 17.
¹² CSE et CEST (2024), section sur l’effet Eliza et les risques d’anthropomorphisation des agents conversationnels.
¹³ CSE et CEST (2024), recommandation 10.
¹⁵ MES (2025), principe directeur no 3 — Humanisme et agentivité. Le Cadre de référence s’appuie lui-même sur Bandura, A. (2001). Social cognitive theory: An agentic perspective. Annual Review of Psychology, 52(1), 1–26.
¹⁶ MCN (2025b), art. 17, al. 2°.
¹⁷ La Veille de Stef [blogue de veille technopédagogique]. (2026, 2 mars). C’est quoi le MCP ? Le guide simplifié de la révolution IA au Québec. https://laveilledestef.com/2026/03/02/cest-quoi-le-mcp-le-guide-simplifie-de-la-revolution-ia-au-quebec. Les métaphores USB-C et Shadow MCP y sont introduites à titre de vulgarisation.
¹⁸ Silic, M. et Back, A. (2014). Shadow IT — A view from behind the curtain. Computers & Security, 45, 274–283.
¹⁹ MCN (2025b), art. 3 et 17.
²⁰ MCN (2025b), art. 5 et 9.
²² Google. (2025). Agent2Agent Protocol (A2A) — Spécifications techniques. Google Developers. https://a2a-protocol.org/latest/
²³ Giroux, P. et al. (2024). Il faut repenser la place de la compétence numérique dans le système éducatif québécois. Médiations & médiatisations, (17), 108–114. https://doi.org/10.52358/mm.vi17.385.
²⁴ CSE et CEST (2024), recommandation 12.
²⁵ Giroux, P. (2026, 2 mars). Réflexion rapide sur l’IA et les études graduées. Pédagotic, Université du Québec à Chicoutimi. https://www.uqac.ca/pedagotic/reflexion-rapide-sur-lia-et-les-etudes-graduees/
²⁶ Vallor, S., citée dans MES et IVADO (2025).




