8 avril 2026

L’IA générative à l’épreuve de l’équité et de l’inclusion

Guide pratique pour l’enseignement supérieur

Au lieu de demander seulement ce que l’IAg permet de faire, ce guide oblige à se demander pour qui, à quelles conditions et à quel prix pédagogique et social.

Le Collimateur avait déjà abordé, en juin 2024, les défis de la formation à l’éthique de l’IA générative (IAg) en enseignement supérieur dans un billet sur une trousse pédagogique conçue par Jacob Boivin, Andréane Sabourin Laflamme et Frédérick Bruneault (voir notre billet à ce sujet ici).

Cette même équipe de recherche poursuit maintenant sa réflexion avec la parution du « Guide pratique pour un usage équitable et inclusif de l’intelligence artificielle générative en enseignement supérieur » (Boivin et al., 2026, PDF, 6 Mo). Cette fois, l’analyse se concentre sur les enjeux d’équité et d’inclusion dans l’intégration de l’IA dans nos pratiques pédagogiques.

Ce nouveau guide pose d’emblée un constat important : les effets de l’IAg ne sont ni neutres ni uniformément distribués (Boivin et al., 2026, p. 5). L’enthousiasme technologique, souvent axé sur l’innovation et l’efficacité, peut favoriser une adoption peu réfléchie. Ce document est justement un outil d’aide à la réflexion visant à identifier des situations à risque, à sensibiliser aux inégalités potentielles et à soutenir le développement de pratiques plus justes.

« Ce guide traite spécifiquement des risques que l’usage de l’IAg peut faire peser sur l’équité et l’inclusion, plutôt que sur les opportunités qu’elle est parfois susceptible d’offrir à cet égard. » (Boivin et al., 2026, p. 5)

Un vocabulaire strict pour éviter les pièges

Avant d’analyser les enjeux, le guide établit des définitions opératoires précises adaptées du lexique EDI de l’UQAM, afin d’éviter de prêter des intentions à la machine.

  • L’IAg est défini comme une catégorie de systèmes d’IA qui génèrent automatiquement du nouveau contenu à partir de modèles statistiques entraînés sur de très grands ensembles de données numériques, en identifiant des régularités pour produire des réponses statistiquement plausibles aux requêtes en langage naturel, soulevant d’importants enjeux éthiques, pédagogiques et sociaux (Boivin et al., 2026, p. 6).
  • L’équité y est distinguée de l’égalité formelle : contrairement à cette dernière, qui consiste à offrir les mêmes ressources à tout le monde, l’équité vise à réduire les inégalités structurelles en adaptant les moyens et le soutien aux différences de situation, de besoins et de ressources des personnes apprenantes (Boivin et al., 2026, p. 6).
  • L’inclusion renvoie à un ensemble de pratiques proactives visant à ce que le déploiement de l’IAg ne reproduise ni n’amplifie des formes de discrimination, d’exclusion ou d’invisibilisation, et qu’il ne contribue pas à en créer de nouvelles ; au contraire, l’IAg doit soutenir l’autonomie, la dignité et la capacité d’agir de l’ensemble des personnes étudiantes (Boivin et al., 2026, p. 6).

Quatre thématiques

Le document est organisé de manière méthodique : chacune de ses quatre thématiques est d’abord analysée sous l’angle des risques pour l’équité, illustrée par des exemples situés, avant de se terminer par un ensemble de recommandations concrètes adressées aux instances décisionnelles et au corps enseignant.

Thématique 1 — Accessibilité

L’idée que l’IAg est intrinsèquement accessible à tout le monde est remise en question (Boivin et al., 2026, p. 7). Les modèles les plus performants étant souvent payants, les institutions et les personnes étudiantes ayant de meilleures ressources financières en tirent un avantage structurel direct (Boivin et al., 2026, p. 9). S’ajoute à cela l’inégalité des niveaux de littératie numérique, qui conditionne la capacité à utiliser ces outils de façon éclairée et critique (Boivin et al., 2026, p. 10).

Le guide met aussi en garde contre les risques d’une intégration de l’IAg comme mesure de soutien générique pour les personnes en situation de handicap. Remplacer des mesures d’accommodement humaines par une technologie non évaluée empiriquement peut relever du techno-capacitisme et paradoxalement, entraîner une surcharge cognitive pour la personne concernée (Boivin et al., 2026, p. 10).

« Ainsi, le déploiement de l’IAg n’assure pas en lui-même une démocratisation de l’éducation […]. Lorsqu’elle est mobilisée comme solution générique, sans évaluation de ses limites ni des conditions de son intégration, l’intégration de l’IAg risque de verser dans une logique de techno-solutionnisme, qui repose sur l’idée que l’outil technologique constituerait, à lui seul, une réponse adéquate à des problèmes complexes » (Boivin et al., 2026, p. 10–11).

Les recommandations invitent à déployer des solutions d’accès communes portées par le réseau, à soutenir le développement d’une littératie numérique critique, à assurer un accompagnement technopédagogique structuré au personnel enseignant et à évaluer concrètement la pertinence et l’efficacité des outils d’IAg pour les personnes en situation de handicap (Boivin et al., 2026, p. 12).

Thématique 2 — Qualité et objectivité de l’information

Les modèles d’IAg produisent régulièrement des résultats erronés, fabriqués de toutes pièces. Les auteurs privilégient le terme « fabulation » à celui d’« hallucination », rappelant que la machine ne possède aucune faculté de perception (Boivin et al., 2026, p. 16). La population étudiante ayant une littératie numérique plus faible est particulièrement vulnérable au biais d’automatisation, soit la tendance à accorder une confiance excessive aux résultats générés (Boivin et al., 2026, p. 16).

Plus profondément, le fonctionnement probabiliste de l’IAg tend à reproduire les biais sociohistoriques de ses données d’entraînement, majoritairement occidentales et anglophones (Boivin et al., 2026, p. 15). En s’imposant comme principale médiation à la connaissance, la machine uniformise les contenus et occulte les savoirs hétérodoxes, ce que le guide nomme une « injustice épistémique » (Boivin et al., 2026, p. 17).

Les recommandations invitent à rendre explicites les biais et risques liés au fonctionnement de l’IAg dans les documents pédagogiques et institutionnels, et à éviter de positionner l’IAg comme une source neutre et définitive de connaissance (Boivin et al., 2026, p. 18).

Thématique 3 — Pratiques d’évaluation

L’absence de balises explicites dans les plans de cours quant aux usages permis ou interdits de l’IAg engendre des iniquités de traitement (Boivin et al., 2026, p. 19). Cette zone grise avantage la tranche de la communauté étudiante la plus familiarisée avec les codes implicites de l’institution. Le guide souligne également la difficulté de traiter équitablement les nouvelles formes de fraude, désignées sous le terme de « plagIAt » (emprunté au Conseil supérieur de l’éducation et à la Commission de l’éthique en science et en technologie, CSE & CEST, 2024). Il met en garde contre les outils de détection algorithmique qui génèrent des faux positifs (Boivin et al., 2026, p. 22).

« L’incapacité à déterminer clairement l’origine humaine ou artificielle d’un contenu produit par l’IAg risque également de contribuer à instaurer un climat de méfiance et de suspicion généralisée, dans lequel peut s’installer une présomption de plagiat. Ce type de dynamique risque de miner la relation pédagogique entre personnes apprenantes et personnes enseignantes. » (Boivin et al., 2026, p. 22).

Les recommandations préconisent d’énoncer des balises d’usage précises et contextualisées, d’adopter une posture de dialogue pédagogique en cas de doute plutôt que de recourir à la surveillance algorithmique, d’assurer la transparence lorsque le personnel enseignant utilise l’IAg dans l’évaluation, et de mettre à jour les politiques institutionnelles pour encadrer le plagIAt par des procédures proportionnées incluant un processus d’appel neutre et impartial (Boivin et al., 2026, p. 25).

Thématique 4 — Encadrement pédagogique

La dernière thématique rappelle que l’IAg doit s’inscrire dans un alignement pédagogique rigoureux (Boivin et al., 2026, p. 28). Déléguer de façon répétée des opérations analytiques à la machine peut entraîner un « délestage cognitif », ce qui, s’il n’est pas balisé, compromet le développement réel des compétences visées (Boivin et al., 2026, p. 29). Le guide soulève également les enjeux de protection de la vie privée quand l’utilisation d’outils commerciaux est imposée sans consentement libre et éclairé. Il souligne aussi que la substitution des interactions humaines par l’IAg menace le développement des compétences socio-émotionnelles, fragilisant en particulier les personnes étudiantes en intégration ou socialement isolées (Boivin et al., 2026, p. 30–31).

Les recommandations invitent à subordonner l’usage de l’IAg aux objectifs pédagogiques, à préciser quelles opérations cognitives peuvent être déléguées à l’outil, à réduire les risques relatifs à la vie privée, à assurer le libre choix et le consentement éclairé des personnes étudiantes, et à préserver des espaces d’interaction humaine essentiels à l’apprentissage (Boivin et al., 2026, p. 32).

Penser les usages avec lucidité

Ce guide ne constitue ni un cadre normatif exhaustif ni un guide prescriptif (Boivin et al., 2026, p. 5). Il nous invite à anticiper les effets sociaux de nos choix technopédagogiques pour préserver une éducation véritablement accessible, équitable et intègre.


Référence

Boivin, J., Sabourin Laflamme, A., & Bruneault, F. (2026). Guide pratique pour un usage équitable et inclusif de l’intelligence artificielle générative en enseignement supérieur. Laboratoire d’éthique du numérique et de l’intelligence artificielle (LEN.IA) et Pôle interordres de Montréal (PIM), Cégep André-Laurendeau. Licence CC-BY-NC-SA 4.0.

Sujets similaires