Quelques questions éthiques en éducation soulevées par les IA génératives
La Commission de l’éthique en science et en technologie (CEST) du Québec se penche sur les enjeux éthiques qui se cachent derrière l’utilisation de l’IA en éducation. Dans un billet de « L’Éthique Hebdo » paru sur le site de la CEST, la Commission souligne quelques enjeux et conséquences de ces technologies disruptives sur le milieu de l’enseignement supérieur et de l’éducation, notamment lorsqu’il est question d’évaluation des apprentissages pour les étudiant·es.
Depuis, l’apparition des IA génératives, telles que ChatGPT en novembre 2022, DALL·E 2, Google Bard, le nouveau Bing, Dynamics 365 Copilot et Microsoft 365 Copilot de Microsoft, GPT-4 en mars 2023 et plusieurs autres (AI Updates: The 10 biggest announcements since ChatGPT), toutes soulèvent plusieurs questions éthiques liées à l’autonomie, la rigueur, la responsabilité ou encore la propriété intellectuelle.
ChatGPT et évaluation des apprentissages : quels enjeux?
Voici, en résumé, quelques enjeux éthiques soulignés et appuyés par des études qui ont été relevés par la CEST.
Risque de renforcer les inégalités entre les étudiants
1- Sur les informations fournies par des IA génératives, qu’elles soient exactes ou pas, celles-ci confrontent les étudiants à un risque de perte de contrôle. Les personnes étudiantes « n’ont accès qu’au produit final généré par les IA et non aux sources des données mobilisées pour forger ce produit, celles-ci étant incorporées dans des modèles prédictifs souvent opaques » selon la CEST.
Étude
- Aymeric Bouchereau et Ioan Roxin, « Usages de l’apprentissage artificiel pour l’éducation », Communication, technologies et développement [En ligne], 12 | 2022, mis en ligne le 06 septembre 2022, consulté le 11 avril 2023. URL : http://journals.openedition.org/ctd/7955 ; DOI : https://doi.org/10.4000/ctd.7955
2- Sur la préoccupation morale à l’égard des algorithmes opaques, ce qui peut porter atteinte à leur autonomie :
Étude
- Vaassen, B. AI, Opacity, and Personal Autonomy. Philos. Technol. 35, 88 (2022). https://doi.org/10.1007/s13347-022-00577-5
« Ces enjeux sont liés aux valeurs d’explicabilité, de transparence et d’interprétabilité des algorithmes, récurrentes en éthique de l’IA. »
ChatGPT et évaluation des apprentissages : quels enjeux?
Étude
- Chaudhry, M.A., Kazim, E. Artificial Intelligence in Education (AIEd): a high-level academic and industry note 2021. AI Ethics 2, 157–165 (2022). https://doi.org/10.1007/s43681-021-00074-z
Citation des sources et plagiat… des règles mises au défi
3- Sur les règles relatives au plagiat et à la citation des sources, y compris pour les étudiants désirant faire preuve d’intégrité, les IA génératives sèment le doute. Qui sont les auteurs·trices?
Une étude menée en 2021 présente les résultats d’une expérience pédagogique avec une IA générative. Le chercheur demande à des étudiants de premier cycle de « tricher » lors d’une dissertation finale en leur demandant d’utiliser un logiciel d’IA générateur de texte. Pour ce travail, les étudiants ont récolté du contenu à partir d’une installation de GPT-2, puis l’ont intégré à leur essai final. À la fin, ils ont présenté une version « révélée » de leur essai ainsi que leurs propres réflexions sur l’expérience.
Étude
- Fyfe, P. How to cheat on your final paper: Assigning AI for student writing. AI & Soc (2022). https://doi.org/10.1007/s00146-022-01397-z
« Il en découle des questions directement liées au principe de responsabilité, […] de produire des affirmations parfois fausses (manque de rigueur intellectuelle, de pertinence et de fiabilité) et susceptibles de véhiculer des biais (manque de diversité et d’inclusion). »
ChatGPT et évaluation des apprentissages : quels enjeux?
Risque d’incertitude quant au statut de ChatGPT
Selon la CEST, les agents conversationnels basés sur les “larges languages models” (LLM) « ne sont pas non plus dotés de sens moral, d’intelligence émotionnelle, d’empathie, de capacité à exercer un jugement, à ressentir des émotions ou encore à raisonner ». Cependant, les utilisateurs ont tendance à attribuer des qualités humaines (de l’anthropomorphisme) à ces IA, appelé l’effet Eliza, en utilisant des adjectifs pour décrire leur comportement. Ce phénomène est probablement renforcé par le fait que les agents conversationnels sont conçus sur les modèles humains et peuvent donc maîtriser le langage naturel.
4- Sur le statut et le rôle des IA génératives dans un contexte d’évaluation des apprentissages : certains étudiants ou enseignants pourraient-ils être amenés à percevoir et à considérer les IA génératives comme des collaboratrices dotées d’autonomie décisionnelle?
ChatGPT et évaluation des apprentissages : quels enjeux?
[…]
« Des débats ont ainsi déjà eu lieu au sein de la communauté scientifique et académique au sujet du bien-fondé de nommer ChatGPT coauteur dans le cadre de publications. »
Risque de renforcer les inégalités
5- La capacité d’avoir l’accès à l’IA générative présente le risque de renforcer les inégalités entre les étudiant·es notamment.
6- Il faut aussi considérer « leur littératie numérique ou encore leurs aptitudes à utiliser l’IA de manière à en tirer profit. »
7- « Les nouvelles possibilités offertes par les IA génératives amènent ainsi à se questionner sur les compétences que l’on souhaite voir se développer chez les étudiant·es » et les enseignant·es.
Étude
- Gaudreau, Hélène et Marie-Michèle Lemieux (2020). L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux, Études et recherches, Québec, Conseil supérieur de l’éducation, 26 p.