11 avril 2023

Quelques questions éthiques en éducation soulevées par les IA génératives

« Le mandat de la CEST est de conseiller le gouvernement du Québec sur toute question relative aux enjeux éthiques liés à la science et à la technologie, ainsi que de susciter la réflexion sur ces enjeux. »

https://www.ethique.gouv.qc.ca/fr/a-propos/mandat/

La Commission de l’éthique en science et en technologie (CEST) du Québec se penche sur les enjeux éthiques qui se cachent derrière l’utilisation de l’IA en éducation. Dans un billet de « L’Éthique Hebdo » paru sur le site de la CEST, la Commission souligne quelques enjeux et conséquences de ces technologies disruptives sur le milieu de l’enseignement supérieur et de l’éducation, notamment lorsqu’il est question d’évaluation des apprentissages pour les étudiant·es.

Depuis, l’apparition des IA génératives, telles que ChatGPT en novembre 2022, DALL·E 2, Google Bard, le nouveau Bing, Dynamics 365 Copilot et Microsoft 365 Copilot de Microsoft, GPT-4 en mars 2023 et plusieurs autres (AI Updates: The 10 biggest announcements since ChatGPT), toutes soulèvent plusieurs questions éthiques liées à l’autonomie, la rigueur, la responsabilité ou encore la propriété intellectuelle.

ChatGPT et évaluation des apprentissages : quels enjeux?

Voici, en résumé, quelques enjeux éthiques soulignés et appuyés par des études qui ont été relevés par la CEST.

Risque de renforcer les inégalités entre les étudiants 

1- Sur les informations fournies par des IA génératives, qu’elles soient exactes ou pas, celles-ci confrontent les étudiants à un risque de perte de contrôle. Les personnes étudiantes « n’ont accès qu’au produit final généré par les IA et non aux sources des données mobilisées pour forger ce produit, celles-ci étant incorporées dans des modèles prédictifs souvent opaques » selon la CEST.

Étude

  • Aymeric Bouchereau et Ioan Roxin, « Usages de l’apprentissage artificiel pour l’éducation », Communication, technologies et développement [En ligne], 12 | 2022, mis en ligne le 06 septembre 2022, consulté le 11 avril 2023. URL : http://journals.openedition.org/ctd/7955 ; DOI : https://doi.org/10.4000/ctd.7955

2- Sur la préoccupation morale à l’égard des algorithmes opaques, ce qui peut porter atteinte à leur autonomie :

Étude

« Ces enjeux sont liés aux valeurs d’explicabilité, de transparence et d’interprétabilité des algorithmes, récurrentes en éthique de l’IA. »

ChatGPT et évaluation des apprentissages : quels enjeux?

Étude

Citation des sources et plagiat… des règles mises au défi

3- Sur les règles relatives au plagiat et à la citation des sources, y compris pour les étudiants désirant faire preuve d’intégrité, les IA génératives sèment le doute. Qui sont les auteurs·trices?

Une étude menée en 2021 présente les résultats d’une expérience pédagogique avec une IA générative. Le chercheur demande à des étudiants de premier cycle de « tricher » lors d’une dissertation finale en leur demandant d’utiliser un logiciel d’IA générateur de texte. Pour ce travail, les étudiants ont récolté du contenu à partir d’une installation de GPT-2, puis l’ont intégré à leur essai final. À la fin, ils ont présenté une version « révélée » de leur essai ainsi que leurs propres réflexions sur l’expérience.

Étude

« Il en découle des questions directement liées au principe de responsabilité, […] de produire des affirmations parfois fausses (manque de rigueur intellectuelle, de pertinence et de fiabilité) et susceptibles de véhiculer des biais (manque de diversité et d’inclusion). »

ChatGPT et évaluation des apprentissages : quels enjeux?

Risque d’incertitude quant au statut de ChatGPT

Selon la CEST, les agents conversationnels basés sur les “larges languages models” (LLM) « ne sont pas non plus dotés de sens moral, d’intelligence émotionnelle, d’empathie, de capacité à exercer un jugement, à ressentir des émotions ou encore à raisonner ». Cependant, les utilisateurs ont tendance à attribuer des qualités humaines (de l’anthropomorphisme) à ces IA, appelé l’effet Eliza, en utilisant des adjectifs pour décrire leur comportement. Ce phénomène est probablement renforcé par le fait que les agents conversationnels sont conçus sur les modèles humains et peuvent donc maîtriser le langage naturel.

4- Sur le statut et le rôle des IA génératives dans un contexte d’évaluation des apprentissages : certains étudiants ou enseignants pourraient-ils être amenés à percevoir et à considérer les IA génératives comme des collaboratrices dotées d’autonomie décisionnelle?
[…]
« Des débats ont ainsi déjà eu lieu au sein de la communauté scientifique et académique au sujet du bien-fondé de nommer ChatGPT coauteur dans le cadre de publications. »

ChatGPT et évaluation des apprentissages : quels enjeux?

Risque de renforcer les inégalités

5- La capacité d’avoir l’accès à l’IA générative présente le risque de renforcer les inégalités entre les étudiant·es notamment.

6- Il faut aussi considérer « leur littératie numérique ou encore leurs aptitudes à utiliser l’IA de manière à en tirer profit. »

7- « Les nouvelles possibilités offertes par les IA génératives amènent ainsi à se questionner sur les compétences que l’on souhaite voir se développer chez les étudiant·es » et les enseignant·es.

Étude

Pour en savoir plus
Bibliographie des travaux de la Commission de l’éthique en science et en technologie portant sur les enjeux éthiques soulevés par l’intelligence artificielle
La CEST et l’intelligence artificielle

Sujets similaires