Intégrité académique et IA en éducation : des recommandations et des stratégies
Fruit d’un travail de rédaction collaborative mené par sept chercheur·es, un document de travail publié en libre accès dans l’International Journal of Educational Integrity est appelé à évoluer au fil des avancées de l’intelligence artificielle.
Selon les signataires, dès lors que les apprenant·es ont recours à une technologie de l’IA, ils devraient être tenus de le déclarer. Dans la mesure du possible, ils devraient également spécifier l’intrant précis qu’ils ont tiré de cet usage.
L’intérêt de ce bref texte est de proposer des pistes d’actions concrètes à l’ensemble des parties prenantes du monde de l’éducation, et au particulier aux responsables politiques, aux institutions d’enseignement et aux personnes enseignantes afin de baliser l’utilisation éthique de l’intelligence artificielle en contexte éducatif. Ce sont de premières balises tracées pour utiliser les outils de l’IA générative de manière responsable et conformément aux pratiques et aux valeurs de l’intégrité académique.
Recommandations
Dans l'esprit des recommandations formulées dans le texte résumé ici, déclarons que les citations, ci-dessous, tirées du texte ont d'abord été traduites en utilisant l'application DeepL, puis revues et améliorées pour coller, d'une part, au sens du texte original et, d'autre part, à la terminologie de langue française en vigueur.
Foltynek, T., Bjelobaba, S., Glendinning, I. et al. ENAI Recommendations on the ethical use of Artificial Intelligence in Education. Int J Educ Integr 19, 12 (2023).
- « Toutes les personnes, sources et outils qui influencent les idées ou génèrent le contenu doivent être dûment mentionnés. Par conséquent, lorsqu’un outil d’IA est utilisé, il doit être mentionné. Dans la mesure du possible, les données fournies à l’outil d’IA doivent être précisées. »
- « L’utilisation appropriée de services, de sources et d’outils qui n’influencent que la forme est généralement acceptable (par exemple, correcteurs d’épreuves, outils de relecture, correcteurs orthographiques, thésaurus). »
- « Un outil d’IA ne peut pas être cité comme co-auteur dans une publication, car il ne peut pas assumer la responsabilité du contenu et des résultats rapportés. »
- « Les résultats des outils d’IA peuvent inclure des contenus biaisés, inexacts ou incorrects dont les utilisateurs doivent être conscients. Cela peut être dû à des biais dans les données d’apprentissage, les algorithmes, les filtres, etc. »
- « Les outils basés sur l’IA peuvent être utilisés pour transformer, produire ou générer tout type de contenu, comme du texte, des images, de l’art, de la musique ou du code de programmation. Différentes technologies, dont l’apprentissage automatique et les réseaux neuronaux, sont utilisées pour développer les capacités de ces outils. »
- « La personne (être humain ou entité juridique) est toujours responsable du contenu, qu’il ait été généré par l’IA ou non (voir COPE Guidelines for Authorship and AI by Levene 2023). »
- « Il est important d’inclure des formations sur l’IA dans l’éducation de tous les étudiant·es et dans la formation des enseignant·es. »
- « Si les étudiant·es n’ont pas l’occasion de s’informer sur l’utilisation éthique de l’IA, ils seront plus susceptibles de s’engager dans une utilisation inappropriée de l’IA, ce qui peut constituer une inconduite académique. […] Ils utiliseront des outils de l’IA dans leur vie professionnelle. Ils devraient donc avoir la possibilité d’acquérir ces compétences au cours de leur formation. »
- « Des orientations nationales et des politiques institutionnelles devraient être élaborées et/ou reformulées pour inclure l’IA. »
Développer et de mettre en œuvre des politiques éducatives
Les recommandations proposées considèrent trois niveaux d’intervention à considérer pour parvenir à expliciter les attentes auxquelles il importe de se conformer. D’abord, établir un cadre réglementaire nationale qui établisse des grands principes. Ensuite, produire des politiques institutionnelles claires. Finalement, permettre aux enseignant·es qui en éprouvent le besoin d’établir des règles spécifiques au niveau de leur groupe-cours.
Au niveau des politiques institutionnelles, celles-ci devraient :
- établir quand et dans quels contextes il est éthique, ou non, d’utiliser différents outils d’IA ;
- guider les apprenant·es pour savoir comment déclarer correctement les utilisations qu’il est possible, ou non, de faire concernant l’utilisation de l’IA dans les travaux scolaires, les mémoires et thèses, les productions savantes, les programmes informatiques, les images, ou tout autre type d’artéfact ;
- être communiquées clairement à toutes les parties prenantes.
Terminons en signalant que le texte met bien en relief l’importance de différencier les menaces des opportunités qui sont associées à l’usage de l’IA en éducation.
Ressources uqamiennes
Les enseignant·es devraient être informés à l’utilisation éthique de l’IA en ce qui a trait aux cibles et aux activités d’apprentissage, mais aussi aux stratégies d’évaluations.
Le Carrefour d’innovation et de pédagogie universitaire de l’UQAM a produit une infographie pédagonumérique exposant dix stratégies que les personnes enseignantes peuvent utiliser pour éviter le plagiat et la tricherie lors de l’utilisation d’un agent conversationnel dans les évaluations.
Pour citer cette ressources
Castell, P., Petiteau, L. (2023). 10 stratégies Pour éviter le plagiat lors de l’utilisation d’un agent conversationnel (ChatGPT) dans les évaluations. Le Carrefour UQAM (enseigner.uqam.ca). CC BY 4.0
Accéder au PDF de l’infographie pédagonumérique sous licence CC-BY 4.0 (PDF 189 Ko)
Document de travail de l’ENAI
Foltynek, T., Bjelobaba, S., Glendinning, I. et al. ENAI Recommendations on the ethical use of Artificial Intelligence in Education. Int J Educ Integr 19, 12 (2023). (PDF 826 Ko)
Open Access : This article is licensed under a Creative Commons Attribution 4.0 International License,