11 mai 2026

GEN(Z)AI — Rapport final sur la gouvernance de l’IA

Recommandations formulées par des jeunes du Canada de 17 à 23 ans

« Celles et ceux qui ont le plus à gagner ou à perdre s’expriment clairement et en leur propre nom. » (Hayes & Linley-Mota, 2026)

Entre novembre 2025 et mars 2026, 100 jeunes Canadiennes et Canadiens de 17 à 23 ans ont participé à une démarche délibérative inédite sur l’intelligence artificielle et les préjudices en ligne. Le Centre de dialogue Morris J. Wosk de l’Université Simon Fraser (SFU) et le Centre pour les médias, la technologie et la démocratie de l’Université McGill ont lancé l’initiative GenZAI. Quatre forums régionaux ont ainsi été tenus à Toronto, Montréal, Vancouver et Halifax, chacun axé sur un domaine politique spécifique.

Les personnes participantes, tirées au sort pour représenter la diversité géographique, linguistique et démographique du Canada, ont bénéficié d’une formation auprès de spécialistes, débattu en petits groupes animés et produit des recommandations politiques adoptées par consensus à 90 %. Ces recommandations ont par la suite été soumises à des milliers de jeunes Canadiens grâce à une plateforme numérique de participation nationale. Le rapport final, disponible en français (PDF, 4Mo) et en anglais, a été rendu public en avril 2026.

6 thèmes transversaux

Le rapport documente les six thèmes récurrents suivants abordés lors des quatre forums :

1 – Échec de la transparence auprès de la génération Z

« Dans les quatre forums, l’un des constats les plus récurrents que nous avons recueillis est que les mécanismes de transparence existants, y compris les politiques de confidentialité, les mécanismes de consentement, les conditions d’utilisation et les requêtes de divulgation, échouent systématiquement auprès des jeunes utilisateurs. Dans ce contexte, les participant.es ont d’abord décrit ce que l’on pourrait appeler la fatigue de divulgation (disclosure fatigue), un état d’indifférence créé par la densité même des mécanismes de consentement, qui rend pratiquement impossible tout engagement véritable avec ceux-ci. » (Hayes & Linley-Mota, 2026, p. 19).

2 – Fardeau individuel et limites de la littératie informationnelle

À ce déficit de transparence s’ajoute un constat structurel partagé par l’ensemble des quatre forums : ce sont les jeunes, les moins bien équipés, qui portent le poids de problèmes dont l’origine est pourtant systémique.

« On s’attend des jeunes, selon les participant.es, ce qu’ils soient aptes à identifier la mésinformation et la désinformation dans des environnements informationnels saturés, protéger leur propre vie privée contre une extraction de données constante et largement invisible, autoréguler leur engagement avec des systèmes d’IA délibérément conçus pour créer une dépendance chez les utilisateurs, et naviguer sur des plateformes dont le fonctionnement interne demeure délibérément opaque. » (Hayes & Linley-Mota, 2026, p. 21).

Les jeunes de la génération Z soulignent l’insoutenable de cette situation : on leur confie des responsabilités qu’ils sont incapables d’assumer réellement en raison du manque de soutien institutionnel, de l’accès à l’information et des leviers structurels disponibles.

3 – Maximisation de l’engament par des systèmes optimisés pour capter et maintenir l’attention

Ce que vivent les jeunes n’est pas un accident technologique. C’est le résultat prévisible de systèmes conçus avant tout pour maximiser le temps d’écran et les profits. Les dommages et préjudices qu’ils et elles subissent ne sont pas des effets secondaires imprévus. Qu’il s’agisse de la flagornerie (sycophancy) des agents conversationnels qui cultivent la dépendance émotionnelle, des algorithmes de recommandation qui favorisent les contenus polarisants au détriment de l’équilibre informationnel, ou des pratiques de collecte de données conçues pour précéder et contourner tout consentement individuel, ces choix sont des décisions commerciales conscientes.

« Plusieurs participant.es ont décrit leurs propres expériences de « délégation cognitive » ou de dépendance émotionnelle qu’ils et elles trouvaient difficiles à inverser, et ont relié ces dynamiques à des choix de conception auxquels ils et elles n’avaient jamais consenti. » (Hayes & Linley-Mota, 2026, p. 23)

Les jeunes nomment également la prolifération du contenu IA de faible qualité produit en masse, désigné dans le rapport par l’expression « AI slop », comme un produit direct de cette logique.

4 – Reddition de comptes sur les préjudices causés par les développeurs de l’IA

Dans les quatre forums, les jeunes ont exprimé leur inquiétude quant au manque d’obligations pour les entreprises technologiques de prévenir, signaler ou corriger les dommages causés par leurs systèmes.

À Toronto, cette urgence a été mise en évidence face à la facilité avec laquelle les agents conversationnels peuvent générer du contenu lié à l’automutilation, tandis que les mécanismes de signalement internes sont perçus comme étant opaques et inefficaces.

À Montréal, c’est l’absence de surveillance des algorithmes de recommandation qui a été dénoncée. Les plateformes profitent de dynamiques dont les effets néfastes sont pourtant bien documentés, sans aucune obligation d’y remédier. Les engagements volontaires des entreprises n’ont, en pratique, aucune force contraignante.

5 – Enjeux générationnels et protection dans les contextes éducatifs

Le rapport formule les préoccupations en matière de données en termes générationnels. Les personnes participantes de GenZAI ne parlaient pas uniquement en leur propre nom. À Toronto, des personnes ont exprimé des inquiétudes au sujet des plus jeunes, qui pourraient en venir à considérer les agents conversationnels comme plus fiables que leurs amis et amies réels. À Vancouver, ce sont les données permanentes qui ont été mises en cause. Des données collectées pendant l’enfance ont été intégrées aux jeux de données d’entraînement des modèles, avant que les personnes concernées n’aient la capacité juridique ou pratique de s’y opposer. 

« Une jeune personne dont le développement cognitif est façonné par des systèmes d’IA conçus pour cultiver la dépendance, ou dont les données sont marchandées avant qu’elle n’ait la capacité juridique ou pratique de s’y opposer, porte ces expériences d’une manière qui n’est pas pleinement visible au moment où elles surviennent. » (Hayes & Linley-Mota, 2026, p. 25)

Les jeunes appellent les responsables politiques à adopter cette vision à long terme. Les décisions de gouvernance prises aujourd’hui ne portent pas uniquement sur les préjudices déjà documentés, mais sur le type de personnes, de relations et de sociétés que notre trajectoire actuelle pourrait produire.

6 – Déficit de participation comme argument de fond

Les personnes participantes décrivent leur exclusion systématique des processus de gouvernance qui façonnent leur vie numérique. La plupart des initiatives de participation de la jeunesse sont perçues comme du symbolisme (tokenism) plutôt que comme une véritable consultation. Selon eux, la gouvernance des systèmes d’IA doit être fondée sur l’expérience vécue des individus les plus touchés. Grâce à leur expérience, les jeunes comptent parmi les personnes les plus qualifiées pour informer sur ces enjeux. C’est précisément sur cette prémisse que repose la légitimité démocratique du projet GenZAI dans son ensemble.

Qu’en est-il de la délégation cognitive et de la pensée critique ?

Au Forum de Toronto, centré sur les agents conversationnels, les jeunes ont adopté l’énoncé suivant, ratifié par un minimum de 90 % d’entre eux et elles :

« L’utilisation généralisée des agents conversationnels d’IA risque d’entraîner une délégation cognitive et une perte des capacités de pensée critique, compromettant nos aptitudes à apprendre, travailler et participer au discours civique. »

Plusieurs personnes participantes rapportent avoir développé un réflexe d’utilisation non consciemment choisi et décrivent leurs propres expériences de délégation cognitive ou de dépendance émotionnelle difficiles à inverser. Cette mise en garde sur les effets cognitifs et civiques de l’IA générative est formulée ici par les premières personnes concernées et dans le souci d’aider les générations futures.

La suite est à venir

Le 30 avril 2026, les personne participantes de GenZAI ont présenté leurs 17 recommandations directement à des ministres, parlementaires et sénatrices et sénateurs à Ottawa. Cette séance plénière nationale marquait la fin officielle du projet. Elle s’inscrivait dans un moment charnière du débat sur la gouvernance de l’IA et les préjudices en ligne au Canada.


Référence

Hayes, H. A., & Linley-Mota, F. (2026, avril). GenZAI — Rapport final : Recommandations politiques pour la gouvernance de l’IA et des préjudices en ligne au Canada. Centre de dialogue Morris J. Wosk, Université Simon Fraser ; Centre pour les médias, la technologie et la démocratie, Université McGill. https://www.sfu.ca/dialogue/what-we-do/initiatives/dot/gen-z-ai.html

Hayes, H. A., & Linley-Mota, F. (2026, April). GenZAI — Final report: Policy recommendations for AI and online harms governance in Canada. Morris J. Wosk Centre for Dialogue, Simon Fraser University; Centre for Media, Technology and Democracy, McGill University. https://www.sfu.ca/dialogue/what-we-do/initiatives/dot/gen-z-ai.html

Sujets similaires