La réception de ChatGPT au sein de Wikipédia
ChatGPT a été lancé le 30 novembre 2022 pour être utilisé publiquement à grande échelle. Il ne faut pas attendre plus tard que la mi-décembre pour que des éditeurs scientifiques reçoivent des manuscrits qui font figurer ChatGPT dans la liste des auteurs. Plusieurs publications se sentent tenus de clarifier rapidement leurs politiques éditoriales (source). À titre d’exemple, l’éditeur en chef de la revue Science précise à la fin janvier 2023 qu’aucun texte soumis pour évaluation ne peut désormais être généré en tout ou en partie par une machine : « un programme d’intelligence artificielle ne peut pas être un auteur » (traduction libre ; source).
Comment cet enjeu est-il vécu au sein de la communauté qui fabrique Wikipédia ?
Wikipédia est l’encyclopédie collaborative à laquelle tout le monde peut contribuer. C’est l’un des sites Web les plus consultés au Canada, notamment par la population étudiante. Une chose est certaine, bien qu’elle soit réputée pour ses mises à jour rapides – c’est d’ailleurs la signification originelle du mot « wiki » –, il est indéniable que l’encyclopédie est plus lente à réagir face à cette question brûlante que les éditeurs savants. Pourquoi ?
Son mode de fonctionnement communautaire et sa culture éditoriale unique la rendent-elle moins vulnérable que le milieu universitaire ? Pour y voir plus clair, voici un tour d’horizon des discussions qui animent la communauté de Wikipédia depuis l’arrivée de ChatGPT, telles qu’elles ont été documentées au sein du mouvement lui-même ou relayées dans la presse.
Une communauté divisée
Jimmy Wales, le co-fondateur de Wikipédia, a exprimé le sentiment de la communauté lors d’un entretien avec un quotidien britannique le 30 mars 2023 : « les gens (à l’interne) sont prudents, car nous savons que les modèles actuels ne sont pas encore satisfaisants, mais les multiples possibilités que cela recèle nous intriguent » (traduction libre ; source). Conscient des « hallucinations » qui minent les textes générés par l’intelligence artificielle générative, c’est-à-dire que certaines affirmations ou références à l’appui sont complètement inventées (lire l’entrée Wikipédia qui documente ce problème), Wales considère néanmoins que l’IA pourra s’avérer utile pour différents usages, notamment pour assister le travail d’édition. Il estime que l’IA peut être utilisée pour vérifier la concordance ou les écarts factuels existant entre des articles différents.
Alors que l’avis de Wales souligne l’intérêt que la communauté porte à ChatGPT, les discussions internes révèlent un autre son de cloche. La communauté semble plus divisée que son co-fondateur ne semble prêt à l’admettre. Lors d’une rencontre de la communauté organisée par la Fondation Wikimédia le 23 mars 2023 (lire les notes ici), de nombreuses préoccupations ont été exprimées quant à la confiance dans l’écriture que des technologies comme ChatGPT pourraient susciter. L’inondation du Web par des textes générés automatiquement, voire en laissant planer un potentiel de désinformation à grande échelle, l’intelligence artificielle est vue par certains comme une menace qui, curieusement, pourrait offrir une opportunité pour positionner Wikipédia en tant qu’une source d’information digne de confiance.
ChatGPT confronté aux règles en vigueur
En mai 2023, aucune nouvelle politique éditoriale n’avait encore été édictée au sein de Wikipédia pour encadrer l’utilisation de l’intelligence artificielle. Il ne revient pas à Jimmy Wales de trancher cet enjeu, mais plutôt à l’ensemble des wikipédistes qui, depuis janvier 2023, discutent, argumentent et invoquent les balises éditoriales existantes pour tenter d’y voir plus clair.
Alors que les éditeurs scientifiques ont dû rapidement établir de nouvelles balises pour encadrer l’utilisation de ChatGPT, force est de constater que les règles en vigueur de Wikipédia s’avèrent être de bons garde-fous à ce jour.
Voici les règles, recommandations et principes fondateurs les plus souvent invoqués par la communauté concernant l’utilisation de ChatGPT dans Wikipédia :
- l’interdiction de publier des travaux inédits (consulter la page) : l’objectif de l’encyclopédie est de faire la synthèse des écrits savants et journalistiques déjà validés par des autorités compétentes. Par conséquent, le caractère inédit des textes générés automatiquement les rendent incompatibles pour une publication sur la plateforme ;
- la vérifiabilité des énoncés (consulter la page) : les affirmations et les points de vue avancés dans les articles ne peuvent être ceux des personnes qui les rédigent. C’est pourquoi les contributeurs sont tenues de citer des sources fiables externes à Wikipédia pour appuyer et permettre la vérification des informations rapportées ;
- le respect du droit d’auteur (consulter la page) : tous les contenus dans Wikipédia doivent respecter le droit d’auteur et l’introduction de texte soumis à la propriété intellectuelle expose la Fondation Wikimédia à des poursuites ;
- la neutralité de point de vue (consulter la page) : ChatGPT adopte un style de rédaction qui est généralement affirmatif et dépourvu de nuances, ce qui jure avec la recherche de neutralité de point de vue qui est recherchée ;
- N’hésitez pas ! (consulter la page) : cette liste serait incomplète sans cette recommandation invoquée par les wikipédistes qui utilisent ChatGPT et qui dit, en somme, qu’il est encouragé de faire preuve d’initiative sans demander la permission… pour autant que les règles communes soient respectées.
Un article de Slate publié en janvier 2023 relate ce qui est probablement l’une premières expériences autodéclarées d’utilisation de ChatGPT dans Wikipédia (source). Au début du mois de décembre 2022, un wikipédiste new yorkais a généré un brouillon d’article avec ChatGPT, qu’il a ensuite publié dans la version anglophone de l’encyclopédie en signalant d’emblée l’origine de ce texte qu’il s’engageait à améliorer substantiellement : ajout de références à l’appui, neutralisation du style de rédaction, etc.
Ce contributeur, qui avait depuis longtemps le projet de créer un article sur le titre des œuvres d’art (voir l’état actuel de l’article publié en décembre), explique sa motivation ainsi : « D’après mon expérience, il s’agit surtout d’un outil utile pour surmonter l’angoisse de la page blanche » (traduction libre).
Le fait que cette démarche ait été faite de manière transparente a permis de générer une discussion forte stimulante sur la page de discussion de l’article en question (accéder au texte). Des inquiétudes sont soulevées quant au risque que de telles initiatives font planer sur la réputation de Wikipédia, mais un consensus semble émerger sur la nécessité que l’utilisation de l’intelligence artificielle soit toujours faite sous étroite supervision humaine.
Selon Amy Bruckman, professeure au Georgia Institute of Technology et autrice du livre Should You Believe Wikipedia?: Online Communities and the Construction of Knowledge (disponible au format numérique via l’accès réservé du Service des bibliothèques de l’UQAM) :
« le contenu généré par l’IA qui n’est pas révisé est une forme de vandalisme, et nous pouvons utiliser les mêmes techniques que celles que nous utilisons pour lutter contre le vandalisme sur Wikipédia, pour lutter contre les déchets provenant de l’IA » (traduction libre ; source).
La lutte contre le vandalisme, c’est-à-dire les pratiques qui visent à empêcher la détérioration du contenu de Wikipédia, accorde une large place aux agents logiciels automatiques que l’on appelle communément les « bots ». Ceux-ci permettent de détecter les plagiats ou de supprimer les contributions utilisant un langage inapproprié, par exemple. Ainsi, loin d’être contre l’utilisation d’une assistance de robots, la communauté humaine qui façonne Wikipédia collabore déjà depuis 2002 avec des robots en tous genre (voir la page de Wikipédia qui détaille leur travail).
Mais encore faut-il circonscrire la place légitime que l’intelligence artificielle peut avoir sur la plateforme.
De nouvelles balises à l’étude
Deux chantiers en particulier méritent d’être suivis :
- une politique concernant les grands modèles de langage est à l’état d’ébauche dans la version anglophone de Wikipédia. On avance l’idée qu’il n’est pas judicieux, considérant les dérives potentielles, de permettre à tous les wikipédistes de mener des tâches éditoriales assistées par une IA (voir l‘ébauche) ;
- la Fondation Wikimédia a produit une analyse préliminaire du droit d’auteur appliqué à ChatGPT. On s’interroge, entre autres, sur le respect de la licence de Wikipédia : « il n’est pas encore clair si le fait de copier massivement du contenu (de Wikipédia) peut entraîner une violation de la licence Creative Commons lorsque l’attribution de la paternité de l’œuvre n’est pas respectée » (traduction libre ; source).
C’est précisément à cette tâche de balisage que la communauté de Wikipédia s’attèle. C’est un dossier à suivre attentivement.