26 janvier 2024

La désinformation, enjeu et paradoxe de l’IA générative

Réflexion d’un bibliothécaire universitaire


Le but d’un robot (agent) conversationnel comme ChatGPT n’est pas d’informer, mais de donner des réponses qui semblent les plus humaines possibles à des questions formulées en langage naturel. 

L’intelligence artificielle cherche la réponse la plus statistiquement naturelle, mais pas nécessairement la plus vraie. C’est donc évidemment une bonne pratique d’aborder toutes les informations factuelles générées par une IA avec un minimum d’esprit critique. 

Les robots sont-ils de meilleurs informateurs ?

L’utilisation des intelligences artificielles génératrices de texte pour des informations factuelles soulève un enjeu crucial d’esprit critique, mais les liens entre l’IA et la désinformation ne s’arrêtent pas là. ChatGPT, par exemple, peut être un outil très efficace pour créer de la désinformation.

D’après une étude de l’Université de Zurich (Spitale & al. 2023), l’information générée par un robot conversationnel est souvent perçue comme plus convaincante que celle créée de manière organique (c’est-à-dire par un être humain). L’étude a trouvé que la fausse information partagée sur les réseaux sociaux est plus facilement identifiée comme telle lorsqu’elle est produite organiquement. Les personnes participantes à l’étude pouvaient identifier plus rapidement une information comme étant vraie quand elle était générée par une IA. Donc, indépendamment de sa véracité, le texte d’un robot semble plus facile à croire.



Lors de l’élection fédérale de 2019 au Canada, une fausse nouvelle circulait, prétendant que le Premier ministre Justin Trudeau avait perdu son emploi à l’Académie West Point Grey suite à un scandale sexuel. Cette histoire, sans fondement, avait été diffusée par un site web connu pour publier de fausses informations. Par la suite, elle a été relayée par le moteur de recherche Bing en réponse aux requêtes sur les raisons pour lesquelles Trudeau avait quitté le domaine de l’enseignement.

Il apparaît donc nécessaire de réguler l’industrie, tant au niveau des données disponibles pour l’entraînement de ces intelligences artificielles que pour leur utilisation. En attendant, il est crucial de continuer à évaluer les implications de ces technologies afin d’atténuer leurs effets négatifs sur les compétences informationnelles et la diffusion de l’information.

Comme rapporté par Radio-Canada lors de l’une de ses enquêtes, Bing, le moteur de recherche de Microsoft intégrant de la technologie d’OpenAI, a une tendance à afficher des propos faux ou issus de théories de conspiration dans l’encadré qui résume les résultats de la recherche et qui est généré par ChatGPT-4. 

Malheureusement, un moteur de recherche utilisant l’IA, tel que Bing qui est toujours en cours de développement par Microsoft, peut privilégier dans ses résultats des sources non vérifiées. Ainsi, certaines théories du complot peuvent apparaître parmi les premiers résultats, telles que l’affirmation selon laquelle Donald Trump aurait perdu les élections de 2020 en raison de fraudes, ou la supposée (et démentie) filiation de Justin Trudeau à Fidel Castro. Il a été effectivement démontré dans un article de Stanford University (Bush & Zaher, 2019) que Bing met plus en avant des sources de désinformation que d’autres moteurs de recherche.

Pistes de solutions et paradoxe

Sensibiliser aux biais

La crédulité est souvent mise en cause dans la croyance des fausses nouvelles alors que le plus grand facilitateur de la désinformation reste le biais cognitif. Une sensibilisation aux biais qui influencent notre jugement et nous portent à croire certaines nouvelles plus que d’autres, c’est déjà un grand pas en avant pour contrer la désinformation.


L’IA comme outil de lutte contre la désinformation

Ajoutons aussi que l’intelligence artificielle peut être utilisée pour freiner les fausses nouvelles. Full Fact AI est un outil développé par une société à but non lucratif en Grande-Bretagne. Il vise à aider les décrypteurs et autres professionnels qui luttent contre la désinformation. Il aide à rapidement différentier les faits des opinions, à identifier l’origine de désinformations et à rapidement regrouper les informations du même type.    

Combiner l’IA et l’humain

Une autre initiative, financée par l’Union européenne, le projet AI4TRUST, vise à concevoir un système hybride qui combine l’intelligence artificielle et la coopération humaine pour aider les professionnels des médias et les décideurs politiques à combattre la désinformation. Il facilite la distinction rapide entre faits et opinions, aide à identifier les sources de désinformation et permet de regrouper efficacement les informations de même nature.

Pour en savoir plus

Pour des ressources en lien avec la désinformation ou l’intelligence artificielle, consultez le guide ChatGPT et intelligence artificielle des bibliothèques de l’UQAM. Pour des besoins de formations et d’ateliers, n’hésitez pas à contacter le Carrefour d’innovation et de pédagogie universitaire de l’UQAM et le service des bibliothèques : biblio.ia@uqam.ca

Sujets similaires