
Réduire notre empreinte écosociale des systèmes d’IA
Des pratiques concrètes et accessibles
L’intelligence artificielle est une technologie assez gourmande en énergie. Sa consommation est de plus en plus mise en évidence et connue, notamment avec l’amélioration et la concurrence des systèmes d’IA. Récemment, dans une publication de Philippe Tousignant, d’Écohesia, une source que nous suivons pour cette veille pédagonumérique, celui-ci affirmait que « même sans contrôle direct sur l’infrastructure, il est possible de diminuer considérablement notre empreinte ».
Dans ce billet du Collimateur, nous tentons de vulgariser encore davantage le document présentant des méthodes simples d’ECOHESIA pour diminuer l’impact environnemental personnel et celui de nos établissements. Voici donc quelques recommandations pratiques pour mieux comprendre et appliquer ces principes dans un contexte académique.
Quand vous utilisez des services d’IA générative (OpenAI, Anthropic, etc.)
- Choisissez des modèles plus légers lorsque c’est possible
Les grands modèles d’IA sont comme des voitures de sport : puissants, mais gourmands en énergie. Pour 80 % de vos questions, un modèle plus petit (comme GPT-3.5 au lieu de GPT-4) fera parfaitement l’affaire, tout en consommant jusqu’à 10 fois moins d’énergie. Et… vous pouvez utiliser une simple calculatrice pour faire des calculs. - Formulez des requêtes précises et détaillées
Plus votre question est claire et bien formulée, moins l’IA aura besoin de « réfléchir » pour y répondre. C’est comme fournir des indications précises plutôt que vagues à quelqu’un qui cherche son chemin. - Regroupez vos questions similaires dans une seule requête (prompt)
Au lieu de poser plusieurs questions séparées sur un même sujet, regroupez-les en une seule requête. Cela peut réduire la consommation d’énergie de 30 % à 70 %. - Utilisez des systèmes de recherche intelligents ou de récupération d’informations
Les systèmes RAG optimisés(« Retrieval-Augmented Generation » ou « génération augmentée par récupération ») permettent à l’IA de chercher des informations précises avant de générer une réponse, ce qui réduit considérablement la quantité de données à traiter.
Pour les chercheurs qui développent leurs propres modèles
- Distillation de modèles
Cette technique permet de créer une version plus légère d’un modèle tout en conservant ses capacités essentielles, comme faire un résumé efficace d’un livre volumineux. - Optimisation des données d’entraînement
Utilisez uniquement les données vraiment nécessaires et de bonne qualité. C’est comme préparer un cours avec des ressources soigneusement sélectionnées plutôt qu’avec une bibliothèque entière.
Pour les universités qui hébergent leurs propres systèmes d’IA
- Quantification
Cette technique réduit la précision des calculs juste assez pour économiser beaucoup d’énergie (50 % à 90 %) sans affecter significativement les résultats. - Matériel spécialisé
Utiliser des processeurs conçus spécifiquement pour l’IA (comme les NPU) plutôt que des GPU génériques peut réduire la consommation d’énergie de 50 % à 95 %.
Pourquoi c’est important
Selon Ecohesia, ces techniques combinées peuvent réduire l’empreinte environnementale de l’IA de plus de 90 % dans la plupart des cas. C’est comme passer d’une voiture très polluante à un vélo électrique pour vos déplacements quotidiens.
L’enjeu va au-delà de la simple économie d’énergie. Il s’agit de développer une approche éthique et responsable de la technologie où l’innovation sert véritablement les besoins des personnes et de la planète, plutôt que de poursuivre une course effrénée à la puissance sans considération pour ses impacts.
En adoptant ces pratiques dans votre utilisation quotidienne de l’IA, vous contribuez non seulement à réduire votre propre empreinte écologique, mais vous contribuez aussi à promouvoir une culture de responsabilité numérique dans votre communauté universitaire.