29 mars 2023

Lettre ouverte : Pause Giant AI Experiments.

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.

Yoshua Bengio, University of Montréal, Turing Laureate for developing deep learning, head of the Montreal Institute for Learning Algorithms

Stuart Russell, Berkeley, Professor of Computer Science, director of the Center for Intelligent Systems, and co-author of the standard textbook “Artificial Intelligence: a Modern Approach”

Elon Musk, CEO of SpaceX, Tesla & Twitter

Steve Wozniak, Co-founder, Apple

Yuval Noah Harari, Author and Professor, Hebrew University of Jerusalem.

Andrew Yang, Forward Party, Co-Chair, Presidential Candidate 2020, NYT Bestselling Author, Presidential Ambassador of Global Entrepreneurship

Connor Leahy, CEO, Conjecture

Jaan Tallinn, Co-Founder of Skype, Centre for the Study of Existential Risk, Future of Life Institute

Evan Sharp, Co-Founder, Pinterest

Chris Larsen, Co-Founder, Ripple

Emad Mostaque, CEO, Stability AI

Valerie Pisano, President & CEO, MILA

John J Hopfield, Princeton University, Professor Emeritus, inventor of associative neural networks

Rachel Bronson, President, Bulletin of the Atomic Scientists
Max Tegmark, MIT Center for Artificial Intelligence & Fundamental Interactions, Professor of Physics, president of Future of Life Institute

Anthony Aguirre, University of California, Santa Cruz, Executive Director of Future of Life Institute, Professor of Physics

Victoria Krakovna, DeepMind, Research Scientist, co-founder of Future of Life Institute


Des sommités mondiales comme Yoshua Bengio (Mila), Steve Wozniak (Apple), Elon Musk (SpaceX, Tesla & Twitter), Yuval Noah Harari (auteur de Sapiens), et de nombreuses autres demandent un moratoire pour mettre un frein à la course effrénée à l’IA depuis les derniers mois.

Pause Giant AI Experiments: An Open Letter

https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Traduction :

“Nous demandons à tous les laboratoires d’IA d’interrompre immédiatement, pour une durée d’au moins six mois, la formation de systèmes d’IA plus puissants que GPT-4.

Les systèmes d’IA dotés d’une intelligence compétitive avec celle de l’humain peuvent présenter des risques profonds pour la société et l’humanité, comme le montrent des recherches approfondies et comme le reconnaissent les principaux laboratoires d’IA. Comme l’indiquent les principes d’IA d’Asilomar, largement approuvés, l’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec l’attention et les ressources nécessaires. Malheureusement, ce niveau de planification et de gestion n’existe pas, même si les derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable.

Les systèmes d’IA contemporains deviennent aujourd’hui compétitifs sur le plan humain pour des tâches générales, et nous devons nous interroger : Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d’IA puissants ne doivent être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l’ampleur des effets potentiels d’un système. La récente déclaration d’OpenAI concernant l’intelligence artificielle générale indique “qu’à un moment donné, il pourrait être important d’obtenir un examen indépendant avant de commencer à former les futurs systèmes, et pour les efforts les plus avancés d’accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles”. Nous sommes d’accord. C’est maintenant qu’il faut agir.

C’est pourquoi nous demandons à tous les laboratoires d’IA d’interrompre immédiatement, pendant au moins six mois, la formation de systèmes d’IA plus puissants que le GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements doivent intervenir et instaurer un moratoire.

Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité communs pour la conception et le développement de l’IA avancée, rigoureusement contrôlés et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable, ce qui ne signifie pas une pause dans le développement de l’IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire toujours plus grands et imprévisibles, dotés de capacités émergentes.

La recherche et le développement dans le domaine de l’IA devraient être recentrés sur l’amélioration de la précision, de la sécurité, de l’interprétabilité, de la transparence, de la robustesse, de l’alignement, de la fiabilité et de la loyauté des systèmes puissants et modernes d’aujourd’hui.

Parallèlement, les développeurs d’IA doivent collaborer avec les décideurs politiques pour accélérer considérablement le développement de systèmes robustes de gouvernance de l’IA. Ceux-ci devraient au minimum comprendre : des autorités réglementaires nouvelles et compétentes dédiées à l’IA ; la surveillance et le suivi des systèmes d’IA hautement performants et des grands pools de capacité de calcul ; des systèmes de provenance et de filigrane pour aider à distinguer le réel du synthétique et pour traquer les fuites de modèles ; un écosystème robuste d’audit et de certification ; la responsabilité pour les dommages causés par l’IA ; un financement public robuste pour la recherche technique sur la sécurité de l’IA ; et des institutions dotées de ressources suffisantes pour faire face aux perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera.

L’humanité peut jouir d’un avenir florissant grâce à l’IA. Ayant réussi à créer des systèmes d’IA puissants, nous pouvons maintenant profiter d’un “été de l’IA” au cours duquel nous récolterons les fruits de nos efforts, concevrons ces systèmes pour le plus grand bénéfice de tous et donnerons à la société une chance de s’adapter. La société a mis en pause d’autres technologies aux effets potentiellement catastrophiques pour elle, et nous pouvons faire de même ici. Profitons d’un long été de l’IA et ne nous précipitons pas sans préparation vers l’automne.”


(Traduction française de cette lettre ouverte par Jonathan Durand Folco)

Sujets similaires