Ce que l’IA fait déjà ailleurs et que l’éducation commence à peine à percevoir
La vague A2A annonce-t-elle un séisme ?
« Nous sommes entrés dans une ère où l’on gère des agents IA, plutôt que de travailler avec l’IAg. »
Dans notre dernier billet, nous décrivions la cinquième vague de l’IA générative comme celle de la collaboration A2A (agent to agent), une réalité qui, pour la grande majorité des personnes qui travaillent en éducation, est encore largement inconnue.
À peine commence-t-on à en percevoir l’existence, et encore moins les possibilités concrètes qu’elle pourrait ouvrir dans les pratiques éducatives. Ethan Mollick, dans son article « The Shape of the Thing » sur son site One Useful Thing publié le 12 mars 2026, illustre concrètement ce qu’est cette vague A2A dans les milieux professionnels qui l’ont déjà atteinte. Pour les personnes qui enseignent et qui font de la recherche en enseignement supérieur, ce type de signal mérite qu’on y porte attention.
Mollick, professeur à la Wharton School of the University of Pennsylvania et l’une des voix les plus suivies sur les impacts de l’IA, soutient qu’un basculement s’est opéré.
Hier, on travaillait avec l’IA générative en lui posant des questions, en affinant ses réponses et en restant impliqué·e à chaque étape. Aujourd’hui, des agents IA autonomes, tels que Claude Code, Codex d’OpenAI et OpenClaw (agent autonome open source), permettent de confier à l’IA des missions entières, parfois l’équivalent de plusieurs heures de travail humain, pour obtenir des résultats utiles en quelques minutes. Nous entrons dans une ère où l’on gère des agents IA, plutôt que de travailler avec l’IAg.
— Le Collimateur, d’après Mollick (2026)
À titre d’exemple, StrongDM, une entreprise pionnière, utilise l’A2A de cette manière. Les agents rédigent, testent et corrigent du code logiciel entre eux, selon des règles internes qui interdisent à toute personne humaine de l’équipe de rédiger ou de relire le code. Le rôle des personnes humaines est strictement de définir ce que le logiciel doit faire, et d’autres valident le produit fini avant sa mise en marché. Les agents IA autonomes s’occupent de tout le reste en collaboration A2A.
La progression exponentielle des systèmes de l’IA
Comment mesure-t-on ces progrès ? Mollick cite des tests rigoureux :
« In the upper left are the scores on the Google-Proof Q&A benchmark, a test of knowledge where graduate students using Google only score 34% outside their field and 70% or so inside of it, but the best AIs now score 94%. Or look at GDPval, where industry experts judge AI versus experienced human performance on complex tasks, and where the latest AIs now reach or exceed parity with top-performing humans 82% of the time. » (Mollick, 2026, para. 7)
En d’autres termes : là où des étudiant·es de cycle supérieur, muni·es d’un accès à Google, n’obtiennent que 34 % de bonnes réponses hors de leur domaine de spécialité, les meilleurs modèles atteignent aujourd’hui 94 %. Sur des tâches professionnelles complexes évaluées par des expert·es du secteur, les systèmes IA récents atteignent ou dépassent le niveau des meilleur·es humain·es dans 82 % des cas. Cette progression est de nature exponentielle, même si elle demeure inégale : remarquables sur certains problèmes, les modèles peuvent demeurer étonnamment fragiles sur d’autres.
« Rolling disruption »
Mollick décrit un contexte de « rolling disruption », dont l’actualité récente fournit un exemple saisissant, survenu en une semaine à la fin du mois de février 2026.
- Le 22 février, une entreprise financière peu connue, Citrini Research, publie un scénario hypothétique décrivant comment l’intelligence artificielle pourrait entraîner la disparition de plusieurs entreprises bien établies d’ici 2028. Le texte contient manifestement des éléments exagérés, mais il a suscité une vive réaction à Wall Street, entraînant des fluctuations importantes sur les marchés boursiers.
- Le 26 février, la société Block, spécialisée dans les services financiers, a annoncé des licenciements massifs représentant 40 % de ses effectifs. Elle a laissé entendre que l’intelligence artificielle (IA) en était la cause. Cependant, il est vraisemblable que le rôle de l’IA ait été exagéré et qu’il n’ait servi que de prétexte à des coupures drastiques dans la masse salariale.
- Pour terminer cette semaine, le 27 février, un différend très médiatisé éclate entre le Pentagone et l’entreprise Anthropic au sujet du contrôle des règles régissant l’utilisation de Claude par le gouvernement.
Ces évènements mettent en évidence la manière dont les seuils franchis par l’IA affectent simultanément les marchés, les organisations et la gouvernance, souvent avant qu’on en comprenne bien la portée.
L’IA qui améliore l’IA
À l’horizon, Mollick identifie une trajectoire encore incertaine : celle de l’IA qui contribue à améliorer l’IA elle-même. OpenAI a déclaré que son plus récent modèle de code (Codex) a joué un rôle déterminant dans sa propre conception. Les dirigeant·es des grands laboratoires confirment travailler à rendre ce processus plus systématique, tout en reconnaissant que des obstacles techniques et des risques réels subsistent.
Mollick conclut que « the shape of the Thing » se précise, et que nous sommes toujours en mesure de l’influencer. Les décisions prises actuellement par les entreprises, les institutions et les gouvernements créent des précédents qui seront suivis par d’autres. La fenêtre pour orienter cette trajectoire est ouverte… maintenant.
Référence
Mollick, E. (2026, 12 mars). The shape of the thing : Where we are right now, and what likely happens next. One Useful Thing. https://www.oneusefulthing.org/p/the-shape-of-the-thing




