Et si la décennie à venir condensait un siècle d’innovations ? Face aux avancées fulgurantes de l’intelligence artificielle, un scénario autrefois cantonné à la science-fiction s’impose peu à peu dans le débat public : celui d’une « explosion de l’intelligence ». Flavien Chervet explore cette hypothèse vertigineuse – entre accélération technologique, réinvention des institutions et bouleversement de notre rapport au temps – et interroge les enjeux philosophiques, géopolitiques et existentiels d’un futur qui pourrait se rapprocher bien plus vite qu’on ne l’imagine.
Vers une explosion de l’intelligence ?
Imaginez un monde dans lequel tout ce qui s’est produit entre 1925 et 2025 en matière de progrès scientifique, technologique et intellectuel, se déroulerait… entre 2025 et 2035. Les découvertes de la physique quantique, l’essor de l’informatique, l’invention d’Internet, le séquençage de l’ADN : tout ce que nous avons mis un siècle à développer, concentré en l’espace de dix petites années. Les implications seraient vertigineuses. Nous serions confrontés à une vague d’innovations continues, chacune susceptible de bouleverser notre monde avant même que nous ayons le temps de digérer la précédente.
Cette expérience de pensée est liée à l’hypothèse d’une « explosion de l’intelligence » (appelée « take-off » en anglais), popularisée notamment par l’informaticien I. J. Good dans les années 60. Cette idée consiste en cela qu’une fois qu’une intelligence artificielle (IA) parviendrait à égaler – voire surpasser – nos capacités de recherche et de développement, elle pourrait s’auto-améliorer (ou être améliorée par d’autres IA). Elle pourrait en effet d’une part participer à la recherche en IA elle-même et produire des innovations algorithmiques, et permettre d’autre part de nombreuses percées (science des matériaux, fabrication de puces, énergie…) susceptibles d’améliorer les infrastructures sur lesquelles faire tourner les IA. Cette boucle de rétroaction pourrait accélérer la progression scientifique de façon spectaculaire, jusqu’à compresser les avancées de plusieurs décennies en quelques années, voire moins.
Si l’idée relevait de la pure science-fiction il y a peu, des signaux de sa crédibilité s’accumulent. Entre 1958 [1] et 2022, la communauté mondiale de chercheurs avait réussi à modéliser le repliement de 170 000 protéines. En 2022, l’IA AlphaFold conçue par DeepMind (Google) en modélise 200 millions. Il s’agit de l’équivalent de 75 000 ans de recherche humaine [2]. En mars 2025, une IA nommée The AI Scientist v2 a rédigé elle-même un article de science en IA, à partir de recherche qu’elle a elle-même réalisée sur une problématique qu’elle a elle-même définie en explorant la littérature scientifique du domaine. Pour l’expérience, l’article a été soumis à un comité de relecture académique. Et… Il a passé l’étape du peer review (vérification par les pairs : une étape clé du processus scientifique permettant de garantir la qualité et le sérieux des travaux publiés) et a été accepté pour publication. L’article n’a ensuite pas été publié, faute de savoir quel statut donner à ce type de recherche par IA.
[1] Date à laquelle John Kendrew a modélisé la myoglobline, la première protéine modélisée par l’humanité.
[2] L’humanité a modélisé 170 000 protéines en 64 ans. L’IA en a modélisé 200 millions. Un simple produit en croix (200 millions x 64 ans / 170 000) nous donne le résultat : 75 294 années.
Il ne faut pas voir là de simples curiosités : derrière ces deux exemples, c’est tout un bouleversement de la recherche scientifique qui se profile. Les systèmes d’IA, s’ils ont encore des limites créatives, ont en revanche certains avantages sur les cerveaux biologiques en matière de recherche scientifique. Ils peuvent analyser de grands ensembles de données complexes, ils peuvent lire en un temps record toute la littérature scientifique d’un domaine, ou de plusieurs domaines afin d’identifier des ponts, ils peuvent explorer le réel en testant des millions, des milliards de solution. Ils peuvent se dupliquer d’un simple copier-coller aussi. Et si, demain, des milliers de versions avancées de The AI Scientist travaillaient 24h/24 à explorer chaque piste mathématique, médicale ou informatique ? Dario Amodei, PDG d’Anthropic (la startup concurrente d’OpenAI), a résumé l’idée en parlant d’« un pays de génies dans un datacenter ». Des milliers d’IA ultra-rapides, réparties en grappes de serveurs, susceptibles d’innover à une cadence hors de portée pour l’esprit humain.
Les spécialistes de l’intelligence artificielle distinguent souvent deux grands scénarios pour cette explosion de l’intelligence.
1. Le « slow take-off » ou « décollage lent » : l’hypothèse selon laquelle l’IA continuerait de croître selon des rythmes élevés, mais de manière graduelle, sur plusieurs années ou décennies. Dans ce scénario, l’économie et la recherche profiteraient d’une vague d’automatisation continue. L’IA contribuerait de plus en plus à sa propre amélioration, mais en rencontrant des paliers limités par les contraintes matérielles (accès à l’énergie, limites de puissance de calcul, difficultés à collecter les données, etc.). L’explosion de l’intelligence, si elle se produit, s’étalerait sur une période plus longue, ce qui laisserait du temps aux sociétés pour s’adapter.
2. Le « fast take-off » ou « décollage rapide » : l’hypothèse, plus spectaculaire, d’une croissance quasi exponentielle sur quelques mois ou une paire d’années seulement. Ici, un « effet feedback » s’enclenche : des IA avancées développent de nouvelles techniques algorithmiques encore plus puissantes, lesquelles alimentent elles-mêmes des IA encore meilleures, et ainsi de suite. Elles développent aussi de meilleurs paradigmes de calcul permettant de faire tourner toujours plus de copies d’elle-même. On parle alors d’auto-amélioration récursive. Si la rétroaction positive dépasse un certain seuil, la production de nouveaux modèles se fait si rapidement que la plupart des institutions humaines ne peuvent plus s’ajuster. L’ordre mondial s’en trouverait complètement bousculé.
Certains spécialistes, comme le chercheur français François Chollet [3], restent toutefois sceptiques et avancent que, malgré les progrès massifs de l’IA, de nombreux goulots d’étranglement (expérimentations physiques indispensables, coûts énergétiques, manque de données de haute qualité, etc.) pourraient ralentir la cadence. Pourquoi alors prendre le sujet au sérieux si la probabilité reste incertaine ?
[3] Voir son article détracteur de l’hypothèse de l’explosion de l’intelligence.
D’une part parce que les développements de l’IA des 10 dernières années invitent bien plus à l’audace qu’à la prudence intellectuelle. Ce qui nous paraissait fantaisiste il y a encore cinq ans – des outils conversationnels comme ChatGPT ou Claude capables de raisonner sur des sujets variés, et ce quasi-gratuitement, en quelques secondes – est devenu banal. Nous interagissons quasi quotidiennement avec des modèles de langage qui auraient semblé relever de la magie en 2018. Les courbes de développement (« Scaling Laws » [4]) des systèmes d’IA de la dernière décennie, si elles se maintiennent pendant les prochaines années, promettent effectivement des systèmes capables d’automatiser une grande partie de la recherche en IA.
[4] Voir les travaux précis d’Epoch AI sur le sujet. Pour un résumé lié à la question de l’explosion de l’intelligence, voir la partie « Progress in AI capabilities » de l’article.
D’autre part parce que l’impact potentiel est considérable. Même s’il y a « seulement » une chance sur trois, ou sur dix, ou sur cent, que la prochaine décennie concentre l’équivalent d’un siècle de découvertes, l’impact serait tel que le scénario ne peut pas être ignoré. Imaginez que vous soyez un décideur politique en 2029, confronté chaque mois à l’équivalent d’une révolution scientifique aussi importante que l’arrivée des ogives nucléaires, l’invention d’Internet, ou la cartographie du génome. Comment prendre des décisions éclairées à une telle vitesse ? Quelles seraient les priorités stratégiques ? Et que se passerait-il si certains pays ou certaines entreprises prenaient de l’avance, en déployant ces outils très supérieurs aux autres, pour ensuite s’assurer un quasi-monopole de la recherche ou de l’économie ?
Les Grand Challenges de l’humanité
Dans leur article « Preparing for the Intelligence Explosion » (mars 2023), MacAskill et Moorhouse listent ce qu’ils appellent les Grand Challenges : ces moments charnières où l’humanité devra prendre des décisions très structurantes dans un temps relativement court. Cela peut concerner :
– La gouvernance globale : qui contrôle une IA capable de décider de grandes orientations énergétiques, industrielles ou militaires ? Qui contrôle les ressources numériques ? Qui régule la puissance de calcul ?
– La maîtrise de nouvelles armes (ex. prolifération de drones automatisés, voire de bio-ingénierie à grande échelle).
– Des questionnements éthiques profonds sur la place des IA dans la société (allons-nous leur reconnaître une forme de droit moral ? Quid des systèmes « conscients », s’ils émergent ?).
– L a sécurisation des innovations : empêcher la dissémination de technologies potentiellement destructrices (par exemple, de la bioingénierie malveillante) à une époque où la vitesse de diffusion et de copie pourrait défier toute réglementation.
L’un des points cruciaux dans ce tableau est la vitesse à laquelle les institutions humaines peuvent encaisser le choc. Historiquement, la diplomatie, la régulation et les traités internationaux mettent des années à se concrétiser. Dans un monde où les paradigmes technologiques basculent en quelques mois, parvenir à une coordination internationale stable relèverait de l’exploit. Voilà pourquoi il est important de se poser dès aujourd’hui la question : que fait-on si, dans les cinq ou dix ans à venir, l’IA devient un acteur incontournable de la recherche, de la sécurité ou de la politique ?
Tout un domaine de recherche, à la croisée de la technologie, de la diplomatie et de la géopolitique, a émergé pour explorer les mécanismes de gouvernance pour endiguer l’emballement ou, tout du moins, canaliser ses effets [5].
[5] Pour une vision d’ensemble, voir la proposition précise proposée par ControlAI dans « A Narrow Path – How to Secure Our Future ». Ou en français, l’ouvrage de l’auteur de cet article sur la géopolitique de l’IA : Hyperarme (NIV, 2025).
On peut notamment imaginer :
– Un « CERN » ou un « Intelsat » de l’IA : On connaît le CERN, consortium scientifique international dédié à la recherche fondamentale, ou encore le projet Intelsat, qui a rassemblé plusieurs nations pour la mise en place d’un système global de satellites de télécommunications. Ces organisations ont montré qu’il est possible de mutualiser des ressources stratégiques au service d’une recherche ou d’une infrastructure commune. Par analogie, un « Intelsat pour l’IA » viserait à construire, tester et surveiller un projet global d’intelligence artificielle avancée. Les pays participants disposeraient d’un accès partagé à la technologie, réduisant les risques de course incontrôlée et permettant de négocier une forme de régulation commune sur la puissance de calcul.
– Des organismes de surveillance internationale : Tout comme l’Agence internationale de l’énergie atomique (AIEA) veille à l’utilisation pacifique du nucléaire, on imagine une institution dédiée à la supervision de l’IA de pointe, vérifiant l’implémentation de standards de sécurité, la distribution responsable de la puissance informatique, etc. Des débats existent déjà autour de la forme que prendrait une telle agence (éventuellement rattachée à l’ONU ou constituée d’une coalition d’États volontaires).
– Des réglementations ciblées sur la puissance de calcul : Puisque l’entraînement de modèles géants réclame des quantités faramineuses de ressources (électricité, semi-conducteurs, etc.), il peut être pertinent de réguler ces éléments critiques et venant en amont de la chaîne. On peut imaginer un système de licences pour construire ou utiliser des « supercalculateurs » dépassant un certain seuil de FLOP/s (l’unité de mesure de la puissance de calcul), échelonné selon la dangerosité potentielle des recherches qui y sont menées.
– Des plans d’urgence et de coordination rapide : Dans l’hypothèse d’un fast take-off, la réactivité est cruciale. Mieux vaut s’accorder à l’avance sur certaines procédures : si un laboratoire revendique l’émergence d’une IA véritablement autonome, comment réagit-on ? Quel protocole active-t-on pour auditer le système ? Selon quels critères ? Pour le moment, ce sont surtout les entreprises d’IA qui prennent ce sujet au sérieux en construisant leurs propres grilles, comme « Preparedness » chez OpenAI ou les « Responsible Scaling Policies » d’Anthropic.
Bien sûr, aucune de ces idées n’est une solution magique. Mettre en place un consortisme mondial pour l’IA, par exemple, nécessiterait de fortes incitations pour convaincre les acteurs du secteur privé et les grandes puissances. Et tout le monde n’a pas les mêmes motivations stratégiques. Certains États, voyant dans l’IA un moyen de dominer économiquement ou militairement, n’auraient de prime abord pas intérêt à partager les fruits de leurs découvertes. Il n’en reste pas moins que, pour réduire le risque d’une explosion technologique incontrôlée, ce type d’approches collectives figure parmi les rares voies à explorer dès maintenant.
Parler d’« explosion de l’intelligence » peut susciter des fantasmes : du robot apocalyptique « Skynet » au rêve d’une humanité propulsée au rang d’espèce multiplanétaire. Dans les faits, la plupart des scénarios réalistes se situent entre un slow take-off maîtrisé et un fast take-off nettement plus troublant. Mais ce qui est sûr, c’est que le sujet n’est plus purement spéculatif. Les meilleurs laboratoires d’IA se concentrent de plus en plus sur l’automatisation de leurs propres processus de R&D, les percées scientifiques réalisées grâce à des IA deviennent plus fréquentes et des projets internationaux inspirés de CERN ou d’Intelsat sont à l’étude.
Nous avons mis des millénaires à développer l’agriculture, des siècles à maîtriser l’électricité, et des décennies à déployer l’internet. Nous pourrions bientôt vivre dans un monde où des avancées équivalentes se produisent en quelques années, voire quelques mois. Face à cette accélération vertigineuse, c’est notre relation même au temps qui se trouve bouleversée. Depuis l’aube de la conscience humaine, notre espèce a vécu dans un monde où les transformations profondes s’inscrivaient dans la durée — le temps long des générations et des civilisations. Nos institutions, nos modes de pensée, notre psychologie collective se sont tous façonnés dans ce rapport patient à la temporalité.
L’explosion de l’intelligence annonce une rupture fondamentale dans cette expérience anthropologique fondamentale. Que deviendra notre conscience historique lorsque chaque mois pourrait apporter une révolution comparable à celle de l’imprimerie ? Comment maintenir une continuité dans notre récit collectif quand l’horizon du futur se rapproche à une vitesse inédite ? Notre capacité à donner du sens, à digérer intellectuellement et émotionnellement les changements, pourrait devenir le véritable goulot d’étranglement de cette explosion à la temporalité post-humaine. Dans ce nouveau paradigme, la sagesse ne consistera peut-être plus à accumuler des connaissances, mais à développer une nouvelle façon d’habiter le temps. Peut-être développerons-nous une forme d’élasticité temporelle — une capacité à naviguer entre l’instantané et l’éternel, entre l’accélération des transformations quotidiennes et des pauses, contemplatives, données aux questions qui nous habitent par-delà le temps. Peut-être l’infinie vitesse, en devenant virtuellement irrattrapable, nous poussera-t-elle dans la durée profonde des espaces philosophiques et poétiques ?
À lire également : Future of AI | Les agents IA : vaut-il mieux prompter ou créer un agent ?
Vous avez aimé cet article ? Likez Forbes sur Facebook
Newsletter quotidienne Forbes
Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits