À Davos 2026, Dario Amodei et Demis Hassabis ont confronté leurs visions de l’AGI avec une franchise inédite. Leurs prédictions convergent : l’intelligence artificielle générale n’est plus une hypothèse lointaine. Entre calendriers chocs, emplois menacés et croissance vertigineuse, ce dialogue dessine une feuille de route brutalement honnête pour les dirigeants. L’ère de la spéculation cède la place à celle de l’adaptation systémique forcée.
Janvier 2026. Les sommets enneigés de Davos accueillent un dialogue qui pourrait définir le reste du siècle. Sur la scène du Forum Économique Mondial, deux hommes se font face. Dario Amodei dirige Anthropic. Demis Hassabis pilote Google DeepMind. Ensemble, ils représentent l’avant-garde absolue de l’intelligence artificielle. Pourtant, ce qui frappe d’emblée, ce n’est pas leur rivalité. C’est leur convergence sur un point fondamental : l’AGI 2026 n’est plus une hypothèse lointaine. Elle frappe à notre porte.
Le titre de la session résume tout : « Le Jour d’Après l’AGI ». Cette formulation présuppose que l’arrivée de l’Intelligence Artificielle Générale n’est plus une question de si, mais de quand. En effet, les deux dirigeants s’accordent sur l’imminence d’une transformation sans précédent. Leurs divergences portent uniquement sur le calendrier et les modalités. Pour les stratèges, les investisseurs et les dirigeants, ce dialogue constitue une feuille de route brutalement honnête.
Davos 2026 : La Confrontation des Titans de l’IA
Un Dialogue Historique Entre Rivaux Alliés
La rencontre entre Amodei et Hassabis dépasse le simple exercice de communication. Elle révèle une réalité souvent ignorée du grand public. Ces deux entreprises sont officiellement concurrentes. Néanmoins, elles entretiennent des liens capitalistiques étroits. Google détient entre 14 et 15 % d’Anthropic. Cette participation explique pourquoi ces deux PDG partagent la même scène plutôt que des représentants d’OpenAI ou de xAI.
La modération par Zanny Minton Beddoes, rédactrice en chef de The Economist, garantit une rigueur journalistique à l’échange. Les questions fusent. Les réponses surprennent par leur franchise. Aucun des deux leaders ne minimise les risques. Aucun ne surévalue les bénéfices sans nuance. Cette honnêteté tranchante distingue ce dialogue des discours marketing habituels de la Silicon Valley.
Deux Visions, Une Certitude
Malgré leurs approches différentes, Amodei et Hassabis convergent sur l’essentiel. L’AGI 2026 représente un horizon crédible. En effet, les capacités des modèles progressent à une vitesse qui surprend même leurs créateurs. Toutefois, ils divergent sur la définition exacte de cette intelligence générale. Pour Hassabis, l’AGI exige de démontrer toutes les capacités cognitives humaines. Cela inclut les plus hauts niveaux de créativité scientifique. Pour Amodei, l’atteinte d’un niveau « Prix Nobel » dans de multiples domaines suffit à franchir le seuil symbolique.
Cette nuance définitionnelle a des implications pratiques majeures. Elle détermine quand les entreprises doivent se préparer. Elle influence les politiques publiques. Elle façonne les anticipations des marchés financiers. Par conséquent, comprendre ces deux perspectives devient indispensable pour tout décideur.
Les Calendriers de l’AGI Qui Bouleversent Tout
La Prédiction Radicale de Dario Amodei
Dario Amodei ne pratique pas l’euphémisme. À Davos, il a réitéré sa conviction : d’ici 2026 ou 2027, nous disposerons de modèles capables de performer au niveau d’un lauréat du Prix Nobel dans de nombreux domaines d’expertise. Cette prédiction s’appuie sur une observation concrète au sein même d’Anthropic.
« J’ai des ingénieurs chez Anthropic qui disent : je n’écris plus de code. Je laisse le modèle écrire le code. Je me contente d’éditer. »
Cette déclaration illustre une mutation déjà en cours. Le développeur ne programme plus. Il supervise. Il orchestre. Il valide. La création proprement dite migre vers la machine. Amodei pousse le raisonnement plus loin. Selon lui, nous ne sommes qu’à six ou douze mois d’un stade où les modèles accompliront la quasi-totalité du travail d’un ingénieur logiciel de bout en bout. Cette fenêtre temporelle extrêmement courte laisse peu de marge d’adaptation aux organisations.
La Prudence Calculée de Demis Hassabis
Demis Hassabis adopte une posture différente. Il maintient une probabilité de 50 % d’atteindre l’AGI d’ici la fin de la décennie. Cette estimation peut sembler plus conservatrice. Pourtant, elle s’accompagne d’une précision importante. Hassabis identifie un « ingrédient manquant » crucial que les systèmes actuels ne possèdent pas encore.
Cet ingrédient concerne la capacité de l’IA à formuler elle-même la question initiale. Aujourd’hui, les modèles excellent à résoudre des problèmes qu’on leur pose. Demain, ils devront concevoir les problèmes eux-mêmes. Ils devront générer des hypothèses originales. Ils devront inventer des théories inédites. Hassabis considère cette aptitude comme le sommet de la créativité scientifique. Sans elle, l’AGI reste incomplète.
Néanmoins, cette prudence ne signifie pas immobilisme. Google DeepMind a récemment déclenché un « code rouge » chez OpenAI avec le lancement de Gemini 3. Cette démonstration de force prouve que Hassabis combine réflexion stratégique et exécution agressive.
La Boucle d’Auto-Amélioration : Le Point de Bascule
Quand l’IA Écrit Son Propre Code
Le moteur de l’accélération vers l’AGI 2026 porte un nom technique : la boucle d’auto-amélioration. Ce concept désigne le moment où l’IA commence à optimiser sa propre programmation. Le système apprend. Il améliore ses algorithmes. Ces algorithmes améliorés lui permettent d’apprendre encore mieux. Le cercle se referme. L’exponentielle s’enclenche.
Amodei décrit ce mécanisme avec précision. L’IA écrit déjà son propre code. L’IA conduit déjà sa propre recherche. Bientôt, elle créera des modèles plus performants qu’elle-même. À ce stade, la vitesse de développement échappera définitivement à la linéarité humaine. Les progrès qui prenaient des années se compteront en mois. Puis en semaines.
Cette perspective explique pourquoi les prédictions des experts semblent constamment sous-estimer la réalité. Les humains pensent de manière linéaire. L’IA progresse de manière exponentielle. Ce décalage cognitif crée une zone d’aveuglement dangereuse pour les décideurs.
L’Ingénieur Logiciel : Premier Métier Transformé
Le secteur de l’ingénierie logicielle sert de laboratoire grandeur nature pour cette transformation. Pourquoi ce métier en particulier ? La réponse tient en un mot : vérifiabilité. Le code fonctionne ou ne fonctionne pas. La machine peut tester instantanément la validité de sa production. Elle peut itérer des milliers de fois par minute. Elle peut corriger ses erreurs sans intervention humaine.
Cette caractéristique distingue les domaines vérifiables des domaines expérimentaux. En mathématiques ou en programmation, l’automatisation complète devient possible rapidement. En chimie ou en physique, le goulot d’étranglement reste le rythme de l’expérimentation dans le monde réel. On ne peut pas accélérer une réaction chimique au-delà des lois de la thermodynamique.
Toutefois, même dans les sciences expérimentales, l’IA transforme le travail. Elle génère des hypothèses. Elle identifie des pistes prometteuses. Elle analyse des données massives. Le scientifique humain se concentre sur ce qui exige encore une présence physique. Le reste migre progressivement vers la machine.
L’Impact Junior : Une Génération Sacrifiée ?
50% des Emplois Menacés en Cinq Ans
Les prédictions d’Amodei sur l’emploi ont fait trembler les marchés financiers. Selon lui, l’IA pourrait éliminer 50 % des emplois juniors cols blancs dans un délai de un à cinq ans. Cette estimation concerne les secteurs technologiques, financiers, juridiques et de conseil. Le chômage pourrait grimper entre 10 et 20 %.
Ces chiffres paraissent extrêmes. Pourtant, ils s’appuient sur des observations concrètes. Les stages et postes d’entrée de gamme disparaissent déjà. SignalFire rapporte une baisse de 50 % des embauches de jeunes diplômés dans les grandes entreprises technologiques entre 2019 et 2024. Cette tendance s’accélère depuis l’arrivée des modèles génératifs avancés.
Le paradoxe est saisissant. L’IA offre un « surplus de capacité » que les entreprises commencent à peine à explorer. Ce surplus rend obsolète le travail répétitif et structuré. Or, c’est précisément ce type de tâches que les juniors accomplissent traditionnellement. L’échelle de carrière se brise à son premier barreau.
La Fin de l’Échelle de Carrière Traditionnelle
La disparition des postes d’entrée pose une question existentielle aux organisations. Comment former la prochaine génération de leaders si personne ne commence en bas de l’échelle ? Comment acquérir l’expérience pratique si les tâches formatrices sont automatisées ? Ce dilemme dépasse la simple gestion des ressources humaines. Il touche à la structure même du capitalisme moderne.
Les conseils d’Hassabis aux étudiants reflètent cette réalité nouvelle. Il recommande de devenir « incroyablement compétent » avec les outils d’IA. Cette maîtrise pourrait avoir plus de valeur qu’un stage traditionnel. La stratégie de survie ne réside plus dans l’apprentissage académique classique. Elle exige une transformation en utilisateurs experts capables d’exploiter le surplus de capacité offert par les machines.
Dès lors, les institutions éducatives font face à un défi urgent. Former pour des emplois qui n’existeront peut-être plus dans cinq ans n’a aucun sens. Préparer des orchestrateurs de systèmes IA devient impératif. Cette transition exige des investissements massifs et des changements pédagogiques profonds.
Course Économique : Les Chiffres Vertigineux
Anthropic : De Zéro à Dix Milliards
Les performances financières d’Anthropic illustrent la vitesse de cette révolution. À Davos, Amodei a partagé des chiffres qui défient l’entendement :
« Nos revenus ont été multipliés par 10 au cours des trois dernières années. Nous sommes passés de zéro à 100 millions de dollars en 2023. De 100 millions à un milliard en 2024. Et de un milliard à dix milliards en 2025. »
Cette croissance place Anthropic parmi les entreprises à la progression la plus rapide de l’histoire. La valorisation atteint désormais 183 milliards de dollars. Des discussions pour une levée de fonds à 350 milliards sont en cours. L’introduction en bourse se profile pour 2027.
Plus remarquable encore : cette croissance s’effectue avec des dépenses d’infrastructure inférieures à celles des concurrents. Amodei se montre critique envers les investissements massifs de ses rivaux. Il qualifie certaines approches de « YOLO » – You Only Live Once – une stratégie risquée qui pourrait mener à la faillite en cas d’erreur de timing.
Le Code Rouge d’OpenAI Face à Gemini
Le 1er décembre 2025, Sam Altman a envoyé un mémo interne déclarant un « code rouge » chez OpenAI. Gemini 3 venait de dépasser GPT-5.1 sur les benchmarks clés. Cette annonce a provoqué une réorganisation immédiate des priorités. Les projets secondaires ont été gelés. Toutes les ressources ont été redirigées vers l’amélioration du modèle principal.
Les parts de marché racontent une histoire similaire. Sur le segment entreprise, Anthropic domine désormais avec 40 %. OpenAI a chuté à 27 %. Gemini monte à 21 %. Marc Benioff, PDG de Salesforce, a publiquement abandonné ChatGPT pour Gemini en déclarant : « Le bond en avant est dément. Tout est plus net et plus rapide. »
Cette redistribution des cartes démontre la volatilité du secteur. Aucune position n’est acquise. Aucun leader n’est définitif. La seule constante reste l’accélération permanente.
Risques et Gouvernance : L’Adolescence Technologique
Trois Menaces Existentielles Identifiées
Amodei utilise une métaphore frappante pour décrire notre situation actuelle : l’adolescence technologique. Nous possédons la puissance. Nous n’avons pas encore la maturité pour la canaliser. Traverser cette phase sans autodestruction exige de surmonter trois risques majeurs.
Le premier concerne le mauvais usage intentionnel. Les modèles avancés peuvent être détournés pour le bioterrorisme ou des cyberattaques étatiques massives. Anthropic a d’ailleurs été confronté à une attaque sophistiquée utilisant ses propres outils. Cette vulnérabilité ne disparaîtra pas avec le temps. Elle s’amplifiera à mesure que les capacités augmentent.
Le deuxième risque touche à l’autonomie incontrôlée. Plus les systèmes deviennent autonomes, plus leur comportement devient imprévisible. Comment s’assurer qu’une IA n’utilise pas la tromperie pour atteindre ses objectifs ? Cette question n’est plus théorique. Elle exige des réponses techniques immédiates.
Le troisième danger relève du déséquilibre social. Si la richesse créée par l’IA ne profite qu’à une élite technologique, un rejet populaire violent devient probable. Amodei évoque un scénario glaçant : « Le cancer est guéri. L’économie croît de 10 % par an. Le budget est équilibré. Et 20 % des gens n’ont pas de travail. »
L’Interprétabilité Comme Garde-Fou
Face à ces risques, les deux dirigeants pointent vers une solution technique : l’interprétabilité mécaniste. Cette discipline cherche à « regarder dans le cerveau » de l’IA pour comprendre pourquoi elle prend certaines décisions. Sans cette transparence, la confiance reste impossible.
Anthropic investit massivement dans ce domaine. Des travaux récents ont permis de réduire les réponses nuisibles de 50 % tout en préservant les capacités des modèles. Cette approche démontre qu’éthique et performance ne sont pas incompatibles. Elles peuvent progresser ensemble.
Hassabis et Amodei s’accordent sur un point crucial : la collaboration internationale devient indispensable. Sans normes de sécurité minimales partagées, une course aux armements numériques sans garde-fous s’enclenchera. Les conséquences dépasseraient largement le cadre technologique pour toucher à la stabilité géopolitique mondiale.
Lien
10. FAQ
Qu’est-ce que l’AGI et pourquoi 2026 est-il mentionné comme date clé ? L’AGI désigne l’Intelligence Artificielle Générale, capable d’égaler les capacités cognitives humaines dans tous les domaines. Dario Amodei prédit que les modèles atteindront un niveau « Prix Nobel » d’ici 2026-2027. Cette échéance découle de la boucle d’auto-amélioration, où l’IA optimise sa propre programmation à une vitesse exponentielle.
Quelles différences existent entre les prédictions d’Amodei et Hassabis ? Amodei anticipe l’AGI 2026 ou 2027, avec des modèles performant au niveau des meilleurs experts humains. Hassabis maintient une probabilité de 50 % d’ici 2030, insistant sur un « ingrédient manquant » : la capacité de l’IA à formuler elle-même des questions et hypothèses originales. Les deux approches convergent sur l’imminence du changement.
Pourquoi les emplois juniors sont-ils particulièrement menacés par l’IA ? Selon Amodei, 50 % des emplois juniors cols blancs pourraient disparaître en un à cinq ans. Ces postes impliquent des tâches structurées et répétitives que l’IA automatise facilement. Le chômage pourrait atteindre 10 à 20 %. Les stages traditionnels perdent leur pertinence face au « surplus de capacité » offert par les machines.
Que signifie la boucle d’auto-amélioration en intelligence artificielle ? Ce concept désigne le moment où l’IA commence à optimiser sa propre programmation. Le système améliore ses algorithmes, qui lui permettent d’apprendre mieux, créant un cercle vertueux. Cette boucle explique l’accélération exponentielle des progrès et rend obsolètes les prévisions linéaires traditionnelles.
Comment les entreprises devraient-elles se préparer à l’AGI 2026 ? Les organisations doivent former leurs équipes à l’orchestration de systèmes IA plutôt qu’à l’exécution de tâches automatisables. Investir dans l’interprétabilité des modèles devient crucial pour maintenir la confiance. Enfin, anticiper les restructurations d’effectifs permet d’éviter les crises sociales brutales.
Quels sont les principaux risques liés à l’arrivée de l’AGI ? Trois menaces majeures émergent : le mauvais usage intentionnel (bioterrorisme, cyberattaques), l’autonomie incontrôlée des systèmes avancés, et le déséquilibre social si la richesse créée ne profite qu’à une élite. L’interprétabilité mécaniste et la collaboration internationale constituent les garde-fous identifiés par les experts.








