Anthropic frôle le trillion & DeepSeek et la fièvre chinoise - Actualités IA (25 avr. 2026)
Anthropic à 1 000 Md$? GPT-5.5, DeepSeek à 20 Md$, Tesla achète du hardware IA, guerre de la distillation et Gmail dopé à l’IA.
Our Sponsors
Today's AI News Topics
-
Anthropic frôle le trillion
— Des échanges sur marché secondaire valorisent Anthropic autour de 1 000 milliards de dollars, illustrant la tension offre/demande et l’euphorie IA (Claude, revenus, actions non cotées). -
DeepSeek et la fièvre chinoise
— DeepSeek discuterait d’un premier tour externe au-delà de 20 milliards de dollars, avec Tencent et Alibaba en toile de fond—un signal fort sur la revalorisation accélérée des “champions” IA chinois. -
Washington contre la distillation
— La Maison-Blanche accuse des acteurs étrangers de copier des modèles via distillation et promet davantage de partage de renseignement avec OpenAI, Anthropic et Google, sur fond de tensions techno USA–Chine. -
Tesla achète en catimini
— Tesla révèle dans un document réglementaire une acquisition d’une société de hardware IA pouvant atteindre 2 milliards de dollars, mais sans nom ni détails, renforçant les questions de transparence et de capex IA. -
OpenAI lance GPT-5.5
— OpenAI annonce GPT-5.5, orienté tâches multi-étapes et usage d’outils, avec un discours sur une meilleure “agentic performance” et un déploiement ChatGPT, Codex et API. -
OpenAI publie un filtre PII
— OpenAI publie un modèle open-weight pour détecter et masquer des données personnelles (PII) dans du texte, utile pour logs, indexation et entraînement, avec exécution locale possible (privacy-by-design). -
Claude Code: baisse puis correctif
— Anthropic explique pourquoi Claude Code a semblé moins bon: changements de couche produit (effort de raisonnement, gestion de “thinking”, règles de concision) puis retour arrière et nouveaux garde-fous. -
Agents: code et langage ensemble
— Deux analyses convergent: les agents fiables en production exigent un harnais en code (outils, contexte, contrôle) plus des consignes en langage naturel; le vrai enjeu est la frontière intent vs enforcement. -
Amazon fige un repo MoE
— Amazon Science archive “expert-upcycling”, code lié à une méthode d’extension de modèles MoE en cours d’entraînement; bon pour la reproductibilité, mais le dépôt devient figé. -
Vatican et crise de vérité
— Le Vatican accélère sur l’IA: règles internes, surveillance, partenariats cyber et discours sur la “crise de vérité” face aux deepfakes, avec une posture éthique et institutionnelle assumée. -
Gmail adopte des AI overviews
— Google étend les résumés IA et la recherche en langage naturel à Gmail pour le monde du travail, ce qui peut changer la façon dont les équipes retrouvent l’information dans les fils d’e-mails. -
Essai: l’IA comme projet politique
— Un essai polémique décrit l’IA générative comme un projet politique centralisateur, lié à extraction de données, travail précaire, propagande et érosion des institutions de vérification—un angle à connaître dans le débat public.
Sources & AI News References
- → Why AI Agents Need Both Code Guardrails and Natural-Language Intent
- → Tencent and Alibaba in talks to invest in DeepSeek at over $20B valuation
- → Essay Claims Modern AI Is Structurally Aligned With Fascist Power and Violence
- → Tesla Reveals Up to $2B AI Hardware Acquisition in Brief 10-Q Note
- → White House Says China Is Copying US AI via Distillation, Plans Intelligence Sharing with Top Labs
- → Turbopuffer pitches serverless vector and full-text search built on object storage
- → Cursor Migrates to Turbopuffer to Scale Code Retrieval Past 1T Vectors and Cut Costs
- → OpenAI launches GPT-5.5 with stronger agentic performance and expanded safety safeguards
- → Amazon Science Archives ‘Expert Upcycling’ Code for Expanding MoE Models Mid-Training
- → Anthropic Hits $1 Trillion Secondary-Market Valuation, Trading Above OpenAI
- → Ai2 Adds On-Demand OlmoEarth Embeddings Export to OlmoEarth Studio
- → Inference.sh Claims the Agent Harness Should Be Treated as a Networked Shell
- → MenteDB Launches as a Rust Memory Database Engine Built for AI Agents
- → Vatican Steps Up AI Rules and Cyber Defenses Amid ‘Crisis of Truth’
- → Stash Launches as an Open-Source Memory Layer for AI Agents
- → Crusoe Launches Managed Inference Service Powered by MemoryAlloy KV Cache
- → OpenAI releases open-weight Privacy Filter model to detect and redact PII locally
- → Anthropic fixes three Claude Code changes that caused perceived quality regressions
- → Google brings AI Overviews to Gmail search for Workspace users
Full Episode Transcript: Anthropic frôle le trillion & DeepSeek et la fièvre chinoise
Imaginez une startup IA qui vaudrait, sur simple échange d’actions entre initiés, plus qu’une grande partie du Nasdaq… sans nouvelle levée officielle. C’est ce qui se murmure autour d’Anthropic, et ça en dit long sur la température du marché. Bienvenue dans The Automated Daily, édition AI News. Le podcast créé par l’IA générative. Nous sommes le 25 avril 2026, et je suis TrendTeller. Aujourd’hui: valorisations qui s’emballent, bataille autour de la copie des modèles, une acquisition surprise chez Tesla, et une nouvelle vague d’outils d’IA, de GPT-5.5 à Gmail.
Anthropic frôle le trillion
On commence par la donnée la plus vertigineuse du jour: Anthropic serait valorisée autour de 1 000 milliards de dollars sur le marché secondaire, d’après des transactions rapportées par Forge Global. C’est plus qu’OpenAI sur la même place, et surtout bien au-dessus de la dernière valorisation connue d’Anthropic il y a seulement quelques mois. Ce qu’il faut retenir, ce n’est pas “le chiffre est vrai ou faux” au dollar près: c’est le mécanisme. Quand peu d’actions circulent et que beaucoup d’acheteurs veulent une exposition “Claude”, le prix peut grimper très vite. Ça rappelle que les marchés secondaires, surtout quand ils sont illiquides, peuvent amplifier une narrative plutôt que mesurer une réalité économique.
DeepSeek et la fièvre chinoise
Dans le même registre “IA = actif stratégique”, Reuters rapporte que DeepSeek discute d’un premier tour de financement externe au-delà de 20 milliards de dollars, avec un intérêt évoqué côté Tencent, et Alibaba aussi à la table. Le point intéressant: DeepSeek distribue ses modèles gratuitement, ce qui rend les métriques classiques de revenus moins utiles pour fixer une valeur. Pourtant, la demande d’investisseurs ferait bondir l’évaluation en un temps record. C’est un signe clair que, en Chine aussi, les labos IA de pointe se “re-pricent” comme des infrastructures nationales, pas comme de simples éditeurs de logiciels.
Washington contre la distillation
Et justement, les États-Unis montent d’un cran sur la question: qui a le droit d’apprendre de qui. L’Office of Science and Technology Policy de la Maison-Blanche accuse des entités étrangères, principalement en Chine, de mener des opérations à grande échelle pour “distiller” des modèles américains, autrement dit les copier en aspirant massivement leurs sorties via des requêtes. Washington promet davantage de partage de renseignement avec des acteurs comme OpenAI, Anthropic et Google pour détecter ces campagnes. Pourquoi c’est important: la distillation se fait par Internet, donc c’est difficile à bloquer comme on bloquerait un export de matériel. Et juridiquement, la frontière entre “usage intensif” et “copie abusive” reste floue, ce qui annonce des frictions réglementaires, et probablement des mesures de rétorsion à géométrie variable.
Tesla achète en catimini
Autre histoire qui intrigue les marchés: Tesla a glissé dans son rapport trimestriel une information massive… sans la commenter. L’entreprise dit avoir accepté d’acheter une société de hardware IA non nommée, pour un montant pouvant aller jusqu’à 2 milliards de dollars, essentiellement en actions, et très largement conditionné à des jalons de performance. Le fait marquant, c’est l’opacité: pas de nom, peu de contexte, quasiment pas de détails sur la dilution potentielle. Dans un moment où Tesla pousse fort sur ses ambitions IA et sa capacité semi-conducteurs, ce silence attire l’attention—et pose la question de la gouvernance de ces paris industriels.
OpenAI lance GPT-5.5
Côté produits, OpenAI annonce GPT-5.5, avec une promesse centrale: être plus autonome sur des tâches longues et multi-étapes, notamment en code, analyse, usage d’outils et production de documents, sans que l’utilisateur doive “piloter au joystick” chaque action. OpenAI insiste sur une meilleure planification et une meilleure persistance dans les workflows, tout en gardant une latence comparable à la génération précédente. En clair: la course n’est plus seulement au QI perçu sur une réponse unique, mais à la capacité d’enchaîner proprement plusieurs actions dans le monde réel, avec moins de relances et moins de corrections humaines.
OpenAI publie un filtre PII
OpenAI a aussi publié un outil plus discret, mais potentiellement très utile en entreprise: un modèle open-weight de filtrage de données personnelles, conçu pour détecter et masquer des informations sensibles dans du texte non structuré. L’intérêt est double: d’abord, on peut l’exécuter localement pour éviter d’envoyer des données privées ailleurs; ensuite, c’est une approche plus “contextuelle” qu’un simple jeu de règles. À retenir tout de même: OpenAI le présente comme une brique, pas comme une solution magique de conformité. Mais dans un monde où tout finit dans des logs, des tickets et des prompts, cette brique devient vite critique.
Claude Code: baisse puis correctif
Chez Anthropic, on a eu un épisode plus terre-à-terre, mais révélateur: l’entreprise explique pourquoi des développeurs ont trouvé Claude Code moins bon ces dernières semaines. Selon eux, ce n’était pas le modèle qui avait changé, mais des réglages “produit” autour: un effort de raisonnement abaissé pour réduire la latence, une optimisation qui a rendu l’outil plus “amnésique” que prévu, et une règle de concision qui a finalement dégradé la qualité en programmation. Le tout a été corrigé et partiellement annulé. Morale: à ce niveau, une simple contrainte d’interface—même bien intentionnée—peut se transformer en régression perçue comme une baisse d’intelligence. Et ça met en lumière l’importance des tests qui ressemblent au monde réel, pas seulement aux évaluations internes.
Agents: code et langage ensemble
Deux textes, très différents de ton, convergent sur un sujet clé: comment on construit des agents IA qui tiennent en production. Le premier démonte la querelle “agents en Python versus agents en Markdown”: pousser l’un ou l’autre à l’extrême échoue. Trop de code, et l’agent devient un exécuteur de procédures rigide qui casse dès que le terrain change; trop de langage naturel, et on obtient quelque chose de difficile à déboguer, à corriger finement et à contraindre. Conclusion: le seul design vraiment “agent-native”, c’est un hybride—un harnais en code pour le contexte, les outils, la coordination, et des consignes en langage naturel pour l’intention et les contraintes métier. Le second texte pousse l’idée plus loin en comparant ce harnais à un shell moderne: celui qui contrôle l’auth, les connexions aux SaaS, la mémoire et les permissions contrôle, de facto, le comportement de l’agent. Et au passage, il rappelle un risque très concret: trop d’outils et de schémas, et vous surchargez le contexte… ce qui rend l’agent bêtement moins performant. Ce débat n’est pas académique: c’est la différence entre un assistant fiable et une boîte noire capricieuse.
Amazon fige un repo MoE
Un point rapide côté recherche: Amazon Science a archivé en lecture seule un dépôt GitHub associé à “Expert Upcycling”, une méthode pour étendre des modèles Mixture-of-Experts en cours d’entraînement. Ce qui compte ici, c’est le signal: l’implémentation qui accompagne l’article est figée, ce qui est bon pour la reproductibilité, mais ça suggère aussi qu’il n’y aura pas de maintenance ouverte ou d’évolution communautaire sur ce dépôt précis. Dans l’IA, la disponibilité du code compte, mais sa “vivacité” compte aussi.
Vatican et crise de vérité
Enfin, une note plus institutionnelle: le Vatican accélère sa préparation à l’ère de l’IA, avec des lignes directrices internes, des structures de suivi, et une insistance sur la protection de la “vérité” face aux contenus synthétiques. On note aussi des avertissements à destination du clergé—ne pas déléguer les homélies à l’IA, ne pas confondre visibilité et authenticité. Qu’on partage ou non la lecture du Vatican, c’est un acteur global qui se positionne comme contrepoids moral dans un moment où les États et les plateformes peinent à stabiliser des règles du jeu contre la désinformation.
Gmail adopte des AI overviews
Et puisqu’on parle d’IA qui s’insinue dans le quotidien du travail: Google étend les “AI overviews” à Gmail en entreprise. L’idée est simple: poser une question en langage naturel dans la recherche et obtenir un résumé ciblé à partir de fils d’e-mails, sans ouvrir dix conversations. L’enjeu, c’est l’adoption: si les gens commencent à “consommer” l’e-mail via des synthèses, la manière dont l’information circule et se vérifie dans une organisation va changer—avec un bénéfice de productivité, mais aussi un nouveau besoin de confiance et de traçabilité.
Avant de se quitter, un mot sur un essai plus polémique qui circule aussi aujourd’hui: il présente l’IA non pas comme un outil neutre, mais comme un projet politique qui centralise le pouvoir, banalise certaines violences—de l’extraction de données au travail invisible—et fragilise les institutions de vérification. On n’est pas obligé d’adhérer à toutes les conclusions, mais c’est un rappel utile: les choix techniques et les choix de gouvernance finissent par façonner la société. C’était The Automated Daily, AI News edition, pour ce 25 avril 2026. Je suis TrendTeller. Les liens vers toutes les histoires sont dans les notes de l’épisode.