Transcript

Anthropic frôle le trillion & DeepSeek et la fièvre chinoise - Actualités IA (25 avr. 2026)

25 avril 2026

Back to episode

Imaginez une startup IA qui vaudrait, sur simple échange d’actions entre initiés, plus qu’une grande partie du Nasdaq… sans nouvelle levée officielle. C’est ce qui se murmure autour d’Anthropic, et ça en dit long sur la température du marché. Bienvenue dans The Automated Daily, édition AI News. Le podcast créé par l’IA générative. Nous sommes le 25 avril 2026, et je suis TrendTeller. Aujourd’hui: valorisations qui s’emballent, bataille autour de la copie des modèles, une acquisition surprise chez Tesla, et une nouvelle vague d’outils d’IA, de GPT-5.5 à Gmail.

On commence par la donnée la plus vertigineuse du jour: Anthropic serait valorisée autour de 1 000 milliards de dollars sur le marché secondaire, d’après des transactions rapportées par Forge Global. C’est plus qu’OpenAI sur la même place, et surtout bien au-dessus de la dernière valorisation connue d’Anthropic il y a seulement quelques mois. Ce qu’il faut retenir, ce n’est pas “le chiffre est vrai ou faux” au dollar près: c’est le mécanisme. Quand peu d’actions circulent et que beaucoup d’acheteurs veulent une exposition “Claude”, le prix peut grimper très vite. Ça rappelle que les marchés secondaires, surtout quand ils sont illiquides, peuvent amplifier une narrative plutôt que mesurer une réalité économique.

Dans le même registre “IA = actif stratégique”, Reuters rapporte que DeepSeek discute d’un premier tour de financement externe au-delà de 20 milliards de dollars, avec un intérêt évoqué côté Tencent, et Alibaba aussi à la table. Le point intéressant: DeepSeek distribue ses modèles gratuitement, ce qui rend les métriques classiques de revenus moins utiles pour fixer une valeur. Pourtant, la demande d’investisseurs ferait bondir l’évaluation en un temps record. C’est un signe clair que, en Chine aussi, les labos IA de pointe se “re-pricent” comme des infrastructures nationales, pas comme de simples éditeurs de logiciels.

Et justement, les États-Unis montent d’un cran sur la question: qui a le droit d’apprendre de qui. L’Office of Science and Technology Policy de la Maison-Blanche accuse des entités étrangères, principalement en Chine, de mener des opérations à grande échelle pour “distiller” des modèles américains, autrement dit les copier en aspirant massivement leurs sorties via des requêtes. Washington promet davantage de partage de renseignement avec des acteurs comme OpenAI, Anthropic et Google pour détecter ces campagnes. Pourquoi c’est important: la distillation se fait par Internet, donc c’est difficile à bloquer comme on bloquerait un export de matériel. Et juridiquement, la frontière entre “usage intensif” et “copie abusive” reste floue, ce qui annonce des frictions réglementaires, et probablement des mesures de rétorsion à géométrie variable.

Autre histoire qui intrigue les marchés: Tesla a glissé dans son rapport trimestriel une information massive… sans la commenter. L’entreprise dit avoir accepté d’acheter une société de hardware IA non nommée, pour un montant pouvant aller jusqu’à 2 milliards de dollars, essentiellement en actions, et très largement conditionné à des jalons de performance. Le fait marquant, c’est l’opacité: pas de nom, peu de contexte, quasiment pas de détails sur la dilution potentielle. Dans un moment où Tesla pousse fort sur ses ambitions IA et sa capacité semi-conducteurs, ce silence attire l’attention—et pose la question de la gouvernance de ces paris industriels.

Côté produits, OpenAI annonce GPT-5.5, avec une promesse centrale: être plus autonome sur des tâches longues et multi-étapes, notamment en code, analyse, usage d’outils et production de documents, sans que l’utilisateur doive “piloter au joystick” chaque action. OpenAI insiste sur une meilleure planification et une meilleure persistance dans les workflows, tout en gardant une latence comparable à la génération précédente. En clair: la course n’est plus seulement au QI perçu sur une réponse unique, mais à la capacité d’enchaîner proprement plusieurs actions dans le monde réel, avec moins de relances et moins de corrections humaines.

OpenAI a aussi publié un outil plus discret, mais potentiellement très utile en entreprise: un modèle open-weight de filtrage de données personnelles, conçu pour détecter et masquer des informations sensibles dans du texte non structuré. L’intérêt est double: d’abord, on peut l’exécuter localement pour éviter d’envoyer des données privées ailleurs; ensuite, c’est une approche plus “contextuelle” qu’un simple jeu de règles. À retenir tout de même: OpenAI le présente comme une brique, pas comme une solution magique de conformité. Mais dans un monde où tout finit dans des logs, des tickets et des prompts, cette brique devient vite critique.

Chez Anthropic, on a eu un épisode plus terre-à-terre, mais révélateur: l’entreprise explique pourquoi des développeurs ont trouvé Claude Code moins bon ces dernières semaines. Selon eux, ce n’était pas le modèle qui avait changé, mais des réglages “produit” autour: un effort de raisonnement abaissé pour réduire la latence, une optimisation qui a rendu l’outil plus “amnésique” que prévu, et une règle de concision qui a finalement dégradé la qualité en programmation. Le tout a été corrigé et partiellement annulé. Morale: à ce niveau, une simple contrainte d’interface—même bien intentionnée—peut se transformer en régression perçue comme une baisse d’intelligence. Et ça met en lumière l’importance des tests qui ressemblent au monde réel, pas seulement aux évaluations internes.

Deux textes, très différents de ton, convergent sur un sujet clé: comment on construit des agents IA qui tiennent en production. Le premier démonte la querelle “agents en Python versus agents en Markdown”: pousser l’un ou l’autre à l’extrême échoue. Trop de code, et l’agent devient un exécuteur de procédures rigide qui casse dès que le terrain change; trop de langage naturel, et on obtient quelque chose de difficile à déboguer, à corriger finement et à contraindre. Conclusion: le seul design vraiment “agent-native”, c’est un hybride—un harnais en code pour le contexte, les outils, la coordination, et des consignes en langage naturel pour l’intention et les contraintes métier. Le second texte pousse l’idée plus loin en comparant ce harnais à un shell moderne: celui qui contrôle l’auth, les connexions aux SaaS, la mémoire et les permissions contrôle, de facto, le comportement de l’agent. Et au passage, il rappelle un risque très concret: trop d’outils et de schémas, et vous surchargez le contexte… ce qui rend l’agent bêtement moins performant. Ce débat n’est pas académique: c’est la différence entre un assistant fiable et une boîte noire capricieuse.

Un point rapide côté recherche: Amazon Science a archivé en lecture seule un dépôt GitHub associé à “Expert Upcycling”, une méthode pour étendre des modèles Mixture-of-Experts en cours d’entraînement. Ce qui compte ici, c’est le signal: l’implémentation qui accompagne l’article est figée, ce qui est bon pour la reproductibilité, mais ça suggère aussi qu’il n’y aura pas de maintenance ouverte ou d’évolution communautaire sur ce dépôt précis. Dans l’IA, la disponibilité du code compte, mais sa “vivacité” compte aussi.

Enfin, une note plus institutionnelle: le Vatican accélère sa préparation à l’ère de l’IA, avec des lignes directrices internes, des structures de suivi, et une insistance sur la protection de la “vérité” face aux contenus synthétiques. On note aussi des avertissements à destination du clergé—ne pas déléguer les homélies à l’IA, ne pas confondre visibilité et authenticité. Qu’on partage ou non la lecture du Vatican, c’est un acteur global qui se positionne comme contrepoids moral dans un moment où les États et les plateformes peinent à stabiliser des règles du jeu contre la désinformation.

Et puisqu’on parle d’IA qui s’insinue dans le quotidien du travail: Google étend les “AI overviews” à Gmail en entreprise. L’idée est simple: poser une question en langage naturel dans la recherche et obtenir un résumé ciblé à partir de fils d’e-mails, sans ouvrir dix conversations. L’enjeu, c’est l’adoption: si les gens commencent à “consommer” l’e-mail via des synthèses, la manière dont l’information circule et se vérifie dans une organisation va changer—avec un bénéfice de productivité, mais aussi un nouveau besoin de confiance et de traçabilité.

Avant de se quitter, un mot sur un essai plus polémique qui circule aussi aujourd’hui: il présente l’IA non pas comme un outil neutre, mais comme un projet politique qui centralise le pouvoir, banalise certaines violences—de l’extraction de données au travail invisible—et fragilise les institutions de vérification. On n’est pas obligé d’adhérer à toutes les conclusions, mais c’est un rappel utile: les choix techniques et les choix de gouvernance finissent par façonner la société. C’était The Automated Daily, AI News edition, pour ce 25 avril 2026. Je suis TrendTeller. Les liens vers toutes les histoires sont dans les notes de l’épisode.