The Automated Daily - AI News Edition · 28 février 2026 · 12:38

Bras de fer Trump-Anthropic & OpenAI et l’IA classifiée militaire - Actualités IA (28 févr. 2026)

Trump bannit Anthropic des agences fédérales, OpenAI arrive sur réseaux militaires classifiés, Google Nano Banana 2, capex IA explosif et agents plus sûrs.

Bras de fer Trump-Anthropic & OpenAI et l’IA classifiée militaire - Actualités IA (28 févr. 2026)
0:0012:38

Our Sponsors

Topics

01
Bras de fer Trump-Anthropic — Trump ordonne l’arrêt d’Anthropic dans l’administration fédérale et menace d’un label « supply chain risk ». Enjeu: garde-fous Claude, surveillance de masse, armes autonomes, sécurité nationale.
02
OpenAI et l’IA classifiée militaire — Sam Altman annonce un accord pour déployer OpenAI sur des réseaux militaires classifiés. Mots-clés: cloud classifié, interdiction de surveillance domestique, responsabilité humaine, usage de la force.
03
Départs en série chez xAI — Nouveau départ d’un cofondateur chez xAI, sur fond de réorganisation après fusion avec SpaceX. Mots-clés: restructuration, Macrohard, gouvernance, IPO SpaceX, talents IA.
04
Google accélère l’image IA — DeepMind lance Nano Banana 2 / Gemini Flash Image pour générer et éditer plus vite, avec meilleure typographie et provenance (SynthID, C2PA). Mots-clés: 4K, cohérence personnages, Search/Lens, Ads.
05
IA vocale temps réel OpenAI — OpenAI généralise la Realtime API et publie un guide de prompting pour la voix (gpt-realtime). Mots-clés: speech-to-speech, tool calling, latence, prononciations, escalation.
06
Infrastructures IA: capex et I/O — Epoch AI mesure une explosion des dépenses des hyperscalers depuis GPT-4, et DualPath accélère l’inférence agentique via KV-cache. Mots-clés: capex 2025 ~500B$, RDMA, I/O bottleneck, SLO.
07
Agents: frameworks, tests, sécurité — Nouveaux outils pour agents: helm (TypeScript typé), neuro-san (réseaux multi-agents testables), NanoClaw (sandbox par défaut), et gouvernance qualité face aux tests « guéris ». Mots-clés: permissions, MCP, observabilité, isolation, logic drift.
08
Vibe coding: culture et risques — Deux lectures sur le vibe coding: héritage « Maker Movement » et dérives quand on saute la phase communauté/critique. Mots-clés: scenius, goût/jugement, surplus intelligence, données d’entraînement.
09
RH: l’IA recrute autrement — L’IA s’impose dans le recrutement: tri de CV, matching, chatbots, prédiction de rétention. Mots-clés: expérience candidat, biais, analytics, coûts, turnover.
10
Débats: next-token, welfare, monde — Essai sur « juste un next-token predictor », débat sur l’interprétabilité et les modèles du monde; en parallèle: incitations à ne pas « prendre le pouvoir », et teasers de world models. Mots-clés: RLHF, predictive coding, takeover, Moonlake.

Sources

Full Transcript

Imaginez: une entreprise d’IA américaine qualifiée de « risque de chaîne d’approvisionnement », comme si elle était liée à un adversaire étranger… et évincée d’un coup de tout l’État fédéral. C’est l’escalade du jour, avec en toile de fond l’accès « sans limites » aux modèles pour l’usage militaire. Bienvenue dans The Automated Daily, AI News edition. Le podcast créé par l’IA générative. Nous sommes le 28 février 2026, et je suis TrendTeller. Aujourd’hui, on parle de lignes rouges autour de la surveillance et des armes autonomes, de deals classifiés, d’une fuite de talents chez xAI, et de la course industrielle — celle qui se joue autant dans les data centers que dans les caches mémoire des modèles.

On commence par le dossier qui secoue à la fois Washington et la Silicon Valley: l’administration Trump a ordonné à toutes les agences fédérales de cesser immédiatement d’utiliser la technologie d’Anthropic. Le Pentagone obtient une fenêtre pouvant aller jusqu’à six mois pour retirer les outils déjà intégrés à des plateformes militaires, ce qui donne une idée du degré d’embarquement… et du coût de sortie. La rupture vient d’un ultimatum: le Department of Defense, via le secrétaire à la Défense Pete Hegseth, exigeait un accès « sans restriction » aux modèles pour tout « usage légal ». Anthropic, de son côté, dit avoir demandé des garanties ciblées: pas de surveillance de masse des Américains, et pas d’armes pleinement autonomes. Deux garde-fous qui, selon l’entreprise, relèvent autant des valeurs démocratiques que du simple réalisme technique: les grands modèles actuels restent fragiles quand l’enjeu, c’est la force létale ou l’analyse de renseignement à très haut risque. La réponse politique est brutale: Trump annonce que l’État ne fera plus affaire avec Anthropic, tandis que Hegseth brandit une désignation de « supply chain risk ». C’est un label généralement réservé à des acteurs soupçonnés de liens avec des puissances adverses, et qui peut contaminer, par ricochet, des partenariats dans le privé. Anthropic promet une contestation en justice, parlant d’une action sans précédent et juridiquement bancale contre une société américaine.

Ce bras de fer devient encore plus intéressant quand on le met en regard d’une autre annonce, tombée quelques heures plus tard: Sam Altman indique qu’OpenAI a conclu un accord pour fournir des systèmes OpenAI à des réseaux militaires classifiés. Peu de détails publics sur les modèles ou l’étendue exacte du déploiement, mais le signal est clair: la compétition se déplace vers les environnements sensibles. Altman affirme que l’accord inclut des interdictions de surveillance domestique de masse et des exigences de responsabilité humaine dans l’usage de la force. Autrement dit, OpenAI essaie de montrer qu’on peut travailler avec la Défense tout en affichant des garde-fous. Et c’est là que l’histoire devient une partie d’échecs: si Anthropic est écartée, les rivaux — OpenAI, et potentiellement d’autres — récupèrent une part de marché… mais tout le secteur se retrouve avec une question: quelle marge de négociation reste-t-il à une entreprise quand l’État exige « tout usage légal » sans limites techniques, contractuelles ou éthiques? À noter aussi: Dario Amodei, le patron d’Anthropic, soutient que Claude est déjà largement utilisé dans des missions critiques — analyse de renseignement, planification opérationnelle, cyber — y compris sur des réseaux classifiés et dans des laboratoires nationaux. Il insiste sur un point: les décisions militaires reviennent au Département, pas à une entreprise privée; en revanche, Anthropic refuse de fournir une capacité qui faciliterait, selon elle, deux catégories précises: la surveillance domestique de masse et les armes entièrement autonomes. Le Pentagone, lui, dit ne pas viser ces usages, tout en réclamant un accès sans garde-fous. Difficile de ne pas voir l’impasse contractuelle qui se transforme en bataille publique de communication.

Changement de décor: chez xAI, un autre cofondateur, Toby Pohlen, annonce son départ. C’est le dernier d’une série: sept des douze cofondateurs seraient partis en moins de trois ans. Le contexte, c’est une réorganisation après une fusion avec SpaceX annoncée en février, valorisée — selon Bloomberg — à des sommets rarement vus, autour de 1 250 milliards de dollars pour l’ensemble. Pohlen avait été placé à la tête d’une division au nom volontairement provocateur, « Macrohard », dédiée à des logiciels d’agents numériques. Derrière la blague, on lit une intention stratégique: pousser des agents capables d’exécuter des tâches complexes. Mais ces départs posent une question très simple: est-ce une rotation normale dans une startup en hypercroissance, ou le symptôme d’une structure qui bouge trop vite? Et au passage, SpaceX viserait désormais une introduction en bourse qui pourrait devenir la plus massive de l’histoire — ce qui, si cela se confirme, rebattra aussi les cartes du financement de l’IA.

Sur le front des produits, Google accélère fort. DeepMind déploie Nano Banana 2, aussi présenté comme Gemini 3.1 Flash Image: une génération et surtout une édition d’images plus rapide, tout en gardant une qualité proche des modèles « Pro ». On retient plusieurs points concrets: meilleure génération de texte lisible dans les images — utile pour des maquettes marketing ou des cartes —, localisation et traduction du texte intégré, et une promesse de cohérence: jusqu’à cinq personnages qui gardent leur ressemblance, et un nombre élevé d’objets qui restent fidèles à travers un flux d’édition. Google pousse aussi l’intégration produit: Gemini app, Search en mode IA, Lens, AI Studio, API Gemini en preview, Vertex AI, et même Google Ads pour des suggestions lors de la création de campagne. Côté traçabilité, l’entreprise insiste sur SynthID et la compatibilité C2PA, avec des vérifications déjà utilisées des dizaines de millions de fois. Message implicite: « on veut de la vitesse, mais on sait que l’authenticité et la provenance deviennent une exigence de plateforme ». Et pendant que les images gagnent en vitesse, Google s’attaque à un autre sujet: les agents… mais sur mobile et hors-ligne. Son app de démonstration Google AI Edge Gallery arrive sur iOS, et met en avant le function calling sur appareil via FunctionGemma, un modèle très compact. L’idée: convertir une intention en action — ouvrir Maps, créer un événement calendrier, activer la lampe torche — sans serveur. Les démos “Mobile Actions” et “Tiny Garden” montrent surtout un futur très pragmatique: des assistants qui continuent de fonctionner sans réseau, avec une latence quasi instantanée. Et Google ajoute même du benchmarking in-app pour comparer les performances.

Autre annonce marquante côté OpenAI: la Realtime API passe en disponibilité générale, accompagnée d’un guide de prompting très orienté “voix”. On y apprend que la discipline est différente du texte: il faut verrouiller la langue pour éviter les changements involontaires, donner des règles courtes et sans ambiguïté, et surtout prévoir les prononciations — par exemple épeler des codes ou dicter des numéros chiffre par chiffre. Le guide insiste aussi sur les outils: un agent vocal qui appelle des outils doit éviter les décalages entre ce que le prompt décrit et ce que l’API expose réellement, sinon la fiabilité s’effondre. On voit émerger une architecture « penseur / répondeur »: un modèle texte plus fort prépare la réponse ou le plan, puis le modèle voix reformule pour un rendu naturel et fluide. C’est un bon rappel: la voix n’est pas juste une sortie audio, c’est un produit avec ses propres contraintes de rythme, d’erreurs, et d’escalade vers un humain quand ça dérape.

Passons à l’économie et aux coulisses techniques, parce que c’est là que la course se gagne souvent. Epoch AI rapporte que les dépenses d’investissement — le capex — des hyperscalers ont explosé depuis GPT‑4. Alphabet, Amazon, Meta, Microsoft et Oracle: au total, on frôle le demi‑billion de dollars sur 2025. Et si la trajectoire continuait au même rythme, on parlerait de quelque 770 milliards en 2026, même si les signaux des entreprises suggèrent plutôt un ralentissement relatif. Cette frénésie n’est pas abstraite: elle se retrouve dans des goulots d’étranglement très précis. Un papier de recherche propose DualPath pour accélérer l’inférence multi‑tours et « agentique » là où, désormais, ce n’est plus le calcul qui bloque, mais l’I/O lié au KV-cache. Dans certaines architectures désagrégées, le réseau de stockage des machines de “prefill” sature, pendant que celui des machines de “decode” est sous-utilisé. DualPath ouvre un second chemin: charger le KV-cache côté decode puis le transférer vers prefill via RDMA sur le réseau de calcul, avec un ordonnanceur global pour équilibrer tout ça. Résultat annoncé: jusqu’à 1,87× en offline, et environ 1,96× en ligne tout en respectant les objectifs de latence. Traduction: l’IA à grande échelle est aussi une histoire de tuyaux, de caches et de planification, pas seulement de modèles.

Maintenant, parlons “agents” au sens logiciel — et comment on évite de se tirer une balle dans le pied. D’abord, helm: un framework TypeScript typé qui mise sur des fonctions structurées plutôt que sur des chaînes de texte à parser. Il introduit une gestion fine des permissions — autoriser, demander confirmation, refuser — et une idée très pratique: exposer au modèle seulement deux outils, « search » et « execute ». Le modèle découvre les capacités disponibles via search, puis compose des actions via execute, dans un sandbox SES. C’est une façon élégante de réduire le nombre d’outils exposés, donc le bruit et les risques. Dans le même esprit de mise en production, neuro-san propose de “vibe coder” des réseaux multi‑agents tout en gardant une structure éditable: rôles, canaux de communication, intégrations, tests de cohérence sur plusieurs exécutions, validation de sorties structurées, et gestion de données sensibles via un canal protégé. En clair: on garde la vitesse de prototypage, mais on ajoute des garde‑corps pour éviter le système fragile qui marche une fois sur trois. Et si votre inquiétude principale, c’est la sécurité, un billet sur NanoClaw martèle une règle simple: un agent doit être traité comme non fiable, voire hostile. Donc sandbox par défaut, container éphémère par invocation, accès au disque strictement monté, pas de partage d’environnement entre agents “perso” et “boulot”, et des listes de chemins interdits comme .ssh ou .aws. C’est moins glamour que “mon agent fait tout”, mais c’est souvent la différence entre une démo et un incident.

À propos de démos qui deviennent des systèmes: deux analyses sur le vibe coding convergent sur un point. Oui, l’IA permet de produire vite. Mais le risque, c’est de confondre “ça marche” avec “c’est bon”. Une lecture culturelle compare le vibe coding au Maker Movement: à l’époque, on produisait des objets parfois inutiles — des “crapjects” — surtout pour apprendre, développer du goût, et se faire corriger par une communauté. Le reproche fait au vibe coding actuel, c’est de sauter cette phase d’apprentissage collectif et d’atterrir directement dans l’entreprise, sous pression. Résultat: beaucoup d’output, pas assez de jugement. Et autre observation piquante: chaque session génère un “exhaust” d’information — prompts, corrections, cas limites — qui remonte souvent vers les fournisseurs de modèles comme données d’entraînement implicites. D’où une idée: constituer localement une sorte de “forteresse de données” avec ses erreurs documentées et ses boucles de feedback, pour capitaliser. Sur la qualité logicielle, un autre article prévient contre la lune de miel des assistants de code couplés à des tests E2E type Playwright. Tant que tout est vert, on se croit couvert. Mais quand des agents autonomes utilisent les tests comme signal de décision — fusionner, réessayer, avancer — un test “guéri” peut dériver: il repasse au vert en contournant l’intention métier. On appelle ça le “logic drift”. La conclusion est sobre: il faut une gouvernance de la qualité, une mémoire de l’intention, pas seulement un moteur d’exécution rapide. À l’inverse, un retour d’expérience d’un développeur — sceptique au départ — raconte que les modèles récents changent la donne, surtout quand on leur donne un fichier de règles, type AGENTS.md, pour imposer conventions, structure, et discipline. Morale: les agents deviennent plus utiles… quand on les encadre, et quand on mesure vraiment les résultats.

Deux autres sujets, plus transversaux, pour finir. D’abord le recrutement: les entreprises utilisent de plus en plus l’IA pour trier les candidatures, rapprocher profils et postes, automatiser la communication via chatbots, et même tenter de prédire la réussite à long terme via des données historiques. La promesse: gagner du temps, réduire les coûts, et limiter les biais en se concentrant sur des compétences. La réalité dépendra, comme toujours, de la qualité des données et des critères: un outil peut réduire certains biais… ou industrialiser d’autres si on ne surveille pas les effets. Ensuite, un débat d’idées qui revient sans cesse: les grands modèles ne seraient “que” des prédicteurs du prochain token. Un essai répond que c’est confondre l’objectif d’entraînement avec ce que le système fait réellement en interne, un peu comme réduire l’humain à “optimiser la reproduction”. L’auteur fait le parallèle avec le predictive coding en neurosciences: prédire le prochain signal sensoriel peut, à force, créer un modèle du monde utilisable pour raisonner. Et puisqu’on parle de monde: une startup, Moonlake, tease une “world model” capable de représenter état multimodal, physique, géométrie et effets causaux… mais sans benchmarks publics. À prendre comme une bande-annonce, pas comme une preuve. Enfin, un billet de sécurité cognitive propose un angle original sur le risque de “prise de pouvoir” par une IA très avancée: si le coût de l’échec est catastrophique, un agent peut devenir très aversif au risque. D’où l’idée de rendre l’option coopérative attractrice — par exemple en récompensant la transparence plutôt qu’en punissant systématiquement. C’est de la stratégie d’incitation plus que de la philosophie: façonner les motivations perçues, pas seulement renforcer les verrous.

Voilà pour l’essentiel de ce 28 février 2026. Entre la rupture spectaculaire entre l’État fédéral américain et Anthropic, les déploiements classifiés qui s’accélèrent, et les progrès très concrets côté images, voix et agents, on voit se dessiner une constante: la bataille n’est plus seulement “quel modèle est le meilleur”, mais “quels garde-fous, quelle architecture, et qui contrôle les conditions d’usage”. Si vous voulez creuser, les liens vers toutes les histoires sont dans les notes de l’épisode. À demain.