Anthropic face au Pentagone & OpenAI et le boycott QuitGPT - Actualités IA (4 mars 2026)
Anthropic vs Pentagone, boycott QuitGPT, pubs dans ChatGPT, Cursor à 2Md$ ARR, Qwen3.5 open source, mémoire d’agents et vérification du code IA.
Our Sponsors
Topics
- 01
Anthropic face au Pentagone
— Anthropic est visée par une décision politique après un désaccord avec le Pentagone sur des garde-fous, avec menace de blocage “supply chain risk” et forte incertitude marché. - 02
OpenAI et le boycott QuitGPT
— OpenAI signe un accord Défense et déclenche une vague de contestation “QuitGPT”, relançant le débat éthique sur surveillance, armes autonomes et responsabilité des plateformes IA. - 03
ChatGPT teste la publicité
— OpenAI expérimente des annonces dans ChatGPT sous forme de “solutions” conversationnelles, ce qui change les règles de la publicité et la transparence de la mesure (impressions, clics, boîte noire). - 04
Explosion des assistants de code
— Les outils de dev dopés à l’IA accélèrent: Cursor dépasserait 2 млрд$ d’ARR annualisé, tandis que les prix des assistants de code montent, signalant une nouvelle économie de l’inférence. - 05
Petits modèles open source Qwen
— Alibaba publie Qwen3.5 en open source: des modèles plus compacts visent des performances de haut niveau, renforçant la tendance “local-first”, confidentialité et coûts réduits. - 06
Mémoire et agents IA en recherche
— Deux papiers/initiatives montrent la poussée des agents: mémoire “just-in-time” (GAM) pour réduire la perte d’information, et “CUDA Agent” pour optimiser du code GPU via apprentissage par renforcement. - 07
Vérification formelle contre bugs IA
— Leonardo de Moura alerte sur un “verification gap”: si l’IA écrit plus de code, la revue humaine ne suit plus; la vérification formelle et des preuves machine-checkées deviennent un enjeu sécurité. - 08
Gemini et l’IA au travail
— Google teste des “Projects” dans Gemini Enterprise pour structurer le travail en équipe (contexte, fichiers, objectifs), signe d’une bataille sur l’IA bureautique et l’adoption en entreprise. - 09
Dataset sur Gary Marcus
— Un dépôt GitHub compile des milliers d’affirmations de Gary Marcus et tente de les évaluer via LLM, utile pour cartographier les débats—mais à vérifier car la validation est automatisée. - 10
IA générative et jeux vidéo
— Un essai souligne que l’IA change la fabrication des jeux, mais produit encore peu d’expériences vraiment nouvelles; le modèle économique, la culture et la “logique floue” des LLM freinent l’innovation.
Sources
- → https://vercel.com/blog/keeping-community-human-while-scaling-with-agents?utm_source=tldrai)
- → https://miro.com/events/webinar/whatever-happened-to-the-ai-revolution/?utm_campaign=BA&utm_source=TLDR&utm_medium=newsletter&utm_term=ba_ai_second&utm_content=Sponsorship&src=-newsletter_glb)
- → https://github.com/davegoldblatt/marcus-claims-dataset
- → https://github.com/AlexsJones/llmfit?utm_source=tldrai)
- → https://www.axios.com/2026/03/02/anthropic-ai-openai-trump?utm_source=tldrai)
- → https://you.com/resources/90-day-ai-adoption-playbook?utm_campaign=32665521-TLDR_AI_Q1&utm_source=external-newsletter&utm_medium=email&utm_term=tldrai_primary_3.3&utm_content=tldrai_primary_3.3)
- → https://techcrunch.com/2026/03/02/anthropics-claude-reports-widespread-outage/?utm_source=tldrai)
- → https://www.progress.com/agentic-rag/pricing?utm_source=tldr&utm_medium=newsletter&utm_campaign=arag_q2_2026&utm_content=ai_secondary_overview)
- → https://apoorv03.com/p/the-state-of-consumer-ai-part-1-usage?utm_source=tldrai)
- → https://arxiv.org/abs/2511.18423?utm_source=tldrai)
- → https://youtu.be/MPTNHrq_4LU?utm_source=tldrai)
- → https://newsletter.danielpaleka.com/p/you-are-going-to-get-priced-out-of
- → https://www.bloomberg.com/news/articles/2026-03-02/cursor-recurring-revenue-doubles-in-three-months-to-2-billion?accessToken=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJzb3VyY2UiOiJTdWJzY3JpYmVyR2lmdGVkQXJ0aWNsZSIsImlhdCI6MTc3MjUxNTk2MywiZXhwIjoxNzczMTIwNzYzLCJhcnRpY2xlSWQiOiJUQkFJNUdLSkg2VjQwMCIsImJjb25uZWN0SWQiOiIwOThFNzNDQTE5QTA0RDkxODEyQzQ4MjcwRDZERTI0QiJ9.-KNJymAWowgZiyF92qZnZ3sxGno-ss74uAOs1OIDJCs&utm_source=tldrai)
- → https://thenextweb.com/news/the-other-side-of-ads-in-chatgpt-advertiser-perspective?utm_source=tldrai)
- → https://cuda-agent.github.io/?utm_source=tldrai)
- → https://miro.com/events/webinar/whatever-happened-to-the-ai-revolution/?utm_campaign=BA&utm_source=TLDR&utm_medium=newsletter&utm_term=ba_ai_second&utm_content=Sponsorship&src=-newsletter_glb)
- → https://leodemoura.github.io/blog/2026/02/28/when-ai-writes-the-worlds-software.html
- → https://venturebeat.com/technology/alibabas-small-open-source-qwen3-5-9b-beats-openais-gpt-oss-120b-and-can-run?utm_source=tldrai)
- → https://www.testingcatalog.com/google-tests-projects-feature-for-gemini-enterprise/?utm_source=tldrai)
- → https://www.euronews.com/next/2026/03/02/cancel-chatgpt-ai-boycott-surges-after-openai-pentagon-military-deal
- → https://github.com/ZHZisZZ/dllm?utm_source=tldrai)
- → https://franklantz.substack.com/p/why-no-ai-games
Full Transcript
Une grande société d’IA se retrouve menacée d’exclusion des contrats militaires américains… et, presque au même moment, son service grand public tombe en panne. Coïncidence ou effet domino d’une bataille politique ? Bienvenue sur The Automated Daily, AI News edition. Le podcast créé par l’IA générative. Nous sommes le 4 mars 2026, et je suis TrendTeller. Aujourd’hui, on parle de l’IA qui s’invite dans la géopolitique, de la pub qui arrive dans les chats, et de la façon dont l’IA est en train de redessiner le logiciel—avec, au passage, une question centrale: comment garder la confiance quand tout accélère.
Anthropic face au Pentagone
On commence par le feuilleton le plus explosif: Anthropic, l’éditeur de Claude, est en conflit ouvert avec le Pentagone. Au cœur du problème, une ligne rouge revendiquée par l’entreprise: refuser certains usages, notamment autour d’armes pleinement autonomes et de la surveillance de masse. Résultat: après l’échec des négociations, l’administration Trump aurait ordonné l’arrêt de l’usage des technologies Anthropic par des agences fédérales, et le secrétaire à la Défense Pete Hegseth parle carrément de “risque de chaîne d’approvisionnement”, ce qui pourrait compliquer la vie d’Anthropic… et de partenaires qui gravitent autour. Pourquoi c’est important: on voit à quelle vitesse un désaccord sur des garde-fous peut devenir un risque commercial et opérationnel. Et ça rappelle que l’IA, dès qu’elle touche la défense, n’est plus seulement un sujet tech: c’est un levier politique et un outil de pression.
OpenAI et le boycott QuitGPT
Dans la foulée, Dario Amodei, le PDG d’Anthropic, a répondu publiquement, notamment dans une interview à CBS. Son angle est clair: il décrit la mesure comme punitive, et insiste sur l’idée que demander des limites d’usage n’est pas “anti-sécurité nationale”, mais au contraire compatible avec des valeurs démocratiques. Traduction: Anthropic veut rester dans le jeu, mais pas à n’importe quel prix. Ce qui compte ici, c’est le précédent: si les conditions d’utilisation et la “safety” deviennent des sujets de représailles, toutes les entreprises d’IA devront arbitrer entre accès au marché public, image, et responsabilités.
ChatGPT teste la publicité
Et puis il y a eu l’incident qui n’arrange rien: Claude a subi une panne assez large lundi matin, touchant l’accès via Claude.ai et Claude Code, alors que l’API semblait tenir. Anthropic a pointé un souci autour des parcours de connexion, sans donner de cause détaillée. Pourquoi ça compte: quand une entreprise est sous les projecteurs politiques, la fiabilité du service devient elle aussi un sujet public. Une panne, même banale techniquement, peut vite être interprétée comme un signal de fragilité—et l’écosystème, développeurs comme entreprises, déteste l’incertitude.
Explosion des assistants de code
En face, OpenAI a profité de l’ouverture: l’entreprise aurait signé l’accord que son concurrent a refusé, pour déployer ses modèles dans des environnements militaires classifiés. Et ça déclenche une réaction: une campagne de boycott en ligne, baptisée “QuitGPT”, affirme mobiliser des centaines de milliers, voire plus, de participants qui annulent des abonnements ou relaient des messages. Le point clé: au-delà des chiffres exacts, on voit une fracture nette. Une partie du public veut des engagements vérifiables et des limites d’usage, surtout sur la défense et la surveillance. L’autre camp met en avant la compétitivité et la course technologique. Ce débat va s’installer, parce qu’il ne concerne pas seulement une entreprise: il concerne la trajectoire de tout le secteur.
Petits modèles open source Qwen
Autre bascule, côté modèle économique: OpenAI testerait aussi l’intégration de publicités dans ChatGPT. Pas des annonces “à côté” comme sur un moteur de recherche, mais des recommandations insérées dans le fil de la conversation, présentées comme des réponses pertinentes. Pourquoi c’est intéressant: on passe d’un marché d’enchères relativement lisible à une logique où l’algorithme peut devenir un véritable arbitre—voire un gardien—de la recommandation. Et si les annonceurs n’obtiennent que peu de données de performance, la question de la transparence devient centrale: qui est recommandé, pourquoi, et avec quels garde-fous ?
Mémoire et agents IA en recherche
Parlons usage grand public: des données de marché indiquent que les apps d’IA sur mobile auraient explosé en deux ans, avec une croissance particulièrement concentrée. ChatGPT capterait une part énorme de l’usage, loin devant Gemini. Pourquoi ça compte: ce n’est pas seulement un concours de téléchargements. Une app qui devient une “utilité” du quotidien finit par structurer des habitudes, des workflows, et… de nouveaux marchés, comme la pub ou les abonnements premium. Et cette concentration pose aussi une question de dépendance: si un acteur domine l’interface, il influence les standards, les prix, et la distribution de la valeur.
Vérification formelle contre bugs IA
Justement, côté développeurs, l’argent s’accélère: Cursor, l’assistant de code, afficherait un rythme de revenus annualisé dépassant 2 milliards de dollars, porté en bonne partie par l’entreprise. En parallèle, un papier défend une idée qui fait grincer des dents: l’époque où l’assistance au code “très performante” était largement abordable pourrait toucher à sa fin, avec une montée des offres premium. Pourquoi c’est important: si les meilleurs agents consomment beaucoup de calcul pour être plus rapides, plus autonomes, et plus “sûrs”, les prix risquent de suivre. Et ça pourrait creuser un écart: organisations bien financées d’un côté, indépendants et monde académique de l’autre.
Gemini et l’IA au travail
Sur l’outillage et les communautés dev, Vercel raconte avoir déployé deux agents IA pour gérer son support communautaire à grande échelle. Un agent s’occupe du “trafic”: dédoublonner, trier, relancer, éviter que des fils restent sans réponse. L’autre assemble du contexte utile à des répondants humains, en allant chercher dans la doc, GitHub et les discussions passées. Pourquoi ça compte: c’est un exemple concret d’IA comme “chef d’orchestre” du travail, pas comme remplaçant. L’idée, c’est de supprimer la logistique répétitive tout en gardant la relation et la réponse substantielle côté humain. Et ça dessine un modèle qui pourrait se répandre dans le support, l’IT interne, et la modération.
Dataset sur Gary Marcus
Passons aux modèles: Alibaba publie en open source la série Qwen3.5 “small”, avec l’ambition d’apporter de très bonnes performances sur des machines du quotidien. Le message sous-jacent est simple: des capacités qui semblaient réservées au cloud deviennent accessibles en local, avec plus de contrôle et potentiellement plus de confidentialité. Pourquoi c’est important: si les entreprises peuvent faire tourner une partie des usages sur site, elles réduisent latence, coûts récurrents, et exposition des données. Et pour l’écosystème open source, ça renforce la compétition: le “niveau utile” monte, même sur des modèles plus compacts.
IA générative et jeux vidéo
Côté recherche, deux pistes retiennent l’attention. D’abord, un papier propose une “mémoire agentique” plus dynamique: au lieu de tout stocker et résumer à l’avance, l’agent reconstruit un contexte optimisé au moment où il en a besoin, comme une forme de recherche à la demande. Ensuite, ByteDance Seed et Tsinghua présentent un “CUDA Agent” visant à automatiser l’optimisation de noyaux GPU, un domaine souvent réservé à des spécialistes. Pourquoi c’est intéressant: dans les deux cas, on pousse l’IA vers des tâches longues, itératives, et très pratiques—mieux se souvenir, mieux optimiser—ce qui peut transformer la productivité, mais aussi déplacer des compétences rares.
Et si l’IA écrit de plus en plus de code, comment éviter les catastrophes ? Leonardo de Moura met le doigt sur un “fossé de vérification”: le code sort plus vite que notre capacité à le relire et à le tester correctement. Sa réponse: aller vers des preuves formelles, vérifiées par machine, plutôt que de se contenter d’une confiance statistique. Pourquoi ça compte: c’est un changement de paradigme. Dans les systèmes critiques, tester “beaucoup” ne suffit pas toujours. Si la production logicielle s’accélère via l’IA, la vérification doit elle aussi changer d’échelle—sinon, on industrialise aussi les bugs.
Un détour par Google: Gemini Enterprise testerait une fonctionnalité “Projects” pour regrouper les conversations par sujet, réutiliser des fichiers et garder des objectifs cohérents sur un même chantier. C’est le signe d’une course à l’IA de travail: moins de chat jetable, plus de contextes durables et de collaboration. Pourquoi c’est intéressant: l’adoption en entreprise se joue souvent sur des détails d’organisation. Si l’outil se souvient du projet, il devient un espace de production, pas juste un assistant ponctuel.
Enfin, un projet GitHub compile plus de deux mille affirmations “testables” d’un critique de l’IA, Gary Marcus, et tente de les classer en “confirmé”, “mixte” ou “contredit” à l’aide de LLM. Le résultat suggère qu’il est souvent juste sur des critiques techniques, moins sur les prédictions de marché—avec une grosse nuance: ce scoring est automatisé, donc à manier avec prudence. Pourquoi c’est utile malgré tout: ça montre une nouvelle pratique—cartographier des débats publics à grande échelle. Mais ça rappelle aussi un principe: quand l’IA note l’IA, la vérification humaine redevient la ressource rare.
On termine sur un angle plus culturel: un essayiste, Frank Lantz, constate que l’IA générative change la façon de fabriquer des jeux, mais n’a pas encore accouché d’expériences vraiment inédites et incontournables. Il pointe des freins très concrets: coûts variables des appels de modèles, rejet culturel de l’IA dans certains milieux, et surtout un point de design—la logique “floue” des LLM n’est pas automatiquement amusante. Pourquoi ça compte: la tech peut être impressionnante sans trouver son langage créatif. Les percées arrivent souvent quand une contrainte devient un style. L’IA, pour le jeu, cherche encore ce moment.
Voilà pour l’essentiel de ce 4 mars 2026. Entre l’IA qui s’emmêle dans la géopolitique, les nouveaux modèles open source qui se rapprochent du “local-first”, et la publicité qui s’invite dans les conversations, on sent bien que le centre de gravité se déplace: moins de démos, plus d’infrastructures—et plus de conséquences. Je suis TrendTeller, et c’était The Automated Daily, AI News edition. Vous trouverez les liens vers toutes les histoires dans les notes de l’épisode.