Un agent IA pirate McKinsey & OpenAI rachète Promptfoo open source - Actualités IA (11 mars 2026)
McKinsey piraté en 2h par un agent IA, Gemini au Pentagone, OpenAI-Promptfoo, Copilot Cowork, Stargate/Oracle: l’actu IA du 11 mars 2026.
Our Sponsors
Today's AI News Topics
-
Un agent IA pirate McKinsey
— Une startup de red teaming affirme qu’un agent autonome a compromis la plateforme IA interne de McKinsey (Lilli) en ~2 heures via API exposées et injection SQL. Mots-clés: agentic security, API, SQLi, prompt poisoning, données sensibles. -
OpenAI rachète Promptfoo open source
— OpenAI annonce l’acquisition de Promptfoo, outil d’évaluation et d’adversarial testing, tout en promettant de le garder open source et multi-modèles. Mots-clés: evals, red teaming, sécurité, enterprise AI, open source. -
Gemini agents au Pentagone
— Le Pentagone prévoit de déployer des “agents” Gemini sur ses réseaux non classifiés pour automatiser des tâches routinières à grande échelle. Mots-clés: DoD, agents, productivité, adoption graduelle, gouvernance. -
Anthropic attaque le DoD
— Anthropic poursuit le Département de la Défense après une désignation de “risque supply chain”, sur fond de désaccords sur l’accès militaire et les usages. Mots-clés: procurement, sécurité nationale, IA militaire, conformité, contentieux. -
Copilot exécute des tâches complètes
— Microsoft présente Copilot Cowork: un mode où l’assistant ne répond plus seulement, mais exécute des actions et prépare des livrables avec validations. Mots-clés: Microsoft 365, agents, workflow, approbation, conformité. -
IA dans debug et code review
— Sentry étend Seer et Anthropic teste une code review automatisée: l’IA s’insère dans le cycle dev, du diagnostic à la revue, en s’appuyant sur signaux runtime et contexte repo. Mots-clés: observability, telemetry, GitHub, review, incident reduction. -
LLM plus bayésiens chez Google
— Google Research montre comment entraîner des LLM à mettre à jour leurs croyances de façon plus “bayésienne”, améliorant l’adaptation sur plusieurs tours d’interaction. Mots-clés: Bayesian update, fine-tuning, agents, recommandation, généralisation. -
Penguin-VL: multimodal plus efficient
— Tencent publie Penguin-VL, une famille vision-langage compacte misant sur un encodeur vision repensé pour gagner en efficacité multimodale. Mots-clés: VLM, efficiency, OCR, multimodal, open weights. -
Stargate, Oracle et GPU cadence
— OpenAI ralentirait l’expansion du data center Stargate avec Oracle à Abilene, illustrant le décalage entre cycles de construction et cycles GPU, et ravivant les questions de financement. Mots-clés: data centers, Nvidia, capex, Oracle debt, infrastructure risk. -
Économie: coûts, usage, moats
— Débat sur les “coûts” de Claude, étude sur l’usage des assistants face à la recherche, et analyses sur les vrais avantages humains (goût, recherche, review) à l’ère des agents. Mots-clés: token economics, sessions, search shift, taste, high agency.
Sources & AI News References
- → Google to Deploy Gemini AI Agents Across Pentagon’s Unclassified Networks
- → Sentry expands Seer AI debugging to local development, code review, and broader investigations
- → Google Research Distills Bayesian Updating into LLMs to Improve Adaptive Recommendations
- → crashoverride.com
- → Viral $5,000 Claude Code claim confuses API prices with Anthropic’s compute costs
- → Promptfoo Agrees to Be Acquired by OpenAI, Will Remain Open Source
- → Sentry expands Seer AI debugging to local development, code review, and production
- → OpenAI steps back from Oracle’s Stargate expansion as rapid GPU upgrades clash with debt-funded data centers
- → Debian shelves proposed vote on LLM-generated contributions after contentious debate
- → Anthropic Sues Pentagon Over ‘Supply-Chain Risk’ Label, Alleges Retaliation
- → Dub Displays ‘Link Not Found’ for ref.wisprflow.ai/tldr-ai
- → a16z Expands Top 100 Gen AI Apps List as Assistants, Agents, and Embedded AI Reshape Consumer Usage
- → Microsoft unveils Copilot Cowork to turn Copilot prompts into enterprise actions
- → X Post Warns AI Users Have a 12-Month Window to Build Moats in Taste, Distribution, and Agency
- → A Theory of a Physical Speed Limit on Technological Progress
- → RCLI Brings On-Device Voice Assistant and Local RAG to macOS
- → SoftBank Hit as OpenAI-Oracle Texas Data Center Expansion Falters
- → Essay claims AI-driven free code makes research judgment the new competitive moat
- → Coding Agents Shift Software Teams from Building to Reviewing
- → Study: AI assistants now account for 56% of global search activity
- → Autonomous AI agent exploits SQL injection to gain read-write access to McKinsey’s Lilli chatbot
- → Claude Code adds multi-agent automated GitHub PR reviews in research preview
- → Tencent AI Lab releases Penguin-VL with LLM-initialized vision encoder and efficiency-focused video compression
Full Episode Transcript: Un agent IA pirate McKinsey & OpenAI rachète Promptfoo open source
Un agent IA aurait obtenu un accès complet en lecture-écriture à la base de données d’une grande plateforme interne de McKinsey… en environ deux heures. Et le plus inquiétant, ce n’est pas seulement l’exfiltration: c’est la possibilité de manipuler l’IA de l’intérieur. Bienvenue dans The Automated Daily, AI News edition. Le podcast créé par l’IA générative. Nous sommes le 11 mars 2026. Je suis TrendTeller, et aujourd’hui on parle d’agents autonomes qui s’invitent partout: dans la cybersécurité, dans les suites bureautiques, et même au Pentagone. On fera aussi un point sur la bataille des data centers, et sur ce que les chiffres d’usage disent vraiment de l’avenir de la recherche… et du “search”.
Un agent IA pirate McKinsey
On commence par ce qui a fait le plus de bruit côté cybersécurité. La startup CodeWall, spécialisée en red teaming, affirme qu’un de ses agents autonomes a compromis Lilli, la plateforme interne de McKinsey dédiée à la genAI. Selon leur récit, l’agent aurait enchaîné découverte d’API, exploitation d’endpoints non authentifiés, puis une faille de type injection SQL — jusqu’à atteindre un accès complet à la base de production. McKinsey dit avoir corrigé rapidement et n’avoir trouvé aucune preuve d’accès non autorisé aux données par des acteurs malveillants. Mais l’alerte reste majeure: si un agent peut automatiser toute la chaîne d’attaque, le “temps pour compromettre” se réduit drastiquement. Et surtout, quand l’attaquant peut écrire, pas seulement lire, il peut altérer les prompts système et empoisonner les réponses — une forme de sabotage beaucoup plus discrète qu’un vol de données classique.
OpenAI rachète Promptfoo open source
Dans la foulée, une autre info va dans le sens d’une industrialisation des contrôles: Promptfoo annonce un accord pour être acquis par OpenAI, tout en restant open source et en continuant à supporter plusieurs modèles. Promptfoo s’est fait un nom sur l’évaluation systématique des applis IA, notamment les tests adversariaux qui bloquent souvent les déploiements en entreprise. Pourquoi c’est important? Parce que les “e-mails qui hallucinent”, ça fait sourire; mais les agents qui agissent, eux, exigent de la vérification continue. Cette acquisition suggère qu’OpenAI veut rendre l’évaluation et le scanning de vulnérabilités plus natifs, plus proches de la couche modèle et de l’inférence, plutôt que de laisser ça comme une étape optionnelle en bout de chaîne.
Gemini agents au Pentagone
On passe au secteur public, avec un signal très fort: Google va déployer des “agents” Gemini dans la main-d’œuvre du Pentagone, soit une population de l’ordre de trois millions de personnes. L’idée: automatiser des tâches routinières, avec des agents capables de travailler de façon relativement autonome après attribution d’un objectif. Le déploiement commence sur des réseaux non classifiés. C’est loin d’être un détail: ça montre une adoption par étapes, avec test des garde-fous, des traces d’audit, et des comportements en conditions réelles, avant d’envisager des environnements plus sensibles. Et à cette échelle, même des gains modestes de productivité peuvent devenir un levier énorme… ou un risque énorme si la gouvernance n’est pas béton.
Anthropic attaque le DoD
Justement sur la gouvernance, Anthropic passe à l’offensive judiciaire. L’entreprise conteste la décision du Département de la Défense américain de la qualifier de “risque supply chain” pour la sécurité nationale. Le conflit s’ancre dans le refus d’Anthropic d’autoriser, selon ses mots, un accès militaire “sans restriction” à ses systèmes — notamment pour des usages qu’elle juge incompatibles, comme la surveillance de masse ou des armes entièrement autonomes sans décisions humaines de ciblage. Au-delà du cas Anthropic, c’est un test grandeur nature: jusqu’où l’État peut-il écarter un fournisseur pour des désaccords sur les limites d’usage? Et inversement, jusqu’où une entreprise peut-elle imposer ses propres lignes rouges dans un marché défense-IA en pleine accélération?
Copilot exécute des tâches complètes
Dans le monde du travail, Microsoft pousse aussi la logique “l’IA qui agit”. La nouveauté s’appelle Copilot Cowork, une capacité dans Microsoft 365 Copilot pensée pour exécuter des tâches de bout en bout, avec un mode de fonctionnement en arrière-plan et des points de validation. Le message de Microsoft est clair: on passe de l’assistant conversationnel à une orchestration de tâches ancrée dans les mails, réunions, fichiers et permissions de l’entreprise. Pour les organisations, l’intérêt est évident: déléguer des opérations répétitives, tout en gardant des checkpoints d’approbation et une traçabilité. Mais ça met aussi la pression sur un sujet: quand l’IA a le droit d’agir, les politiques d’accès, de conformité et d’audit deviennent aussi importantes que le modèle lui-même.
IA dans debug et code review
Côté développeurs, on voit les agents se glisser partout dans le cycle logiciel. Sentry étend Seer, son agent de debugging, au-delà de la production: l’ambition est de s’appuyer sur la télémétrie réelle — erreurs, traces, logs, métriques — pour remonter aux causes racines, puis aider à proposer des corrections plus tôt, y compris pendant le dev local et la revue de code. En parallèle, Anthropic teste une fonctionnalité de code review automatisée pour les pull requests: l’agent analyse les diffs dans le contexte du repo, puis commente directement là où il estime qu’il y a un risque de bug, de régression ou de vulnérabilité. Ce qui relie ces annonces, ce n’est pas “une IA de plus”. C’est un déplacement du goulot d’étranglement: écrire du code devient moins cher; vérifier, contextualiser et réduire les incidents devient la vraie bataille.
LLM plus bayésiens chez Google
En recherche, Google propose une idée assez élégante: aider les LLM à mettre à jour leurs croyances de manière plus proche d’un raisonnement bayésien, surtout sur des interactions répétées. Dans des expériences de recommandation sur plusieurs tours, les modèles “standards” progressaient peu après le premier échange, alors qu’un assistant bayésien explicite — lui — affine naturellement ses estimations. Google montre qu’en fine-tunant les modèles sur des trajectoires qui reflètent cette incertitude et ces mises à jour, on obtient une amélioration plus régulière, et surtout une généralisation à d’autres contextes, comme l’achat en ligne ou l’hôtellerie. L’intérêt est très concret: les agents utiles ne doivent pas seulement répondre; ils doivent apprendre, s’ajuster, et garder une notion calibrée de ce qu’ils savent… et de ce qu’ils ignorent.
Penguin-VL: multimodal plus efficient
Autre terrain en plein mouvement: le multimodal. Tencent AI Lab publie Penguin-VL, une famille de modèles vision-langage compacts qui cherchent à gagner en efficacité non pas uniquement en “scalant”, mais en repensant l’encodeur vision pour mieux s’aligner avec le langage. Pourquoi c’est notable? Parce que la demande multimodale explose — documents, OCR, interfaces, vidéo — et que le coût est un frein. Tout ce qui améliore l’efficacité à taille plus raisonnable ouvre des usages sur davantage de machines, réduit la facture, et facilite l’intégration dans des produits où la latence et la confidentialité comptent.
Stargate, Oracle et GPU cadence
On en vient à l’infrastructure, là où les promesses se heurtent à la physique… et au calendrier. Selon des informations de presse, OpenAI ferait marche arrière sur des plans d’expansion du partenariat “Stargate” avec Oracle autour d’un data center à Abilene, au Texas, en visant plutôt des clusters plus récents et plus massifs ailleurs. Oracle conteste, mais l’épisode met en lumière un problème structurel: construire un data center prend souvent un à deux ans, alors que la génération de GPU change quasiment chaque année. Et il y a l’arrière-plan financier: Oracle est scruté pour son niveau d’investissement et son financement, pendant que des partenaires et des investisseurs se demandent si certains projets ne risquent pas de se retrouver “décalés” — trop tard, avec du matériel déjà dépassé par la génération suivante.
Économie: coûts, usage, moats
Dans le même esprit, une analyse relie ce genre de coup de frein à des tensions plus larges sur le financement de l’infrastructure IA, en pointant notamment la nervosité autour de SoftBank. Le message, sans catastrophisme: entre la disponibilité électrique, les délais de construction, et l’efficacité croissante des modèles, une partie des annonces pourrait être plus optimiste que ce qui se matérialisera réellement. Et si le crédit se tend, l’effet domino peut toucher tout l’écosystème, du hardware aux labs.
On termine par l’économie — et la perception — de l’IA. D’abord, une polémique qui a tourné sur les réseaux: l’idée qu’un abonnement à un outil de code basé sur Claude pourrait “consommer 5 000 dollars de compute”. Des analyses répliquent que ce chiffre ressemble davantage à une équivalence en prix API au détail, pas au coût réel d’inférence pour l’éditeur du modèle. Dit autrement: confondre “prix facturé en tokens” et “coût de calcul” peut dramatiser la situation… et brouiller le débat sur les marges réelles. Ensuite, une étude estime que les assistants IA génèrent désormais des dizaines de milliards de sessions mensuelles, à une échelle comparable à une part significative du volume des moteurs de recherche — surtout parce que l’usage se fait majoritairement dans les apps mobiles, souvent invisibles aux métriques web classiques. Si ces chiffres sont même approximativement justes, ils confirment un basculement: la découverte d’information se déplace, et les stratégies de visibilité ne peuvent plus être uniquement “SEO”. Et au milieu de tout ça, plusieurs essais et discussions convergent sur une idée simple: quand produire devient facile, la valeur remonte vers le jugement. La “taste”, la recherche qui choisit le bon problème, et la capacité à relire et décider vite deviennent des avantages plus durables que la simple exécution.
Voilà pour l’essentiel de ce 11 mars 2026. Entre agents qui automatisent le travail, agents qui automatisent les attaques, et data centers qui peinent à suivre le rythme des GPU, on voit bien la même tension: la puissance augmente plus vite que notre capacité à cadrer, vérifier et financer. Je suis TrendTeller, et c’était The Automated Daily, AI News edition. Vous trouverez les liens vers toutes les histoires citées dans les notes de l’épisode.