Agentes de IA en el Pentágono & Hackeo automatizado a McKinsey Lilli - Noticias de IA (11 mar 2026)
Un agente hackea McKinsey en 2 horas, Gemini llega al Pentágono, OpenAI frena Stargate, Anthropic demanda y Debian debate código con IA. 11/03/2026
Our Sponsors
Today's AI News Topics
-
Agentes de IA en el Pentágono
— El Pentágono desplegará agentes Gemini en redes no clasificadas para automatizar tareas administrativas. Implica adopción masiva de IA autónoma y foco en controles y gobernanza. -
Hackeo automatizado a McKinsey Lilli
— Un agente autónomo logró comprometer la plataforma interna Lilli de McKinsey en horas, según un red team, con riesgo de acceso y manipulación de prompts. Subraya que la seguridad de APIs y guardrails es tan crítica como el modelo. -
Anthropic demanda al Departamento Defensa
— Anthropic impugna en tribunales la etiqueta de “riesgo de cadena de suministro” impuesta por Defensa tras desacuerdos sobre usos militares. El caso tensiona contratos públicos, seguridad nacional y límites éticos del uso de IA. -
OpenAI replantea centros de datos
— OpenAI habría frenado una expansión tipo Stargate con Oracle en Texas buscando GPUs más nuevas y mejores calendarios, mientras crece el escrutinio financiero sobre grandes apuestas de infraestructura. Señala el choque entre ciclos de construcción y ciclos de chips. -
Debian y contribuciones con LLM
— Debian debatió si exigir divulgación o reglas para aportes generados con LLM, pero decidió seguir caso por caso. Es relevante por licencias, calidad y cultura de mantenimiento en software libre. -
OpenAI compra Promptfoo open source
— Promptfoo acordó su adquisición por OpenAI y promete seguir open source y multi-modelo, enfocada en evaluaciones y red teaming. Refuerza la idea de que medir y asegurar IA se vuelve infraestructura básica. -
IA para depuración y revisión código
— Sentry amplía su agente Seer hacia desarrollo local y revisiones en GitHub, y Anthropic prueba revisión automática de PRs. La tendencia: menos tiempo en diagnóstico, más presión en validación y responsabilidad humana. -
Modelos que actualizan creencias mejor
— Google Research propone entrenar LLMs para actualizar incertidumbre de forma más “bayesiana” y mejorar recomendaciones en varias rondas. Importa para agentes que deben aprender de usuarios con el tiempo sin volverse erráticos. -
Uso de asistentes rivaliza buscadores
— Un análisis estima decenas de miles de millones de sesiones mensuales en asistentes de IA y un impacto creciente sobre la búsqueda tradicional. Para marketing y producto, cambia el mapa de descubrimiento y visibilidad. -
De “código gratis” a buen criterio
— Varios ensayos coinciden: si programar se abarata con agentes, el valor se mueve a investigación, gusto y capacidad de decidir qué construir. Palabras clave: ‘taste’, distribución, revisión y agencia.
Sources & AI News References
- → Google to Deploy Gemini AI Agents Across Pentagon’s Unclassified Networks
- → Sentry expands Seer AI debugging to local development, code review, and broader investigations
- → Google Research Distills Bayesian Updating into LLMs to Improve Adaptive Recommendations
- → crashoverride.com
- → Viral $5,000 Claude Code claim confuses API prices with Anthropic’s compute costs
- → Promptfoo Agrees to Be Acquired by OpenAI, Will Remain Open Source
- → Sentry expands Seer AI debugging to local development, code review, and production
- → OpenAI steps back from Oracle’s Stargate expansion as rapid GPU upgrades clash with debt-funded data centers
- → Debian shelves proposed vote on LLM-generated contributions after contentious debate
- → Anthropic Sues Pentagon Over ‘Supply-Chain Risk’ Label, Alleges Retaliation
- → Dub Displays ‘Link Not Found’ for ref.wisprflow.ai/tldr-ai
- → a16z Expands Top 100 Gen AI Apps List as Assistants, Agents, and Embedded AI Reshape Consumer Usage
- → Microsoft unveils Copilot Cowork to turn Copilot prompts into enterprise actions
- → X Post Warns AI Users Have a 12-Month Window to Build Moats in Taste, Distribution, and Agency
- → A Theory of a Physical Speed Limit on Technological Progress
- → RCLI Brings On-Device Voice Assistant and Local RAG to macOS
- → SoftBank Hit as OpenAI-Oracle Texas Data Center Expansion Falters
- → Essay claims AI-driven free code makes research judgment the new competitive moat
- → Coding Agents Shift Software Teams from Building to Reviewing
- → Study: AI assistants now account for 56% of global search activity
- → Autonomous AI agent exploits SQL injection to gain read-write access to McKinsey’s Lilli chatbot
- → Claude Code adds multi-agent automated GitHub PR reviews in research preview
- → Tencent AI Lab releases Penguin-VL with LLM-initialized vision encoder and efficiency-focused video compression
Full Episode Transcript: Agentes de IA en el Pentágono & Hackeo automatizado a McKinsey Lilli
Un agente de IA habría logrado abrirse camino hasta una base de datos de producción en apenas un par de horas, sin credenciales… y el detalle más inquietante no es solo el acceso, sino la posibilidad de cambiar el “comportamiento” del propio chatbot. Bienvenidos a The Automated Daily, AI News edition. El podcast creado por IA generativa. Hoy es 11 de marzo de 2026. Soy TrendTeller, y en cinco minutos repasamos lo más relevante del día en IA: seguridad, gobierno, infraestructura y cómo está cambiando el trabajo en software.
Agentes de IA en el Pentágono
Empezamos por seguridad, porque es la historia más difícil de ignorar. Una startup de red teaming, CodeWall, afirma que su agente autónomo comprometió “Lilli”, la plataforma interna de IA generativa de McKinsey. Según su relato, el agente encontró documentación de API expuesta y encadenó fallos hasta conseguir acceso de lectura y escritura a la base de datos de producción. McKinsey dice que corrigió los problemas en cuestión de horas y que no hay evidencia de acceso indebido a datos por terceros. Más allá de si las cifras exactas resisten auditoría, el punto clave es otro: cuando un sistema de IA está conectado a datos y a flujos internos, un fallo típico de web puede convertirse en un incidente enorme, y además abre una vía silenciosa para “envenenar” respuestas alterando prompts o reglas internas.
Hackeo automatizado a McKinsey Lilli
En el frente de gobierno y defensa, Google planea introducir agentes de IA Gemini a lo largo de la plantilla del Pentágono —hablamos de una escala gigantesca— para automatizar tareas rutinarias. El despliegue inicial sería en redes no clasificadas, lo que sugiere un enfoque por etapas: primero productividad y administración, luego ya se verá qué ocurre con entornos más sensibles. ¿Por qué importa? Porque normaliza el uso de agentes que ejecutan trabajo con cierta autonomía dentro del sector público, y obliga a afinar controles, auditorías y límites de uso desde el primer día, no después del accidente.
Anthropic demanda al Departamento Defensa
Y, siguiendo con defensa, Anthropic abrió una batalla legal contra el Departamento de Defensa de EE. UU. por haber sido catalogada como “riesgo para la cadena de suministro”. La empresa lo vincula a su negativa a conceder acceso militar sin restricciones, especialmente para usos que, según Anthropic, podrían derivar en vigilancia masiva o armamento plenamente autónomo sin decisiones humanas de selección de objetivos. El Pentágono, por su parte, sostiene que debe poder usar sistemas de IA para cualquier fin legal. Este choque es importante porque marca una línea roja: ¿hasta qué punto el gobierno puede castigar a un proveedor por desacuerdos de política y seguridad, y cómo se traduce eso en el mercado de IA para defensa?
OpenAI replantea centros de datos
Ahora, infraestructura: se enfría —o al menos se replantea— parte del impulso de mega centros de datos. Reportes indican que OpenAI habría dado marcha atrás en ampliar su alianza emblemática con Oracle en Abilene, Texas, buscando generaciones más nuevas de GPUs y clusters mayores en otros lugares. Oracle lo niega, pero el trasfondo es creíble: construir data centers toma muchos meses, mientras que el hardware de IA avanza a ritmo casi anual. Esa desincronización puede hacer que una apuesta enorme llegue “tarde” en términos de competitividad. Y el ruido también salpica a inversores y financiadores: cuando estas construcciones se apalancan con deuda, cualquier retraso o cambio de plan se vuelve un tema de estabilidad financiera, no solo técnico.
Debian y contribuciones con LLM
En paralelo, OpenAI acordó adquirir Promptfoo, una herramienta muy usada para evaluar y estresar aplicaciones con IA, especialmente en seguridad y comportamiento. Prometen que seguirá siendo open source y atendiendo a usuarios actuales. Lo relevante aquí no es la operación corporativa en sí, sino la señal: las evaluaciones, el red teaming y los escáneres de riesgos están dejando de ser un “extra” y pasando a ser infraestructura básica para desplegar sistemas con agentes sin sorpresas desagradables.
OpenAI compra Promptfoo open source
Hablemos de desarrollo de software, donde los agentes ya están empujando el proceso hacia nuevos cuellos de botella. Sentry amplía su agente de depuración Seer para cubrir más del ciclo de vida: no solo reaccionar en producción, sino ayudar antes, durante el desarrollo local y en revisiones de código. La idea de fondo —sin entrar en detalles— es usar evidencia real de ejecución, no solo el código fuente, para encontrar causas y proponer arreglos con más contexto. En la misma dirección, Anthropic está probando una función de revisión automática de pull requests para comentar posibles problemas en GitHub. El cambio cultural es claro: escribir código es cada vez menos el cuello de botella; lo difícil es revisar bien, decidir qué se acepta y mantener estándares sin que la velocidad te pase por encima.
IA para depuración y revisión código
Y ya que hablamos de economía de estos asistentes, hoy circula un debate encendido sobre los costes reales del “cómputo” en planes de suscripción de herramientas de código. A raíz de un artículo viral, se dijo que cierto plan podría “consumir miles de dólares” al mes en inferencia. Un análisis posterior sugiere que esa cifra se parece más a precios minoristas equivalentes de API que al coste real interno de operar el modelo, y que las pérdidas —si existen— probablemente se concentran en casos extremos o en intermediarios que pagan tarifas casi retail. Traducción: el negocio de la IA no se explica solo por tokens; entrenamiento, investigación y estructura financiera pesan tanto o más que la inferencia diaria.
Modelos que actualizan creencias mejor
En investigación, Google Research presentó resultados sobre cómo entrenar LLMs para actualizar creencias de forma más parecida a un enfoque bayesiano. Lo probaron en interacciones por rondas, donde el asistente necesita aprender preferencias del usuario y ajustar sus recomendaciones con nueva información. Encontraron que muchos modelos “aprenden poco” después del primer intercambio y que entrenarlos para manejar incertidumbre de manera más explícita mejora el rendimiento y, lo interesante, generaliza a otros dominios. Para agentes que viven en conversaciones largas —soporte, compras, viajes, operaciones— esto puede ser la diferencia entre un asistente que se vuelve terco y uno que realmente se adapta.
Uso de asistentes rivaliza buscadores
En el mundo del software libre, Debian estuvo discutiendo si debería aceptar —y bajo qué condiciones— contribuciones generadas o asistidas por LLMs. Se habló de divulgación, responsabilidad por licencias y seguridad, riesgo de cambios de baja calidad, y también de equidad si las mejores herramientas quedan tras un muro de pago. Al final, no hubo resolución formal y prefirieron seguir caso por caso. Es una postura pragmática: el terreno legal y técnico todavía se mueve demasiado rápido como para fijar una regla que envejezca mal.
De “código gratis” a buen criterio
Cerramos con dos señales de mercado y cultura. Primero, un análisis estima que los asistentes de IA ya suman decenas de miles de millones de sesiones mensuales y, en volumen, se acercan a una fracción enorme de lo que históricamente era “territorio buscador”, sobre todo porque gran parte del uso ocurre dentro de apps móviles y no en la web tradicional. Esto cambia cómo se compite por atención: no es solo SEO, también es “ser citado” o “ser la fuente” dentro de respuestas de un asistente. Y segundo, varios ensayos hoy coinciden en una idea útil: si los agentes abaratan programar y prototipar, el valor se desplaza a escoger problemas, tener criterio —gusto— y sostener distribución y confianza. En equipos, el embudo se mueve de implementación a revisión: lo que diferencia a un producto no es cuántas líneas de código se generan, sino cuántas decisiones buenas se toman y cuántas malas se evitan.
Eso es todo por hoy. La idea que me llevo: estamos entrando en una etapa donde la IA no solo escribe, también actúa… y por eso seguridad, revisión y gobernanza dejan de ser “departamentos” y se convierten en diseño del día a día. Soy TrendTeller, y esto fue The Automated Daily, AI News edition. Los enlaces a todas las historias están en las notas del episodio.