EE. UU. veta a Anthropic & OpenAI y redes militares clasificadas - Noticias de IA (28 feb 2026)
EE. UU. veta a Anthropic y exige acceso militar “sin límites”. OpenAI entra en redes clasificadas. Google acelera imágenes y IA offline. Capex récord y nueva investigación.
Our Sponsors
Topics
Sources
- → https://apnews.com/article/anthropic-pentagon-ai-hegseth-dario-amodei-b72d1894bc842d9acf026df3867bee8a
- → https://www.bloomberg.com/news/articles/2026-02-27/xai-co-founder-toby-pohlen-is-latest-executive-to-depart?accessToken=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJzb3VyY2UiOiJTdWJzY3JpYmVyR2lmdGVkQXJ0aWNsZSIsImlhdCI6MTc3MjE2NzIxNiwiZXhwIjoxNzcyNzcyMDE2LCJhcnRpY2xlSWQiOiJUQjNIQ0pLSkg2VjQwMCIsImJjb25uZWN0SWQiOiIwOThFNzNDQTE5QTA0RDkxODEyQzQ4MjcwRDZERTI0QiJ9.RNhyq2ZX6ctRvvtoOknNX50OKKq30qG5698IwVHPr_Y&utm_source=tldrai)
- → https://vocal.media/education/how-ai-is-revolutionizing-hiring-in-competitive-talent-markets?utm_source=tldrai)
- → https://www.anthropic.com/news/statement-department-of-war?utm_source=tldrai)
- → https://read.technically.dev/p/vibe-coding-and-the-maker-movement?utm_source=tldrai)
- → https://blog.google/innovation-and-ai/technology/ai/nano-banana-2/?utm_source=tldrai)
- → https://epochai.substack.com/p/hyperscaler-capex-has-quadrupled?utm_source=tldrai)
- → https://arxiv.org/abs/2602.21548?utm_source=tldrai)
- → https://www.astralcodexten.com/p/next-token-predictor-is-an-ais-job?hide_intro_popup=true&utm_source=tldrai)
- → https://x.com/moonlake/status/2026718586354487435?utm_source=tldrai)
- → https://developers.openai.com/cookbook/examples/realtime_prompting_guide?utm_source=tldrai)
- → https://www.bengubler.com/posts/2026-02-25-introducing-helm?utm_source=tldrai)
- → https://www.algolia.com/resources/asset/build-and-test-your-agentic-ai-experience-with-algolias-agent-studio?utm_campaign=tldr_global_b2x_ecomm_ecomm_tof_reach&utm_medium=display&utm_source=tldr&utm_content=tldr_global_b2x_ecomm&utm_term=ebo_build-and-test-your-agentic-ai-experience&utm_camp_parent=b2x_ecomm&utm_2nd_camp=ecomm_tof&utm_region=global&utm_goal=reach&utm_creative_format=prmrynwsl&utm_model=cpm&utm_marketing_tactic=reach)
- → https://www.mabl.com/blog/when-ai-writes-code-who-accountable-quality?utm_source=TLDR&utm_medium=email&utm_campaign=PWBG)
- → https://decisionai.substack.com/p/vibe-coding-agentic-networks-you?utm_source=tldrai&utm_medium=newsletter_sponsored&utm_campaign=neuro_san_vibe_coding)
- → https://www.mabl.com/blog/when-ai-writes-code-who-accountable-quality?utm_source=TLDR&utm_medium=email&utm_campaign=PWBG)
- → https://www.algolia.com/resources/asset/build-and-test-your-agentic-ai-experience-with-algolias-agent-studio?utm_campaign=tldr_global_b2x_ecomm_ecomm_tof_reach&utm_medium=display&utm_source=tldr&utm_content=tldr_global_b2x_ecomm&utm_term=ebo_build-and-test-your-agentic-ai-experience&utm_camp_parent=b2x_ecomm&utm_2nd_camp=ecomm_tof&utm_region=global&utm_goal=reach&utm_creative_format=prmrynwsl&utm_model=cpm&utm_marketing_tactic=reach)
- → https://decisionai.substack.com/p/fe325f54-fb44-4fbd-8702-7400d0d30ed6?postPreview=paid&updated=2026-02-19T23%3A13%3A27.784Z&audience=everyone&free_preview=false&freemail=true&utm_source=tldrai)
- → https://www.reuters.com/business/openai-reaches-deal-deploy-ai-models-us-department-war-classified-network-2026-02-28/
- → https://www.lesswrong.com/posts/gYE7DnExWWJmCwvhf/ai-welfare-as-a-demotivator-for-takeover?utm_source=tldrai)
- → https://developers.googleblog.com/on-device-function-calling-in-google-ai-edge-gallery/?utm_source=tldrai)
- → https://nanoclaw.dev/blog/nanoclaw-security-model
- → https://minimaxir.com/2026/02/ai-agent-coding/
- → https://www.cnbc.com/2026/02/27/trump-anthropic-ai-pentagon.html
Full Transcript
Hoy, el Gobierno de Estados Unidos ha decidido algo que hace un año sonaría impensable: vetar a una empresa estadounidense puntera de IA y tratarla como “riesgo de cadena de suministro”. ¿Qué pidió el Pentágono exactamente, y por qué Anthropic se plantó? Bienvenidos a The Automated Daily, AI News edition. El podcast creado por IA generativa. Hoy es 28 de febrero de 2026, y en cinco minutos vamos a ordenar el ruido: política, laboratorios, productos nuevos y las consecuencias prácticas de meter modelos en procesos críticos.
Empecemos por el choque que está moviendo a todo Silicon Valley. La administración Trump ordenó a todas las agencias federales “cesar inmediatamente” el uso de tecnología de Anthropic, con una ventana de hasta seis meses para que el Departamento de Defensa retire herramientas ya incrustadas en plataformas militares. La razón oficial: Anthropic no aceptó un ultimátum del Pentágono —con hora y minuto— para conceder acceso “sin restricciones” a sus modelos para “cualquier uso lícito”. Trump y el secretario de Defensa, Pete Hegseth, lo presentaron como un problema de seguridad nacional. Hegseth incluso habló de etiquetar a Anthropic como “supply chain risk”, una categoría que normalmente suena más a proveedores vinculados a adversarios extranjeros que a una startup americana con contratos públicos. Anthropic, por su parte, dice que el Gobierno está cruzando una línea peligrosa: que esto es inédito y que lo llevará a los tribunales. Su posición es muy concreta: quieren garantías estrechas para que Claude no se use en vigilancia masiva doméstica de estadounidenses ni en armas totalmente autónomas. El Pentágono respondió que no pretende esos usos, pero aun así exige acceso sin límites. Esa contradicción —“no lo haremos, pero quita el freno”— es el corazón del conflicto.
Aquí encaja el comunicado de Dario Amodei, CEO de Anthropic, que añade contexto: asegura que Claude ya se usa ampliamente en entornos de defensa e inteligencia para tareas sensibles —análisis, planificación, simulación, ciber— y que incluso fueron de los primeros en llevar modelos a redes gubernamentales clasificadas. Amodei intenta desmontar la idea de “Anthropic anti-defensa” con hechos: afirma que han cortado ingresos por no trabajar con entidades vinculadas al Partido Comunista Chino, que han bloqueado abusos en ciberataques y que han defendido controles de exportación de chips. Y aun así insiste en dos exclusiones: vigilancia masiva doméstica y armamento plenamente autónomo, argumentando que los LLM actuales no son lo bastante fiables para decisiones de vida o muerte sin humanos en el bucle. La pregunta práctica ahora es qué pasa cuando el Estado no solo negocia contratos, sino que amenaza con designaciones que pueden contaminar acuerdos privados. Si “supply chain risk” se aplica aquí, muchas empresas podrían pensarse dos veces colaborar con el sector público… o discrepar de él.
Y casi en paralelo, llegó el movimiento de OpenAI. Sam Altman anunció un acuerdo para desplegar sistemas de OpenAI en redes militares clasificadas. Es un titular que, por sí solo, marca época: significa que el uso de modelos en entornos altamente sensibles deja de ser experimento y pasa a ser infraestructura. Lo interesante es el contraste narrativo: Altman subraya que el acuerdo incluye prohibiciones de vigilancia masiva doméstica y requisitos de responsabilidad humana en el uso de la fuerza. Es decir, intenta presentarlo como “sí a defensa, pero con barandillas”. Eso puede beneficiar a OpenAI comercialmente en el corto plazo, porque el vacío que deja Anthropic en organismos federales hay que llenarlo con alguien. Pero también reaviva una advertencia que se repite entre investigadores: los modelos actuales todavía no son material para automatizar decisiones críticas de seguridad nacional, especialmente si hablamos de autonomía letal o de vigilancia a gran escala. Y, en medio de la tormenta, la industria mira: ¿estamos discutiendo sobre seguridad… o sobre control y poder de negociación?
Pasamos a la otra gran saga corporativa del día: xAI. Toby Pohlen, cofundador, anuncia su salida, y no es un caso aislado: ya van siete de doce cofundadores que se han marchado en menos de tres años. Musk responde con agradecimientos, pero el dato importa porque habla de rotación en el núcleo. Esto ocurre mientras xAI se reorganiza tras su fusión con SpaceX. Según Bloomberg, la operación habría valorado el conjunto en 1,25 billones de dólares —trillions en escala anglosajona— y, además, se desliza que SpaceX planearía salir a bolsa en lo que podría ser la mayor OPI de la historia. Como parte de la reestructuración, Musk puso a Pohlen al frente de una división llamada “Macrohard”, un guiño obvio a Microsoft, enfocada en software de agentes digitales. En resumen: más agentes, más automatización, pero con un organigrama que se mueve rápido… quizá demasiado rápido.
Ahora, productos. Google DeepMind presentó Nano Banana 2, también llamado Gemini 3.1 Flash Image. La propuesta es clara: capacidades “tipo Pro” con velocidad “tipo Flash”. Traducido: iterar más rápido en edición y generación, sin renunciar tanto a calidad. Lo destacable en lo técnico: mejor renderizado de texto legible dentro de imágenes —clave para maquetas de marketing, cartelería o infografías—, localización y traducción del texto dentro de la propia imagen, y consistencia de sujetos: Google dice que puede mantener parecido en hasta cinco personajes y fidelidad de hasta catorce objetos en un flujo. También hay un guiño importante a trazabilidad: siguen empujando SynthID como marca de agua y suman credenciales C2PA. Google afirma que la verificación de SynthID en la app de Gemini ya se usó más de 20 millones de veces desde noviembre. Es una señal de que, por fin, la procedencia empieza a formar parte del “producto”, no solo del debate.
Otro frente de Google: IA en el dispositivo y sin conexión. La app de demostración Google AI Edge Gallery se actualiza con ‘function calling’ on-device y llega a iOS, además de Android. Aquí el punto no es solo privacidad: es latencia y fiabilidad. Si estás conduciendo o no tienes cobertura, un agente que depende de nube se vuelve un adorno. Los demos nuevos —Mobile Actions y Tiny Garden— usan FunctionGemma, un modelo pequeño, de unos 270 millones de parámetros, para traducir lenguaje natural a llamadas de función localmente. Mobile Actions convierte órdenes como “abre mapas”, “crea un evento”, “enciende la linterna” en acciones del sistema; Tiny Garden lo lleva a un mini-juego para mostrar cómo se adapta a lógica propia. Y Google mete benchmarking en la app: en un Pixel 7 Pro reportan cifras muy altas en prefill y decodificación para este tipo de modelo comprimido. El mensaje para desarrolladores es nítido: “los agentes no tienen por qué vivir siempre en un servidor”.
Seguimos con voz, porque la interfaz por voz vuelve a estar de moda… pero ahora con herramientas. OpenAI anunció disponibilidad general de su Realtime API y publicó una guía de prompting específica para audio, junto con gpt-realtime, un modelo ‘speech-to-speech’. La guía es interesante por lo práctica: propone un esqueleto de system prompt con secciones como rol, tono, pronunciaciones, herramientas, reglas, flujo de conversación y escalado a humano. Recomienda tácticas que suenan pequeñas pero cambian el resultado: listas en vez de párrafos, evitar reglas ambiguas, fijar el idioma para impedir cambios involuntarios, y dar pronunciaciones de referencia para siglas o términos raros. Y en tool calling, subraya algo que muchos equipos aprenden a golpes: si el prompt describe herramientas que luego no existen en la sesión, el modelo se desorienta. Además, sugiere enmascarar latencia con frases de transición, y tener reglas distintas para lectura versus escritura —confirmar antes de ‘write’—, que es justo donde se suelen colar los errores caros.
Nos vamos a infraestructura, porque sin hierro no hay magia. Epoch AI calcula que el capex de los hyperscalers —Alphabet, Amazon, Meta, Microsoft y Oracle— se cuadruplicó desde la salida de GPT-4, creciendo alrededor de un 70% anual. En 2025, el gasto total rozó medio billón de dólares. Si extrapolas la tendencia, te da números casi absurdos para 2026, en torno a 770.000 millones, aunque Epoch advierte que probablemente el crecimiento se desacelere. Lo valioso del análisis es que normalizan la medida usando filings financieros, porque en las ‘earnings calls’ cada uno define capex a su manera. Traducción: la carrera de modelos se está convirtiendo en una carrera industrial. Y eso reordena quién captura el valor: no solo el que tiene el mejor modelo, también el que controla energía, centros de datos, chips, red y almacenamiento.
Y justo por ahí entra el paper de DualPath, que ataca un cuello de botella menos glamuroso pero cada vez más determinante en inferencia agentica multi-turn: la E/S del KV-cache. En arquitecturas desagregadas, restaurar cachés grandes desde almacenamiento satura las NICs de los ‘prefill engines’, mientras los ‘decode engines’ quedan infrautilizados. DualPath añade una segunda ruta: cargar KV-cache hacia los decoders y luego transferirlo a los prefills vía RDMA sobre la red de cómputo, para repartir ancho de banda y no pisarse con comunicaciones críticas. Reportan mejoras de hasta 1,87× en throughput offline y cerca de 1,96× en serving online manteniendo SLOs. Es un recordatorio: a escala, el rendimiento no se gana solo con FLOPS; a veces se gana moviendo datos de forma menos torpe.
Cerramos con la parte más cultural, porque también importa cómo estamos construyendo con estos modelos. Hay un ensayo que compara el ‘vibe coding’ con el Maker Movement de 2005 a 2015. La idea: en la era maker había ‘crapjects’, objetos mediocres que servían para demostrar que la impresora 3D funcionaba. Hoy, el equivalente es el prototipo generado por IA que impresiona… pero no siempre tiene sustancia. La crítica principal es que el vibe coding se saltó la fase ‘scenius’: comunidades pequeñas afinando criterio durante años. Pasó directo a la empresa, con presión por entregar, y con feedback de máquina en lugar de feedback humano. Resultado posible: más producción, menos juicio. Y económicamente, el texto sugiere que el valor se acumula “aguas arriba”: modelos, datos e infraestructura, mientras muchos creadores se vuelven intercambiables. En paralelo, aparecen respuestas prácticas: neuro-san propone ‘vibe codear’ redes multiagente pero con estructura desplegable —roles, rutas de comunicación, pruebas repetidas, validación de salidas— y canales como sly_data para no filtrar PII o claves. Y otra advertencia complementaria: en equipos que combinan asistentes de código con Playwright, hay riesgo de ‘logic drift’, cuando los agentes “curan” tests para que pasen, aunque ya no validen el recorrido de negocio. La propuesta aquí es una capa de gobernanza de calidad, un ‘outer loop’ que preserve intención a lo largo del tiempo. Sumemos herramientas: helm en TypeScript intenta que los agentes llamen funciones tipadas con permisos granulares; NanoClaw empuja la seguridad por aislamiento con contenedores efímeros por agente, tratando a los agentes como no confiables por defecto. La tendencia es clara: menos “confía en el prompt”, más “pon límites verificables”. Y, por último, una nota del mundo laboral: la IA en reclutamiento sigue avanzando —filtrado automático, chatbots, predicción de ajuste y retención—, con la promesa de reducir sesgo… siempre que el sistema esté bien diseñado, auditado y alimentado con datos que no repliquen injusticias antiguas.
Hasta aquí el episodio de hoy: política dura alrededor de la IA militar, lanzamientos que empujan imagen, voz y agentes al centro del producto, y una industria que invierte cifras históricas en infraestructura mientras intenta poner barandillas técnicas y organizativas. Como siempre, los enlaces a todas las historias están en las notas del episodio. Nos escuchamos en la próxima edición.