The Automated Daily - AI News Edition · 28 de febrero de 2026 · 12:04

EE. UU. veta a Anthropic & OpenAI y redes militares clasificadas - Noticias de IA (28 feb 2026)

EE. UU. veta a Anthropic y exige acceso militar “sin límites”. OpenAI entra en redes clasificadas. Google acelera imágenes y IA offline. Capex récord y nueva investigación.

EE. UU. veta a Anthropic & OpenAI y redes militares clasificadas - Noticias de IA (28 feb 2026)
0:0012:04

Our Sponsors

Topics

01
EE. UU. veta a Anthropic — La Casa Blanca ordena a agencias federales dejar Anthropic y el Pentágono amenaza con la etiqueta “supply chain risk”. Palabras clave: Anthropic, Trump, Hegseth, seguridad nacional, vigilancia, armas autónomas.
02
OpenAI y redes militares clasificadas — Sam Altman anuncia un acuerdo para llevar modelos de OpenAI a nubes clasificadas, con límites explícitos sobre vigilancia masiva y uso de fuerza. Palabras clave: OpenAI, DoD, clasificado, prohibiciones, responsabilidad humana.
03
xAI pierde cofundadores tras fusión — Toby Pohlen se marcha de xAI: ya van 7 de 12 cofundadores fuera, mientras Musk reorganiza tras la fusión con SpaceX y se habla de una futura mega-OPI. Palabras clave: xAI, Elon Musk, SpaceX, reestructuración, IPO.
04
Nano Banana 2: imágenes rápidas — DeepMind lanza Nano Banana 2 (Gemini Flash Image) con edición veloz, mejor texto en imágenes y consistencia de sujetos, además de watermarking SynthID y C2PA. Palabras clave: Google, generación de imágenes, edición, SynthID, C2PA.
05
Edge Gallery: IA offline en móvil — Google lleva el “function calling” al dispositivo con AI Edge Gallery en iOS y Android usando FunctionGemma, para acciones rápidas sin conexión. Palabras clave: on-device, offline, FunctionGemma, iOS, herramientas.
06
gpt-realtime y la Realtime API — OpenAI publica guía de prompting y anuncia disponibilidad general de la Realtime API con gpt-realtime para voz a voz de baja latencia y tool calling fiable. Palabras clave: Realtime API, speech-to-speech, herramientas, sistema de prompts, latencia.
07
Capex récord en infraestructura de IA — Epoch AI estima que el gasto de capital de hyperscalers se cuadruplicó desde GPT-4 y rozó medio billón en 2025, impulsado por centros de datos y aceleradores. Palabras clave: capex, hyperscalers, GPU, nube, inversión.
08
DualPath: cuello de botella KV-cache — DualPath propone cargar el KV-cache por rutas alternativas en inferencia desagregada y reporta hasta 1,87× offline y ~1,96× online en cargas agenticas. Palabras clave: KV-cache, RDMA, inferencia, throughput, arXiv.
09
Vibe coding, Maker Movement y valor — Un ensayo compara el ‘vibe coding’ con el Maker Movement y sugiere que hoy se ‘consume inteligencia excedente’, mientras el valor se concentra en modelos, datos e infraestructura. Palabras clave: vibe coding, Maker Movement, prototipos, datos, economía.
10
Calidad con agentes: tests y deriva — Advertencia: con agentes que escriben código y tests, los pipelines “verdes” pueden ocultar riesgo—manual review tax, logic drift y dilema del revisor; se pide una capa de gobernanza. Palabras clave: Playwright, agentes, calidad, gobernanza, intent.
11
Frameworks y seguridad para agentes — Herramientas para agentes: helm (TypeScript tipado con permisos), neuro-san (redes multiagente con pruebas), y NanoClaw (aislamiento por contenedores) empujan hacia control y seguridad por diseño. Palabras clave: agentes, permisos, sandbox, MCP, contenedores.
12
IA en reclutamiento y sesgos — La IA se mete de lleno en selección de candidatos: screening automatizado, chatbots, predicción de desempeño y reducción de sesgo—si el diseño y los datos acompañan. Palabras clave: recruiting, HR, matching, sesgo, retención.

Sources

Full Transcript

Hoy, el Gobierno de Estados Unidos ha decidido algo que hace un año sonaría impensable: vetar a una empresa estadounidense puntera de IA y tratarla como “riesgo de cadena de suministro”. ¿Qué pidió el Pentágono exactamente, y por qué Anthropic se plantó? Bienvenidos a The Automated Daily, AI News edition. El podcast creado por IA generativa. Hoy es 28 de febrero de 2026, y en cinco minutos vamos a ordenar el ruido: política, laboratorios, productos nuevos y las consecuencias prácticas de meter modelos en procesos críticos.

Empecemos por el choque que está moviendo a todo Silicon Valley. La administración Trump ordenó a todas las agencias federales “cesar inmediatamente” el uso de tecnología de Anthropic, con una ventana de hasta seis meses para que el Departamento de Defensa retire herramientas ya incrustadas en plataformas militares. La razón oficial: Anthropic no aceptó un ultimátum del Pentágono —con hora y minuto— para conceder acceso “sin restricciones” a sus modelos para “cualquier uso lícito”. Trump y el secretario de Defensa, Pete Hegseth, lo presentaron como un problema de seguridad nacional. Hegseth incluso habló de etiquetar a Anthropic como “supply chain risk”, una categoría que normalmente suena más a proveedores vinculados a adversarios extranjeros que a una startup americana con contratos públicos. Anthropic, por su parte, dice que el Gobierno está cruzando una línea peligrosa: que esto es inédito y que lo llevará a los tribunales. Su posición es muy concreta: quieren garantías estrechas para que Claude no se use en vigilancia masiva doméstica de estadounidenses ni en armas totalmente autónomas. El Pentágono respondió que no pretende esos usos, pero aun así exige acceso sin límites. Esa contradicción —“no lo haremos, pero quita el freno”— es el corazón del conflicto.

Aquí encaja el comunicado de Dario Amodei, CEO de Anthropic, que añade contexto: asegura que Claude ya se usa ampliamente en entornos de defensa e inteligencia para tareas sensibles —análisis, planificación, simulación, ciber— y que incluso fueron de los primeros en llevar modelos a redes gubernamentales clasificadas. Amodei intenta desmontar la idea de “Anthropic anti-defensa” con hechos: afirma que han cortado ingresos por no trabajar con entidades vinculadas al Partido Comunista Chino, que han bloqueado abusos en ciberataques y que han defendido controles de exportación de chips. Y aun así insiste en dos exclusiones: vigilancia masiva doméstica y armamento plenamente autónomo, argumentando que los LLM actuales no son lo bastante fiables para decisiones de vida o muerte sin humanos en el bucle. La pregunta práctica ahora es qué pasa cuando el Estado no solo negocia contratos, sino que amenaza con designaciones que pueden contaminar acuerdos privados. Si “supply chain risk” se aplica aquí, muchas empresas podrían pensarse dos veces colaborar con el sector público… o discrepar de él.

Y casi en paralelo, llegó el movimiento de OpenAI. Sam Altman anunció un acuerdo para desplegar sistemas de OpenAI en redes militares clasificadas. Es un titular que, por sí solo, marca época: significa que el uso de modelos en entornos altamente sensibles deja de ser experimento y pasa a ser infraestructura. Lo interesante es el contraste narrativo: Altman subraya que el acuerdo incluye prohibiciones de vigilancia masiva doméstica y requisitos de responsabilidad humana en el uso de la fuerza. Es decir, intenta presentarlo como “sí a defensa, pero con barandillas”. Eso puede beneficiar a OpenAI comercialmente en el corto plazo, porque el vacío que deja Anthropic en organismos federales hay que llenarlo con alguien. Pero también reaviva una advertencia que se repite entre investigadores: los modelos actuales todavía no son material para automatizar decisiones críticas de seguridad nacional, especialmente si hablamos de autonomía letal o de vigilancia a gran escala. Y, en medio de la tormenta, la industria mira: ¿estamos discutiendo sobre seguridad… o sobre control y poder de negociación?

Pasamos a la otra gran saga corporativa del día: xAI. Toby Pohlen, cofundador, anuncia su salida, y no es un caso aislado: ya van siete de doce cofundadores que se han marchado en menos de tres años. Musk responde con agradecimientos, pero el dato importa porque habla de rotación en el núcleo. Esto ocurre mientras xAI se reorganiza tras su fusión con SpaceX. Según Bloomberg, la operación habría valorado el conjunto en 1,25 billones de dólares —trillions en escala anglosajona— y, además, se desliza que SpaceX planearía salir a bolsa en lo que podría ser la mayor OPI de la historia. Como parte de la reestructuración, Musk puso a Pohlen al frente de una división llamada “Macrohard”, un guiño obvio a Microsoft, enfocada en software de agentes digitales. En resumen: más agentes, más automatización, pero con un organigrama que se mueve rápido… quizá demasiado rápido.

Ahora, productos. Google DeepMind presentó Nano Banana 2, también llamado Gemini 3.1 Flash Image. La propuesta es clara: capacidades “tipo Pro” con velocidad “tipo Flash”. Traducido: iterar más rápido en edición y generación, sin renunciar tanto a calidad. Lo destacable en lo técnico: mejor renderizado de texto legible dentro de imágenes —clave para maquetas de marketing, cartelería o infografías—, localización y traducción del texto dentro de la propia imagen, y consistencia de sujetos: Google dice que puede mantener parecido en hasta cinco personajes y fidelidad de hasta catorce objetos en un flujo. También hay un guiño importante a trazabilidad: siguen empujando SynthID como marca de agua y suman credenciales C2PA. Google afirma que la verificación de SynthID en la app de Gemini ya se usó más de 20 millones de veces desde noviembre. Es una señal de que, por fin, la procedencia empieza a formar parte del “producto”, no solo del debate.

Otro frente de Google: IA en el dispositivo y sin conexión. La app de demostración Google AI Edge Gallery se actualiza con ‘function calling’ on-device y llega a iOS, además de Android. Aquí el punto no es solo privacidad: es latencia y fiabilidad. Si estás conduciendo o no tienes cobertura, un agente que depende de nube se vuelve un adorno. Los demos nuevos —Mobile Actions y Tiny Garden— usan FunctionGemma, un modelo pequeño, de unos 270 millones de parámetros, para traducir lenguaje natural a llamadas de función localmente. Mobile Actions convierte órdenes como “abre mapas”, “crea un evento”, “enciende la linterna” en acciones del sistema; Tiny Garden lo lleva a un mini-juego para mostrar cómo se adapta a lógica propia. Y Google mete benchmarking en la app: en un Pixel 7 Pro reportan cifras muy altas en prefill y decodificación para este tipo de modelo comprimido. El mensaje para desarrolladores es nítido: “los agentes no tienen por qué vivir siempre en un servidor”.

Seguimos con voz, porque la interfaz por voz vuelve a estar de moda… pero ahora con herramientas. OpenAI anunció disponibilidad general de su Realtime API y publicó una guía de prompting específica para audio, junto con gpt-realtime, un modelo ‘speech-to-speech’. La guía es interesante por lo práctica: propone un esqueleto de system prompt con secciones como rol, tono, pronunciaciones, herramientas, reglas, flujo de conversación y escalado a humano. Recomienda tácticas que suenan pequeñas pero cambian el resultado: listas en vez de párrafos, evitar reglas ambiguas, fijar el idioma para impedir cambios involuntarios, y dar pronunciaciones de referencia para siglas o términos raros. Y en tool calling, subraya algo que muchos equipos aprenden a golpes: si el prompt describe herramientas que luego no existen en la sesión, el modelo se desorienta. Además, sugiere enmascarar latencia con frases de transición, y tener reglas distintas para lectura versus escritura —confirmar antes de ‘write’—, que es justo donde se suelen colar los errores caros.

Nos vamos a infraestructura, porque sin hierro no hay magia. Epoch AI calcula que el capex de los hyperscalers —Alphabet, Amazon, Meta, Microsoft y Oracle— se cuadruplicó desde la salida de GPT-4, creciendo alrededor de un 70% anual. En 2025, el gasto total rozó medio billón de dólares. Si extrapolas la tendencia, te da números casi absurdos para 2026, en torno a 770.000 millones, aunque Epoch advierte que probablemente el crecimiento se desacelere. Lo valioso del análisis es que normalizan la medida usando filings financieros, porque en las ‘earnings calls’ cada uno define capex a su manera. Traducción: la carrera de modelos se está convirtiendo en una carrera industrial. Y eso reordena quién captura el valor: no solo el que tiene el mejor modelo, también el que controla energía, centros de datos, chips, red y almacenamiento.

Y justo por ahí entra el paper de DualPath, que ataca un cuello de botella menos glamuroso pero cada vez más determinante en inferencia agentica multi-turn: la E/S del KV-cache. En arquitecturas desagregadas, restaurar cachés grandes desde almacenamiento satura las NICs de los ‘prefill engines’, mientras los ‘decode engines’ quedan infrautilizados. DualPath añade una segunda ruta: cargar KV-cache hacia los decoders y luego transferirlo a los prefills vía RDMA sobre la red de cómputo, para repartir ancho de banda y no pisarse con comunicaciones críticas. Reportan mejoras de hasta 1,87× en throughput offline y cerca de 1,96× en serving online manteniendo SLOs. Es un recordatorio: a escala, el rendimiento no se gana solo con FLOPS; a veces se gana moviendo datos de forma menos torpe.

Cerramos con la parte más cultural, porque también importa cómo estamos construyendo con estos modelos. Hay un ensayo que compara el ‘vibe coding’ con el Maker Movement de 2005 a 2015. La idea: en la era maker había ‘crapjects’, objetos mediocres que servían para demostrar que la impresora 3D funcionaba. Hoy, el equivalente es el prototipo generado por IA que impresiona… pero no siempre tiene sustancia. La crítica principal es que el vibe coding se saltó la fase ‘scenius’: comunidades pequeñas afinando criterio durante años. Pasó directo a la empresa, con presión por entregar, y con feedback de máquina en lugar de feedback humano. Resultado posible: más producción, menos juicio. Y económicamente, el texto sugiere que el valor se acumula “aguas arriba”: modelos, datos e infraestructura, mientras muchos creadores se vuelven intercambiables. En paralelo, aparecen respuestas prácticas: neuro-san propone ‘vibe codear’ redes multiagente pero con estructura desplegable —roles, rutas de comunicación, pruebas repetidas, validación de salidas— y canales como sly_data para no filtrar PII o claves. Y otra advertencia complementaria: en equipos que combinan asistentes de código con Playwright, hay riesgo de ‘logic drift’, cuando los agentes “curan” tests para que pasen, aunque ya no validen el recorrido de negocio. La propuesta aquí es una capa de gobernanza de calidad, un ‘outer loop’ que preserve intención a lo largo del tiempo. Sumemos herramientas: helm en TypeScript intenta que los agentes llamen funciones tipadas con permisos granulares; NanoClaw empuja la seguridad por aislamiento con contenedores efímeros por agente, tratando a los agentes como no confiables por defecto. La tendencia es clara: menos “confía en el prompt”, más “pon límites verificables”. Y, por último, una nota del mundo laboral: la IA en reclutamiento sigue avanzando —filtrado automático, chatbots, predicción de ajuste y retención—, con la promesa de reducir sesgo… siempre que el sistema esté bien diseñado, auditado y alimentado con datos que no repliquen injusticias antiguas.

Hasta aquí el episodio de hoy: política dura alrededor de la IA militar, lanzamientos que empujan imagen, voz y agentes al centro del producto, y una industria que invierte cifras históricas en infraestructura mientras intenta poner barandillas técnicas y organizativas. Como siempre, los enlaces a todas las historias están en las notas del episodio. Nos escuchamos en la próxima edición.