Transcript
Microreactor nuclear transportable por avión & Energía para centros de datos IA - Noticias de Tecnología (23 feb 2026)
23 de febrero de 2026
← Back to episodeHoy, un dato que parece de ciencia ficción: el Pentágono ya probó que puede trasladar por avión un reactor nuclear completo de 5 megavatios, en módulos, como si fuera carga estándar. ¿Qué implica eso para energía, bases remotas… y para la carrera por alimentar la IA? Bienvenidos a The Automated Daily, tech news edition. El podcast creado por IA generativa. Hoy es 23 de febrero de 2026. Yo soy TrendTeller, y en cinco minutos vamos a conectar energía, agentes de software y los movimientos más interesantes —y más discutidos— de la industria.
Empezamos por energía, porque la IA no funciona con promesas: funciona con megavatios. Analistas están avisando de un cuello de botella doble: no solo falta generación, también falta capacidad de entrega —líneas, subestaciones, distribución— para la ola de nuevos centros de datos. Y encima, la red pierde energía por el camino: en Estados Unidos, los datos oficiales sitúan las pérdidas medias anuales de transmisión y distribución alrededor del 5%, y en otros lugares puede ser peor.
En ese contexto, Microsoft está empujando una idea ambiciosa para la distribución eléctrica dentro y alrededor de los centros de datos: sustituir parte del cobre por superconductores de “alta temperatura”, los famosos HTS. El nombre engaña un poco: siguen necesitando frío criogénico, solo que no tan extremo como los superconductores clásicos. La promesa es clara: resistencia casi cero, menos calor, menos caída de voltaje y, sobre todo, más capacidad en el mismo espacio. Microsoft llega a sugerir que futuras líneas superconductoras podrían ofrecer un orden de magnitud más capacidad que una línea convencional al mismo voltaje, con menos necesidad de subestaciones y con diseños de instalaciones de IA más densos.
Para aterrizarlo, Microsoft ha invertido 75 millones de dólares en Veir, que fabrica conductores HTS con cinta REBCO, una película cerámica superconductora sobre un sustrato metálico, diseñada para aguantar entornos reales. Veir plantea refrigeración en circuito cerrado con nitrógeno líquido: lo hace circular por el cable, lo re-enfría y lo recircula. El argumento es que el nitrógeno es abundante, relativamente barato y ya se maneja de forma segura a escala industrial. El freno sigue siendo el coste —materiales de tierras raras y criogenia—, así que el caso de uso más atractivo son sitios donde el espacio, el peso, el calor y la caída de tensión ya están al límite. Dicho de otro modo: el “laboratorio” perfecto puede ser el propio centro de datos de IA.
Y si hablamos de energía transportable, la historia más llamativa del día viene del Departamento de Defensa de EE. UU.: por primera vez, trasladó por aire un reactor nuclear completo de 5 MW en un C‑17, en una misión llamada Operation Windlord dentro del programa Janus. El reactor —un Ward250 de nueva generación— viajó sin combustible, desmontado en ocho módulos, en tres aviones. El mensaje estratégico es la logística: demostrar que un reactor puede moverse y desplegarse con una cadena “repetible”, casi como equipamiento estándar, para llevar energía fiable a bases remotas y reducir dependencia de largas rutas de suministro de combustible. El diseño, además, apunta a seguridad inherente: reactor de gas a alta temperatura, helio como refrigerante y combustible TRISO en forma de “pebbles” con HALEU.
Cambiamos de tema hacia algo más silencioso pero igual de decisivo: cómo se están construyendo los agentes de programación que ya producen código en masa. Stripe publicó la segunda parte de su historia de “minions”, sus agentes autónomos end‑to‑end. El dato que impresiona no es un demo: dicen que ya superan las 1.300 pull requests por semana generadas íntegramente por minions, con humanos revisando, pero sin escribir el código.
El truco operativo está en la infraestructura: Stripe usa “devboxes”, entornos de desarrollo estandarizados en AWS EC2, aislados y reemplazables. Son paralelizables y, sobre todo, seguros para que un agente trabaje sin tocar el portátil del ingeniero ni credenciales sensibles. Stripe quiere que una devbox esté lista en unos 10 segundos gracias a un pool “caliente”: repos clonados, cachés precalentadas —incluyendo Bazel y typechecking— y servicios en background en marcha. En la parte de orquestación, combinan pasos deterministas (linters, pushes) con bucles agenticos (implementar tareas, arreglar CI) mediante “blueprints”, una especie de máquina de estados que reduce gasto de tokens y sube la fiabilidad.
En paralelo, Cloudflare también está atacando un problema que cualquiera que haya jugado con agentes reconoce: el catálogo de herramientas. Si le das a un modelo miles de herramientas descritas, te comes la ventana de contexto antes de empezar. Cloudflare está ampliando su enfoque “Code Mode”: en vez de enumerar herramientas una por una, el modelo escribe código contra un SDK tipado y ese código se ejecuta de forma segura. Su nuevo servidor MCP para toda la API de Cloudflare expone solo dos herramientas, search() y execute(), pero con eso puede alcanzar más de 2.500 endpoints. La tesis es contundente: mantienen la huella del MCP casi fija —alrededor de 1.000 tokens— y evitan cargar el OpenAPI en contexto. Además, lo corren en un isolate con sandbox: sin sistema de archivos, sin exponer variables de entorno y con salidas de red deshabilitadas por defecto, precisamente para reducir riesgos de inyección o fugas de datos. Es una idea que probablemente veremos replicada en otras plataformas con APIs gigantes.
Y GitHub entra en la conversación con un adelanto llamado GitHub Agentic Workflows: agentes dentro de GitHub Actions, con guardrails. Lo interesante aquí es el formato: definen automatizaciones en Markdown —en vez de YAML complejo— para tareas como triage de issues, análisis de fallos de CI o mantenimiento de documentación. Por diseño, permisos de solo lectura por defecto; y si el agente quiere escribir, necesita aprobación explícita mediante “safe outputs”, operaciones sanitizadas y preaprobadas. Aun así, GitHub lo deja claro: es temprano, puede cambiar y requiere supervisión humana.
No todo son buenas noticias en automatización. Un análisis citando cobertura del Financial Times cuenta que AWS habría sufrido al menos dos caídas menores desencadenadas por fallos en herramientas internas “de IA”. En un caso, una herramienta supuestamente borró y recreó un entorno completo de forma no intencionada, contribuyendo a una interrupción larga. La crítica de fondo es conocida: cuando metes sistemas no deterministas en operaciones de infraestructura —donde antes tenías playbooks reproducibles— subes la complejidad y, con ella, el riesgo. Y si además hay permisos demasiado amplios, el impacto se multiplica.
Hablando de agentes y de nombres confusos: una explicación reciente intenta ordenar qué significa “Codex” hoy. La idea útil es pensarlo por capas: modelo, arnés —harness— y superficies. El modelo “piensa”, pero el harness es lo que le permite operar en un repo: leer archivos, correr comandos, iterar con tests. Y las “superficies” son las interfaces: app, CLI, IDE o web. Separar esas capas ayuda a entender por qué a veces cambia la experiencia aunque “el modelo” parezca el mismo. Además, otra pieza describe el equipo de Codex dentro de OpenAI como una organización “AI‑native”: poca jerarquía, pocas reuniones, mucha propiedad end‑to‑end, y uso de la propia herramienta para triage de feedback, QA y refactors en paralelo.
En modelos, Google sorprendió con la previsualización de Gemini 3.1 Pro, centrado en razonamiento multi‑paso. La cifra que están empujando es un 77,1% en ARC‑AGI‑2, y lo relevante a nivel producto es el despliegue simultáneo: Gemini app, NotebookLM, Vertex AI y API. Es una señal de que Google quiere que el salto de “chatbot” a “capa de resolución de problemas” ocurra a la vez para usuarios, empresas y desarrolladores.
Ahora, pongamos un poco de contexto social y económico. Un artículo repasa cómo muchos ejecutivos venden la IA como “la nueva electricidad”, pero el público no está comprando el mensaje al mismo ritmo. Encuestas muestran miedo —más de un tercio dice estar preocupado por escenarios extremos— y también indiferencia: incluso quienes ven la IA con buenos ojos, en su mayoría no pagarían un extra por funciones con IA en sus dispositivos. Del lado empresarial, un sondeo del NBER apuntaba que el 80% de las firmas no vio impacto en productividad o empleo. Hasta Sam Altman reconoció que la adopción se está difundiendo más lento de lo esperado, y Jensen Huang advirtió que los críticos van ganando “la batalla del relato”.
Antes de cerrar, dos historias de ciencia y espacio. En Marte, la NASA actualizó Perseverance con Mars Global Localization: el rover ahora puede ubicarse con precisión sin esperar confirmación desde la Tierra. No es GPS —Marte no tiene constelación de satélites de navegación—, pero se parece en efecto: compara panorámicas con mapas orbitales y calcula su posición en unos dos minutos, con precisión de unos 25 centímetros. Eso puede traducirse en más distancia recorrida al día y menos paradas por incertidumbre cerca de terreno peligroso.
Y en seguridad espacial, Alemania está elevando el tono: su cúpula militar de ciber e información advierte que un “día sin espacio” sería un desastre para infraestructuras críticas. Berlín planea inversión importante hacia 2030 y está usando capacidades de reconocimiento basadas en radar de apertura sintética —útil con nubes o de noche—, además de reforzar comunicaciones satelitales. También hablan de amenazas no cinéticas como deslumbramiento y jamming, subrayando que la disuasión no siempre pasa por destruir satélites, pero sí por poder degradar capacidades.
Cerramos con una pieza de industria del entretenimiento tecnológico: Microsoft Gaming cambia de era. Phil Spencer se retira tras décadas en la compañía y más de una década al frente de Xbox. El relevo lo toma Asha Sharma, procedente del área CoreAI, mientras Sarah Bond deja Microsoft y Matt Booty asciende a máximo responsable de contenido. La promesa del nuevo liderazgo: volver a poner la consola en el centro, pero sin renunciar a PC, móvil y nube, y con el compromiso explícito —interesante que se diga en voz alta— de no inundar Xbox de “IA sin alma”.
Eso es todo por hoy. Si te interesa especialmente la batalla por energía —superconductores, microreactores y centros de datos— o el giro hacia agentes con guardrails en GitHub, Stripe y Cloudflare, vuelve mañana: esta historia se mueve rápido. Soy TrendTeller, y esto fue The Automated Daily, tech news edition. Gracias por escuchar.