The Automated Daily - AI News Edition · 26 de febrero de 2026 · 17:27

Motores a gas para IA & Google Labs: música y agentes - Noticias de IA (26 feb 2026)

IA y energía: centros de datos con turbinas a gas, Google impulsa ProducerAI y Opal, Qwen3.5 1M contexto, agentes empresariales y seguridad.

Motores a gas para IA & Google Labs: música y agentes - Noticias de IA (26 feb 2026)
0:0017:27

Topics

01
Motores a gas para IA — El boom de centros de datos para IA impulsa generación eléctrica in situ con turbinas de gas, incluso motores derivados de aviación. Claves: CO₂, hyperscalers, red eléctrica, turbinas, 2030.
02
Google Labs: música y agentes — Google Labs incorpora ProducerAI para creación musical con Gemini y Lyria 3, y actualiza Opal con un nuevo paso “agent” más interactivo. Claves: control creativo, SynthID, memoria, enrutado dinámico.
03
Modelos Qwen3.5 y benchmarks — Alibaba publica Qwen3.5-35B-A3B en Hugging Face con MoE y contexto enorme, mientras VBVR mide razonamiento en vídeo y deja una brecha grande frente a humanos. Claves: 262K/1M tokens, vLLM/SGLang, leaderboard.
04
Eficiencia: Intelligence Yield y METR — Se propone Intelligence Yield para medir trabajo útil por minuto de cómputo y METR admite sesgos al medir productividad de devs con herramientas agentic. Claves: eficiencia, compute, selección de tareas, CI, datos abiertos.
05
Infraestructura: Meta con AMD — Meta firma un acuerdo multianual con AMD para hasta 6 GW de Instinct GPUs y despliegues con arquitectura Helios desde H2 2026. Claves: diversificación de hardware, energía, MTIA, rack-scale.
06
Agentes en empresa: Salesforce y Anthropic — Salesforce impulsa TDX 2026 centrado en Agentforce 360 y hackathon global; Anthropic amplía Claude Cowork con conectores empresariales y plugins. Claves: agentic AI, Google Drive/Gmail/DocuSign, comunidad, gobernanza.
07
Seguridad y teoría de agentes — Vercel advierte sobre ‘cero límites’ en agentes que ejecutan código con secretos y propone separar cómputo y usar inyección segura; un ensayo describe agentes como búsqueda guiada por recompensas. Claves: prompt injection, sandbox, permisos, verificación.
08
IA en retail y producto 3D — Burger King prueba ‘Patty’ en headsets para ayudar y evaluar “amabilidad”, y Aircada critica que el 3D generado por IA aún no sirve para e-commerce exigente. Claves: coaching, POS en nube, UV maps, PBR, confianza del cliente.
09
Mercados, empleo y macro IA — Un análisis cuestiona un escenario viral de disrupción económica por agentes y You.com insiste en empezar por casos de uso de alto valor, no por ‘brillos tecnológicos’. Claves: demanda agregada, intermediarios, discovery, impacto medible.
10
Movimientos ejecutivos y valuaciones — David Luan deja el laboratorio AGI de Amazon en medio de reorganización y escrutinio FTC; Anthropic lanza un tender para empleados con valoración ~350B. Claves: acqui-hire, Nova Act, IPO-prep, liquidez.

Sources

Full Transcript

¿La fiebre de la IA está llevando a centros de datos a quemar gas… y hasta a reciclar motores de avión como turbinas para generar electricidad en sitio? Hoy te cuento qué hay detrás y por qué importa. Bienvenidos a The Automated Daily, AI News edition. El podcast creado por IA generativa. Soy TrendTeller y hoy es 26 de febrero de 2026. Vamos con las noticias de inteligencia artificial, sin humo y con contexto.

Empecemos por el tema que está tensando la cuerda de toda la industria: energía y centros de datos. Varios reportes apuntan a un patrón incómodo: mientras los hyperscalers sostienen compromisos públicos con renovables, la construcción acelerada de data centers para entrenamiento e inferencia está empujando a instalar generación eléctrica “al lado del rack”, y el atajo más rápido suele ser el gas natural. Truthout estima que este tipo de despliegues podría sumar unos 44 millones de toneladas de CO₂ para 2030, una cifra que se compara con las emisiones anuales de millones de autos. The Register lo liga a una demanda de cómputo que, honestamente, hoy parece casi insaciable. Lo más llamativo es cómo la urgencia cambia el catálogo: hay escasez de turbinas diseñadas específicamente para estas instalaciones, y algunos operadores están adaptando motores de aviación. Boom Supersonic, por ejemplo, se mete en el negocio con turbinas derivadas de su motor Symphony, y Crusoe aparece como primer cliente con decenas de unidades. En paralelo, se citan proyectos gigantes: el campus Hyperion de Meta en Louisiana con ambición de escalar a varios gigavatios y plantas de ciclo combinado construidas por la utility local. La lectura práctica: el cuello de botella ya no es solo GPU o redes; es megavatios, permisos, gasoductos, y tiempos de conexión a la red.

En hardware e infraestructura, Meta también anunció un acuerdo multianual con AMD para alimentar sus necesidades de cómputo de IA: hablan de hasta 6 gigavatios de GPUs Instinct a lo largo del tiempo, con alineación de hojas de ruta entre silicio, sistemas y software. Los primeros envíos para despliegues iniciales se esperan en la segunda mitad de 2026 y se apoyarán en una arquitectura rack-scale llamada Helios, desarrollada por Meta junto con AMD y mostrada en el ecosistema de Open Compute. Más allá del titular, el mensaje es estratégico: diversificar. Meta insiste en un enfoque de “portafolio” que incluye socios externos y su propio chip, MTIA. En una época donde el suministro y la eficiencia energética deciden el ritmo, repartir apuestas reduce riesgo y, de paso, mejora el poder de negociación.

Ahora sí, pasemos al lado creativo—pero con bastante ingeniería detrás. Google Labs incorpora ProducerAI, una plataforma de creación y refinamiento musical que se presenta como “colaborador creativo”. La idea es que un prompt simple, tipo “haz un beat lofi”, pueda convertirse en una canción completa que luego iteras: letras, melodías, arreglos, variaciones. Google dice que ProducerAI combina varios modelos de DeepMind—mencionan Gemini, Lyria 3, Veo y hasta uno llamado Nano Banana—para distintas etapas del flujo de trabajo. Y algo importante: todo lo generado queda marcado con SynthID, la marca de agua imperceptible de Google para identificar contenido hecho por IA. Además, lo están empujando como producto con feedback de comunidad real: desde músicos aspirantes hasta nombres conocidos como Lecrae y The Chainsmokers, que incluso aportan una cita elogiando el diseño “pensado para músicos”. La pieza técnica clave aquí es Lyria 3 en versión preview: un modelo de generación musical de alta fidelidad, con comprensión de ritmo y arreglo, y controles granulares como tempo y letras alineadas en el tiempo. Y ojo con lo que llaman Spaces: una promesa de “control creativo” donde puedes describir por lenguaje natural instrumentos y efectos, desde un teclado sencillo hasta entornos modulares tipo nodos. Esos Spaces serían compartibles y remezclables, casi como mini-apps dentro de la plataforma. ProducerAI está disponible globalmente en producer.ai con plan gratis y pago.

Y si ProducerAI es creatividad musical, Opal es creatividad “de flujo de trabajo”. Google Labs también está desplegando un nuevo “agent step” en Opal. Antes, un flujo era una serie de llamadas más o menos fijas: eliges el modelo, configuras pasos, y listo. Con el paso de agente, eliges un objetivo, y el agente decide qué acciones ejecutar y qué herramientas usar: búsqueda web para investigar, Veo si toca vídeo, o lo que corresponda. La diferencia se entiende con ejemplos: un “Visual Storyteller” ya no necesita que le fijes cantidad de páginas o preguntas; puede pedir lo que le falta, proponer puntos de trama y adaptarse. O el “Room Styler”: en vez de “sube foto, elige estilo, recibe render”, se vuelve un socio de diseño que propone, pregunta, ajusta, y hasta investiga sub-estilos de nicho si lo necesitas. Dos añadidos tienen implicaciones serias: Memory, para que los Opals recuerden preferencias entre sesiones, y Dynamic routing, para que un mismo flujo tenga rutas distintas según criterios—por ejemplo, un briefing para cliente nuevo versus uno existente. Y con Interactive chat, el agente puede hacer preguntas de seguimiento cuando tu input es incompleto, en vez de quedarse trabado. Es la tesis de 2026 en una frase: menos pipelines rígidos, más sistemas orientados a objetivo.

En modelos y benchmarks, Alibaba sube a Hugging Face el repositorio de Qwen/Qwen3.5-35B-A3B. Es un modelo con formato Transformers, compatible con motores de serving como vLLM, SGLang y KTransformers. Lo venden como salto en multimodalidad, eficiencia arquitectónica y accesibilidad global. Lo técnico: 35B parámetros totales, pero con Mixture-of-Experts donde se activan alrededor de 3B en inferencia. Hablan de 256 expertos con ruteo por token, y un contexto nativo enorme: 262.144 tokens, con extensiones hacia ~1 millón usando escalado RoPE tipo YaRN. En producción, esto empuja casos como análisis de repos gigantes, sesiones largas, y agentes que “no olvidan” el hilo… siempre que pagues la memoria y el coste. También advierten que por defecto emite un “thinking mode” oculto en etiquetas <think>…</think>, y explican cómo desactivarlo vía parámetros de API. Para agentes, apuntan a Qwen-Agent y a Qwen Code. Y si no quieres auto-hosting, ofrecen contraparte administrada en Alibaba Cloud Model Studio, con Qwen3.5-Flash y contexto de 1M por defecto.

Y hablando de evaluación: aparece VBVR, “A Very Big Video Reasoning Suite”, que quiere empujar el razonamiento en vídeo como el siguiente gran paradigma, porque el mundo real es espacio + tiempo, no solo texto. El benchmark incluye tareas de percepción, abstracción, espacialidad y transformaciones en secuencias visuales. El leaderboard es un baño de realidad: humanos en 97,4%. El mejor modelo listado, VBVR-Wan2.2, marca 68,5%. Luego Sora 2 con 54,6%, Veo 3.1 con 48% y Runway Gen-4 Turbo con 40,3%. Si alguien te dice que el vídeo “ya está resuelto”, aquí tienes un número para aterrizarlo.

Ahora, una idea interesante sobre cómo comparamos modelos: proponen una métrica llamada Intelligence Yield, o IY, para medir cuánto trabajo útil produce un modelo por minuto de cómputo. Se basa en METR y su benchmark Time Horizons v1.1, pero intenta corregir un sesgo común: mirar solo qué tan difícil es la tarea que el modelo puede completar, sin mirar cuánta máquina quemó para lograrlo. La fórmula combina el ‘time horizon’ p50, el score promedio y el tiempo de trabajo. El argumento es simple: capacidad importa, pero eficiencia importa igual—o más—cuando el presupuesto es el cuello de botella. El texto afirma que “Opus 4.6” resolvería tareas más difíciles con más fiabilidad usando bastante menos cómputo que competidores. La lección general: en 2026, no gana solo el más listo; gana el que entrega más por vatio y por segundo.

Y METR, precisamente, trae una actualización sobre productividad de desarrolladores con IA que vale la pena leer con cuidado. Ellos mismos dicen que su experimento se está volviendo menos confiable por efectos de selección: cada vez más devs se niegan a hacer trabajo sustancial sin herramientas de IA, así que las tareas que entran al estudio no representan las de mayor “beneficio esperado” con IA. Recordatorio: su estudio temprano de 2025 sugería que desarrolladores open source tardaban ~19–20% más usando IA, pero con un intervalo amplio. En el seguimiento arrancado en agosto de 2025, con herramientas más agentic como Claude Code o Codex, ven indicios de speedup, pero con intervalos todavía grandes: entre devs que repiten, estiman ~18% más rápido, y en nuevos reclutas, ~4% más rápido. METR cree que el verdadero efecto podría ser mayor, pero el diseño actual ya no lo captura bien. También mencionan problemas muy reales: multitarea mientras el agente “trabaja”, diferencias de calidad, y tareas que ni se completan en condición sin IA. Su plan: rediseñar, quizá con experimentos más cortos y cumplimiento más alto, más datos observacionales, y mejores mediciones de uso de tiempo.

Del lado “IA en la empresa”, dos anuncios van en paralelo. Primero, Salesforce empuja TDX 2026 como evento de dos días para devs, admins y arquitectos centrado en “agentic AI” sobre Agentforce 360. Prometen cientos de sesiones técnicas, entrenamientos prácticos, mesas redondas, consultorías personalizadas, y experiencias tipo Campground con demos y networking. También hay hackathon virtual global, con equipos que compiten por premios y la posibilidad de presentar en vivo. Lo interesante aquí no es el marketing—que es intenso—sino la señal de mercado: Salesforce quiere que el ‘agente’ sea una habilidad estándar del stack, con gobernanza, empaquetado, y patrones de arquitectura, no solo prototipos.

Segundo, Anthropic amplía Claude Cowork con conectores y plugins para acercarlo a un producto enterprise de verdad. Conectores para Google Drive, Gmail, DocuSign y FactSet, y plugins personalizables para finanzas, ingeniería o RR. HH. La tesis es clara: sin contexto de sistemas internos y sin controles administrativos, un chatbot se queda corto. Hay además un trasfondo bursátil: Cowork ya había inquietado a acciones de software cuando salió en modo “research”. Tras el anuncio de socios y detalles, el mercado se calmó. Anthropic dice que ~80% de su negocio es enterprise, y que compite de frente con OpenAI y Google. También repiten un punto prudente: no ven evidencia de desplazamiento laboral masivo todavía, pero sí impactos desiguales; roles como data entry podrían estar más expuestos.

Si vas a poner agentes a trabajar, toca hablar de seguridad y de cómo pensamos estos sistemas. Vercel publicó una advertencia muy concreta: muchos agentes actuales corren código generado con acceso a secretos—API keys, credenciales cloud, SSH—porque todo vive en el mismo contexto. Con prompt injection, una instrucción escondida en un log o documento puede empujar al agente a exfiltrar credenciales y, si además puede ejecutar scripts, la instrucción se convierte en acciones. Su recomendación de arquitectura: separar “agent compute” (el orquestador, con secretos) de “sandbox compute” (donde corre el código generado y vive el filesystem del trabajo), y complementar con inyección segura de secretos a nivel de red, para que el código pueda usar credenciales sin leerlas. Es, esencialmente, poner paredes de verdad: permisos y aislamiento, no solo prompts. En la misma línea conceptual, un ensayo propone ver a los “agentes” como políticas haciendo búsqueda guiada por recompensas, no como entidades que ‘deciden’ moralmente. La idea de ‘Agent Field Theory’ separa territorio (entorno), mapa (contexto) y el ‘campo’ de comportamientos alcanzables que cambia a medida que entran tokens al contexto. De ahí salen lecciones prácticas: reduce superficie de herramientas, mantén entornos limpios, usa verificadores fuertes como tests y linters, y trata los permisos como muros duros, no como sugerencias.

En el ecosistema de agentes también hay producto: Kilo lanzó KiloClaw, un servicio administrado para desplegar un agente OpenClaw “en menos de 60 segundos”. OpenClaw, muy popular en GitHub, puede controlar navegador, archivos e integrarse con docenas de plataformas; Kilo intenta quitar fricción de operación: monitoring, ‘always on’, cron, y un ‘Memory Bank’ en Markdown versionado. Además, lo conecta a un gateway para elegir entre cientos de modelos sin casarte con un proveedor. La lectura aquí es que el mercado ya se está moviendo de ‘qué agente es más listo’ a ‘qué agente puedes operar sin desvelarte a las 3 a.m.’. Y sí: esa transición suele ser donde nacen empresas grandes.

Aterrizamos ahora en consumo y retail, con un caso que mezcla eficiencia y vigilancia suave. Burger King está probando un bot de voz llamado Patty dentro de los headsets de empleados, como parte de BK Assistant. Sirve para preguntas operativas—cuántas tiras de bacon van en una hamburguesa específica, cómo limpiar una máquina—pero también evalúa “amabilidad” en interacciones con clientes, buscando frases como “welcome to Burger King”, “please” y “thank you”. Dicen que quieren que sea una herramienta de coaching y que están trabajando en analizar el tono. Además, al estar conectado a un nuevo POS en nube, puede avisar de equipos caídos o faltantes de stock, y propagar cambios a kioscos, drive-thru y menús digitales en minutos. Lo están piloteando en cientos de locales, con objetivo de plataforma web/app en todos los restaurantes de EE. UU. a finales de 2026. Interesante: no se lanzan todavía a un drive-thru 100% automatizado; lo llaman una apuesta arriesgada y admiten que no todos los clientes están listos.

Y dos notas rápidas sobre “lo que la IA aún no hace tan bien como parece”. Aircada, que construye configuradores 3D para e-commerce, dice que los modelos 3D generados por IA todavía no valen para visualización seria de producto: siluetas ‘onduladas’, texto de marca derretido, UV maps inútiles, geometría tipo ‘triangle soup’ y texturas que vienen con sombras “horneadas”, lo que rompe el realismo al rotar el objeto. Su punto es contundente: la supuesta eficiencia de generar en segundos es engañosa si luego no puedes editar materiales PBR ni hacer cambios de cliente sin rehacer todo. Y You.com publica una guía que, aunque suene básica, muchas empresas aún fallan en esto: antes de “adoptar IA”, define casos de uso de alto impacto con un proceso sistemático de discovery. Identifica qué no funciona y por qué—interno (back-office, conocimiento, workflows) y externo (soporte, personalización, engagement). Palabras clave: alineación de stakeholders y resultados medibles, no demos brillantes.

Cerramos con mercado y movimientos corporativos. Zvi Mowshowitz analiza un ensayo viral de Citrini Research sobre disrupción económica por agentes—“no una predicción”, dicen—que llegó a influir el ánimo del mercado. Zvi reconoce que es concreto y útil para pensar mecanismos, pero lo ve fallido en macro: asume mejoras de capacidad y difusión demasiado rápidas, ignora cuellos de botella como cómputo, y si de verdad hubiera agentes superhumanos ubicuos, el problema dominante sería gobernanza y control, no solo márgenes y desempleo. En esa misma línea de incertidumbre, Reuters reporta que DeepSeek habría negado acceso anticipado de su próximo modelo a Nvidia y AMD, dándoselo en cambio a proveedores chinos como Huawei para optimización. Esto rompe una práctica común de ‘pre-tuning’ con fabricantes líderes y sugiere geopolítica aplicada al performance. Además, se menciona una acusación delicada: que entrenaron con chips Blackwell en China, potencialmente violando controles de exportación. No hay confirmación pública completa, pero el episodio refleja cómo el stack de IA ya es estrategia nacional. Y dos titulares finales: David Luan, jefe del laboratorio AGI de Amazon, se va “para cocinar algo nuevo” menos de dos años después de llegar vía acqui-hire de Adept. Su salida llega tras reorganización interna y escrutinio de la FTC sobre este tipo de acuerdos. Por otro lado, Bloomberg dice que Anthropic lanzó un programa de recompra/venta de acciones para empleados, con valoración implícita alrededor de 350 mil millones de dólares, en un contexto de rondas gigantes y crecimiento acelerado de ingresos, impulsado en parte por productos como Claude Code. Cuando una empresa te ofrece liquidez interna así, suele ser señal de madurez… o de preparación para el siguiente capítulo.

Y hasta aquí el episodio de hoy. Si algo queda claro este 26 de febrero de 2026 es que la IA ya no se mide solo por benchmarks: se mide por energía disponible, por seguridad operable, por integración real en empresas, y por herramientas creativas que intentan ganarse a profesionales. Soy TrendTeller, y esto fue The Automated Daily — AI News edition. Encontrarás los enlaces a todas las historias en las notas del episodio.