Transcript
Islas de calor por data centers & Meta Avocado y modelos externos - Noticias de IA (31 mar 2026)
31 de marzo de 2026
← Back to episodeDicen que algunos centros de datos para IA no solo consumen energía: también podrían estar subiendo la temperatura del terreno alrededor hasta niveles sorprendentes. Hoy te cuento qué está midiendo la investigación y por qué podría afectar a millones. Bienvenidas y bienvenidos a The Automated Daily, AI News edition. El podcast creado por IA generativa. Hoy es 31 de marzo de 2026. Yo soy TrendTeller y, en unos minutos, repasamos lo más relevante del día en IA, software y seguridad: desde la carrera de modelos y los rumores de grandes saltos, hasta herramientas que ponen agentes a trabajar en la nube y el debate sobre quién controla la inteligencia.
Empecemos por infraestructura y medio ambiente. Un equipo liderado desde Cambridge advierte de un efecto muy concreto: los “data centre heat islands”. La idea es sencilla y preocupante: la concentración de centros de datos puede calentar el entorno cercano, elevando la temperatura de la superficie en varios grados, y en casos extremos se habla de hasta 9,1°C. Lo interesante aquí no es solo la huella eléctrica global, sino el impacto local: comunidades que viven cerca podrían notar más estrés térmico. Si la capacidad de centros de datos se expande tan rápido como se espera entre 2025 y 2030, el debate sobre dónde se construyen, cómo se refrigeran y qué se hace con el calor residual deja de ser un detalle técnico y se convierte en una cuestión de planificación urbana y salud pública.
Ahora, carrera de modelos. Meta sigue en modo ajuste fino… pero a gran escala. Según los reportes, su próximo modelo, Avocado, se habría retrasado al menos hasta mayo de 2026, y mientras tanto estarían probando varias variantes internas: desde versiones pequeñas hasta configuraciones orientadas a agentes y herramientas. Lo que llama más la atención es otra pieza: señales de que Meta estaría enroutando algunas solicitudes de usuarios hacia modelos de Google, tipo Gemini, en pruebas A/B. Si esto es así, es un mensaje claro: cuando tu producto atiende a cientos de millones de personas, no puedes permitirte “estar un poco por detrás”. O cierras la brecha rápido, o alquilas capacidad y calidad a un competidor mientras terminas tu propio stack.
En paralelo, Anthropic está ganando tracción en consumo, al menos en el segmento de pago. Un análisis basado en transacciones anónimas de tarjetas en EE. UU. sugiere que Claude tuvo un salto fuerte de suscripciones entre enero y febrero y que el impulso continuó a inicios de marzo. Anthropic, por su parte, habló de que las suscripciones pagadas se han más que duplicado este año. Lo relevante es el cóctel: campañas de marca de alto alcance, lanzamientos de funciones que no están en la versión gratuita y, curiosamente, una controversia pública con el Departamento de Defensa de EE. UU. que habría amplificado la atención mediática. Aun así, el líder en consumo seguiría siendo ChatGPT, que continúa sumando suscriptores. La lectura: en 2026 el mercado consumidor ya no es solo ‘quién responde mejor’, sino quién convierte atención en ingresos recurrentes con propuestas claras y diferenciadas.
Y como si faltaran ingredientes, circulan rumores sobre un posible “salto” de rendimiento fuera de tendencia asociado a un gran entrenamiento exitoso y a un nombre que se repite: Mythos, supuestamente ligado a Anthropic. Ojo: no está confirmado y parte de la narrativa nace en filtraciones y comentarios indirectos. Pero la razón por la que merece mención es esta: si de verdad aparecen discontinuidades —mejoras muy por encima de lo que sugerirían las escalas habituales— entonces el tablero cambia. Podría significar que los entrenamientos gigantes no solo son más caros, sino también más ‘decisivos’, elevando la importancia de compute, memoria, energía… y también el riesgo de que el acceso se restrinja por coste o por límites de uso.
Hablemos de empresas y reorganizaciones. Business Insider reporta que dos de los últimos cofundadores originales que quedaban en xAI habrían salido de la compañía. Llega en un momento en el que Elon Musk ha insinuado que xAI se está “reconstruyendo desde cero”, y con la consolidación junto a otras piezas del ecosistema bajo su control. ¿Por qué importa? Porque perder liderazgo senior durante una reestructuración suele ser una señal de fricción interna o de cambio de rumbo real, y porque el talento que dirige preentrenamiento y operaciones es precisamente el cuello de botella en una carrera donde el calendario lo es todo.
Pasemos a herramientas y a la vida cotidiana de los equipos. Claude Code en la web incorpora ahora tareas programadas que corren en infraestructura gestionada por Anthropic. Traducido: puedes dejar trabajos recurrentes —revisiones, análisis, auditorías— ejecutándose aunque tu portátil esté apagado. Esto empuja el concepto de ‘agente’ hacia algo más parecido a un servicio continuo. Y cuando un agente se vuelve persistente, las preguntas dejan de ser solo de productividad: ¿qué permisos tiene?, ¿qué repositorios toca?, ¿cómo auditamos lo que hizo anoche? Es una mejora práctica, sí, pero también acelera la necesidad de gobernanza interna y trazabilidad.
En esa línea, dos historias de hoy coinciden en una idea: los agentes de programación rinden cuando los tratas como fuerza bruta de iteración, no como autoridad. Por un lado, un análisis sobre el proyecto Pretext remarca un bucle de ingeniería muy disciplinado: fijar restricciones duras, medir contra un ‘oráculo’ externo —por ejemplo, comportamiento real en distintos navegadores— y rechazar rápido cualquier parche que suene bien pero viole invariantes. Por otro, el equipo de AutoBe cuenta que, incluso con modelos que fallan mucho al primer intento en tareas de estructuración compleja, puedes llegar a resultados casi perfectos si montas una cadena de validación determinista y retroalimentación precisa. El punto común es importante: en 2026, lo que diferencia un equipo que “prueba IA” de uno que entrega con IA es el arnés de verificación. Sin eso, lo plausible se cuela; con eso, lo plausible compite contra la evidencia.
Para alimentar a esos agentes hace falta contexto, y aquí entra un proyecto interesante: lat.md, también llamado Agent Lattice. La propuesta es documentar un código base como un grafo de conocimiento en Markdown interconectado, en vez de un único documento ‘para agentes’ que se queda corto en proyectos grandes. La clave no es que sea bonito, sino que sea navegable, verificable y que enlace decisiones con partes concretas del código. Si el contexto se pierde, los agentes rellenan huecos… inventando. Y eso se convierte en deuda técnica nueva. Esta idea de documentación como estructura viva —con integridad de enlaces y referencias— es una respuesta muy pragmática al problema real: el conocimiento arquitectónico se evapora justo cuando más automatizamos.
Esto conecta con una preocupación laboral y formativa. En una charla transcrita, Alasdair Allan plantea el problema de los “peldaños perdidos”: si la IA automatiza tareas pequeñas y repetitivas, esas tareas dejan de entrenar a perfiles junior. Y aparece una paradoja: para usar bien la IA necesitas criterio y habilidades de depuración, pero la propia asistencia puede reducir la práctica que te da ese criterio. El resultado organizativo puede ser más código entregado, sí, pero también más carga de revisión, más riesgo de calidad y más necesidad de ‘ingeniería de contexto’: documentación, pruebas, y memoria institucional explícita.
Vamos a seguridad, porque hoy hay señales convergentes. El inversor Ed Sim argumenta que cada nueva oleada de modelos no reduce el mercado de ciberseguridad: lo expande. Más agentes, más APIs, más automatización… significa más superficie de ataque y más velocidad para atacantes. Señala también que muchas detecciones basadas en LLM son probabilísticas, así que las empresas tienden a combinar descubrimiento ‘inteligente’ con verificación determinista y criterio humano. Entre las preocupaciones de CISOs aparecen conceptos muy concretos: identidad de agentes, permisos y radio de explosión —cuánto daño puede hacer un agente si se equivoca o si se compromete—, además de la fatiga de alertas y permisos cuando intentas gobernar automatización a escala. Y el mensaje de fondo es incómodo: la supply chain se vuelve más frágil cuando plugins y ‘skills’ de agentes se convierten en rutas nuevas de compromiso.
En economía de la automatización, un análisis sobre los benchmarks de “time horizon” de METR llega a una conclusión contraintuitiva: los avances en la duración de tareas que los modelos pueden completar de forma fiable no parecen venir de gastar cada vez más por tarea en comparación con el coste humano. En otras palabras, no se ve una tendencia clara de que ‘para hacer tareas más largas hay que pagar muchísimo más’. Incluso imponiendo límites de gasto muy estrictos por tarea, el horizonte estimado seguiría creciendo rápido. ¿Por qué importa? Porque debilita la idea de que la factura de inferencia, por sí sola, vaya a frenar la automatización. Puede frenarla en algunos escenarios, claro, pero la tendencia sugiere que la capacidad está avanzando de forma económicamente viable más a menudo de lo que muchos esperan.
Cierro con dos piezas más filosóficas, pero muy prácticas para política tecnológica. George Hotz reescribió un ensayo defendiendo que mantener la IA avanzada cerrada concentra poder en unos pocos laboratorios y podría empujar a una sociedad ‘neofeudal’, dependiente de APIs propietarias. Al mismo tiempo, un paper en arXiv cuestiona la narrativa de una singularidad como ‘una sola supermente’ y sugiere algo más parecido a una ciudad: una inteligencia plural, social, compuesta por múltiples agentes que debaten, verifican y se coordinan. Si ese es el futuro, la alineación y la gobernanza no serán solo técnicas de entrenamiento; serán también diseño institucional: protocolos, auditorías, checks and balances, y límites operativos para sistemas que actúan en colectivo.
Y con esto llegamos al final de la edición de hoy, 31 de marzo de 2026. Si te quedas con una idea, que sea esta: la IA no solo está mejorando modelos, también está reconfigurando infraestructura, flujos de trabajo y la forma en que entendemos el control y la responsabilidad. Gracias por escuchar The Automated Daily, AI News edition. Encontrarás los enlaces a todas las historias en las notas del episodio.