Transcript
Células cerebrales jugando a Doom & Fusiones estelares y metales pesados - Noticias de Tecnología (12 mar 2026)
12 de marzo de 2026
← Back to episode¿Y si te digo que ya hay un “ordenador” hecho de células cerebrales humanas que ha aprendido a jugar —aunque sea de forma limitada— a Doom? No es ciencia ficción, y hoy te cuento por qué importa. Bienvenidos a The Automated Daily, tech news edition. El podcast creado por IA generativa. Hoy es 12 de marzo de 2026. Yo soy TrendTeller, y vamos con lo más relevante del día, con contexto y sin perder tiempo.
Arrancamos con una de esas noticias que te obligan a recalibrar lo que entiendes por “computación”. En Australia, la start-up Cortical Labs dice haber entrenado un sistema basado en neuronas humanas cultivadas para jugar a una versión de Doom. No esperes una partida espectacular: la gracia está en que el tejido vivo parece mejorar con la experiencia. Si esto sigue avanzando, podría abrir caminos interesantes para probar fármacos en sistemas más parecidos al cerebro humano y, a largo plazo, inspirar máquinas que aprendan de formas menos rígidas que el software tradicional.
En el espacio, hoy tenemos un doble titular que ayuda a explicar cosas que, hasta ahora, parecían raras. Primero: astrónomos han localizado una fusión de estrellas de neutrones asociada a un estallido corto de rayos gamma en una galaxia sorprendentemente pequeña. Eso es llamativo porque estos eventos suelen vincularse a galaxias medianas o grandes. La idea interesante es que, si la galaxia anfitriona es diminuta y difícil de ver, se entiende mejor por qué algunos estallidos parecen “sin hogar” o desplazados respecto a su galaxia. Y el segundo hallazgo viene de ondas gravitacionales: un evento de fusión entre una estrella de neutrones y un agujero negro muestra señales claras de que la órbita era excéntrica poco antes del choque, en lugar de casi circular. Traducido: probablemente no fue una pareja tranquila evolucionando aislada durante eones, sino un sistema moldeado por interacciones en entornos estelares densos, o incluso con la influencia de un tercer cuerpo. Además, ajustar estos modelos cambia estimaciones de masas: un recordatorio de que, en esta etapa del campo, el software científico también decide qué historia creemos estar viendo.
Seguimos con defensa planetaria: nuevas observaciones sobre el experimento DART de la NASA —el choque controlado contra el asteroide Dimorphos— confirman algo sutil pero importante. No solo cambió el tiempo de órbita de Dimorphos alrededor de su compañero; también se detectó un cambio pequeñísimo y permanente en la órbita del sistema alrededor del Sol. La moraleja es práctica: el empujón real no viene solo de la nave, sino del material expulsado, que actúa como “retroceso” extra. Y lo mejor: se ha demostrado que estos cambios, aunque sean minúsculos, se pueden medir con paciencia, datos y colaboraciones globales.
En seguridad y espacio, Anduril anunció la compra de ExoAnalytic Solutions, una empresa con una red global de telescopios y software para seguimiento de satélites. Esto refuerza una tendencia: la vigilancia persistente del espacio, especialmente en órbitas clave para comunicaciones y alerta temprana, se está volviendo un pilar de la seguridad nacional. Para Anduril, es una forma de conectar sensores con sistemas autónomos y, de paso, posicionarse mejor ante contratos del entorno de la Fuerza Espacial de EE. UU.
Ahora sí, el gran bloque del día: inteligencia artificial y trabajo. Un inversor, Alfred Lin, sostiene que las herramientas de programación con IA están ampliando la brecha entre quienes “construyen” muy rápido y el resto. Su tesis no es solo que se escriba más código, sino que cambia el rol: menos tecleo y más intención, revisión y coordinación de varios agentes a la vez. Dicho sin épica: gana quien tenga criterio y visión de producto para iterar, detectar errores y decidir qué vale la pena construir. Pero ojo, porque otra voz, el investigador William J. Bowman, propone bajar el volumen del debate y hacer cuentas: ¿cuánto cuesta expresar bien la tarea?, ¿cuánto cuesta verificar que el resultado cumple?, y ¿importa el proceso o solo el artefacto final? Su punto es incómodo: en tareas complejas y muy específicas, verificar puede ser más caro que hacerlo tú mismo, sobre todo cuando la IA produce respuestas “creíbles” pero con fallos sutiles.
Ese choque entre entusiasmo y realidad también aparece a nivel de empresas. George Sivulka argumenta que, aunque la IA haga a algunas personas muchísimo más productivas, las organizaciones aún no capturan ese valor porque no han rediseñado procesos. Igual que la electrificación de fábricas tardó décadas en traducirse en grandes ganancias, aquí no basta con “darle una IA a cada empleado”. La apuesta, dice, es construir lo que llama inteligencia institucional: flujos coordinados, trazables, con estándares y con sistemas capaces de decir “no” cuando algo no cuadra. En paralelo, otro análisis sugiere que la IA está borrando el “puesto marginal”: muchas empresas no despiden, simplemente dejan de contratar porque las herramientas ya cubren el hueco. Es un cambio silencioso: se nota más en ofertas que nunca se publican que en grandes anuncios de recortes.
Más señales de que la IA se está normalizando en instituciones: en Estados Unidos, el Senado ha aprobado el uso oficial de herramientas como ChatGPT, Gemini y Copilot para tareas como borradores, resúmenes e investigación. Y, por separado, se reporta que el Pentágono desplegará agentes de Gemini para automatizar tareas rutinarias en redes no clasificadas, con conversaciones para extenderlo a entornos clasificados. La parte interesante no es solo la eficiencia: es el nuevo peso de la revisión humana, los requisitos de seguridad y la pregunta de quién responde cuando una herramienta acelera también un error.
En la carrera de “agentes”, Nvidia suena como próximo jugador fuerte: se dice que prepara una plataforma abierta para agentes siempre activos, con foco en seguridad y privacidad. Esto ocurre mientras crece la preocupación por asistentes con demasiado acceso a datos y acciones. Y, en el extremo más llamativo del día, Elon Musk presentó “Macrohard”, un proyecto conjunto Tesla–xAI que mezcla un modelo como “navegador” con un agente capaz de operar un ordenador viendo la pantalla y ejecutando acciones. La promesa es grande: automatizar trabajo real de oficina. La incógnita, como siempre con agentes, es si la fiabilidad y el control estarán a la altura del marketing.
Donde también se juega el futuro es en la economía del “modelo”. Un artículo sostiene que el rendimiento de muchos modelos se está volviendo intercambiable y que los precios caen rápido, empujando la IA hacia la lógica de una mercancía. Si eso se consolida, el margen no estaría tanto en vender el modelo, sino en la infraestructura de cómputo, en la distribución —plataformas con usuarios— y, sobre todo, en aplicaciones que integran datos propios y flujos de trabajo difíciles de copiar. En hardware, Meta dice que planea desplegar varias nuevas generaciones de chips internos para IA en los próximos años. El subtexto es claro: incluso las empresas que compran muchísimas GPUs quieren reducir dependencia, controlar costes y optimizar para sus cargas específicas. Diseñar chips es caro y lento, pero a escala de Big Tech puede ser una ventaja estratégica real.
Para quienes programan, hoy hay dos titulares con impacto práctico. El comité de estandarización de JavaScript ha llevado Temporal a la fase final para entrar en ES2026. Es la solución a años de problemas con fechas y zonas horarias, una fuente clásica de bugs en aplicaciones globales. Y la clave aquí es simple: menos ambigüedad, menos sorpresas con cambios de horario, y tipos de fecha y hora más seguros para el día a día. Y en el mundo web, WordPress ha “encendido” un cambio de distribución: ya puede arrancar un WordPress completo dentro del navegador gracias a WebAssembly y Playground. ¿Por qué importa? Porque abre la puerta a entornos rápidos y desechables para probar ideas, entrenar, experimentar o incluso trabajar local-first, sin depender de un servidor tradicional desde el minuto uno.
Cerramos con biotecnología, donde la IA y la ingeniería molecular siguen acelerando. En Japón, equipos de investigación reportan aptámeros de ADN que se unen a NfL, un biomarcador en sangre asociado a daño neuronal y útil en seguimiento de enfermedades neurodegenerativas. El interés es que los aptámeros se pueden sintetizar y adaptar con facilidad, potencialmente abaratando y simplificando sensores frente a algunos ensayos basados en anticuerpos. También hay avances en entrega de terapias génicas: un método para medir, en animales vivos, si nanopartículas logran escapar de compartimentos celulares que normalmente destruyen su carga. Esa medición, más que el “hype”, es lo valioso: si puedes cuantificar el cuello de botella, puedes diseñar mejor. Y, por último, una plataforma de vacunas basada en origami de ADN mostró respuestas inmunes prometedoras en modelos, con la idea de presentar antígenos y estimuladores del sistema inmune de forma muy controlada. Aún queda camino, pero el enfoque apunta a vacunas potencialmente más estables y adaptables ante virus que cambian.
Y hasta aquí el episodio de hoy. Si te quedas con una idea, que sea esta: la frontera tecnológica no solo avanza en potencia, también en “formas” nuevas —desde neuronas que aprenden hasta estándares de software que por fin corrigen problemas viejos, y gobiernos que ya integran IA en su trabajo diario. Soy TrendTeller. Gracias por escuchar The Automated Daily, tech news edition. Volvemos mañana con más noticias, mejor conectadas.