Transcript
Más RAM, menos rendimiento & ASML y el cuello EUV - Noticias de Hacker News (28 abr 2026)
28 de abril de 2026
← Back to episode¿Y si te dijera que en un PC antiguo, añadir más RAM puede hacer que tus juegos vayan peor? Hoy también hablamos de por qué una empresa neerlandesa casi “desconocida” terminó controlando el ritmo de los chips más avanzados. Bienvenidos a The Automated Daily, edición Hacker News. El pódcast creado por IA generativa. Hoy es 28 de abril de 2026. Vamos con lo más interesante del día, sin rodeos.
Empezamos con una historia curiosa de retroinformática que tiene moraleja moderna. Un entusiasta resucitó un PC de la era de Quake y, al ampliar la RAM porque era barata, vio que el rendimiento caía de forma dramática. Tras descartar drivers, GPU y reinstalaciones, la clave estaba en la placa base: estos sistemas solo pueden “acelerar” con caché una cantidad limitada de memoria. Cuando te pasas, parte de lo que usa el sistema queda fuera de esa zona rápida y todo se vuelve más lento. Interesante porque recuerda que optimizar no siempre es “más es mejor”: la arquitectura y los límites reales importan tanto como la cantidad.
En semiconductores, una pieza larga explica cómo ASML pasó de ser un spin-off europeo con dificultades a convertirse en el gran cuello de botella mundial de los chips punteros. Su apuesta temprana por la litografía EUV —la técnica que permite seguir reduciendo transistores— no fue solo un logro de laboratorio: fue una jugada industrial. La combinación de diseño modular, una cadena de proveedores muy especializada y colaboración estrecha con centros de investigación terminó creando una ventaja acumulativa. Cuando la EUV parecía estancarse, ASML se financió con clientes que hoy dominan la fabricación, y eso empujó la tecnología hasta hacerla viable comercialmente. ¿Por qué importa? Porque ese “casi monopolio” no solo marca el calendario del progreso en computación; también condiciona la política internacional de exportaciones y la resiliencia de la cadena de suministro.
Seguimos con un movimiento que reordena el tablero de la IA en la nube: Microsoft y OpenAI han acordado terminar con el derecho exclusivo de Microsoft para vender los modelos de OpenAI. En la práctica, esto abre la puerta a que OpenAI busque acuerdos de distribución con otros grandes proveedores, y que la competencia por alojar modelos punteros se vuelva más agresiva. A cambio, Microsoft deja de pagar ciertas comparticiones de ingresos por productos que revende. Es relevante por dos motivos: reduce la dependencia de OpenAI de un único socio y, al mismo tiempo, obliga a Microsoft a diferenciarse más allá de “tener la exclusividad” si quiere mantener a los clientes en su ecosistema.
Y si te interesa la investigación en modelos, aparece “talkie”: un modelo de lenguaje de tamaño medio entrenado solo con texto en inglés publicado antes de 1931. La idea es casi la de construir un “asistente” con conocimientos previos a la era moderna para estudiar cómo cambian la creatividad, el estilo y la capacidad de generalizar cuando eliminas décadas de información reciente. En pruebas, el modelo histórico queda por detrás en tareas de conocimiento, como era de esperar, pero al filtrar preguntas anacrónicas el panorama se ajusta. Lo más llamativo son los retos: evitar que se cuelen datos posteriores y lidiar con el ruido del OCR, que puede degradar mucho el entrenamiento. Importa porque es una manera concreta de investigar algo que a menudo se discute en abstracto: cómo el origen de los datos moldea lo que un modelo “parece saber” y cómo se comporta.
Cambiamos de ángulo: un ensayo plantea lo que llama una paradoja social de la IA. La tesis es que estos sistemas no “piensan” tanto como amplifican patrones de razonamiento humano capturados en texto, y que si las organizaciones usan IA para recortar interacción —menos debate, menos aprendizaje en el trabajo, menos entrada de perfiles junior— podrían degradar el propio ecosistema que alimenta el progreso. Se conecta con una preocupación técnica: entrenar con demasiada salida generada por IA puede volver los modelos más planos y menos diversos, un tipo de empobrecimiento acumulativo. En términos prácticos, el mensaje es estratégico: ganar no sería automatizarlo todo, sino diseñar equipos donde la IA aumente el aprendizaje y la colaboración, no los reemplace.
Esa discusión aterriza en un tema incómodo: energía y emisiones. Un reportaje revisa permisos estatales y sugiere que proyectos de centrales de gas asociadas a un puñado de campus de data centers para IA podrían habilitar emisiones enormes, potencialmente del orden de países enteros. La clave aquí es el enfoque “detrás del medidor”: generar energía en sitio para evitar cuellos de botella de conexión a la red y acelerar despliegues. Aunque las empresas alegan que los permisos son límites máximos y no consumo real, el riesgo es claro: cargas constantes pueden mantener turbinas trabajando mucho, y la prisa puede empujar a soluciones menos eficientes. Importa porque pone en tensión la carrera por más cómputo con los compromisos climáticos, y porque estas inversiones pueden bloquear infraestructura fósil durante años.
En desarrollo web y compiladores, hay un texto que desmonta una etiqueta que se repite mucho: llamar a WebAssembly una “máquina de pila”. El argumento es simple: cuando intentas escribir o transformar instrucciones a mano, te das cuenta de que la falta de operaciones para reorganizar valores obliga a introducir variables locales, y eso se parece más a un modelo de registros que a una pila clásica. ¿Por qué interesa? Porque cómo entiendes el modelo mental de Wasm condiciona qué optimizaciones son naturales y cuáles se vuelven torpes. En el fondo, es una pieza sobre claridad conceptual: nombrar bien las cosas ayuda a diseñar mejor herramientas y expectativas.
En seguridad, vuelve a circular GTFOBins, un repositorio curado de binarios comunes en sistemas tipo Unix que, con permisos o configuraciones demasiado permisivas, pueden usarse para saltarse restricciones locales. No es un catálogo de vulnerabilidades, sino un recordatorio de que muchas “herramientas normales” incluyen funciones potentes que, en el contexto equivocado, abren puertas. Para defensores, el valor está en lo operativo: auditar qué ejecutables pueden correr con privilegios, revisar reglas de sudo y entender rutas de escape típicas antes de que alguien las aproveche.
Y cerramos mirando al cielo. La imagen astronómica del día de la NASA destaca un cometa fotografiado de madrugada, parcialmente tapado por una maraña de estelas de satélites en una exposición larga. A simple vista los satélites parecen puntos, pero en fotos de varios minutos se convierten en trazos brillantes que invaden el encuadre. Es interesante porque condensa un debate creciente: la proliferación de satélites está cambiando la práctica de la observación y la astrofotografía. Además, el cometa está ahora mismo cerca del Sol en el cielo, así que su mejor ventana de observación se desplazará al hemisferio sur en las próximas semanas.
Eso es todo por hoy. Si te quedas con una idea, que sea esta: desde la litografía EUV hasta la energía de los data centers, el “hardware” —industrial o físico— sigue mandando tanto como el software. Gracias por escuchar. Encontrarás enlaces a todas las historias en las notas del episodio.