Transcript

VeraCrypt se queda sin firmar & IA para cazar vulnerabilidades críticas - Noticias de Hacker News (8 abr 2026)

8 de abril de 2026

Back to episode

¿Cómo puede un proyecto de cifrado tan usado quedarse, de la noche a la mañana, sin poder publicar actualizaciones para Windows… porque alguien le quitó el permiso de “firmar” su software? Bienvenidos a The Automated Daily, edición Hacker News. El podcast creado por IA generativa. Hoy es 8 de abril de 2026. En el episodio de hoy: un bloqueo inesperado que golpea a VeraCrypt, una iniciativa que usa AI para endurecer software crítico frente a ataques, y varias historias que van desde cómo “leer” un repositorio sin abrir archivos, hasta nuevas imágenes espectaculares de Artemis II.

Empezamos con VeraCrypt, porque aquí lo importante no es solo el drama: es el impacto práctico. Su desarrollador, Mounir Idrassi, cuenta que ha estado ausente y que el mayor problema es que Microsoft terminó la cuenta que utilizaba desde hace años para firmar drivers de Windows y el bootloader. Según él, no hubo aviso, no hubo explicación y —peor todavía— le dijeron que no hay apelación, mientras el soporte solo le responde con automatismos. ¿Por qué importa? Porque, sin firma, distribuir builds de Windows se vuelve un muro: muchos usuarios no instalarán binarios no firmados, y además entran en juego restricciones modernas como Secure Boot. Aunque Linux y macOS puedan seguir, Windows es el grueso de la base de usuarios, así que el proyecto queda en una especie de pausa forzada hasta que se resuelva el acceso o aparezca una alternativa creíble.

En seguridad, otra pieza que está levantando cejas: Anthropic anunció Project Glasswing, una colaboración con organizaciones de tecnología, seguridad e infraestructura para “endurecer” software crítico frente a ataques potenciados por AI. Lo llamativo es la afirmación central: están probando un modelo aún no liberado, Claude Mythos 2 Preview, y dicen que en tareas de encontrar y explotar vulnerabilidades puede superar a casi todos los humanos salvo a la élite. También aseguran que ya detectó miles de fallos de alta severidad en sistemas operativos, navegadores y componentes muy usados, y que se han ido divulgando y parcheando con tiempos de espera para no facilitar explotación inmediata. La lectura de fondo es clara: si la AI reduce el tiempo y la pericia necesarios para descubrir bugs graves, la ventana entre “existe el fallo” y “alguien lo arma como ataque” puede encogerse drásticamente. Eso obliga a acelerar defensas, parches y prácticas de “secure-by-design” en toda la cadena.

Y si aterrizamos esa idea de “ver dónde duele” en el día a día del desarrollo, me gustó un consejo muy concreto: la forma más rápida de entender un código base nuevo puede ser mirar su historial de Git antes de abrir un solo archivo. La propuesta no es obsesionarse con métricas; es usar el historial como un mapa de riesgo. Archivos que cambian todo el tiempo suelen ser frágiles o incompletos; zonas donde “solo una persona tocaba todo” indican dependencia y posible deuda si esa persona ya no participa; y commits que mencionan arreglos de bugs señalan puntos calientes donde es probable que haya regresiones. Incluso mirar la cadencia por meses puede revelar cambios de equipo, pérdida de impulso o ciclos de entrega por tandas. En pocas palabras: el historial no te dice “qué hace” el sistema, pero sí dónde es más probable que se rompa y dónde conviene empezar a investigar.

En productividad y trabajo con AI, apareció un enfoque interesante: tratar tu base personal de notas en Markdown, con enlaces tipo wiki, como si fuera una base de datos en grafo. Los archivos serían nodos, los enlaces serían relaciones, y las carpetas te darían una estructura mínima. Lo valioso no es presumir de wiki, sino acumular contexto reutilizable: decisiones, reuniones, personas, proyectos, todo conectado. Con eso, un agente puede “recorrer” tu historial real para ayudarte a redactar un handoff, un diseño o un resumen sin depender de tu memoria —ni de prompts genéricos— porque el material ya está curado y enlazado. El reto que se reconoce es el de siempre: cómo automatizar la entrada de información sin terminar con un caos… o con un sistema tan rígido que nadie lo usa. Pero como idea de “ingeniería de contexto”, encaja muy bien con el momento actual de LLMs: gana quien alimenta mejor el contexto, no quien escribe el prompt más ingenioso.

Cambiamos al espacio: NASA publicó las primeras imágenes del sobrevuelo lunar tripulado de Artemis II, tomadas el 6 de abril y compartidas el 7. Son fotos desde la nave Orión durante un paso de varias horas por la cara oculta de la Luna, con perspectivas que no se ven en una misión cualquiera. La imagen que se está robando la conversación es un eclipse solar visto desde el espacio: la Luna oscureciendo el Sol, con detalles apenas iluminados por la luz reflejada desde la Tierra. También hay Earthrise y “Earthset” sobre el borde lunar. Más allá de lo fotogénico, esto subraya que Artemis II es un ensayo grande y serio de operaciones tripuladas en espacio profundo. Cada imagen es, también, una señal de que el hardware, los procedimientos y el equipo humano están funcionando donde no hay margen para improvisar.

Ahora una historia muy de hackers: dos compañeros de piso decidieron construir su propio robot aspirador de bajo coste en lugar de comprar uno. Entrenaron un modelo sencillo con behavior cloning: teleoperaban el robot, grababan lo que veía la cámara y qué acción tomaban, y luego el sistema intentaba imitar esas decisiones. La sorpresa no fue que “la AI falló”, sino por qué falló: comportamientos inconsistentes, oscilaciones, frenadas sin motivo y, a veces, avanzar hacia obstáculos. Al analizarlo, no parecía el típico problema de “falta regularización”; más bien faltaban señales claras en los datos y consistencia en las demostraciones humanas. Es un recordatorio útil para cualquiera haciendo ML aplicado: puedes tener un modelo decente y aún así quedarte sin autonomía si el dataset no representa bien el mundo real… y si tu hardware introduce sus propios límites, como energía, tracción o succión.

Y cerramos con creatividad técnica: un desarrollador contó su viaje de una década construyendo una tira de LEDs que reacciona a música en tiempo real. El punto interesante aquí es perceptual: no basta con “mostrar el espectro” y ya. Como una tira tiene pocos píxeles, hay una especie de pobreza de resolución: tienes que elegir qué representar para que el resultado se sienta musical, no solo técnico. Su gran mejora fue mapear frecuencias con la escala mel —más cercana a cómo percibimos el sonido— y luego suavizar y mezclar para evitar parpadeos y cortes bruscos. El resultado: visualizaciones que “tienen sentido” incluso cuando la señal es compleja. Aun así, reconoce el gran reto pendiente: entender el pulso y el “feel” en tiempo real de forma robusta, algo que probablemente no se resuelva igual para todos los géneros.

Y hasta aquí el episodio de hoy. Si hay un hilo conductor, es que la ingeniería moderna se está moviendo en dos direcciones a la vez: más dependencia de plataformas y procesos —como la firma de software— y más capacidad para encontrar fallos, ya sea con buenas heurísticas como leer el Git… o con AI buscando vulnerabilidades a escala. Como siempre, los enlaces a todas las historias están en las notas del episodio. Soy TrendTeller, y esto fue The Automated Daily, edición Hacker News. Nos escuchamos mañana.