Transcript

Fallo crítico en pruebas zk & Privacidad: DO_NOT_TRACK universal - Noticias de Hacker News (3 may 2026)

3 de mayo de 2026

Back to episode

Un sistema criptográfico pensado para garantizar que nadie “se invente” dinero… aceptaba pruebas falsas, y el resultado era exactamente ese: monedas de la nada. Bienvenidos a The Automated Daily, hacker news edition. El podcast creado por IA generativa. Hoy es 3 de mayo de 2026. Soy TrendTeller y, en unos minutos, repasamos lo más interesante de Hacker News: seguridad que se rompe de formas sorprendentes, privacidad con un estándar sencillo, y varias historias sobre cómo construir software que aguante la vida real.

Empezamos con seguridad en criptografía, porque aquí sí que hay consecuencias tangibles. Investigadores publicaron un fallo crítico en el verificador dusk-plonk, una pieza clave para validar transacciones blindadas en Dusk Network. El problema: el verificador aceptaba ciertos valores “aportados” por quien genera la prueba sin comprobar que estuvieran realmente ligados a los compromisos criptográficos esperados. Traducido a lenguaje llano: un atacante podía fabricar una prueba que parecía válida, saltarse todas las reglas del circuito de golpe, y convencer a la red de algo falso. Para que no suene abstracto, demostraron un caso extremo en un testnet local: crearon 2.000 DUSK desde cero y enviaron parte a una cartera honesta, y el nodo lo aceptó. Dusk ya lo parcheó añadiendo la verificación que faltaba, pero la lección es incómoda: en estos sistemas, un detalle “pequeño” en verificación puede convertirse en una impresora de dinero. También apuntan que no es un caso aislado: la misma clase de bug apareció en otra implementación del ecosistema, lo que refuerza la necesidad de controles más mecánicos y estandarizados.

Siguiendo con confianza —pero esta vez en herramientas de desarrollo— aparece una propuesta llamada DO_NOT_TRACK. La idea es tan simple que sorprende que no exista ya: una variable de entorno única, DO_NOT_TRACK=1, que sirva para decirle a CLIs, SDKs y frameworks que no hagan telemetría ni llamadas no esenciales. Hoy cada herramienta tiene su propio interruptor, su propia ruta de configuración, su propia excepción. Y eso hace que la privacidad dependa de conocer el truco específico de cada proyecto. Un estándar así no elimina el debate sobre telemetría, pero sí reduce fricción: una preferencia clara, portable y fácil de automatizar en entornos corporativos, CI o máquinas personales. El texto además empuja una idea más ambiciosa: que lo “extra” sea opt-in, no opt-out. Veremos si la industria lo adopta, pero como mínimo pone nombre a un dolor bastante común.

Ahora, plataforma y sistema operativo. Microsoft dice que está ajustando el rumbo de Windows 11 para los Insiders, sobre todo en respuesta a una queja recurrente: “decidnos qué está pasando y cuándo llega de verdad”. El cambio más visible es simplificar el programa a dos canales: Experimental y Beta. En Beta, prometen menos experimentos con despliegues controlados, y más coherencia: si una función se anuncia para ese canal, debería aparecer para quien actualice. En Experimental, además de más libertad para probar cosas, intentan reducir la molestia cotidiana de las actualizaciones: concentrar reinicios, dar más control de pausa y mantener opciones claras de reinicio y apagado. También hay un giro interesante en el discurso de AI: hablan de “ajustar” la integración, quitando accesos directos como “Ask Copilot” en algunas apps y renombrando entradas para que la presencia de AI sea más intencional. Y por el lado práctico, prometen mejoras de rendimiento en File Explorer, Widgets y el shell, con menos cuelgues y menos ruido por defecto.

Cambiamos a ingeniería de fiabilidad con una historia que vale por lo rara que es: una fintech, Mercury, operando en producción un código Haskell de alrededor de dos millones de líneas, moviendo dinero real, con parte del equipo aprendiendo el lenguaje sobre la marcha. El autor, un stability engineer, defiende que la fiabilidad no se consigue intentando impedir cada fallo, sino construyendo “capacidad adaptativa”: que el sistema degrade con elegancia, que sea legible bajo presión y que el camino seguro sea el predeterminado. Lo interesante es cómo aterriza eso en prácticas concretas sin convertirlo en religión del lenguaje. Usan el sistema de tipos como herramienta operativa para “encapsular conocimiento institucional” en APIs: diseñar interfaces para que pasos críticos —por ejemplo, emitir eventos transaccionales— no se puedan saltar por accidente. Pero también advierte del riesgo opuesto: si codificas demasiadas invariantes, el sistema se vuelve rígido y el equipo pierde velocidad para evolucionarlo. Y un detalle clave: cuentan que adoptar Temporal para workflows durables les mejoró la consistencia ante reintentos, timeouts y recuperaciones tras caídas, encajando con el enfoque de “núcleo puro y periferia impura”. El mensaje de fondo no es ‘usa Haskell’, sino ‘diseña límites claros, interfaces fuertes y operabilidad real’—incluida la parte menos glamorosa: observabilidad e instrumentación pensadas desde el principio.

Hablando de software que se está construyendo a fuego lento, Ladybird —el navegador independiente— publicó su resumen de abril de 2026: muchísima actividad de comunidad, nuevos contribuidores y apoyo económico, incluido un grant grande de la Human Rights Foundation. En funciones visibles, destaca un visor PDF integrado basado en pdf.js, que además les empujó a perfilar y acelerar el manejo de PDFs pesados. También mejoraron el autocompletado de la barra de direcciones con historial “rico” y un almacenamiento del historial con SQLite, incluyendo controles para borrar datos. En lo técnico, la historia es rendimiento y capacidad de respuesta: parsing HTML más incremental para empezar a trabajar antes, compilación de JavaScript fuera del hilo principal, rasterizado por iframe en hilos separados, DNS no bloqueante y mejoras de pintura con GPU en Linux para evitar copias costosas. Esto importa porque Ladybird está intentando lo difícil: no sólo “renderizar páginas”, sino hacerlo con un camino claro hacia estabilidad, velocidad y compatibilidad, y se nota que miden progreso con pruebas de plataforma y con optimizaciones sostenidas, no con promesas vagas.

Pasamos a AI en el navegador, pero con una demostración bastante tangible. Un proyecto open source llamado ml-sharp-web monta un playground en el que subes una imagen y obtienes un resultado en 3D en forma de “Gaussian splats”, todo ejecutándose localmente en el browser. La gracia no es sólo el efecto visual, sino el recorrido completo: inferencia con ONNX Runtime Web en un worker, conversión a datos para el visor, previsualización y exportación. La parte útil para desarrolladores es que también documenta los límites reales: modelos grandes que no encajan bien en despliegues web típicos, requisitos de aislamiento entre orígenes para habilitar ciertas capacidades de rendimiento en WASM, y un recordatorio importante sobre licencias: el código puede ser libre, pero los pesos del modelo pueden tener restricciones separadas, incluso de uso sólo para investigación. Es una buena postal del momento actual: el navegador puede hacer cosas pesadas, sí, pero aún hay fricción técnica y legal que conviene tener muy presente.

Ahora, ciencia con implicaciones para salud mental. Un estudio de Stanford Medicine sugiere que promediar datos cerebrales entre miles de personas puede ocultar —e incluso invertir— relaciones entre actividad cerebral y comportamiento que sí se ven dentro de cada individuo. Usaron fMRI en más de 4.000 niños durante una tarea de control inhibitorio, y compararon el análisis clásico “por grupo” con una mirada más dinámica, ensayo por ensayo, dentro de cada niño. Encontraron algo contraintuitivo: asociaciones que aparecen a nivel de grupo no necesariamente existen dentro de una persona; a veces, ocurre lo contrario. Además, al mirar con más granularidad emergen subgrupos con patrones distintos de control cognitivo y monitoreo del rendimiento que quedan “lavados” por el promedio. Por qué importa: condiciones como ADHD podrían no ser una sola ruta neuronal “defectuosa”, sino varias, y eso empuja hacia intervenciones más personalizadas y menos conclusiones de talla única.

Cerramos con arqueología, porque también hay tecnología —solo que de hace 125.000 años. Un trabajo en Science Advances describe que neandertales en el sitio Neumark-Nord 2, en Alemania, no sólo rompían huesos para extraer médula: trituraban huesos en fragmentos masivos para hervirlos y extraer grasa ósea, un recurso energético crucial. Los investigadores hablan de una especie de “fábrica” prehistórica: un área junto a un lago, usada repetidamente, con evidencias de procesamiento coordinado de restos de al menos 172 animales. Eso implica planificación, transporte y trabajo sostenido, algo que durante mucho tiempo se atribuía sobre todo a humanos modernos más tardíos. La relevancia es doble: amplía lo que creemos que podían organizar los neandertales, y sugiere impactos a escala de paisaje —desde el uso del fuego hasta estrategias de subsistencia— mucho más complejos de lo que la caricatura tradicional permite.

Y hasta aquí el episodio de hoy. Si algo conecta todas estas historias es que, ya sea en verificación criptográfica, en telemetría, en sistemas operativos o en lenguajes “de nicho”, los detalles de diseño acaban definiendo la confianza: qué se puede romper, quién lo controla y qué tan rápido se puede entender cuando hay presión. Soy TrendTeller, y esto fue The Automated Daily - Hacker News edition. Como siempre, los enlaces a todas las historias están en las notas del episodio.