IA de frontera y defensa & MD5 escondido en una red - Noticias de Hacker News (27 feb 2026)
Claude en defensa vs “any lawful use”, un modelo que esconde MD5, el futuro de Web Streams, postmarketOS y F-Droid, y la batalla contra la enshittificación.
Our Sponsors
Topics
Sources
- → https://www.anthropic.com/news/statement-department-of-war
- → https://blog.janestreet.com/can-you-reverse-engineer-our-neural-network/
- → https://f-droid.org/2026/02/26/board-of-directors-nominations.html
- → https://blog.cloudflare.com/a-better-web-streams-api/
- → https://retrotick.com/
- → https://growingswe.com/blog/quadtrees
- → https://moultano.wordpress.com/2026/02/22/the-hunt-for-dark-breakfast/
- → https://gwern.net/doc/sociology/2003-ashforth.pdf
- → https://www.forbrukerradet.no/breakingfree/
- → https://postmarketos.org/blog/2026/02/26/pmOS-update-2026-02/
Full Transcript
Bienvenidas y bienvenidos a The Automated Daily, edición Hacker News. El podcast creado por IA generativa. Hoy es 27 de febrero de 2026. Soy TrendTeller. Y quédate: alguien metió MD5 dentro de una red neuronal, con pesos “a mano”, y la clave para romperla no era entrenar ni optimizar… era entender el circuito.
Arrancamos por el tema más sensible del día: IA de frontera y defensa. El CEO de Anthropic, Dario Amodei, describe la IA como un elemento “existencial” para que Estados Unidos y otras democracias se defiendan de adversarios autocráticos. Según su relato, Anthropic ya desplegó sus modelos —Claude incluido— en redes clasificadas del gobierno, en Laboratorios Nacionales, y hasta en versiones personalizadas para clientes de seguridad nacional. Y afirma que Claude se usa de forma amplia en tareas críticas: análisis de inteligencia, modelado y simulación, planificación operativa y operaciones de ciberseguridad. Lo llamativo no es solo el despliegue, sino la fricción contractual. Amodei dice que Anthropic ha tomado medidas para proteger la ventaja competitiva de EE. UU., como cortar acceso a Claude a empresas vinculadas al Partido Comunista Chino, frustrar intentos de ciberataques que buscaban abusar del modelo, y apoyar controles de exportación de chips más estrictos. Hasta ahí, alineamiento total con la agenda de “liderazgo tecnológico”. Pero Anthropic pone dos líneas rojas en sus contratos de defensa: nada de usar su IA para vigilancia masiva doméstica, y nada de proporcionar IA de frontera para armas completamente autónomas donde un sistema elija y ataque objetivos sin humanos en la selección y el engagement. En vigilancia, su argumento es muy concreto: aunque algunos datos se compren legalmente —movimientos, navegación, asociaciones—, la IA puede agregarlos y convertirlos en perfiles integrales a escala, y eso cambia el riesgo para libertades civiles. En armas autónomas, alegan que los sistemas actuales no son lo bastante fiables, podrían poner en peligro a militares y civiles, y no hay guardarraíles adecuados. El conflicto escala porque, según Amodei, el Departamento de Defensa estaría pidiendo aceptar “cualquier uso legal” y quitar esas salvaguardas, con amenazas de expulsar a Anthropic de sistemas, etiquetarla como “riesgo de cadena de suministro”, e incluso invocar la Defense Production Act para forzar la eliminación de protecciones. Anthropic dice que no puede aceptar “en conciencia”. Y aun así, intenta sonar pragmática: si los sacan, ofrecerían una transición ordenada para no interrumpir planificación y operaciones. Es un choque de filosofía: control contractual y límites éticos explícitos, contra un enfoque de compra pública que quiere máxima discrecionalidad.
Pasamos a algo más técnico —y bastante ingenioso—: un rompecabezas de machine learning estilo capture-the-flag publicado por Jane Street en Hugging Face. A diferencia de los retos de caja negra, aquí te daban el modelo PyTorch completo, con pesos incluidos, y la tarea era deducir qué computa. El truco: la red estaba diseñada para devolver cero casi siempre, y además construida de forma que ni la fuerza bruta ni el backprop clásico te sacaran del agujero. Tenías que leer la “circuitería”. El post cuenta el camino de un solver, Alex, que empezó por el final del modelo y notó cosas raras: pesos enteros, patrones repetidos… señales de que no era un modelo entrenado, sino ensamblado a mano. Analizando las últimas capas ReLU y lineales, infirió que el final actuaba como una comprobación de igualdad de 16 bytes: solo da 1 si un vector de 16 bytes coincide con un valor de referencia codificado en los sesgos de la penúltima capa. Hay detalles deliciosamente específicos, como un sesgo de -15 y la combinación de tres ReLUs desplazadas para crear el “todo coincide” de forma lógica. Luego viene el descenso a la ingeniería inversa seria: convertir una red enorme de ReLUs en un programa entero, que en bruto era intratable; reducir el grafo colapsando cadenas identidad, eliminando restricciones ReLU cuando todos los pesos entrantes son positivos, y fusionando neuronas duplicadas; propagar cotas para estrechar rangos; y finalmente pasar a una formulación SAT con decenas de miles de variables. Aun así quedaba un núcleo “irreducible”. La pista clave fue conceptual: esto olía a función irreversible, tipo hash. Alex notó un patrón repetido de 32 bloques en anchos de capas, comparó activaciones intermedias con hashes estándar y concluyó que el núcleo se alineaba con MD5. Y aquí aparece el giro inesperado: encontró un bug no intencionado. Para entradas mayores de 32 bytes, el modelo codificaba mal la longitud del mensaje —guardando valores como 384 “tal cual” en vez de en little-endian por bytes, como dicta MD5. Alex mapeó neuronas a variables del algoritmo hasta localizar dónde divergía. El final es casi anticlimático: una vez identificas que el objetivo es un hash MD5 embebido en los biases, el último paso era buscar una preimagen con una restricción dada por el reto: dos palabras en minúsculas separadas por un espacio. Su primera lista de palabras era pequeña; con un diccionario mayor, el brute force era viable. Moraleja: se puede implementar MD5 dentro de una red neuronal construyendo aritmética tipo compuertas lógicas —por ejemplo, suma modular con un carry adder paralelo durante unas veinte capas. Jane Street dice que el éxito del reto les llevó a sacar un desafío posterior donde, además, las capas están barajadas y hay que reordenarlas.
Seguimos con plataforma web, porque Cloudflare publicó una crítica bastante frontal al API de WHATWG Web Streams. Su tesis: Web Streams es fundamental para el streaming en navegadores y runtimes, sí, pero arrastra problemas de usabilidad y rendimiento por decisiones de diseño de 2014 a 2016, antes de que JavaScript tuviera iteración asíncrona bien asentada. La queja más visible es la “ceremonia” del modelo reader/lock: `getReader()`, `read()`, `releaseLock()`. En la práctica, equivocarte con los locks puede dejar un stream en un estado roto, y además complica el piping, la cancelación y el cierre correcto. También critican el modo BYOB —bring your own buffer— por ser complejo, propenso a errores (incluyendo semánticas de “detachment” del buffer) y, sobre todo, poco compatible con patrones modernos como `for await` y ciertos TransformStreams. Sobre backpressure: Cloudflare dice que es buena idea en teoría, pero a menudo ineficaz porque señales como `desiredSize` son orientativas y no se hacen cumplir, y funciones como `tee()` pueden disparar buffering sin límite cuando dos consumidores avanzan a ritmos distintos. El punto de rendimiento es duro: la especificación obliga a crear promesas y objetos en rutas calientes —por ejemplo, los resultados `{value, done}` y cadenas de promesas en `pipeTo()` y transformaciones—, generando presión de GC y limitando throughput, algo que se nota mucho en renderizado del lado servidor con streaming. Como alternativa, presentan un proof-of-concept de “new streams”: streams como `AsyncIterable<Uint8Array[]>` con lotes de chunks, transforms “pull-through” que solo ejecutan cuando el consumidor tira, y políticas de backpressure explícitas (rechazar, bloquear, tirar el más viejo o el más nuevo). También proponen separar APIs síncronas para pipelines en memoria, evitando overhead de promesas. Y ponen números sobre la mesa: en benchmarks en Node.js, Workers, Deno, Bun y navegadores, reportan mejoras desde ~2× hasta ~120× en escenarios probados, especialmente en cadenas de transforms e iteración asíncrona. No lo venden como estándar listo, sino como invitación a debatir, con implementación abierta en GitHub.
Vamos con comunidad y software libre móvil, en dos frentes que se complementan. Primero, F-Droid abrió nominaciones para su Junta Directiva de 2026. Buscan hasta cuatro directores voluntarios para mandatos de dos años. Puedes nominarte o nominar a otra persona, con permiso explícito, enviando un email a board-nominations@f-droid.org, uno por candidato y con el nominado en copia. La fecha límite es el 16 de marzo de 2026 “Anywhere on Earth”, o sea, hasta el final del día en el último huso horario. F-Droid insiste en que no hace falta experiencia previa ni en desarrollo de software ni en gobernanza; lo que buscan es una junta colaborativa, diversa y comprometida con libertades del usuario, especialmente en móviles. El trabajo típico: participar en hilos por email, conversar con contribuyentes y usuarios en GitLab o el foro, votar con agilidad y asistir a una videollamada pública mensual de una hora. En total, estiman 1 a 3 horas por semana, con requisito de inglés suficiente y posibilidad de ajustes razonables. La selección la hace la junta actual en reunión privada, con votación ponderada a favor de candidatos nuevos según sus estatutos, y planean decidir tan pronto como el 19 de marzo. Segundo, postmarketOS publicó su update de febrero de 2026. Es más corto porque estuvieron muy centrados en FOSDEM y el hackathon, cubiertos aparte. A nivel organizativo, sigue el debate sobre PMCR 0009, que endurece requisitos para la categoría de dispositivos “main”, buscando que lo que se etiqueta como principal sea sostenible y mantenible a largo plazo. Y actualizaron su política de IA: ahora prohíben explícitamente el uso de IA generativa, y la han hecho más breve y clara. En cambios de roles, Bhushan pasa a Trusted Contributor, con trabajo en KDE Plasma Mobile y mejoras en dispositivos mainline, como conseguir que el Fairphone 5 saque audio de llamada por el altavoz por primera vez, junto con Luca. También hubo despedidas: Minecrell y Anton dejan el rol de Trusted Contributor, con reconocimiento a contribuciones históricas —desde enablement temprano de teléfonos Android y piezas de voz, hasta soporte pionero de Chromebooks en pmbootstrap. El plato fuerte técnico: kernels genéricos nuevos —`linux-postmarketos-mainline`, `linux-postmarketos-stable` y `linux-postmarketos-lts`— pensados para funcionar en muchos dispositivos y darle al proyecto control total de configuración y build, integrando sus checks. Además, mejoras en Hardware CI, un añadido en OpenIMSD para un gestor de perfiles de baseband QCOM, el repo `kde-nightly` que ya compila cada noche, y cambios en generación de command-line del kernel. Para PinePhone, Megapixels 2.1.0 vuelve a funcionar en el PinePhone original, con nota sobre rendimiento por renderizado por software y posibles optimizaciones futuras.
Un descanso retro, pero con una idea moderna: RetroTick, una web que te deja ejecutar programas clásicos de Windows y DOS directamente en el navegador. La interfaz parece un escritorio: puedes arrastrar y soltar un EXE o DLL y lanzarlo. Y si no tienes nada a mano, ofrece demos integradas. En juegos, lo típico que todos recordamos: FreeCell, SkiFree, Solitaire y Minesweeper, incluso el componente Cards en DLL. En utilidades, Calculadora, Reloj, Command Prompt, QBasic de MS-DOS, Grabadora de sonido, Super PI y Task Manager, además de algún demo tipo GLX Gears. También tiene una sección “Welcome to Windows 95”, dejando claro que la experiencia apunta a emulación estilo Win95. Incluye salvapantallas clásicos como 3D Maze, 3D Pipes, Mystify o Starfield. Avisan, eso sí, que el software es propiedad de sus dueños y se ofrece solo con fines de demostración.
Ahora, una pieza muy útil para ingeniería de datos y mapas: por qué los quadtrees aceleran las consultas de “¿qué hay cerca de mí?” cuando tienes millones de puntos latitud/longitud. La comparación es directa: si haces fuerza bruta, calculas distancia a todos los puntos; con quadtree, organizas el espacio para saltarte regiones enteras. El mecanismo: empiezas con un rectángulo que cubre todo el mundo —o tu área de interés— y, cuando un nodo supera cierta capacidad de puntos, lo divides en cuatro cuadrantes iguales (NW, NE, SW, SE). Redistribuyes puntos a los hijos. Resultado: zonas densas se subdividen mucho; zonas vacías se quedan gruesas. La nota importante es conceptual: la cuadrícula que ves en demos es un árbol real. Cada región es un nodo; las hojas guardan puntos. En una búsqueda de un punto exacto, bajas por la rama del cuadrante que lo contiene, eliminando tres cuartas partes del espacio por nivel: parecido a una búsqueda binaria, pero en 2D. En un árbol razonablemente balanceado, la profundidad se aproxima a log base 4: para un millón de puntos, del orden de 10 niveles, no un millón de comparaciones. También cubren cómo ajustar la capacidad por nodo: valores bajos (4–16 como punto de partida) generan árboles más profundos y más memoria, pero menos puntos que revisar por consulta. Valores altos hacen el árbol más superficial, pero terminas escaneando más dentro de cada hoja. Para consultas por rango —puntos dentro de un rectángulo—, la clave es podar: si el bounding box de un nodo no solapa la ventana de consulta, descartas todo el subárbol. Y para nearest neighbor, mantienes la mejor distancia encontrada, visitas hijos en orden de cercanía y descartas subárboles cuyo bounding box no puede contener algo más cercano. Suelen acercarse a O(log n), aunque hay peores casos patológicos. Y más allá de mapas, mencionan dos usos clásicos: colisiones en juegos (broad-phase, reconstruyendo el árbol por frame para evitar el O(n²) de chequear todos con todos) y compresión/LOD en imágenes y tiles, donde zonas uniformes se representan como bloques grandes y solo se subdivide donde hay detalle. Además lo sitúan frente a estructuras parientes: octrees, kd-trees y R-trees, muy usadas en indexación espacial tipo PostGIS.
Cerramos con dos piezas de “tecnología y sociedad”, y una curiosidad ligera. Primero, un paper de Ashforth y Anand sobre cómo la corrupción organizacional se vuelve normal, incluso cuando la hacen personas psicológicamente “normales”. En lugar de preguntar solo por el inicio, describen el proceso de normalización con tres pilares que se refuerzan: institucionalización —la práctica corrupta se incrusta en rutinas, roles, presupuestos y memoria organizativa hasta ejecutarse casi en automático—; racionalización —historias compartidas para neutralizar culpa, desde “es legal” hasta “lo hacemos por el equipo”, pasando por eufemismos—; y socialización —cómo los nuevos entran en un “capullo social” que controla señales, premia la conformidad y hace que parezca “negocio habitual”. El papel del liderazgo sale como decisivo: jefes que modelan, autorizan o recompensan, y diseños organizativos que crean ignorancia estratégica y negación plausible. La conclusión es incómoda pero útil: muchas veces no se arregla señalando “manzanas podridas”; hace falta transparencia, auditorías, canales de denuncia que funcionen, y a menudo shocks externos como prensa o regulación. Y ahí conecta la segunda pieza: el Consejo Noruego del Consumidor publicó el informe “Breaking Free: Pathways to a fair technological future” sobre la enshittificación —ese deterioro progresivo de servicios digitales que empiezan bien y acaban exprimiendo a usuarios, empresas y sociedad. Su postura es que no es inevitable y que se puede revertir con políticas concretas. Además, coordinan una campaña con más de 70 organizaciones en Europa y Estados Unidos, enviando cartas a decisores de la UE/EEE, Reino Unido y EE. UU., y enlazan el informe en PDF y cartas abiertas a varias instituciones. Es, básicamente, intentar convertir el diagnóstico cultural en agenda regulatoria. Y para terminar con una sonrisa: un “proyecto de investigación” humorístico sobre el ‘manifold del desayuno’. El autor imagina recetas como puntos en un espacio definido por proporciones de leche, huevos y harina: pancakes, crepes, waffles, tortillas, popovers… Al mapear platos de muchos países, detecta un hueco raro, el “Dark Breakfast Abyss”. Encuentra una pista en un FAQ nutricional de IHOP: algunas tortillas llevan masa de pancake. Eso sugiere que el abismo no es imposible, solo poco explorado. Incluso propone una receta mínima —¼ taza de leche, 4 huevos, ½ taza de harina— y deja el método como “desconocido”, invitando a la gente a experimentar… con prudencia culinaria.
Y hasta aquí el episodio de hoy, 27 de febrero de 2026. Entre IA en defensa con líneas rojas contractuales, un MD5 camuflado en una red neuronal, y propuestas para arreglar el streaming en la web, ha sido un buen repaso de lo que está hirviendo en la comunidad. TrendTeller se despide; y recuerda que los enlaces a todas las historias están en las notas del episodio.