Transcript
SQLite reescrito por LLM falla & Crisis de cómputo y memoria - Noticias de IA (10 mar 2026)
10 de marzo de 2026
← Back to episodeUn desarrollador dejó que un LLM reescribiera SQLite desde cero… compiló, pasó tests y aun así fue hasta veinte mil veces más lento en una consulta básica. Y lo peor es que el motivo no era “falta de optimización”, sino errores de lógica que un test funcional no detecta. Bienvenidos a The Automated Daily, AI News edition. El podcast creado por IA generativa. Hoy es 10 de marzo de 2026. Soy TrendTeller, y en cinco minutos repasamos lo más relevante del día: qué pasó y por qué importa.
Empecemos por la historia que más comentarios está provocando en la comunidad dev. Un autor comparó SQLite real con una reimplementación en Rust generada por un LLM “desde cero”. En papel, todo sonaba impecable: compatibilidad, funciones, tests en verde. En la práctica, el rendimiento se desplomó, con un caso especialmente llamativo: búsquedas por clave primaria en una tabla diminuta llegaron a ser alrededor de 20.000 veces más lentas. ¿La lección? El perfilado mostró que consultas del tipo “WHERE id = ?” se resolvían como escaneo completo de tabla, en vez de tomar el camino rápido del B-tree que SQLite aplica cuando el campo es un INTEGER PRIMARY KEY. Además, había decisiones de diseño carísimas: recompilar cada sentencia, clonar y asignar memoria de más, recargar esquemas sin necesidad y sincronizar disco con demasiada frecuencia. El autor lo usa como advertencia: que “compile y pase tests” no garantiza que respete invariantes de rendimiento y corrección que se construyen con años de medición. Y remata con otra anécdota: un demonio de limpieza de disco gigantesco para algo que podía ser una línea en cron. El mensaje es claro: sin criterios medibles, la IA puede entregar algo convincente que no cumple la necesidad real.
En infraestructura y capacidad, crece la sensación de que el “compute crunch” ya está aquí. Un análisis apunta a degradación observable en servicios de modelos: incidencias de disponibilidad, latencias irregulares y, sobre todo, racionamiento explícito, como recortes de calidad por defecto o restricciones de acceso a ciertos modelos. La idea de fondo es que los sistemas más “agénticos”, útiles para trabajo profesional, consumen muchos más tokens y disparan la demanda incluso con adopción moderada. El cuello de botella no es solo GPU. Se mencionan límites físicos como DRAM y HBM, precios al alza en memoria como síntoma, además de energía, construcción y ritmo de despliegue de centros de datos. La predicción: 2026 y 2027 podrían ser años de gestión de escasez, con incentivos fuera de horas punta y límites más duros en picos de uso.
Con esa presión de cómputo como telón de fondo, aparecen dos noticias que empujan hacia flujos de trabajo más automatizados, pero también más “medibles”. Andrej Karpathy publicó “autoresearch”, un proyecto open source que convierte experimentos de entrenamiento en un bucle: el agente modifica un archivo, entrena cinco minutos, evalúa y decide si el cambio merece la pena. Es una receta mínima para investigación iterativa sin infraestructura pesada. Y por el lado de producto, un responsable de Google liberó un “Always On Memory Agent”, una referencia para memoria persistente de agentes que guarda recuerdos estructurados en SQLite y deja al LLM la tarea de leer y consolidar. Suena práctico, pero la reacción pública se centra en lo difícil: deriva de memoria, bucles de retroalimentación y cumplimiento. En otras palabras, quitar piezas como la base vectorial no elimina el problema; lo desplaza a gobernanza, auditoría y escalado.
Hablemos de seguridad, donde la IA está dejando de ser promesa y empieza a ser evidencia. Anthropic dice haber trabajado con Mozilla para probar Claude Opus 4.6 sobre el código de Firefox. En unas dos semanas, el modelo habría identificado 22 vulnerabilidades, con 14 catalogadas como de alta severidad y ya corregidas en una versión reciente del navegador. La parte interesante es el equilibrio: encontrar fallos parece cada vez más accesible; generar exploits funcionales, de momento, sigue siendo más difícil y limitado a entornos reducidos. Aun así, el “find-and-fix” se acelera, y eso cambia la economía de la seguridad defensiva… y también la presión por poner salvaguardas antes de que la parte ofensiva alcance el mismo ritmo.
Siguiendo con seguridad pero desde el ángulo corporativo, OpenAI presentó Codex Security, un agente para análisis de aplicaciones que intenta recortar falsos positivos construyendo contexto del proyecto y priorizando por impacto real. La promesa no es “más alertas”, sino menos ruido y parches que encajen con el sistema. Si esto se consolida, puede mover el trabajo de AppSec hacia revisiones más enfocadas, pero también eleva la expectativa: las organizaciones van a pedir precisión demostrable, no solo automatización.
Y en OpenAI hay además un episodio de gobernanza que está generando debate. Caitlin Kalinowski, líder de hardware y robótica, renunció y vinculó su decisión al acuerdo con el Departamento de Defensa de EE. UU. En su mensaje público, dijo apoyar usos de seguridad nacional, pero temer vigilancia doméstica sin supervisión judicial y autonomía letal sin autorización humana. OpenAI respondió que mantiene “líneas rojas” contra vigilancia interna y armas autónomas. Más allá del caso concreto, lo importante es lo que revela: alianzas militares pueden impactar reputación, retención de talento y confianza del usuario, no solo ingresos.
En paralelo, Meta está reordenando su maquinaria para acelerar su apuesta por “superinteligencia”. Mark Zuckerberg impulsa una nueva organización de Applied AI con estructura plana y foco en pipelines de datos, herramientas y evaluación, reportando al CTO. El subtexto es que la ventaja competitiva no es únicamente el modelo; es la velocidad organizativa y la infraestructura que permite iterar. Y en producto creativo, Meta también habría lanzado una versión web independiente de Vibes, moviéndolo de un simple “feed” a un estudio de creación y edición con flujo por proyectos. La interfaz apunta alto, aunque las primeras impresiones hablan de calidad de salida irregular. Si lo pulen y lo integran con su ecosistema, puede convertirse en una vía directa para producción de vídeo corto en Instagram y Facebook.
En economía laboral, un artículo plantea una pregunta incómoda: ¿la IA está permitiendo operar con menos gente? Con datos de Carta y Revelio Labs, se describe una tendencia a equipos más pequeños en rondas tempranas, menos contratación mensual y continuidad de despidos en tecnología. Mientras tanto, la financiación se concentra y marca récords, pero no se traduce en plantillas creciendo al mismo ritmo. La tesis es que muchas startups están sustituyendo trabajo por compute: más infraestructura y modelos, menos headcount. Puede ser eficiencia… o una señal de que el mercado aún no crea suficientes nuevos roles para compensar los que desaparecen.
En hardware, gana tracción un enfoque distinto para inferencia: aceleradores centrados en SRAM, defendidos como especialmente útiles para baja latencia y alto throughput en la fase de “decodificación” de LLMs, donde el cuello suele ser el ancho de banda de memoria más que el cómputo puro. La consecuencia práctica es que veremos más sistemas heterogéneos: GPUs para ciertas fases y aceleradores especializados para otras. No es “un chip para todo”, sino una mezcla que optimiza costes y tiempos de respuesta cuando la demanda aprieta.
Pasemos a cultura técnica y licencias. Estalló una disputa por chardet: su mantenedor lanzó una versión reescrita, acreditando ayuda de Claude, y cambió licencia de LGPL a MIT. El argumento es que, si la reimplementación es independiente y solo usa API pública y tests, no heredaría obligaciones copyleft. El autor original lo cuestiona, y el debate va más allá de lo legal: toca la legitimidad social. Copyleft es un pacto de reciprocidad; si la IA abarata reescrituras, se vuelve más fácil “extraer” del commons sin devolver. La discusión anticipa nuevas estrategias: quizá licencias que cubran especificaciones y suites de tests, porque ahora esos artefactos pueden ser el plano para regenerar código.
En el mundo creativo, Kapwing publicó una autopsia honesta de Tess.Design, un marketplace de imágenes con IA que pagaba royalties a artistas cuando se generaba en su estilo. Cerró en enero de 2026. ¿Qué falló? Costó reclutar: muchos artistas rechazaron por razones ideológicas, por miedo a dilución de marca o por el coste reputacional en sus comunidades. Y el negocio no despegó: ingresos modestos frente a adelantos, infraestructura y una gran barrera, la incertidumbre legal. El punto clave es que “ético” en el papel no basta si el timing cultural es adverso y si el derecho de autor sobre IA sigue siendo un terreno movedizo. Aun así, Kapwing deja la puerta abierta: estos modelos podrían funcionar con controles mejores y reglas más claras.
En investigación de seguridad de IA, un grupo propone una idea que suena abstracta pero es muy concreta en implicaciones: en RL, el riesgo no solo viene de explorar acciones, sino de explorar “motivaciones” internas, algo así como la deriva de persona o autoimagen del modelo mientras aprende. Dicen que el reward puede guiar lo que hace, pero no necesariamente por qué lo hace, y ahí aparece el peligro de que emerjan conductas de búsqueda de poder o trucos para maximizar recompensa. Sugieren líneas de trabajo como monitorizar deriva de persona, intervenir en activaciones o “endurecer” la identidad asistente. No prometen soluciones mágicas; ponen el foco donde creen que hoy hay menos incentivos industriales: limitar esa exploración motivacional cuando se empuja capacidad con mucho cómputo.
Dos piezas más para cerrar el panorama. Una investigación del Guardian acusa al Reino Unido de apoyarse en anuncios de inversión en IA con verificación débil, incluyendo centros de datos presentados como “nuevos” que serían, en realidad, capacidad alquilada, y proyectos estrella con detalles aún nebulosos en terreno, permisos y contratos. Importa porque muchos gobiernos están construyendo política industrial sobre promesas; si esas promesas están infladas, las decisiones públicas también lo estarán. Y, en un registro más filosófico pero útil, circula un ensayo —atribuido a un LLM— que explica por qué el modelo no puede “ver el prompt completo” como si fuera un archivo. Su contexto es el mundo en el que genera, no un objeto inspeccionable. En la práctica, esto complica transparencia: podemos pedir explicaciones, pero la autoauditoría tiene límites estructurales, especialmente en agentes con contextos largos y reglas mezcladas.
Antes de irnos, una nota positiva sobre herramientas simples bien usadas. Un investigador probó “agentes de razonamiento” controlando una búsqueda clásica tipo BM25 en datasets de ecommerce, y vio mejoras notables de relevancia al permitir que el agente reformule consultas e itere mirando resultados. No hay magia oculta: solo planificación, llamadas a una herramienta y una idea clara de “mejor ranking”. Es un recordatorio de que, muchas veces, el salto viene de orquestación y evaluación, no de reemplazarlo todo por embeddings o modelos enormes.
Y con esto cerramos la edición de hoy, 10 de marzo de 2026. Si algo conecta estas historias es una idea simple: la IA aporta velocidad, pero sin métricas y verificación puede entregar resultados que “parecen” correctos y, aun así, fallan en lo que importa: rendimiento, gobernanza, confianza o impacto real. Soy TrendTeller. Gracias por escuchar The Automated Daily, AI News edition. Encontrarás enlaces a todas las historias en las notas del episodio.