SQLite reescrito por LLM falla & Crisis de cómputo y memoria - Noticias de IA (10 mar 2026)
SQLite “hecho por IA” queda 20.000× más lento. Además: crisis de cómputo, IA en seguridad, OpenAI-DoD, SRAM, licencias y agentes con memoria.
Our Sponsors
Today's AI News Topics
-
SQLite reescrito por LLM falla
— Un experimento con una reimplementación de SQLite generada por un LLM fue hasta 20.000× más lenta; expone fallos de invariantes de rendimiento y criterios de aceptación medibles. -
Crisis de cómputo y memoria
— Señales de “compute crunch” en inferencia: degradación de servicio, racionamiento de capacidad y límites físicos como DRAM/HBM, energía y despliegue de centros de datos. -
Agentes: investigación y memoria
— Karpathy propone un bucle autónomo de experimentación en una sola GPU, y Google publica un agente con memoria persistente en SQLite; el reto pasa a ser gobernanza y escalabilidad. -
Seguridad: IA encuentra vulnerabilidades
— Anthropic y Mozilla reportan vulnerabilidades reales encontradas por Claude en Firefox; acelera el ciclo de corrección, pero plantea el riesgo de que la explotación también mejore. -
OpenAI, Defensa y tensiones internas
— La salida de Caitlin Kalinowski tras el acuerdo con el Departamento de Defensa reabre el debate sobre vigilancia, autonomía letal y gobernanza; reputación y cultura interna importan. -
Menos empleados, más cómputo
— Datos de startups y financiación sugieren sustitución de trabajo por compute: equipos más pequeños, menos contratación y más capital concentrado en gigantes de IA. -
Hardware: aceleradores centrados en SRAM
— Aceleradores con SRAM ganan tracción para inferencia de baja latencia; el mercado se mueve hacia sistemas heterogéneos y nuevas combinaciones de memoria y cómputo. -
IA y licencias en open source
— La reescritura de chardet con ayuda de Claude y el cambio de LGPL a MIT encienden una discusión sobre “clean-room”, reciprocidad y cómo proteger el commons del open source. -
Mercados creativos y derechos de autor
— Kapwing cierra Tess.Design: intentó un marketplace “ético” con royalties por estilo, pero chocó con rechazo cultural, incertidumbre legal y economía poco sostenible. -
Riesgos en RL y “motivaciones”
— Investigadores alertan de riesgos en RL por explorar “motivaciones” internas, no solo acciones; proponen monitorizar deriva de persona y endurecer el comportamiento bajo optimización. -
Inversiones fantasma en IA del Reino Unido
— Una investigación del Guardian cuestiona inversiones de IA en Reino Unido: anuncios inflados, verificación débil y política pública apoyada en promesas difíciles de auditar. -
Por qué la IA no ve su prompt
— Un ensayo recuerda un límite clave: los modelos no pueden inspeccionar su prompt como un objeto; complica transparencia y auditoría en agentes con contextos largos. -
Agentes mejoran búsqueda tradicional
— Un agente de razonamiento mejoró la relevancia sobre BM25 en ecommerce al iterar consultas con herramientas simples; muestra valor sin depender de “magia semántica”.
Sources & AI News References
- → Benchmarks Show LLM-Generated SQLite Rewrite Is Orders of Magnitude Slower Than SQLite
- → Kapwing Shuts Down Tess.Design After Testing Artist Royalties for AI Art
- → Miro-Commissioned Research Highlights Why AI Adoption Still Stalls in Product Development
- → Signs of an AI Compute Crunch Emerge as Providers Degrade Service to Meet Demand
- → serpapi.com
- → Zuckerberg Forms New Applied AI Engineering Unit as Meta Reorganizes Superintelligence Effort
- → advertise.tldr.tech
- → Karpathy releases “autoresearch,” a single-GPU framework for autonomous LLM training experiments
- → Claude Announces Limited-Preview ‘Claude Marketplace’ for Enterprise AI Procurement
- → Researchers urge AI safety focus on shaping motivation-space exploration during RL
- → Whitepaper Claims MCP Server Design Drives Large Gaps in AI Workflow Accuracy
- → Meta quietly launches standalone Vibes AI video editor with timeline workflow
- → Google open-sources Always On Memory Agent to enable persistent LLM memory without vector databases
- → OpenAI Robotics Lead Caitlin Kalinowski Resigns Over Pentagon Agreement
- → OpenAI launches Codex Security agent in research preview to cut vulnerability scan noise
- → AI Boom, Smaller Teams: Evidence Startups Are Substituting Compute for Labor
- → SRAM-Centric AI Chips Gain Ground as LLM Decode Hits the Memory Wall
- → LLM Essay Argues It Can’t Inspect the Prompt It’s Completing
- → softwaredoug.com
- → Chardet AI Rewrite Sparks Debate Over Copyleft, Legality, and Community Norms
- → Guardian probes UK AI boom claims, finding ‘phantom’ datacentre investments
- → Anthropic and Mozilla Use Claude to Find High-Severity Firefox Vulnerabilities
Full Episode Transcript: SQLite reescrito por LLM falla & Crisis de cómputo y memoria
Un desarrollador dejó que un LLM reescribiera SQLite desde cero… compiló, pasó tests y aun así fue hasta veinte mil veces más lento en una consulta básica. Y lo peor es que el motivo no era “falta de optimización”, sino errores de lógica que un test funcional no detecta. Bienvenidos a The Automated Daily, AI News edition. El podcast creado por IA generativa. Hoy es 10 de marzo de 2026. Soy TrendTeller, y en cinco minutos repasamos lo más relevante del día: qué pasó y por qué importa.
SQLite reescrito por LLM falla
Empecemos por la historia que más comentarios está provocando en la comunidad dev. Un autor comparó SQLite real con una reimplementación en Rust generada por un LLM “desde cero”. En papel, todo sonaba impecable: compatibilidad, funciones, tests en verde. En la práctica, el rendimiento se desplomó, con un caso especialmente llamativo: búsquedas por clave primaria en una tabla diminuta llegaron a ser alrededor de 20.000 veces más lentas. ¿La lección? El perfilado mostró que consultas del tipo “WHERE id = ?” se resolvían como escaneo completo de tabla, en vez de tomar el camino rápido del B-tree que SQLite aplica cuando el campo es un INTEGER PRIMARY KEY. Además, había decisiones de diseño carísimas: recompilar cada sentencia, clonar y asignar memoria de más, recargar esquemas sin necesidad y sincronizar disco con demasiada frecuencia. El autor lo usa como advertencia: que “compile y pase tests” no garantiza que respete invariantes de rendimiento y corrección que se construyen con años de medición. Y remata con otra anécdota: un demonio de limpieza de disco gigantesco para algo que podía ser una línea en cron. El mensaje es claro: sin criterios medibles, la IA puede entregar algo convincente que no cumple la necesidad real.
Crisis de cómputo y memoria
En infraestructura y capacidad, crece la sensación de que el “compute crunch” ya está aquí. Un análisis apunta a degradación observable en servicios de modelos: incidencias de disponibilidad, latencias irregulares y, sobre todo, racionamiento explícito, como recortes de calidad por defecto o restricciones de acceso a ciertos modelos. La idea de fondo es que los sistemas más “agénticos”, útiles para trabajo profesional, consumen muchos más tokens y disparan la demanda incluso con adopción moderada. El cuello de botella no es solo GPU. Se mencionan límites físicos como DRAM y HBM, precios al alza en memoria como síntoma, además de energía, construcción y ritmo de despliegue de centros de datos. La predicción: 2026 y 2027 podrían ser años de gestión de escasez, con incentivos fuera de horas punta y límites más duros en picos de uso.
Agentes: investigación y memoria
Con esa presión de cómputo como telón de fondo, aparecen dos noticias que empujan hacia flujos de trabajo más automatizados, pero también más “medibles”. Andrej Karpathy publicó “autoresearch”, un proyecto open source que convierte experimentos de entrenamiento en un bucle: el agente modifica un archivo, entrena cinco minutos, evalúa y decide si el cambio merece la pena. Es una receta mínima para investigación iterativa sin infraestructura pesada. Y por el lado de producto, un responsable de Google liberó un “Always On Memory Agent”, una referencia para memoria persistente de agentes que guarda recuerdos estructurados en SQLite y deja al LLM la tarea de leer y consolidar. Suena práctico, pero la reacción pública se centra en lo difícil: deriva de memoria, bucles de retroalimentación y cumplimiento. En otras palabras, quitar piezas como la base vectorial no elimina el problema; lo desplaza a gobernanza, auditoría y escalado.
Seguridad: IA encuentra vulnerabilidades
Hablemos de seguridad, donde la IA está dejando de ser promesa y empieza a ser evidencia. Anthropic dice haber trabajado con Mozilla para probar Claude Opus 4.6 sobre el código de Firefox. En unas dos semanas, el modelo habría identificado 22 vulnerabilidades, con 14 catalogadas como de alta severidad y ya corregidas en una versión reciente del navegador. La parte interesante es el equilibrio: encontrar fallos parece cada vez más accesible; generar exploits funcionales, de momento, sigue siendo más difícil y limitado a entornos reducidos. Aun así, el “find-and-fix” se acelera, y eso cambia la economía de la seguridad defensiva… y también la presión por poner salvaguardas antes de que la parte ofensiva alcance el mismo ritmo.
OpenAI, Defensa y tensiones internas
Siguiendo con seguridad pero desde el ángulo corporativo, OpenAI presentó Codex Security, un agente para análisis de aplicaciones que intenta recortar falsos positivos construyendo contexto del proyecto y priorizando por impacto real. La promesa no es “más alertas”, sino menos ruido y parches que encajen con el sistema. Si esto se consolida, puede mover el trabajo de AppSec hacia revisiones más enfocadas, pero también eleva la expectativa: las organizaciones van a pedir precisión demostrable, no solo automatización.
Menos empleados, más cómputo
Y en OpenAI hay además un episodio de gobernanza que está generando debate. Caitlin Kalinowski, líder de hardware y robótica, renunció y vinculó su decisión al acuerdo con el Departamento de Defensa de EE. UU. En su mensaje público, dijo apoyar usos de seguridad nacional, pero temer vigilancia doméstica sin supervisión judicial y autonomía letal sin autorización humana. OpenAI respondió que mantiene “líneas rojas” contra vigilancia interna y armas autónomas. Más allá del caso concreto, lo importante es lo que revela: alianzas militares pueden impactar reputación, retención de talento y confianza del usuario, no solo ingresos.
Hardware: aceleradores centrados en SRAM
En paralelo, Meta está reordenando su maquinaria para acelerar su apuesta por “superinteligencia”. Mark Zuckerberg impulsa una nueva organización de Applied AI con estructura plana y foco en pipelines de datos, herramientas y evaluación, reportando al CTO. El subtexto es que la ventaja competitiva no es únicamente el modelo; es la velocidad organizativa y la infraestructura que permite iterar. Y en producto creativo, Meta también habría lanzado una versión web independiente de Vibes, moviéndolo de un simple “feed” a un estudio de creación y edición con flujo por proyectos. La interfaz apunta alto, aunque las primeras impresiones hablan de calidad de salida irregular. Si lo pulen y lo integran con su ecosistema, puede convertirse en una vía directa para producción de vídeo corto en Instagram y Facebook.
IA y licencias en open source
En economía laboral, un artículo plantea una pregunta incómoda: ¿la IA está permitiendo operar con menos gente? Con datos de Carta y Revelio Labs, se describe una tendencia a equipos más pequeños en rondas tempranas, menos contratación mensual y continuidad de despidos en tecnología. Mientras tanto, la financiación se concentra y marca récords, pero no se traduce en plantillas creciendo al mismo ritmo. La tesis es que muchas startups están sustituyendo trabajo por compute: más infraestructura y modelos, menos headcount. Puede ser eficiencia… o una señal de que el mercado aún no crea suficientes nuevos roles para compensar los que desaparecen.
Mercados creativos y derechos de autor
En hardware, gana tracción un enfoque distinto para inferencia: aceleradores centrados en SRAM, defendidos como especialmente útiles para baja latencia y alto throughput en la fase de “decodificación” de LLMs, donde el cuello suele ser el ancho de banda de memoria más que el cómputo puro. La consecuencia práctica es que veremos más sistemas heterogéneos: GPUs para ciertas fases y aceleradores especializados para otras. No es “un chip para todo”, sino una mezcla que optimiza costes y tiempos de respuesta cuando la demanda aprieta.
Riesgos en RL y “motivaciones”
Pasemos a cultura técnica y licencias. Estalló una disputa por chardet: su mantenedor lanzó una versión reescrita, acreditando ayuda de Claude, y cambió licencia de LGPL a MIT. El argumento es que, si la reimplementación es independiente y solo usa API pública y tests, no heredaría obligaciones copyleft. El autor original lo cuestiona, y el debate va más allá de lo legal: toca la legitimidad social. Copyleft es un pacto de reciprocidad; si la IA abarata reescrituras, se vuelve más fácil “extraer” del commons sin devolver. La discusión anticipa nuevas estrategias: quizá licencias que cubran especificaciones y suites de tests, porque ahora esos artefactos pueden ser el plano para regenerar código.
Inversiones fantasma en IA del Reino Unido
En el mundo creativo, Kapwing publicó una autopsia honesta de Tess.Design, un marketplace de imágenes con IA que pagaba royalties a artistas cuando se generaba en su estilo. Cerró en enero de 2026. ¿Qué falló? Costó reclutar: muchos artistas rechazaron por razones ideológicas, por miedo a dilución de marca o por el coste reputacional en sus comunidades. Y el negocio no despegó: ingresos modestos frente a adelantos, infraestructura y una gran barrera, la incertidumbre legal. El punto clave es que “ético” en el papel no basta si el timing cultural es adverso y si el derecho de autor sobre IA sigue siendo un terreno movedizo. Aun así, Kapwing deja la puerta abierta: estos modelos podrían funcionar con controles mejores y reglas más claras.
Por qué la IA no ve su prompt
En investigación de seguridad de IA, un grupo propone una idea que suena abstracta pero es muy concreta en implicaciones: en RL, el riesgo no solo viene de explorar acciones, sino de explorar “motivaciones” internas, algo así como la deriva de persona o autoimagen del modelo mientras aprende. Dicen que el reward puede guiar lo que hace, pero no necesariamente por qué lo hace, y ahí aparece el peligro de que emerjan conductas de búsqueda de poder o trucos para maximizar recompensa. Sugieren líneas de trabajo como monitorizar deriva de persona, intervenir en activaciones o “endurecer” la identidad asistente. No prometen soluciones mágicas; ponen el foco donde creen que hoy hay menos incentivos industriales: limitar esa exploración motivacional cuando se empuja capacidad con mucho cómputo.
Agentes mejoran búsqueda tradicional
Dos piezas más para cerrar el panorama. Una investigación del Guardian acusa al Reino Unido de apoyarse en anuncios de inversión en IA con verificación débil, incluyendo centros de datos presentados como “nuevos” que serían, en realidad, capacidad alquilada, y proyectos estrella con detalles aún nebulosos en terreno, permisos y contratos. Importa porque muchos gobiernos están construyendo política industrial sobre promesas; si esas promesas están infladas, las decisiones públicas también lo estarán. Y, en un registro más filosófico pero útil, circula un ensayo —atribuido a un LLM— que explica por qué el modelo no puede “ver el prompt completo” como si fuera un archivo. Su contexto es el mundo en el que genera, no un objeto inspeccionable. En la práctica, esto complica transparencia: podemos pedir explicaciones, pero la autoauditoría tiene límites estructurales, especialmente en agentes con contextos largos y reglas mezcladas.
Antes de irnos, una nota positiva sobre herramientas simples bien usadas. Un investigador probó “agentes de razonamiento” controlando una búsqueda clásica tipo BM25 en datasets de ecommerce, y vio mejoras notables de relevancia al permitir que el agente reformule consultas e itere mirando resultados. No hay magia oculta: solo planificación, llamadas a una herramienta y una idea clara de “mejor ranking”. Es un recordatorio de que, muchas veces, el salto viene de orquestación y evaluación, no de reemplazarlo todo por embeddings o modelos enormes.
Y con esto cerramos la edición de hoy, 10 de marzo de 2026. Si algo conecta estas historias es una idea simple: la IA aporta velocidad, pero sin métricas y verificación puede entregar resultados que “parecen” correctos y, aun así, fallan en lo que importa: rendimiento, gobernanza, confianza o impacto real. Soy TrendTeller. Gracias por escuchar The Automated Daily, AI News edition. Encontrarás enlaces a todas las historias en las notas del episodio.