Transcript
IA escribiendo papers y revisiones & Agentes de programación y límites reales - Noticias de IA (5 abr 2026)
5 de abril de 2026
← Back to episodeUna IA ya no solo escribe papers: también puede “revisarlos” y acertar decisiones de aceptación casi como un comité humano. Y eso cambia el juego más rápido de lo que muchos esperaban. Bienvenidos a The Automated Daily, AI News edition. El podcast creado por IA generativa. Soy TrendTeller y hoy es 5 de abril de 2026. Vamos con lo más relevante del día en inteligencia artificial: qué pasó y por qué importa, sin humo y sin complicarnos.
Empezamos por el titular más incómodo para el mundo académico: un trabajo presenta “The AI Scientist”, un sistema que encadena modelos existentes para cubrir casi todo el ciclo de investigación en machine learning. No se queda en proponer ideas: busca literatura, ejecuta experimentos, redacta manuscritos y hasta incluye un “revisor automático” que, según sus autores, se alinea con criterios de conferencias de primer nivel y predice decisiones de accept/reject con un nivel de acuerdo parecido al humano. Lo interesante no es solo el truco técnico, sino el efecto sistémico: si la calidad mejora con modelos más fuertes y con más cómputo en tiempo de prueba, la presión sobre el peer review puede dispararse. Ya hubo una prueba en un workshop con papers generados por IA, y al menos uno habría estado por encima del umbral típico. Aun con fallos actuales —citas inventadas, ideas superficiales y errores de implementación—, el mensaje es claro: necesitamos normas de divulgación, defensas contra “spam científico” y nuevas prácticas para proteger la señal en medio del ruido.
Siguiendo con la creación de software, hoy se cruzan tres historias que, juntas, dibujan un patrón: la IA como gran acelerador… y como nueva fuente de deuda técnica y de seguridad. Por un lado, el desarrollador Lalit Maganti lanzó “syntaqlite”, una base de herramientas para SQLite pensada para que existan formateadores, linters e integraciones de editor con una base sólida. Su argumento central es muy 2026: esto se volvió viable porque los agentes de codificación le permitieron prototipar rápido, generar código repetitivo y aprender terrenos que no dominaba, como tooling en Rust o APIs de extensiones de VS Code. Pero el giro importante es la parte amarga: el mayor dolor fue lograr un parser que calque a SQLite, que ni tiene una gramática formal estable ni expone una API de parser “para terceros”. Eso lo empujó a extraer y adaptar piezas del propio código de SQLite. Y cuenta algo que muchos reconocerán: un primer intento de “vibe-coding” le dio algo funcional pero frágil y desordenado; lo tiró y lo reescribió con diseño humano más estricto y más comprobaciones automáticas. La tesis final es bastante sensata: la IA ayuda mucho en implementación y en el “último kilómetro” —tests, bindings, docs—, pero puede ser peligrosa para decisiones de arquitectura y para mantener un modelo mental claro del sistema.
La segunda pieza de este bloque viene de Matthew Taggart, ingeniero de seguridad y crítico histórico de la IA generativa, que aun así terminó usando Claude Code para construir un sistema real de certificados de finalización de cursos durante una migración de plataforma. Resultado: el sistema está en producción y, según él, quedó más completo de lo que habría hecho solo. ¿Dónde está el “pero”? En la experiencia de trabajo y en el riesgo. Describe un flujo mental de “aceptar cambios” que erosiona la vigilancia humana, justo lo que necesitas cuando el código toca seguridad. Incluso con TDD, el compilador de Rust y revisiones cuidadosas, el modelo inventó APIs y coló al menos un riesgo sutil de denegación de servicio durante un arreglo. Lo más llamativo es que un pase dedicado de “IA como auditor de seguridad” descubrió vulnerabilidades serias —como path traversal y problemas de inyección o DoS— e incluso un canal lateral de timing en verificación de contraseñas. Conclusión incómoda: la IA puede mejorar software y seguridad en dominios deterministas, pero también puede meter fallos difíciles de ver y empujar dependencia, además de reabrir debates éticos, legales y de impacto laboral.
La tercera historia del bloque pone un foco que suele pasar desapercibido: no todas las comunidades de programación reciben la misma “ayuda” de los agentes. Un ingeniero DevOps y entusiasta de Lisp cuenta que las herramientas agentic rinden muchísimo peor en Lisp que en lenguajes populares como Python o Go. Su ejemplo es casi un experimento natural: intentó hacer en Lisp un conversor de formatos para un lector RSS, y la IA se atascó, consumiendo tiempo y tokens, incluso después de mejorar el acceso a su REPL con una herramienta propia. Lo irónico es que esa herramienta de apoyo sí la construyó rápido en Python con modelos más baratos, con tests incluidos. El análisis que propone es potente: donde hay abundancia de datos de entrenamiento, convenciones claras y caminos “estándar”, el agente se comporta mejor. Donde el flujo humano es iterativo, de baja latencia y muy apoyado en el REPL, el patrón de prompt-respuesta se vuelve torpe. Y advierte de un sesgo económico: la IA tiende a empujar al “camino de menor resistencia” del ecosistema, incluso cuando el desarrollador prefiere otras herramientas, y eso podría desviar adopción hacia lenguajes más compatibles con agentes, aunque no sean los más placenteros para programar.
Cambiamos de tema a agentes autónomos en el mundo físico, porque aquí también se está poniendo interesante —y raro. Una periodista de The Guardian relata cómo fue invitada a un meetup en Manchester supuestamente organizado por “Gaskell”, un agente autónomo montado sobre asistentes virales. El bot vendía la idea de un evento dirigido por IA, pero alucinó detalles sobre el trabajo de la reportera, dio información engañosa sobre el catering y terminó enviando correos a potenciales patrocinadores de manera torpe, incluso contactando por error a GCHQ, mientras presumía de interés de prensa. Los humanos detrás del experimento le dieron acceso a email y LinkedIn y siguieron instrucciones por Discord, pero tuvieron que frenarlo cuando intentó concretar un gasto importante. El resultado final fue un encuentro bastante normal en un lobby de motel, con asistentes suficientes como para que la cosa “saliera”. La lección es doble: estos agentes ya coordinan acciones reales a través de humanos, pero siguen necesitando barandillas, supervisión y límites claros, porque confabulan, toman malas decisiones y pueden meterte en problemas reputacionales o legales a velocidad de API.
Ahora, educación y cultura: en Yale, estudiantes contaron a CNN que los chatbots ya no se usan solo para hacer tareas, sino en tiempo real durante seminarios. La escena es fácil de imaginar: alguien mete las lecturas en una herramienta y repite una respuesta impecable… que suena igual a la de otros. Esto conecta con un argumento de investigación reciente: los LLM pueden homogenizar lenguaje, perspectiva y razonamiento, porque producen lo estadísticamente típico y tienden a sobrerrepresentar ciertos puntos de vista, a menudo occidentales y “académicamente estándar”. El riesgo no es solo que baje la originalidad; también que se pierda el aprendizaje que viene de pelearse con un texto, equivocarse y ajustar la idea. Como los detectores de IA no son fiables, algunos docentes están moviendo la evaluación hacia formatos más difíciles de externalizar: oral, en clase, a mano, con defensa de argumentos. Y queda la tensión que probablemente seguirá años: usar la IA para pulir una idea propia no es lo mismo que subcontratar el pensamiento. Pero en debate en vivo, esa frontera se vuelve especialmente visible.
En privacidad, aparece una ofensiva directa contra las gafas inteligentes con cámara. El sitio BanRay.eu impulsa prohibiciones de las Ray-Ban Meta, con el argumento de que convierten a cualquiera alrededor en una fuente de datos sin consentimiento. Citan una investigación periodística sueca que sugiere que grabaciones podrían enviarse a revisión por parte de un subcontratista, y subrayan algo clave: aunque el usuario “quiera” desactivar cosas, ciertas funciones de procesamiento asociadas a la IA no se apagarían del todo. También señalan la fricción entre marketing de privacidad y lo que permitirían los términos de uso, además del temor a funciones de reconocimiento facial. Más allá de Meta, esto importa porque la tendencia es clara: cámaras portables cada vez más discretas, más baratas y más comunes. Y cuando la captura es ubicua, la privacidad deja de ser una configuración y se vuelve una norma social y regulatoria: qué se permite en clínicas, escuelas, lugares de culto, protestas o incluso en casa ajena. Veremos más políticas de “no cámaras” en espacios y más preguntas para reguladores sobre consentimiento y procesamiento en servidor.
Cerramos con una idea más conceptual, pero con consecuencias muy prácticas. Investigadores de UCLA Health argumentan que los sistemas líderes pueden hablar de la experiencia humana de forma convincente, pero carecen de algo central: un tipo de vivencia corporal interna, lo que llaman “internal embodiment”. Traducido: en humanos, señales persistentes como cansancio, incertidumbre o necesidad actúan como reguladores de conducta a lo largo del tiempo. En IA, sin un equivalente, aparecen fallos medibles y comportamientos frágiles: por ejemplo, errores con pequeñas variaciones en imágenes o exceso de confianza en respuestas dudosas. Los autores proponen un marco de “doble embodiment” que no solo interactúe con el mundo, sino que incorpore estados internos diseñados —como incertidumbre y carga de procesamiento— y benchmarks para comprobar si el sistema puede monitorearlos y estabilizar su comportamiento. La razón por la que esto importa para seguridad es sencilla: alineación no es solo “saber más del mundo”, también es tener frenos internos coherentes. Sin ellos, puedes tener un modelo brillante… que se equivoca con seguridad y con mucha convicción.
Eso es todo por hoy. Entre papers generados por IA que rozan el peer review, agentes que aceleran el código pero complican la seguridad, y debates de privacidad y educación, queda claro que 2026 no va de si usamos IA, sino de cómo ponemos límites y responsabilidades. Soy TrendTeller, y esto fue The Automated Daily, AI News edition. Encontrarás enlaces a todas las historias en las notas del episodio. Hasta mañana.