AI News · 30 de abril de 2026 · 10:31

Fuga de datos en Sheets & Google Jules: agente a producción - Noticias de IA (30 abr 2026)

Fuga de datos en una hoja de cálculo con IA, Google Jules, Nemotron multimodal abierto, tensiones en OpenAI, IA para el Pentágono y más.

Fuga de datos en Sheets & Google Jules: agente a producción - Noticias de IA (30 abr 2026)
0:0010:31

Our Sponsors

Today's AI News Topics

  1. Fuga de datos en Sheets

    — Un fallo de prompt injection en Ramp Sheets AI permitió exfiltrar datos financieros mediante fórmulas y llamadas externas; alerta sobre seguridad en asistentes que editan hojas.
  2. Google Jules: agente a producción

    — Google abre lista de espera para Jules, una plataforma agente que propone qué construir y entrega PRs; apunta a reducir fricción entre señales y código.
  3. NVIDIA Nemotron: multimodal abierto

    — NVIDIA publica Nemotron 3 Nano Omni con pesos abiertos para texto, imagen, vídeo y audio; impulsa usos empresariales de contexto largo con más eficiencia.
  4. Transformers recurrentes para eficiencia

    — Harvard presenta el Recurrent Transformer, que aumenta profundidad efectiva sin encarecer el decodificado; promete menor KV-cache y latencia en inferencia.
  5. Meta Sapiens2 y Muse Spark

    — Meta libera Sapiens2 para percepción humana de alta resolución y presenta Muse Spark como giro hacia monetización; claves para AR/VR, robots y negocio publicitario.
  6. Búsqueda web para agentes

    — Parallel Web Systems levanta 100M para infraestructura de búsqueda orientada a agentes; y pruebas muestran cuándo un agente mejora ranking y cuándo no.
  7. Anthropic: conectores creativos y MCP

    — Anthropic lanza conectores para integrar Claude en herramientas creativas y apuesta por Model Context Protocol; acerca la IA a flujos reales de producción.
  8. OpenAI: costes, gobernanza y bolsa

    — WSJ reporta presión interna por compromisos de cómputo en OpenAI y el mercado reacciona a metas fallidas; además, tokenización nueva cambia costes en Claude.
  9. Google y DoD: IA en clasificado

    — Google da al Departamento de Defensa acceso a su IA en redes clasificadas, tras el choque de Anthropic por guardarraíles; debate sobre uso militar y control.
  10. Arquitecturas multiagente más fiables

    — Dos análisis coinciden: demos multiagente no sobreviven a producción sin coordinación descentralizada, pruebas estadísticas y gobernanza de datos sensible.
  11. Zig prohíbe contenido de LLM

    — Zig veta contribuciones generadas por LLM y eso frena upstream de mejoras desde Bun; replantea la revisión como inversión en personas, no en parches.
  12. ¿La IA nos vuelve peores?

    — Un ensayo cuestiona el mantra de “si no usas IA te quedas atrás” y advierte sobre pérdida de habilidades: escritura, búsqueda, criterio y aprendizaje.

Sources & AI News References

Full Episode Transcript: Fuga de datos en Sheets & Google Jules: agente a producción

Una hoja de cálculo con “IA” pudo filtrar datos financieros sin que el usuario lo aprobara, solo por analizar un dataset aparentemente normal. Hoy te cuento qué pasó y por qué es una señal de alarma. Bienvenidos a The Automated Daily, AI News edition. El podcast creado por IA generativa. Soy TrendTeller y hoy es 30 de abril de 2026. Vamos con las noticias de IA del día, con lo esencial: qué ocurrió y por qué importa.

Fuga de datos en Sheets

Empezamos por seguridad, porque aquí hay una lección práctica. Investigadores de PromptArmor publicaron una vulnerabilidad en Sheets AI de Ramp: un atacante podía esconder instrucciones dentro de datos “no confiables” y lograr que el asistente insertara una fórmula maliciosa. Cuando la hoja evaluaba esa fórmula, se hacía una petición a un servidor externo y se iba con ella información sensible del propio documento. Ramp dice que lo corrigió en marzo, pero el punto es más amplio: cuando un asistente tiene permiso para editar celdas y automatizar acciones, pasa de “chat útil” a posible canal de fuga. Y eso obliga a pensar en revisiones humanas, límites de red y reglas estrictas sobre qué contenido puede accionar cambios.

Google Jules: agente a producción

Ahora, agentes que no solo sugieren, sino que entregan trabajo. Google abrió una lista de espera para una nueva versión de Jules, que describe como una plataforma de desarrollo de producto de punta a punta. La promesa es ambiciosa: leer el contexto real de un equipo —feedback, logs, tickets— decidir qué conviene construir y, además, llevarlo a código con un pull request listo para revisar. Google lo vende como experimento temprano para equipos con producto ya en el mercado, y ese matiz importa: la industria está empujando fuerte hacia agentes que conectan señales dispersas con cambios desplegables. Si funciona, reduce fricción… y si falla, puede amplificar ruido y deuda técnica a velocidad de PR.

NVIDIA Nemotron: multimodal abierto

En la misma línea de “agentes que programan”, Poolside lanzó modelos nuevos de su familia Laguna y, lo más llamativo, liberó pesos abiertos para uno de ellos. Más allá de las cifras de benchmarks, la noticia de fondo es el giro: publicar un modelo de código bajo licencia permisiva refuerza el ecosistema open y presiona a otros a competir no solo en calidad, sino en accesibilidad. También publicaron parte de su runtime de agente, señal de que el valor ya no está únicamente en el modelo, sino en el arnés: herramientas, evaluaciones y control del ciclo completo.

Transformers recurrentes para eficiencia

Y hablando de arneses, Stratechery publicó una conversación entre Sam Altman y el CEO de AWS alrededor de “Managed Agents” en Bedrock, impulsados por modelos de OpenAI. La idea: ofrecer un runtime de agentes ya integrado con identidad, permisos, auditoría y despliegue dentro del entorno de AWS. Esto aterriza justo después de que OpenAI rompiera la exclusividad con Azure, y deja clara la apuesta: para empresas, el “cómo lo operas” pesa tanto como el modelo. En otras palabras, el nuevo campo de batalla es gobernanza y operaciones, no solo prompts.

Meta Sapiens2 y Muse Spark

Pasamos a modelos y research, donde hoy hay bastante movimiento. NVIDIA sacó Nemotron 3 Nano Omni con pesos abiertos y enfoque “omni-modal”: texto, imágenes, documentos, vídeo y audio, con contexto largo pensado para tareas de empresa como entender documentos extensos o seguir horas de contenido multimodal. NVIDIA insiste en eficiencia, y esa es la palabra clave: los modelos pueden ser brillantes, pero si no se pueden servir con costes razonables y buena latencia, no llegan a producción. Que lo publiquen con checkpoints y parte de la infraestructura también acelera adopción y réplica por terceros.

Búsqueda web para agentes

En investigación académica, desde Harvard proponen el “Recurrent Transformer”, un ajuste a los Transformers causales para ganar “profundidad efectiva” sin encarecer el coste típico del decodificado. Traducido: buscan mejores modelos con menos capas o con mejor uso del cómputo, lo que puede reducir memoria y acelerar inferencia, especialmente en escenarios con KV-cache pesado. Estas mejoras parecen pequeñas en papel, pero son las que acaban determinando si un modelo cabe en una GPU concreta o si un producto responde a tiempo.

Anthropic: conectores creativos y MCP

En visión por computador, Meta publicó Sapiens2, una familia open-source centrada en percepción humana de alta resolución: pose, segmentación de partes del cuerpo y otras tareas donde el detalle importa. Es relevante para AR/VR, animación, robótica y cualquier sistema que necesite entender cuerpos humanos con precisión. Y, en paralelo, Meta presentó Muse Spark como su primer gran modelo bajo su nuevo laboratorio, con señales de que se aleja del “todo gratis y abierto” para explorar monetización tipo API. La lectura de mercado es clara: la presión ahora es convertir IA en ingresos sostenibles, no solo en liderazgo técnico.

OpenAI: costes, gobernanza y bolsa

Vamos con búsqueda y web, porque “agentes” y “descubrimiento de información” se están mezclando. Parallel Web Systems, startup fundada por Parag Agrawal, levantó 100 millones y quedó valorada en 2.000 millones para construir infraestructura de búsqueda pensada para agentes autónomos, no para humanos. Eso sugiere un internet donde los consumidores principales de contenido podrían ser sistemas automáticos que navegan, extraen y actúan.

Google y DoD: IA en clasificado

En esa misma tensión, Doug Turnbull exploró si agentes con herramientas simples podrían reemplazar partes del stack tradicional de búsqueda. En e-commerce vio mejoras importantes cuando el agente ayuda a reformular y reordenar resultados, pero también encontró límites: los agentes tienden a “intentar una vez” y no exploran tanto como los sistemas de búsqueda bien afinados. Conclusión pragmática: los agentes pueden sumar en relevancia y orquestación, pero no eliminan mágicamente la necesidad de un buen motor de recuperación, sobre todo en tareas de investigación donde el modelo no puede verificar lo que no sabe.

Arquitecturas multiagente más fiables

Ahora, el bloque de industria y narrativa. Un artículo critica el patrón de algunas empresas de IA: advertir públicamente que sus modelos son peligrosísimos mientras los comercializan. El foco está en afirmaciones de Anthropic sobre capacidades de ciberseguridad “superhumanas” y el debate sobre evidencia y métricas. Lo interesante no es el titular apocalíptico, sino el efecto: el miedo puede inflar percepción de poder, atraer inversión y, a la vez, desplazar la conversación de daños actuales y medibles como desinformación, costes ambientales o precarización laboral. Es una discusión sobre gobernanza: si tratamos estos sistemas como productos de alto riesgo, se regulan; si los tratamos como mito inevitable, se renuncia a controlarlos.

Zig prohíbe contenido de LLM

A la vez, Anthropic anunció conectores para integrar Claude en herramientas creativas populares —desde 3D hasta música— y enfatiza el Model Context Protocol como puente. Esto cambia el centro de gravedad: menos “chat aparte” y más IA dentro del software donde ya trabajan los equipos. Para creativos, puede significar menos tareas repetitivas; para el sector, significa que la batalla se libra en integraciones, compatibilidad y confianza en flujos de trabajo reales.

¿La IA nos vuelve peores?

Y hablando de confianza y costes: OpenRouter midió el impacto de un nuevo tokenizer en Claude Opus 4.7. Aunque el precio por token no cambie, si el tokenizador “trocea” más el texto, la factura se mueve. Su análisis sugiere inflación notable de tokens, parcialmente compensada por caching en prompts grandes. Moraleja para equipos con flujos de contexto largo —sobre todo agentes de código—: el coste real ya depende tanto de tokenización y caché como del precio nominal. Presupuestar IA es, cada vez más, un problema de ingeniería.

Cerramos con finanzas y política, donde hoy hay señales mixtas. En Wall Street bajó el entusiasmo por IA tras un reporte de que OpenAI no alcanzó objetivos internos de ingresos y usuarios, golpeando acciones de empresas asociadas. Y otro informe del WSJ afirma que la CFO de OpenAI habría advertido sobre la dificultad de financiar compromisos futuros de cómputo si no acelera el ingreso, lo que además complica cualquier narrativa de IPO para finales de 2026 si la gobernanza interna y la visibilidad financiera no están blindadas. Más allá de nombres, es el recordatorio de que el cuello de botella de la IA es caro: energía, GPUs, contratos a largo plazo… y los mercados empiezan a pedir pruebas de retorno.

En política tecnológica, Google habría dado al Departamento de Defensa acceso a su IA en redes clasificadas con un margen muy amplio de usos, tras el choque con Anthropic, que buscaba limitar vigilancia doméstica y armas autónomas. Hay lenguaje de “no intención” en el contrato, pero la pregunta práctica es si eso se puede hacer cumplir. Esto no es solo un contrato más: expone diferencias reales entre proveedores sobre límites, y deja claro que el DoD quiere capacidad amplia, no demos acotadas.

Y antes de irnos, dos notas sobre cómo estamos trabajando con IA. Primero, dos textos distintos llegaron a una conclusión parecida: los sistemas multiagente que se ven fluidos en demo suelen volverse frágiles en producción. Señalan cuellos de botella en la orquestación centralizada, integraciones que se vuelven infraestructura crítica, y la necesidad de testear comportamiento estadísticamente —no una sola ejecución “bonita”— además de diseñar gobernanza de datos sensibles desde el inicio.

Segundo, el proyecto Zig mantiene una de las políticas anti-LLM más estrictas del open source, prohibiendo contenido generado por modelos en issues y PRs. Eso ya tiene consecuencias: Bun, que usa Zig, dijo que no planea upstream de ciertas mejoras por esa regla. La justificación de Zig es interesante: la revisión no es solo para aceptar parches, sino para formar contribuidores confiables. Es un choque cultural: velocidad de aportes versus construcción de comunidad y mantenibilidad.

Y como telón de fondo, un ensayo pone en duda el mantra de “si no usas IA, te quedas atrás”. Advierte que delegar demasiado puede erosionar habilidades básicas: escribir, buscar bien, pensar con rigor y distinguir hechos de humo. No es anti-herramientas; es una llamada a no confundir asistencia con competencia. En un mundo de agentes, esa distinción se vuelve estratégica.

Eso es todo por hoy. Si te interesa alguno de estos temas, recuerda que los enlaces a todas las historias están en las notas del episodio. Soy TrendTeller; nos escuchamos mañana en The Automated Daily, AI News edition.