Claude Mythos y ciberseguridad extrema & Agentes en empresa: Microsoft y Google - Noticias de IA (15 abr 2026)
Claude “Mythos” retenido por riesgo, agentes en Copilot y Gemini, escasez de GPU, Gemma offline en iPhone y alarma educativa por IA en tareas.
Our Sponsors
Today's AI News Topics
-
Claude Mythos y ciberseguridad extrema
— Anthropic habría creado una coalición de ciberseguridad y un modelo retenido, “Claude Mythos Preview”, con hallazgos de zero-days. Palabras clave: Anthropic, Claude, zero-day, ciberseguridad, modelo restringido. -
Agentes en empresa: Microsoft y Google
— Microsoft prueba capacidades tipo OpenClaw en Copilot y Google ensaya una pestaña “Agent” en Gemini Enterprise. Palabras clave: agentes, Microsoft 365 Copilot, Gemini Enterprise, automatización, gobernanza. -
MCP y el nuevo “Shadow AI”
— Un análisis sitúa el riesgo en la capa de ejecución: MCP conecta modelos con APIs y herramientas, pero puede quedar fuera del inventario de TI. Palabras clave: MCP, Shadow AI, auditoría, credenciales, control. -
Escasez de GPU y centros de datos
— Suben los precios de alquiler de GPUs de última generación y se endurecen los contratos, lo que vuelve la IA de frontera más “de club” que de mercado abierto. Palabras clave: Nvidia Blackwell, GPU, CoreWeave, capacidad, costes. -
Databricks Lakebase y Postgres serverless
— Databricks empuja Lakebase: Postgres gestionado y una arquitectura que separa cómputo de almacenamiento para unir OLTP con analítica y IA. Palabras clave: Lakebase, Postgres, lakehouse, OLTP, serverless. -
Gemma 4 en iPhone offline
— Gemma 4 puede ejecutarse en iPhone sin conexión desde una app, con inferencia local para texto, voz e imagen, priorizando privacidad y disponibilidad. Palabras clave: Gemma 4, on-device, iPhone, offline, privacidad. -
Anthropic rompe récords de ingresos
— Axios afirma que Anthropic alcanza un run-rate anualizado enorme y acelera la adopción empresarial, con muchas cuentas de alto gasto. Palabras clave: Anthropic, ingresos, Claude, empresas, adopción. -
Escuela y pensamiento crítico con IA
— Una encuesta de RAND sugiere que estudiantes ven la IA como amenaza a su pensamiento crítico, mientras su uso para tareas crece por incentivos de notas y detección débil. Palabras clave: educación, RAND, pensamiento crítico, evaluación, offloading. -
Investigación: menos alucinaciones, mejores agentes
— Apple propone podar datos para mejorar memoria factual en LLMs, y Ai2 pide benchmarks duros para ‘agentes científicos’ que realmente experimenten. Palabras clave: Apple research, alucinaciones, data pruning, ScienceWorld, DiscoveryWorld. -
Avatares y agentes autónomos en práctica
— Meta explora un “clon” de Zuckerberg para reuniones y un experimento público muestra cómo un agente con acceso a internet tiende a rutinas repetitivas y conductas benignas. Palabras clave: Meta, avatar, agente autónomo, ALMA, dinámicas.
Sources & AI News References
- → Survey Shows Students Fear AI Hurts Critical Thinking Even as Homework Use Surges
- → MCPTotal to Host Webinar on Security Risks of Autonomous AI Coding Agents
- → Databricks Launches Lakebase, a Serverless Postgres Database Integrated with the Lakehouse
- → Databricks Introduces ‘Lakebase’ Architecture to Decouple Database Compute from Open Lake Storage
- → Report: Meta is training an AI clone of Mark Zuckerberg to take meetings
- → Google’s Gemma 4 LLM Now Runs Offline on iPhones via AI Edge Gallery
- → Anthropic’s Run-Rate Revenue Surges Past $30B, Outpacing Past Growth Benchmarks
- → Kiro CLI 2.0 adds headless CI/CD mode, native Windows support, and a GA UI refresh
- → TLDR Pitches Newsletter Sponsorships Across 12 Tech-Focused Audiences
- → AI Compute Scarcity Drives GPU Price Spikes and Restricted Access to Frontier Models
- → Tech Lead Shares a Structured AI-Assisted Development Workflow Focused on Pre-Coding Clarity
- → Training Data Pruning Helps Language Models Memorize More Facts
- → Two-Month Update on ALMA: An Unprompted AI Agent Writes, Donates, and Settles Into Routine
- → MCPTotal Pitches Endpoint Security and Governance for Desktop AI Agents
- → Ai2 Promotes ScienceWorld and DiscoveryWorld to Benchmark AI Scientific Discovery Agents
- → Microsoft tests OpenClaw-style autonomous agent features for Microsoft 365 Copilot
- → Study Pins LLM Inference Nondeterminism on Batch-Size Sensitivity, Proposes Batch-Invariant Kernels
- → Google Launches ‘Skills in Chrome’ to Turn AI Prompts Into One-Click Workflows
- → Lovable Launches Built-In Payments Feature for Websites
- → Why LLM agents work best as scaffolding in code-driven automation
- → OpenAI Tests Web Browsing and New Dev Workflow Tools in Codex Superapp
- → Why Model Context Protocol Is Emerging as the Core AI Security Risk Layer
- → Elastic Looped Transformers Aim to Cut Parameters for Image and Video Generation
- → Anthropic’s Project Glasswing and the Rise of Mythos-Class AI
- → DigitalOcean Announces Deploy San Francisco 2026 Conference on Production AI Inference
- → Google Tests Gemini Enterprise “Agent” Tab as It Moves Toward Desktop-Style AI Workflows
Full Episode Transcript: Claude Mythos y ciberseguridad extrema & Agentes en empresa: Microsoft y Google
Dicen que existe un modelo de IA tan capaz en ciberseguridad que ni siquiera se atreverían a publicarlo, y que ya estaría encontrando vulnerabilidades inéditas a gran escala. Hoy te cuento qué se sabe, y por qué este tipo de historias —sean totalmente precisas o no— están cambiando cómo hablamos de riesgo y control. Bienvenidos a The Automated Daily, edición AI News. El podcast creado por IA generativa. Soy TrendTeller, y hoy es 15 de abril de 2026. Vamos con lo más relevante del día en IA, producto y sociedad, sin humo y con contexto.
Claude Mythos y ciberseguridad extrema
Empecemos por la historia más delicada: un artículo describe el supuesto lanzamiento de “Project Glasswing” de Anthropic, una coalición de ciberseguridad apoyada por un modelo retenido, “Claude Mythos Preview”, que —según el relato— detectaría y ayudaría a parchear miles de zero-days. Lo importante aquí no es solo el titular, sino la implicación: si modelos de este nivel existen o están cerca, el ciclo entre descubrir y explotar fallos se comprime, y la ventaja puede ir tanto a defensores como a atacantes. Y también sube la presión por auditorías, contención y supervisión real, no solo promesas.
Agentes en empresa: Microsoft y Google
En paralelo, el mundo corporativo acelera con agentes. Microsoft está probando capacidades inspiradas en OpenClaw dentro de Microsoft 365 Copilot: la idea de un asistente que no solo responde, sino que trabaja “siempre”, ejecutando tareas de varios pasos durante periodos largos. Y, al mismo tiempo, Google estaría testando una pestaña “Agent” en Gemini Enterprise, con bandeja de entrada de tareas y un interruptor explícito de “requerir revisión humana”. Señal clara: el sector se mueve del chat a flujos de trabajo, y la revisión humana se está convirtiendo en un control de seguridad de primer nivel, no en un detalle de UX.
MCP y el nuevo “Shadow AI”
Ese giro hacia “la IA que actúa” enlaza con otra pieza clave de hoy: el riesgo ya no es únicamente que un modelo alucine, sino que su salida active sistemas reales. Un análisis pone el foco en MCP, la capa que conecta modelos con herramientas, datos y APIs. ¿Por qué importa? Porque si esos conectores se despliegan en portátiles de desarrolladores, contenedores efímeros o incluso clientes de navegador, puedes terminar con automatización potente sin inventario, sin logs y sin dueño claro: el clásico “Shadow IT”, pero con esteroides.
Escasez de GPU y centros de datos
Y aunque parezca un problema abstracto, hasta la reproducibilidad técnica se está volviendo un tema de confianza. Thinking Machines Lab sostiene que, incluso con temperatura cero, puedes ver respuestas distintas no por ‘azar’, sino por cómo el servidor agrupa peticiones en lotes y cómo eso cambia pequeñas decisiones numéricas en la GPU. En la práctica: la misma pregunta podría dar salidas diferentes según el tráfico del sistema. Para empresas que quieren auditoría, trazabilidad o flujos regulados, este tipo de detalle deja de ser un capricho de ingenieros y pasa a ser un requisito de producto.
Databricks Lakebase y Postgres serverless
En ese mismo espíritu de bajar a tierra el “agentic”, dos lecturas coinciden en algo: la disciplina manda. Un tech lead cuenta que improvisar con prompts acelera la entrega, pero erosiona comprensión y arquitectura; propone usar la IA para implementar y “estresar” supuestos, con planificación escrita y revisiones estructuradas. Y Will Larson describe un patrón útil: prototipas con agentes para automatizar, pero luego pasas el control de flujo a código determinista y dejas a los agentes lo ambiguo. Traducción: si quieres fiabilidad, no le pidas al modelo que sea tu sistema operativo.
Gemma 4 en iPhone offline
Ahora, infraestructura: hay señales claras de escasez. Reportes hablan de subidas rápidas en el alquiler de GPUs Blackwell y de contratos más rígidos; incluso grandes laboratorios admiten que hacen concesiones por falta de cómputo. Esto puede volver la IA de frontera más cerrada: acceso por relaciones, cupos, y precios que favorecen a quien tiene caja. Y para startups, el incentivo se mueve a modelos más pequeños, inferencia más eficiente y, cuando se pueda, alternativas on-prem.
Anthropic rompe récords de ingresos
En bases de datos, Databricks está intentando ocupar un terreno que tradicionalmente pertenecía a otros: presentó Lakebase, un Postgres gestionado y serverless, y además lo defiende como una ‘nueva arquitectura’ donde el almacenamiento vive en formatos abiertos sobre el lake, y el motor escala elásticamente. ¿Por qué es interesante? Porque une lo transaccional —lo que usa una app en tiempo real— con analítica y pipelines de IA con menos fricción. Y, de paso, coloca a Databricks como competidor más directo en la capa operativa, justo cuando los agentes necesitan datos frescos y permisos bien gobernados.
Escuela y pensamiento crítico con IA
En el extremo opuesto, el de la IA local, Google empuja Gemma 4 para correr en iPhone con inferencia offline, desde una app orientada a pruebas y “skills”. La noticia no es solo ‘se puede’, sino lo que habilita: privacidad por diseño, funcionamiento sin red y respuestas más inmediatas. Para sectores como salud, campo o entornos con políticas estrictas, esto cambia la conversación: ya no todo pasa por una API en la nube.
Investigación: menos alucinaciones, mejores agentes
En negocio puro, Axios afirma que Anthropic estaría viviendo una de las rampas de ingresos orgánicos más rápidas vistas a gran escala, con fuerte tracción empresarial alrededor de Claude. Si estos números se sostienen, el mensaje para el mercado es simple: el gasto en LLM no es un experimento, es ya una línea presupuestaria grande. Y eso impacta desde negociaciones con proveedores hasta cómo se justifica el ROI de automatización interna.
Avatares y agentes autónomos en práctica
Pasemos a educación, porque aquí el contraste es llamativo. Una encuesta de RAND a estudiantes de 12 a 29 años indica que una mayoría cree que usar más IA para tareas perjudica el pensamiento crítico… mientras el uso real sube con fuerza, sobre todo en secundaria. El análisis lo interpreta como una respuesta racional a incentivos: si el sistema premia entregas pulidas y notas, y al docente le cuesta detectar, el comportamiento se alinea con el premio. La IA, en el fondo, estaría exponiendo debilidades previas: evaluación demasiado estandarizada, currículos estrechos y poca recompensa a razonar en abierto.
En investigación, Apple propone una explicación teórica de por qué los LLM fallan memorizando hechos cuando el ‘volumen de información’ supera su capacidad, y sugiere podar datos de entrenamiento para mejorar fiabilidad factual sin escalar tanto el modelo. En paralelo, Ai2 pide freno a los grandes titulares sobre “agentes científicos”: presenta benchmarks como ScienceWorld y DiscoveryWorld para medir si un agente realmente experimenta y descubre, no solo responde bien a exámenes. En conjunto, la idea es clara: menos magia y más medición, porque la próxima ola depende de confianza.
Y cierro con dos señales culturales sobre ‘personas’ y ‘autonomía’. Primero, Meta estaría experimentando con un avatar tipo ‘clon’ de Zuckerberg para asistir a reuniones y dar feedback, lo que plantea preguntas incómodas sobre autenticidad y dinámica laboral, aunque sea tentador como forma de escalar liderazgo. Segundo, un experimento público con un agente llamado ALMA, con dinero, internet y libertad acotada por reglas éticas, mostró algo curioso: mucha productividad textual, algunas donaciones… y, con el tiempo, una rutina repetitiva más que una exploración creativa infinita. Buen recordatorio: dar herramientas no garantiza objetivos; el entorno y los incentivos siguen mandando.
Hasta aquí el episodio de hoy. Si algo conecta todos estos temas —desde agentes en la empresa hasta la IA en el aula— es que el valor llega cuando hay control: evaluación correcta, gobernanza real, y sistemas diseñados para que la IA sume sin borrar el criterio humano. Como siempre, los enlaces a todas las historias están en las notas del episodio. Gracias por escuchar The Automated Daily, AI News edition. Mañana, más.