Transcript
Claude Mythos y ciberseguridad extrema & Agentes en empresa: Microsoft y Google - Noticias de IA (15 abr 2026)
15 de abril de 2026
← Back to episodeDicen que existe un modelo de IA tan capaz en ciberseguridad que ni siquiera se atreverían a publicarlo, y que ya estaría encontrando vulnerabilidades inéditas a gran escala. Hoy te cuento qué se sabe, y por qué este tipo de historias —sean totalmente precisas o no— están cambiando cómo hablamos de riesgo y control. Bienvenidos a The Automated Daily, edición AI News. El podcast creado por IA generativa. Soy TrendTeller, y hoy es 15 de abril de 2026. Vamos con lo más relevante del día en IA, producto y sociedad, sin humo y con contexto.
Empecemos por la historia más delicada: un artículo describe el supuesto lanzamiento de “Project Glasswing” de Anthropic, una coalición de ciberseguridad apoyada por un modelo retenido, “Claude Mythos Preview”, que —según el relato— detectaría y ayudaría a parchear miles de zero-days. Lo importante aquí no es solo el titular, sino la implicación: si modelos de este nivel existen o están cerca, el ciclo entre descubrir y explotar fallos se comprime, y la ventaja puede ir tanto a defensores como a atacantes. Y también sube la presión por auditorías, contención y supervisión real, no solo promesas.
En paralelo, el mundo corporativo acelera con agentes. Microsoft está probando capacidades inspiradas en OpenClaw dentro de Microsoft 365 Copilot: la idea de un asistente que no solo responde, sino que trabaja “siempre”, ejecutando tareas de varios pasos durante periodos largos. Y, al mismo tiempo, Google estaría testando una pestaña “Agent” en Gemini Enterprise, con bandeja de entrada de tareas y un interruptor explícito de “requerir revisión humana”. Señal clara: el sector se mueve del chat a flujos de trabajo, y la revisión humana se está convirtiendo en un control de seguridad de primer nivel, no en un detalle de UX.
Ese giro hacia “la IA que actúa” enlaza con otra pieza clave de hoy: el riesgo ya no es únicamente que un modelo alucine, sino que su salida active sistemas reales. Un análisis pone el foco en MCP, la capa que conecta modelos con herramientas, datos y APIs. ¿Por qué importa? Porque si esos conectores se despliegan en portátiles de desarrolladores, contenedores efímeros o incluso clientes de navegador, puedes terminar con automatización potente sin inventario, sin logs y sin dueño claro: el clásico “Shadow IT”, pero con esteroides.
Y aunque parezca un problema abstracto, hasta la reproducibilidad técnica se está volviendo un tema de confianza. Thinking Machines Lab sostiene que, incluso con temperatura cero, puedes ver respuestas distintas no por ‘azar’, sino por cómo el servidor agrupa peticiones en lotes y cómo eso cambia pequeñas decisiones numéricas en la GPU. En la práctica: la misma pregunta podría dar salidas diferentes según el tráfico del sistema. Para empresas que quieren auditoría, trazabilidad o flujos regulados, este tipo de detalle deja de ser un capricho de ingenieros y pasa a ser un requisito de producto.
En ese mismo espíritu de bajar a tierra el “agentic”, dos lecturas coinciden en algo: la disciplina manda. Un tech lead cuenta que improvisar con prompts acelera la entrega, pero erosiona comprensión y arquitectura; propone usar la IA para implementar y “estresar” supuestos, con planificación escrita y revisiones estructuradas. Y Will Larson describe un patrón útil: prototipas con agentes para automatizar, pero luego pasas el control de flujo a código determinista y dejas a los agentes lo ambiguo. Traducción: si quieres fiabilidad, no le pidas al modelo que sea tu sistema operativo.
Ahora, infraestructura: hay señales claras de escasez. Reportes hablan de subidas rápidas en el alquiler de GPUs Blackwell y de contratos más rígidos; incluso grandes laboratorios admiten que hacen concesiones por falta de cómputo. Esto puede volver la IA de frontera más cerrada: acceso por relaciones, cupos, y precios que favorecen a quien tiene caja. Y para startups, el incentivo se mueve a modelos más pequeños, inferencia más eficiente y, cuando se pueda, alternativas on-prem.
En bases de datos, Databricks está intentando ocupar un terreno que tradicionalmente pertenecía a otros: presentó Lakebase, un Postgres gestionado y serverless, y además lo defiende como una ‘nueva arquitectura’ donde el almacenamiento vive en formatos abiertos sobre el lake, y el motor escala elásticamente. ¿Por qué es interesante? Porque une lo transaccional —lo que usa una app en tiempo real— con analítica y pipelines de IA con menos fricción. Y, de paso, coloca a Databricks como competidor más directo en la capa operativa, justo cuando los agentes necesitan datos frescos y permisos bien gobernados.
En el extremo opuesto, el de la IA local, Google empuja Gemma 4 para correr en iPhone con inferencia offline, desde una app orientada a pruebas y “skills”. La noticia no es solo ‘se puede’, sino lo que habilita: privacidad por diseño, funcionamiento sin red y respuestas más inmediatas. Para sectores como salud, campo o entornos con políticas estrictas, esto cambia la conversación: ya no todo pasa por una API en la nube.
En negocio puro, Axios afirma que Anthropic estaría viviendo una de las rampas de ingresos orgánicos más rápidas vistas a gran escala, con fuerte tracción empresarial alrededor de Claude. Si estos números se sostienen, el mensaje para el mercado es simple: el gasto en LLM no es un experimento, es ya una línea presupuestaria grande. Y eso impacta desde negociaciones con proveedores hasta cómo se justifica el ROI de automatización interna.
Pasemos a educación, porque aquí el contraste es llamativo. Una encuesta de RAND a estudiantes de 12 a 29 años indica que una mayoría cree que usar más IA para tareas perjudica el pensamiento crítico… mientras el uso real sube con fuerza, sobre todo en secundaria. El análisis lo interpreta como una respuesta racional a incentivos: si el sistema premia entregas pulidas y notas, y al docente le cuesta detectar, el comportamiento se alinea con el premio. La IA, en el fondo, estaría exponiendo debilidades previas: evaluación demasiado estandarizada, currículos estrechos y poca recompensa a razonar en abierto.
En investigación, Apple propone una explicación teórica de por qué los LLM fallan memorizando hechos cuando el ‘volumen de información’ supera su capacidad, y sugiere podar datos de entrenamiento para mejorar fiabilidad factual sin escalar tanto el modelo. En paralelo, Ai2 pide freno a los grandes titulares sobre “agentes científicos”: presenta benchmarks como ScienceWorld y DiscoveryWorld para medir si un agente realmente experimenta y descubre, no solo responde bien a exámenes. En conjunto, la idea es clara: menos magia y más medición, porque la próxima ola depende de confianza.
Y cierro con dos señales culturales sobre ‘personas’ y ‘autonomía’. Primero, Meta estaría experimentando con un avatar tipo ‘clon’ de Zuckerberg para asistir a reuniones y dar feedback, lo que plantea preguntas incómodas sobre autenticidad y dinámica laboral, aunque sea tentador como forma de escalar liderazgo. Segundo, un experimento público con un agente llamado ALMA, con dinero, internet y libertad acotada por reglas éticas, mostró algo curioso: mucha productividad textual, algunas donaciones… y, con el tiempo, una rutina repetitiva más que una exploración creativa infinita. Buen recordatorio: dar herramientas no garantiza objetivos; el entorno y los incentivos siguen mandando.
Hasta aquí el episodio de hoy. Si algo conecta todos estos temas —desde agentes en la empresa hasta la IA en el aula— es que el valor llega cuando hay control: evaluación correcta, gobernanza real, y sistemas diseñados para que la IA sume sin borrar el criterio humano. Como siempre, los enlaces a todas las historias están en las notas del episodio. Gracias por escuchar The Automated Daily, AI News edition. Mañana, más.