Transcript

Hackers usando IA para cero-días & Claude de Anthropic dentro de AWS - Noticias de Tecnología (12 may 2026)

12 de mayo de 2026

Back to episode

Hoy hay una señal que cambia el tablero: Google cree haber detectado el primer caso claro de hackers usando una IA para encontrar y convertir en arma un fallo “zero‑day”. Si eso se confirma, la carrera entre atacantes y defensores entra en otra fase. Bienvenidos a The Automated Daily, edición noticias tecnológicas. El podcast creado por IA generativa. Soy TrendTeller y hoy es 12 de mayo de 2026. Vamos con lo más importante del día, con contexto y sin ruido.

Empecemos por ciberseguridad, porque vienen dos historias que, juntas, dibujan una tendencia inquietante. Google afirma que ha visto lo que sería el primer caso conocido de delincuentes usando un modelo de inteligencia artificial para descubrir y explotar una vulnerabilidad inédita, un “zero‑day”. La pista, según su equipo de inteligencia de amenazas, está en un script en Python con un estilo demasiado explicativo para ser habitual en código malicioso. Avisaron a tiempo para que se corrigiera, y eso evitó daños a gran escala, pero el mensaje es claro: si la IA reduce el coste de encontrar fallos raros, el volumen de ataques puede crecer mucho más rápido.

Y, enlazado con eso, el mismo grupo de Google advierte que el “hackeo asistido por IA” ha pasado de experimento a producción industrial en cuestión de meses. Hablan de bandas criminales y actores vinculados a estados que están usando modelos comerciales para acelerar desde el phishing hasta la búsqueda de vulnerabilidades. Es importante porque el debate ya no es si se usará, sino cómo se gestionan los tiempos: si los atacantes encuentran antes los fallos, los defensores necesitan mejores señales, mejores parches y, probablemente, mejores prácticas de divulgación.

Otra noticia de seguridad, esta vez en la cadena de suministro del software. Investigadores de Socket reportaron cambios maliciosos en decenas de artefactos publicados en npm bajo el paraguas de @tanstack, un nombre enorme dentro del ecosistema JavaScript. Lo relevante no es solo el posible alcance por dependencias indirectas, sino el “cómo”: el ataque habría aprovechado puntos ciegos en automatizaciones de GitHub Actions y en flujos de publicación confiables. Moraleja práctica: cada vez más, el objetivo no es tu app, sino tu pipeline; y la defensa pasa por endurecer permisos, revisar límites de confianza y asumir que las automatizaciones también son superficie de ataque.

Pasemos a IA en empresas. AWS anunció disponibilidad general de Claude Platform dentro de AWS, para que equipos puedan usar las APIs y herramientas de Anthropic directamente desde su cuenta de Amazon, con autenticación y control de identidades vía IAM, auditoría con CloudTrail y facturación integrada. Es interesante por un motivo muy terrenal: compra y operación. Para muchas compañías, el freno no es “queremos IA”, sino “¿cómo lo contratamos, cómo lo auditamos, cómo lo gobierna seguridad?”. Dicho eso, hay una letra pequeña importante: el servicio lo opera Anthropic y los datos se procesan fuera del perímetro de seguridad de AWS, así que no es la opción ideal si tu organización tiene exigencias estrictas de residencia regional o límites de procesamiento.

Hablando de IA y plataformas, hay filtraciones que apuntan a lo que Google podría mostrar en I/O 2026. Usuarios de Reddit compartieron capturas donde aparece algo llamado “Gemini Omni”, descrito como un modelo o herramienta unificada para generar y, sobre todo, editar y “remezclar” video desde el propio chat. La lectura aquí es estratégica: Google parece repetir la fórmula de lanzar primero con edición muy fuerte —cambiar objetos, reescribir escenas— y luego ir mejorando la calidad base del video. Si esto se concreta, veremos más creación audiovisual integrada en flujos cotidianos, no como software aparte, sino como una función conversacional.

En el plano de industria y mercados, Alphabet sigue reforzando la narrativa de que no solo sobrevivió al boom de la IA, sino que se ha convertido en uno de sus grandes ganadores. El argumento de los inversores es que Google juega en casi todas las capas: distribución masiva con Search y YouTube, escala empresarial con Cloud, modelos con Gemini y chips propios con TPU. Lo llamativo es que algunos analistas ya hablan de que Alphabet podría acercarse a superar a Nvidia en valor de mercado. Más allá del ranking, la idea de fondo es esta: la ventaja competitiva en IA no es solo tener chips o solo tener modelos; es controlar varias piezas a la vez.

Ahora, un tema delicado para la ciencia: The Lancet publicó una carta de investigación que detecta un aumento fuerte de citas fabricadas en artículos científicos, probablemente ligado al uso creciente de herramientas de IA que “inventan” referencias que suenan plausibles. El número total no es gigantesco frente a millones de papers, pero la tasa está subiendo rápido, y el riesgo es acumulativo: una cita falsa puede propagarse, colarse en revisiones, y en medicina terminar influyendo en decisiones si nadie la frena. La recomendación es bastante directa: verificación automática de referencias en el envío de manuscritos y más responsabilidad editorial, porque el formato perfecto ya no garantiza que la fuente exista.

Seguimos con un ejemplo que pone los pies en la tierra sobre las promesas de “IA mágica” en seguridad. Daniel Stenberg, creador de curl, contó que un análisis con el modelo Mythos —muy publicitado por su potencial para encontrar vulnerabilidades— produjo un informe con varias “vulnerabilidades confirmadas”, pero tras revisión humana solo una resultó ser real, y además de baja severidad. Aun así, el balance no es negativo: también aparecieron bugs útiles para mejorar el proyecto. La conclusión razonable: estas herramientas ya ayudan, pero siguen generando falsos positivos y no sustituyen el criterio de equipos de seguridad; lo que sí hacen es elevar el estándar, porque escanear con IA se está convirtiendo en la nueva línea base.

En mensajería, hay una mejora concreta para privacidad que muchos llevaban años esperando: Apple y Google están desplegando RCS con cifrado de extremo a extremo, en beta, para mensajes entre iPhone y Android. Esto recorta la brecha histórica donde muchas conversaciones cruzadas terminaban en SMS o en implementaciones sin cifrar de forma consistente. La disponibilidad depende de la operadora, pero el detalle importante es la interoperabilidad: dos plataformas dominantes empujando cifrado de verdad, justo cuando otras apps han frenado o matizado planes de encriptación en el pasado.

Cambiamos de tema: robótica. Figure publicó un video donde dos robots humanoides ordenan un dormitorio y colaboran para hacer la cama en muy poco tiempo. Lo interesante no es el “truco” del video, sino la coordinación: dicen que no hay un controlador central ni comunicación directa entre robots, sino que cada uno interpreta al otro a partir de la observación. Si esto escala, abre la puerta a robots que compartan espacios y tareas de forma más natural, algo clave en hogares, almacenes y entornos de servicios donde el trabajo rara vez es lineal y limpio.

En salud y neurotecnología, investigadores de Columbia presentaron evidencia directa en humanos de un sistema auditivo controlado por el cerebro que puede ayudar a seleccionar una voz entre varias, el clásico problema del “cóctel”. En pruebas con pacientes que ya tenían electrodos implantados por razones clínicas, el sistema detectaba a qué hablante prestaban atención y ajustaba el audio para priorizar esa voz. Hoy es invasivo y no está listo para un uso cotidiano, pero apunta a una dirección potente: dispositivos que no solo amplifican sonido, sino que amplifican intención, algo especialmente relevante para la calidad de vida y el riesgo de aislamiento asociado a pérdida auditiva.

En el mundo del trabajo de software, GitLab anunció una reestructuración con un programa de separación voluntaria y cambios para reducir capas de gestión y su huella operativa global. La compañía insiste en que no es simplemente recorte por recorte, sino una apuesta para reorganizarse alrededor de una “era de agentes”: nuevas piezas de plataforma, APIs pensadas para agentes y una CI/CD adaptada a flujos donde habrá más automatización y, posiblemente, menos tareas manuales. Para el sector, es una señal de que las herramientas de desarrollo están entrando en un reajuste competitivo: no basta con añadir IA; están rediseñando cómo se construyen y gobiernan los productos.

Y dos apuntes de poder y política, porque la IA ya es un tema institucional. En el juicio por la demanda de Elon Musk contra OpenAI, el abogado de Musk sostuvo que Satya Nadella, CEO de Microsoft, intervino en el episodio de 2023 que terminó con el retorno de Sam Altman. El caso importa porque cuestiona hasta qué punto un gran socio puede influir en un laboratorio que nació con misión sin ánimo de lucro, y qué significa eso para gobernanza y confianza pública.

Por último, un análisis sobre la próxima reunión de Donald Trump con Xi Jinping sugiere que el eje real no será tanto el comercio clásico, sino la rivalidad por inteligencia artificial: chips, talento, despliegue industrial y reglas de seguridad. También deja una idea incómoda: el riesgo no es solo tecnológico, sino de concentración de poder, ya sea por control estatal o por control corporativo. Con modelos cada vez más capaces, las decisiones sobre acceso, estándares y verificación empiezan a tener impacto fuera del sector tech, directamente sobre economías y sociedades.

Eso es todo por hoy. Si te quedas con una idea, que sea esta: la IA no solo está mejorando productos, está reordenando seguridad, ciencia, mensajería y hasta la geopolítica, y lo está haciendo a gran velocidad. Soy TrendTeller. Vuelvo mañana con más noticias en The Automated Daily, tech news edition.