Tech News · 12 de mayo de 2026 · 10:15

Hackers usando IA para cero-días & Claude de Anthropic dentro de AWS - Noticias de Tecnología (12 may 2026)

Hackers usan IA para un zero‑day, Claude llega a AWS, filtración de Gemini Omni, RCS cifrado Apple‑Google y alerta por citas falsas en ciencia. 12/05/2026

Hackers usando IA para cero-días & Claude de Anthropic dentro de AWS - Noticias de Tecnología (12 may 2026)
0:0010:15

Our Sponsors

Today's Tech News Topics

  1. Hackers usando IA para cero-días

    — Google dice haber visto el primer indicio sólido de cibercriminales usando un modelo de IA para descubrir y explotar un “zero-day”. Señales como código con explicaciones inusualmente verbosas alimentan el debate sobre controles de publicación y defensa proactiva.
  2. Claude de Anthropic dentro de AWS

    — AWS anunció disponibilidad general de Claude Platform en cuentas AWS, con IAM y auditoría vía CloudTrail, simplificando compras y gobernanza. Punto clave: el procesamiento ocurre fuera del perímetro de seguridad de AWS, relevante para requisitos de residencia de datos.
  3. Filtración del modelo Gemini Omni

    — Capturas en Reddit sugieren que “Gemini Omni” apareció antes de Google I/O 2026, apuntando a creación y edición de video dentro del chat. Lo llamativo es el foco en edición potente y límites de uso, más que en calidad cinematográfica inmediata.
  4. Crisis de citas falsas en ciencia

    — The Lancet alerta de un aumento fuerte de citas inventadas en papers, asociado al uso de herramientas de IA que pueden “alucinar” referencias. El problema afecta la integridad científica, peer review y, en medicina, podría contaminar guías clínicas.
  5. Ataque a la cadena npm TanStack

    — Investigadores detectaron publicaciones maliciosas en paquetes npm del ecosistema @tanstack, con señales de robo de credenciales y compromiso de CI como GitHub Actions. El caso subraya riesgos de supply chain y la necesidad de endurecer workflows y confianza en automatización.
  6. RCS con cifrado Apple y Google

    — Apple y Google activan en beta RCS con cifrado de extremo a extremo entre iPhone y Android, cerrando una brecha histórica de seguridad en mensajes cruzados. La disponibilidad depende de operadoras y se indica con un icono de candado.
  7. Robots humanoides coordinándose solos

    — Figure mostró dos robots humanoides ordenando un dormitorio y coordinándose sin un “cerebro” central ni comunicación directa. Es un avance práctico hacia robots que colaboran en tareas domésticas y laborales con adaptación en tiempo real.
  8. GitLab se reestructura por agentes

    — GitLab abrió un programa de separación voluntaria y planea aplanar capas de gestión para enfocarse en una estrategia de ‘era de la IA’. La apuesta gira alrededor de APIs y plataforma pensadas para trabajo humano y agentes autónomos en CI/CD.
  9. Juicio Musk vs OpenAI y Microsoft

    — En el juicio federal por la demanda de Elon Musk contra OpenAI, se discutió el rol de Satya Nadella en el regreso de Sam Altman en 2023. El caso pone bajo lupa la influencia de grandes patrocinadores y la promesa original de misión sin ánimo de lucro.
  10. EE. UU. y China compiten por IA

    — Un análisis sobre la próxima reunión Trump–Xi plantea que la rivalidad por IA pesa más que el comercio tradicional. Chips, talento, despliegue industrial y estándares de seguridad se vuelven temas centrales con impacto global.

Sources & Tech News References

Full Episode Transcript: Hackers usando IA para cero-días & Claude de Anthropic dentro de AWS

Hoy hay una señal que cambia el tablero: Google cree haber detectado el primer caso claro de hackers usando una IA para encontrar y convertir en arma un fallo “zero‑day”. Si eso se confirma, la carrera entre atacantes y defensores entra en otra fase. Bienvenidos a The Automated Daily, edición noticias tecnológicas. El podcast creado por IA generativa. Soy TrendTeller y hoy es 12 de mayo de 2026. Vamos con lo más importante del día, con contexto y sin ruido.

Hackers usando IA para cero-días

Empecemos por ciberseguridad, porque vienen dos historias que, juntas, dibujan una tendencia inquietante. Google afirma que ha visto lo que sería el primer caso conocido de delincuentes usando un modelo de inteligencia artificial para descubrir y explotar una vulnerabilidad inédita, un “zero‑day”. La pista, según su equipo de inteligencia de amenazas, está en un script en Python con un estilo demasiado explicativo para ser habitual en código malicioso. Avisaron a tiempo para que se corrigiera, y eso evitó daños a gran escala, pero el mensaje es claro: si la IA reduce el coste de encontrar fallos raros, el volumen de ataques puede crecer mucho más rápido.

Claude de Anthropic dentro de AWS

Y, enlazado con eso, el mismo grupo de Google advierte que el “hackeo asistido por IA” ha pasado de experimento a producción industrial en cuestión de meses. Hablan de bandas criminales y actores vinculados a estados que están usando modelos comerciales para acelerar desde el phishing hasta la búsqueda de vulnerabilidades. Es importante porque el debate ya no es si se usará, sino cómo se gestionan los tiempos: si los atacantes encuentran antes los fallos, los defensores necesitan mejores señales, mejores parches y, probablemente, mejores prácticas de divulgación.

Filtración del modelo Gemini Omni

Otra noticia de seguridad, esta vez en la cadena de suministro del software. Investigadores de Socket reportaron cambios maliciosos en decenas de artefactos publicados en npm bajo el paraguas de @tanstack, un nombre enorme dentro del ecosistema JavaScript. Lo relevante no es solo el posible alcance por dependencias indirectas, sino el “cómo”: el ataque habría aprovechado puntos ciegos en automatizaciones de GitHub Actions y en flujos de publicación confiables. Moraleja práctica: cada vez más, el objetivo no es tu app, sino tu pipeline; y la defensa pasa por endurecer permisos, revisar límites de confianza y asumir que las automatizaciones también son superficie de ataque.

Crisis de citas falsas en ciencia

Pasemos a IA en empresas. AWS anunció disponibilidad general de Claude Platform dentro de AWS, para que equipos puedan usar las APIs y herramientas de Anthropic directamente desde su cuenta de Amazon, con autenticación y control de identidades vía IAM, auditoría con CloudTrail y facturación integrada. Es interesante por un motivo muy terrenal: compra y operación. Para muchas compañías, el freno no es “queremos IA”, sino “¿cómo lo contratamos, cómo lo auditamos, cómo lo gobierna seguridad?”. Dicho eso, hay una letra pequeña importante: el servicio lo opera Anthropic y los datos se procesan fuera del perímetro de seguridad de AWS, así que no es la opción ideal si tu organización tiene exigencias estrictas de residencia regional o límites de procesamiento.

Ataque a la cadena npm TanStack

Hablando de IA y plataformas, hay filtraciones que apuntan a lo que Google podría mostrar en I/O 2026. Usuarios de Reddit compartieron capturas donde aparece algo llamado “Gemini Omni”, descrito como un modelo o herramienta unificada para generar y, sobre todo, editar y “remezclar” video desde el propio chat. La lectura aquí es estratégica: Google parece repetir la fórmula de lanzar primero con edición muy fuerte —cambiar objetos, reescribir escenas— y luego ir mejorando la calidad base del video. Si esto se concreta, veremos más creación audiovisual integrada en flujos cotidianos, no como software aparte, sino como una función conversacional.

RCS con cifrado Apple y Google

En el plano de industria y mercados, Alphabet sigue reforzando la narrativa de que no solo sobrevivió al boom de la IA, sino que se ha convertido en uno de sus grandes ganadores. El argumento de los inversores es que Google juega en casi todas las capas: distribución masiva con Search y YouTube, escala empresarial con Cloud, modelos con Gemini y chips propios con TPU. Lo llamativo es que algunos analistas ya hablan de que Alphabet podría acercarse a superar a Nvidia en valor de mercado. Más allá del ranking, la idea de fondo es esta: la ventaja competitiva en IA no es solo tener chips o solo tener modelos; es controlar varias piezas a la vez.

Robots humanoides coordinándose solos

Ahora, un tema delicado para la ciencia: The Lancet publicó una carta de investigación que detecta un aumento fuerte de citas fabricadas en artículos científicos, probablemente ligado al uso creciente de herramientas de IA que “inventan” referencias que suenan plausibles. El número total no es gigantesco frente a millones de papers, pero la tasa está subiendo rápido, y el riesgo es acumulativo: una cita falsa puede propagarse, colarse en revisiones, y en medicina terminar influyendo en decisiones si nadie la frena. La recomendación es bastante directa: verificación automática de referencias en el envío de manuscritos y más responsabilidad editorial, porque el formato perfecto ya no garantiza que la fuente exista.

GitLab se reestructura por agentes

Seguimos con un ejemplo que pone los pies en la tierra sobre las promesas de “IA mágica” en seguridad. Daniel Stenberg, creador de curl, contó que un análisis con el modelo Mythos —muy publicitado por su potencial para encontrar vulnerabilidades— produjo un informe con varias “vulnerabilidades confirmadas”, pero tras revisión humana solo una resultó ser real, y además de baja severidad. Aun así, el balance no es negativo: también aparecieron bugs útiles para mejorar el proyecto. La conclusión razonable: estas herramientas ya ayudan, pero siguen generando falsos positivos y no sustituyen el criterio de equipos de seguridad; lo que sí hacen es elevar el estándar, porque escanear con IA se está convirtiendo en la nueva línea base.

Juicio Musk vs OpenAI y Microsoft

En mensajería, hay una mejora concreta para privacidad que muchos llevaban años esperando: Apple y Google están desplegando RCS con cifrado de extremo a extremo, en beta, para mensajes entre iPhone y Android. Esto recorta la brecha histórica donde muchas conversaciones cruzadas terminaban en SMS o en implementaciones sin cifrar de forma consistente. La disponibilidad depende de la operadora, pero el detalle importante es la interoperabilidad: dos plataformas dominantes empujando cifrado de verdad, justo cuando otras apps han frenado o matizado planes de encriptación en el pasado.

EE. UU. y China compiten por IA

Cambiamos de tema: robótica. Figure publicó un video donde dos robots humanoides ordenan un dormitorio y colaboran para hacer la cama en muy poco tiempo. Lo interesante no es el “truco” del video, sino la coordinación: dicen que no hay un controlador central ni comunicación directa entre robots, sino que cada uno interpreta al otro a partir de la observación. Si esto escala, abre la puerta a robots que compartan espacios y tareas de forma más natural, algo clave en hogares, almacenes y entornos de servicios donde el trabajo rara vez es lineal y limpio.

En salud y neurotecnología, investigadores de Columbia presentaron evidencia directa en humanos de un sistema auditivo controlado por el cerebro que puede ayudar a seleccionar una voz entre varias, el clásico problema del “cóctel”. En pruebas con pacientes que ya tenían electrodos implantados por razones clínicas, el sistema detectaba a qué hablante prestaban atención y ajustaba el audio para priorizar esa voz. Hoy es invasivo y no está listo para un uso cotidiano, pero apunta a una dirección potente: dispositivos que no solo amplifican sonido, sino que amplifican intención, algo especialmente relevante para la calidad de vida y el riesgo de aislamiento asociado a pérdida auditiva.

En el mundo del trabajo de software, GitLab anunció una reestructuración con un programa de separación voluntaria y cambios para reducir capas de gestión y su huella operativa global. La compañía insiste en que no es simplemente recorte por recorte, sino una apuesta para reorganizarse alrededor de una “era de agentes”: nuevas piezas de plataforma, APIs pensadas para agentes y una CI/CD adaptada a flujos donde habrá más automatización y, posiblemente, menos tareas manuales. Para el sector, es una señal de que las herramientas de desarrollo están entrando en un reajuste competitivo: no basta con añadir IA; están rediseñando cómo se construyen y gobiernan los productos.

Y dos apuntes de poder y política, porque la IA ya es un tema institucional. En el juicio por la demanda de Elon Musk contra OpenAI, el abogado de Musk sostuvo que Satya Nadella, CEO de Microsoft, intervino en el episodio de 2023 que terminó con el retorno de Sam Altman. El caso importa porque cuestiona hasta qué punto un gran socio puede influir en un laboratorio que nació con misión sin ánimo de lucro, y qué significa eso para gobernanza y confianza pública.

Por último, un análisis sobre la próxima reunión de Donald Trump con Xi Jinping sugiere que el eje real no será tanto el comercio clásico, sino la rivalidad por inteligencia artificial: chips, talento, despliegue industrial y reglas de seguridad. También deja una idea incómoda: el riesgo no es solo tecnológico, sino de concentración de poder, ya sea por control estatal o por control corporativo. Con modelos cada vez más capaces, las decisiones sobre acceso, estándares y verificación empiezan a tener impacto fuera del sector tech, directamente sobre economías y sociedades.

Eso es todo por hoy. Si te quedas con una idea, que sea esta: la IA no solo está mejorando productos, está reordenando seguridad, ciencia, mensajería y hasta la geopolítica, y lo está haciendo a gran velocidad. Soy TrendTeller. Vuelvo mañana con más noticias en The Automated Daily, tech news edition.

More from Tech News