AI News · 7 de mayo de 2026 · 8:22

Chrome descarga IA sin avisar & Anthropic y el megacontrato en Google Cloud - Noticias de IA (7 may 2026)

Chrome baja IA en secreto, Anthropic firma 200.000M con Google Cloud, Apple abre modelos, freno legal en Colorado y demandas por AI Overview.

Chrome descarga IA sin avisar & Anthropic y el megacontrato en Google Cloud - Noticias de IA (7 may 2026)
0:008:22

Our Sponsors

Today's AI News Topics

  1. Chrome descarga IA sin avisar

    — Usuarios reportan que Google Chrome descarga en segundo plano un archivo de varios GB (Gemini Nano) para funciones de IA. El debate mezcla consentimiento, privacidad y costes de almacenamiento y energía.
  2. Anthropic y el megacontrato en Google Cloud

    — Anthropic habría comprometido un gasto cercano a 200.000 millones de dólares en Google Cloud en cinco años, reforzando el backlog de contratos de Google. La noticia subraya que la capacidad de cómputo es el cuello de botella central en la carrera de la IA.
  3. Apple Intelligence con modelos de terceros

    — Apple probaría un sistema tipo “Extensions” para elegir distintos modelos de IA dentro de iOS, iPadOS y macOS, conectando Siri y herramientas del sistema con apps. Es un giro hacia una IA más modular, con trade-offs de privacidad y rendimiento.
  4. Meta acelera hacia asistentes agentic

    — Meta estaría desarrollando un asistente agentic más personalizado para ejecutar tareas cotidianas e integrarlo en productos como Instagram. La apuesta eleva la presión sobre infraestructura, datos y confianza de los usuarios.
  5. Colorado frena su ley de IA

    — Un juez federal pausó la aplicación de la ley SB 24-205 de Colorado, una de las primeras en regular IA “de alto riesgo” y sesgo algorítmico. El caso prueba límites legales sobre libertad de expresión y regulación estatal de IA.
  6. Demanda por errores en AI Overview

    — El músico Ashley MacIsaac demandó a Google tras una supuesta difamación generada por AI Overview que lo identificó falsamente como delincuente sexual. El caso pone el foco en daños reales y responsabilidad por resúmenes generativos.
  7. Modelos más rápidos: Gemini y Gemma

    — Google lanzó ‘drafters’ MTP para Gemma 4 prometiendo más velocidad sin empeorar calidad, mientras aparecen señales de una nueva línea Gemini Flash. En paralelo, OpenAI actualiza el modelo por defecto de ChatGPT con mejoras de factualidad.
  8. RAG más verificable en Gemini API

    — La herramienta File Search del Gemini API añade búsqueda multimodal, metadatos y citas por página para RAG. Eso mejora trazabilidad, reduce respuestas inventadas y facilita auditoría en producción.
  9. Agentes en empresas: datos y APIs

    — Un índice sobre ‘agentic AI readiness’ sugiere que muchas empresas invierten fuerte pero no tienen la base de datos y gobernanza lista; y un benchmark muestra que, cuando se puede, llamar a APIs sale mucho más barato que operar por ‘visión’ en la UI. La lección: datos consistentes y herramientas estructuradas mandan.
  10. Contexto gigante y límites del LLM

    — Subquadratic afirma un contexto de 12 millones de tokens con buen rendimiento, reabriendo el debate sobre si el largo contexto puede sustituir parte del RAG. Además, un paper propone que el gran salto contra ‘alucinaciones’ es aprender a comunicar incertidumbre de forma fiel.
  11. Robots más fiables con MolmoAct 2

    — Ai2 presentó MolmoAct 2 y liberó componentes y datos para mejorar acciones robóticas con razonamiento 3D. Es relevante porque la robótica necesita recetas abiertas y resultados reproducibles, no solo demos.

Sources & AI News References

Full Episode Transcript: Chrome descarga IA sin avisar & Anthropic y el megacontrato en Google Cloud

Imagina abrir tu navegador y descubrir que, sin preguntarte, ya se ha descargado un modelo de IA de varios gigas en tu ordenador. Hoy hablamos de eso… y de por qué no es un detalle menor. Bienvenidos a The Automated Daily, AI News edition. El podcast creado por IA generativa. Soy TrendTeller, y hoy es 7 de mayo de 2026. Vamos con lo más interesante del día en IA: infraestructura, modelos, regulación y también las fricciones muy humanas que aparecen cuando la tecnología se mete en el día a día.

Chrome descarga IA sin avisar

Empezamos por el tema que ha encendido a muchos usuarios: Google Chrome estaría descargando de forma silenciosa un archivo enorme asociado a Gemini Nano, un modelo para funciones de IA “en el dispositivo”. La idea técnica suena bien —más funciones locales y menos dependencia de la nube—, pero el problema es el cómo: si no hay un aviso claro, la conversación cambia a transparencia, consentimiento y control. A escala de millones de equipos, también entran en juego costes de ancho de banda, almacenamiento y hasta impacto energético. Y para muchos usuarios domésticos, desactivarlo no es precisamente obvio.

Anthropic y el megacontrato en Google Cloud

En infraestructura, la noticia que movió mercados: según The Information, Anthropic habría comprometido un gasto cercano a los 200.000 millones de dólares en Google Cloud durante los próximos cinco años. Esto no solo engorda el backlog de contratos de Google, también manda un mensaje al sector: el acceso garantizado a cómputo —y por largo plazo— se ha convertido en un arma estratégica. Si estás compitiendo con modelos punteros y productos que se disparan en uso, el riesgo ya no es solo “ser peor”: es quedarte sin capacidad y tener que limitar usuarios.

Apple Intelligence con modelos de terceros

Y ya que hablamos de grandes plataformas, Apple podría estar preparando un cambio de filosofía: iOS 27, iPadOS 27 y macOS 27 permitirían elegir modelos de terceros para alimentar funciones de Apple Intelligence. La pista apunta a un sistema interno tipo “Extensions”, donde Siri y otras herramientas del sistema podrían llamar, bajo demanda, a capacidades generativas que vengan de apps instaladas. Si esto se confirma, Apple pasaría de un enfoque más cerrado a uno más modular: más opciones para usuarios y desarrolladores, pero también más preguntas sobre consistencia, privacidad y quién responde cuando algo sale mal.

Meta acelera hacia asistentes agentic

En la misma línea “agentic”, Meta estaría trabajando en un asistente más personalizado y con mayor autonomía para tareas cotidianas, con pruebas internas y planes de integración en productos grandes —incluida la compra asistida en Instagram. Este movimiento importa por dos motivos: primero, porque un asistente que actúa con menos supervisión amplifica tanto el valor como el riesgo. Y segundo, porque Meta está bajo lupa por su gasto en infraestructura de IA: si el producto no demuestra utilidad real, el costo se vuelve difícil de justificar ante inversores.

Colorado frena su ley de IA

Pasamos a regulación: un juez federal pausó la aplicación de la SB 24-205 de Colorado, una ley estatal pionera que iba a exigir mitigación de “discriminación algorítmica” y divulgación de riesgos en sistemas “de alto riesgo”. La pausa llega tras una demanda de xAI y, además, con el Departamento de Justicia de EE. UU. intentando intervenir del lado que cuestiona la ley. Más allá de Colorado, el caso pone sobre la mesa un choque central: cómo regular daños y sesgos sin entrar en terreno de “discurso obligado” o de normas tan vagas que nadie sepa exactamente qué cumplir.

Demanda por errores en AI Overview

Y hablando de consecuencias reales, un caso legal que puede marcar época: el músico canadiense Ashley MacIsaac demandó a Google por difamación, alegando que un AI Overview lo identificó falsamente como delincuente sexual. Aquí el punto no es solo el error —los modelos se equivocan—, sino la forma en que el resultado se presenta con apariencia de autoridad, como si fuera un resumen confiable de búsqueda. Cuando eso desencadena cancelaciones, pérdidas económicas y temor por la seguridad personal, el debate pasa de “fallos técnicos” a responsabilidad civil, deber de corrección y diseño seguro de producto.

Modelos más rápidos: Gemini y Gemma

Ahora, novedades en modelos y rendimiento. Google lanzó modelos “drafter” de Multi-Token Prediction para la familia Gemma 4, con la promesa de acelerar la inferencia —o sea, responder más rápido— sin cambiar el resultado. Para usuarios y empresas, la traducción es clara: menor latencia y más capacidad con el mismo hardware, algo crucial cuando la factura de servir un LLM se mide en infraestructura y en límites físicos de memoria y transferencia de datos. Además, hay señales de que Google prepara una actualización de Gemini Flash: apariciones fugaces en selectores, pruebas en benchmarks públicos y avisos de migración en Vertex AI sugieren que una nueva generación está cerca, probablemente empujada por el calendario previo a I/O. Y del lado de OpenAI, ChatGPT estaría cambiando su modelo “Instant” por GPT-5.5 Instant, con énfasis en menos alucinaciones y respuestas más útiles en tareas diarias. También destaca un empuje en personalización con más control sobre qué “memorias” se usan, un detalle importante en confianza y cumplimiento.

RAG más verificable en Gemini API

Para quienes construyen productos con RAG, Google amplió File Search dentro del Gemini API con tres mejoras muy prácticas: búsqueda multimodal, metadatos para filtrar mejor y citas a nivel de página. Lo interesante no es la función en sí, sino el efecto: si puedes mostrar exactamente de dónde salió una afirmación en un PDF, reduces fricción en auditorías, en entornos regulados y en equipos que ya están cansados de respuestas bonitas pero imposibles de verificar.

Agentes en empresas: datos y APIs

En empresa, dos señales sobre lo que está funcionando —y lo que no— con los agentes. Primero, un índice de preparación para agentic AI basado en líderes de datos sugiere un patrón repetido: muchas compañías ponen dinero sobre la mesa, pero muy pocas tienen una base de datos consistente, gobernada y conectada como para dejar que un agente “actúe” con seguridad. Esto explica por qué tantos proyectos se quedan en pilotos. Y segundo, un benchmark comparó un agente que opera una interfaz visual —mirando capturas y haciendo clic— contra un agente que llama APIs directamente para la misma tarea. El resultado fue contundente: cuando existe una API bien estructurada, la automatización es mucho más rápida, predecible y barata. La moraleja para equipos internos: si puedes cambiar tu propio software, invertir en buenas APIs suele ganar por goleada a “hacer que la IA vea la pantalla”.

Contexto gigante y límites del LLM

Una de las afirmaciones más llamativas del día viene de Subquadratic: asegura un modelo con una ventana de contexto gigantesca —de órdenes de magnitud por encima de lo habitual— y dice que aun así mantiene utilidad real, no solo “cabe texto”. Si se valida de forma independiente, podría alterar parte de la economía del largo contexto y reducir la necesidad de ciertos trucos como fragmentar información o depender tanto del RAG. Pero el sector ya ha visto promesas infladas en contexto largo, así que esto pide replicación y calma. Relacionado con confianza, un paper en arXiv vuelve al problema de las “alucinaciones” y propone un giro: más que obligar al modelo a responder o callarse, el futuro puede estar en comunicar incertidumbre de forma fiel. Esto suena filosófico, pero para agentes que deciden si actuar, buscar una fuente o pedir confirmación, expresar duda de manera honesta puede ser la diferencia entre un sistema útil y uno peligroso.

Robots más fiables con MolmoAct 2

Cerramos con robótica: Ai2 presentó MolmoAct 2, orientado a que robots manipulen objetos de forma más fiable razonando sobre la escena en 3D, y además liberó componentes clave y un dataset grande para entrenamiento. La importancia aquí es la apertura: en robótica, la reproducibilidad y el acceso a datos y recetas pesan tanto como el modelo. Si más equipos pueden probar, fallar y mejorar sobre una base común, la probabilidad de avances prácticos —no solo demos— sube.

Y hasta aquí el episodio de hoy. Si te quedas con una idea, que sea esta: la carrera de la IA ya no es solo “quién tiene el mejor modelo”, sino quién controla el cómputo, quién ofrece trazabilidad y quién se gana la confianza cuando los sistemas se equivocan. Soy TrendTeller, y esto fue The Automated Daily, AI News edition. Encontrarás enlaces a todas las historias en las notas del episodio.

More from AI News