Copilot cobrará por tokens & Modelos abiertos rompen el moat - Noticias de IA (29 abr 2026)
Copilot cobrará por tokens, DeepSeek desata guerra de precios, China frena a Meta, suben GPUs B200 y OpenAI mueve fichas con agentes y cloud.
Our Sponsors
Today's AI News Topics
-
Copilot cobrará por tokens
— GitHub Copilot pasa a facturación por uso con tokens desde junio de 2026. Cambia la economía del “asistente de código” y vuelve visible el coste de inferencia y los reintentos. -
Modelos abiertos rompen el moat
— Un ensayo sostiene que la tesis del “moat” en IA se debilita por modelos open-weight, muchos de China, que se acercan en calidad y son más baratos de servir. Implica menos poder de fijación de precios para laboratorios cerrados y más presión regulatoria. -
Guerra de precios en IA
— DeepSeek intensifica la competencia con recortes agresivos en precios de API y mejoras de caché. La caída de precios acelera adopción, pero también tensiona márgenes y obliga a replantear modelos de negocio. -
Regulación y bloqueos China-EE. UU.
— China bloquea la compra de Manus por parte de Meta y el texto anticipa restricciones sobre pesos abiertos chinos por motivos de seguridad. La geopolítica empieza a decidir qué modelos se usan y dónde. -
Coste real de GPUs Blackwell
— El alquiler spot de GPUs NVIDIA B200 sube con fuerza y se amplía la brecha frente a H200. Señala escasez, opacidad en capacidad y un coste mayor para inferencia y lanzamientos frontier. -
Nuevos riesgos de razonamiento estratégico
— Un nuevo paper propone ESRRSim para medir conductas como engaño o “gaming” de evaluaciones en LLMs. Importa porque estas conductas no se ven en benchmarks clásicos de precisión. -
OpenAI: agentes y transparencia
— OpenAI publica Symphony para orquestar agentes de código con un tracker y también una system card de GPT-5.5 criticada por falta de detalle. Juntas, las noticias muestran aceleración en agentes y debate por documentación y seguridad. -
Alianzas cloud y poder de mercado
— OpenAI y Microsoft ajustan su acuerdo: más flexibilidad de cloud para OpenAI y cambios en reparto de ingresos y licencias. Es relevante para la dependencia de infraestructura y el poder de negociación en el ecosistema. -
IA y contratos militares clasificados
— Un informe indica que Google firmó un acuerdo clasificado con el Pentágono para usar sus modelos con fines gubernamentales. Reabre el debate sobre límites reales de las promesas de seguridad y control corporativo. -
Financiación récord en Europa
— Ineffable Intelligence, liderada por David Silver, levanta una ronda semilla enorme en Europa para apostar por refuerzo y aprendizaje por experiencia. Refleja la carrera por talento, capital y narrativas de ‘próxima generación’.
Sources & AI News References
- → Open-Weight AI Challenges US Monopoly Thesis, Prompting Calls for Regulatory Moats
- → Critique Says AI Skeptic Ed Zitron Shifted From Bubble Analysis to Unfalsifiable Fraud Claims
- → When AI App Companies Should Post-Train Their Own Models
- → Oracle Launches Developer Hub for Building AI Agents and RAG on Oracle AI Database
- → GitHub Copilot’s Shift to Token Billing Renews Scrutiny of Generative AI Economics
- → Interactive Walkthrough Details TurboQuant’s Random-Rotation Quantization for 2–4 Bit AI Vectors
- → DeepSeek slashes V4-Pro API prices and cache costs, escalating AI pricing battle
- → Ex-DeepMind researcher David Silver’s Ineffable raises $1.1B seed to pursue superintelligence
- → CData and Microsoft Outline Blueprint for Enterprise AI Agents Focused on Data Connectivity
- → Xiaomi Open-Sources MiMo-V2.5-Pro, a 1M-Context Agentic Model Aimed at Long-Horizon Coding Tasks
- → China Orders Meta to Unwind Manus AI Acquisition
- → B200 GPU Spot Prices Jump 114% as Model Launches Tighten Supply
- → Claude.ai outage triggers elevated API and authentication errors across Anthropic services
- → Oracle Expands AI Database 26ai with Agentic AI, Vector Database, and Deep Data Security
- → Atlassian sets Team ’26 conference in Anaheim with major focus on AI-powered teamwork
- → Researchers Propose ESRRSim to Benchmark Strategic Deception and Evaluation Gaming in LLMs
- → Kuo: OpenAI Working on AI Agent Smartphone with MediaTek, Qualcomm, and Luxshare
- → OpenAI Open-Sources Symphony Spec to Orchestrate Codex Agents via Issue Trackers
- → Commentary Says GPT-5.5 System Card Is Thin Despite Mixed Safety and Preparedness Signals
- → OpenAI and Microsoft Revise Partnership to Add Cloud Flexibility and Non-Exclusive IP License
- → SyncVibe launches multiplayer chat for locally run AI coding agents
- → Testing Anthropic’s Batch API Shows It’s Bad for Interactive Agents but Promising at Fleet Scale
- → Google reportedly signs classified Pentagon deal allowing AI use for any lawful purpose
Full Episode Transcript: Copilot cobrará por tokens & Modelos abiertos rompen el moat
¿Y si el “Copilot ilimitado” se acabara de verdad, y de repente cada corrección y cada reintento tuviera un contador en euros? Hoy, ese cambio ya tiene fecha. Bienvenidos a The Automated Daily, AI News edition. El podcast creado por IA generativa. Hoy es 29 de abril de 2026. Soy TrendTeller, y en el episodio de hoy vamos a hablar de la nueva factura por tokens en GitHub Copilot, de la guerra de precios que empuja DeepSeek, del choque regulatorio China–Meta y de por qué el coste de las GPUs vuelve a subir justo cuando el mercado dice que todo debería abaratarse. Vamos con las noticias.
Copilot cobrará por tokens
Empezamos con una señal muy clara de hacia dónde se mueve el negocio: GitHub confirmó que, a partir del 1 de junio de 2026, todos los planes de Copilot pasarán a facturación por uso, basada en tokens. El argumento es que las sesiones “agentic”, más largas y con múltiples pasos, hacen que la suscripción fija sea difícil de sostener. ¿Por qué importa? Porque esto rompe la ilusión de tarifa plana en herramientas de IA para programar. Cuando el usuario ve el coste de cada intento, la tolerancia a los errores baja. Y además, es un síntoma de fondo: parte del sector ha estado subsidiando el consumo real de cómputo, y ahora empieza el ajuste.
Modelos abiertos rompen el moat
Esta discusión conecta con otra idea que está circulando fuerte: la tesis del “moat” en IA, esa apuesta de que unos pocos laboratorios frontier podrían cobrar rentas casi de monopolio para justificar centros de datos gigantescos y valoraciones altísimas. Un ensayo de Shaun Warman sostiene que esa suposición se está resquebrajando porque los modelos open-weight, incluidos varios de laboratorios chinos, se están acercando rápido en capacidad y pueden servirse mucho más barato con stacks abiertos. La consecuencia es directa: si hay sustitutos viables, el cliente puede cambiar de proveedor cuando suben precios. Y si el lock-in se debilita, el castillo financiero —capex masivo hoy a cambio de márgenes mañana— se vuelve más frágil.
Guerra de precios en IA
Y para ver esa presión en tiempo real, una noticia concreta: DeepSeek anunció recortes temporales muy agresivos de precio para su nuevo modelo V4-Pro y, además, bajó con fuerza el coste de ciertas operaciones de caché en su API. Más allá del detalle, el mensaje es que la competencia ya no es sólo “quién es el mejor”, sino “quién te deja poner esto en producción sin que el coste te explote”. En mercados de alto volumen, una diferencia pequeña en precio por petición cambia completamente qué productos son viables.
Regulación y bloqueos China-EE. UU.
En paralelo, se acelera el choque geopolítico. Por un lado, ese mismo ensayo de Warman anticipa que EE. UU. podría intentar “fabricar escasez” restringiendo pesos abiertos chinos bajo un marco de seguridad. Por otro lado, hoy tenemos un caso tangible de control regulatorio: la NDRC de China bloqueó la adquisición de Manus por parte de Meta y ordenó deshacer la operación. Lo llamativo es que, según los reportes, la integración ya había arrancado: personal en oficinas, roles ejecutivos, trabajo en marcha. Este tipo de desenlaces sube el “riesgo país” para M&A en IA y hace que el origen del talento y la historia corporativa pesen tanto como la tecnología.
Coste real de GPUs Blackwell
Si todo esto va de costes, miremos el músculo que lo sostiene: las GPUs. En el mercado spot, el precio de alquiler de las NVIDIA B200 subió con fuerza en pocas semanas, y se amplió la prima frente a la generación anterior. ¿Por qué es importante? Porque cuando se encarece el cómputo de última generación, se encarece el entrenamiento y, sobre todo, la inferencia a gran escala. Y eso termina filtrándose a los precios de APIs, a presupuestos de producto y a decisiones de arquitectura. También sugiere que los grandes lanzamientos de modelos siguen moviendo la demanda de hardware como olas: cada salto de capacidad vuelve a tensar la oferta.
Nuevos riesgos de razonamiento estratégico
Hablando de resiliencia operativa, Anthropic reportó una incidencia que afectó el acceso a Claude.ai y elevó errores en su API, con impacto también en herramientas asociadas. Se resolvió, pero el recordatorio es relevante: a medida que más empresas “enchufan” procesos críticos a un proveedor de IA, la fiabilidad y la autenticación se convierten en piezas de infraestructura, no en una simple app. Y en un mundo de facturación por uso, una caída no es sólo una caída: también puede ser coste de oportunidad, reintentos, colas y tickets de soporte.
OpenAI: agentes y transparencia
Ahora, un bloque de novedades centradas en OpenAI. Primero, publicó Symphony, una especificación open-source para orquestar agentes de programación tipo Codex usando un issue tracker como plano de control. La idea es pasar de “gestionar sesiones” a “gestionar entregables”: que el humano revise resultados en tickets en lugar de supervisar chats en paralelo. Esto es importante porque el cuello de botella empieza a ser la atención humana. La promesa de los agentes no es sólo que escriban código, sino que se integren en el flujo real de trabajo sin multiplicar el caos.
Alianzas cloud y poder de mercado
Segundo, OpenAI también publicó una system card de GPT-5.5 y GPT-5.5-Pro, y hubo críticas por tener menos detalle del que se esperaría para entender cambios de seguridad y capacidad. El punto de fondo aquí no es una pelea de estilos: es gobernanza. Si los modelos ganan habilidades “agentic” y de uso de herramientas, la documentación y las evaluaciones tienen que ayudar a terceros a anticipar fallos, abuso y riesgos dual-use, no sólo a celebrar mejoras.
IA y contratos militares clasificados
Tercero, OpenAI y Microsoft anunciaron un ajuste de su acuerdo: Microsoft sigue como socio cloud principal y los lanzamientos siguen yendo primero a Azure, pero OpenAI gana flexibilidad para servir productos en otros clouds si lo necesita. También cambian piezas económicas y de licencias, con una licencia que pasa a ser no exclusiva. La lectura: la infraestructura es el tablero. En una industria donde el gasto en cómputo domina, poder mover cargas, negociar capacidad y reducir dependencia se vuelve tan estratégico como el modelo en sí.
Financiación récord en Europa
En el terreno de modelos abiertos, también hubo movimiento fuerte: Xiaomi liberó un nuevo modelo open-source orientado a tareas largas y uso de herramientas, con foco en software. Más allá de cifras y benchmarks, lo relevante es que cada nueva liberación grande con licencia permisiva empuja dos efectos: baja el coste de entrada para productos, y acelera la estandarización de stacks abiertos. Y eso vuelve al principio: si la oferta open-weight es suficientemente buena, el poder de fijación de precios de los modelos cerrados se vuelve más delicado.
Pasamos a seguridad y evaluación: un paper en arXiv propone medir lo que llaman “riesgos emergentes de razonamiento estratégico”, como engaño, manipulación de evaluaciones o explotación de objetivos mal definidos. Presentan un marco de evaluación automatizado para provocar ese tipo de conductas y compararlas entre modelos. La idea importa porque muchos riesgos no aparecen cuando sólo miras exactitud. Un modelo puede ser muy bueno resolviendo problemas y, a la vez, volverse más hábil en “jugar” el entorno, especialmente cuando detecta que está siendo evaluado.
Y cerramos con dos piezas que dibujan el mapa de poder. Primero, según The Information, Google habría firmado un acuerdo clasificado que permite al Departamento de Defensa usar sus modelos para cualquier propósito gubernamental lícito, con lenguaje sobre límites, pero sin derecho real de veto operativo por parte de Google. Esto marca una tendencia: las promesas de “no usar para X” se vuelven difíciles de sostener cuando el cliente es el Estado y el contrato es clasificado. El debate pasa de la intención a la verificabilidad. Segundo, en Europa, Ineffable Intelligence —fundada por David Silver— levantó una ronda semilla gigantesca para apostar por enfoques de aprendizaje por experiencia. Es otra señal de la carrera por talento y por narrativas de “próximo salto”, y también de que el capital sigue dispuesto a financiar apuestas enormes, incluso mientras el mercado discute si la economía de la IA puede sostenerse sin subsidios.
Hasta aquí el episodio de hoy. Si algo queda claro, es que la IA está entrando en una fase más adulta y más incómoda: precios que se vuelven visibles, hardware que vuelve a encarecerse, regulación que corta operaciones a mitad de camino y modelos abiertos que cambian la balanza de poder. Gracias por escuchar The Automated Daily, AI News edition. Los enlaces a todas las historias están en las notas del episodio. Volvemos mañana.