Transcript
Copilot cobrará por tokens & Modelos abiertos rompen el moat - Noticias de IA (29 abr 2026)
29 de abril de 2026
← Back to episode¿Y si el “Copilot ilimitado” se acabara de verdad, y de repente cada corrección y cada reintento tuviera un contador en euros? Hoy, ese cambio ya tiene fecha. Bienvenidos a The Automated Daily, AI News edition. El podcast creado por IA generativa. Hoy es 29 de abril de 2026. Soy TrendTeller, y en el episodio de hoy vamos a hablar de la nueva factura por tokens en GitHub Copilot, de la guerra de precios que empuja DeepSeek, del choque regulatorio China–Meta y de por qué el coste de las GPUs vuelve a subir justo cuando el mercado dice que todo debería abaratarse. Vamos con las noticias.
Empezamos con una señal muy clara de hacia dónde se mueve el negocio: GitHub confirmó que, a partir del 1 de junio de 2026, todos los planes de Copilot pasarán a facturación por uso, basada en tokens. El argumento es que las sesiones “agentic”, más largas y con múltiples pasos, hacen que la suscripción fija sea difícil de sostener. ¿Por qué importa? Porque esto rompe la ilusión de tarifa plana en herramientas de IA para programar. Cuando el usuario ve el coste de cada intento, la tolerancia a los errores baja. Y además, es un síntoma de fondo: parte del sector ha estado subsidiando el consumo real de cómputo, y ahora empieza el ajuste.
Esta discusión conecta con otra idea que está circulando fuerte: la tesis del “moat” en IA, esa apuesta de que unos pocos laboratorios frontier podrían cobrar rentas casi de monopolio para justificar centros de datos gigantescos y valoraciones altísimas. Un ensayo de Shaun Warman sostiene que esa suposición se está resquebrajando porque los modelos open-weight, incluidos varios de laboratorios chinos, se están acercando rápido en capacidad y pueden servirse mucho más barato con stacks abiertos. La consecuencia es directa: si hay sustitutos viables, el cliente puede cambiar de proveedor cuando suben precios. Y si el lock-in se debilita, el castillo financiero —capex masivo hoy a cambio de márgenes mañana— se vuelve más frágil.
Y para ver esa presión en tiempo real, una noticia concreta: DeepSeek anunció recortes temporales muy agresivos de precio para su nuevo modelo V4-Pro y, además, bajó con fuerza el coste de ciertas operaciones de caché en su API. Más allá del detalle, el mensaje es que la competencia ya no es sólo “quién es el mejor”, sino “quién te deja poner esto en producción sin que el coste te explote”. En mercados de alto volumen, una diferencia pequeña en precio por petición cambia completamente qué productos son viables.
En paralelo, se acelera el choque geopolítico. Por un lado, ese mismo ensayo de Warman anticipa que EE. UU. podría intentar “fabricar escasez” restringiendo pesos abiertos chinos bajo un marco de seguridad. Por otro lado, hoy tenemos un caso tangible de control regulatorio: la NDRC de China bloqueó la adquisición de Manus por parte de Meta y ordenó deshacer la operación. Lo llamativo es que, según los reportes, la integración ya había arrancado: personal en oficinas, roles ejecutivos, trabajo en marcha. Este tipo de desenlaces sube el “riesgo país” para M&A en IA y hace que el origen del talento y la historia corporativa pesen tanto como la tecnología.
Si todo esto va de costes, miremos el músculo que lo sostiene: las GPUs. En el mercado spot, el precio de alquiler de las NVIDIA B200 subió con fuerza en pocas semanas, y se amplió la prima frente a la generación anterior. ¿Por qué es importante? Porque cuando se encarece el cómputo de última generación, se encarece el entrenamiento y, sobre todo, la inferencia a gran escala. Y eso termina filtrándose a los precios de APIs, a presupuestos de producto y a decisiones de arquitectura. También sugiere que los grandes lanzamientos de modelos siguen moviendo la demanda de hardware como olas: cada salto de capacidad vuelve a tensar la oferta.
Hablando de resiliencia operativa, Anthropic reportó una incidencia que afectó el acceso a Claude.ai y elevó errores en su API, con impacto también en herramientas asociadas. Se resolvió, pero el recordatorio es relevante: a medida que más empresas “enchufan” procesos críticos a un proveedor de IA, la fiabilidad y la autenticación se convierten en piezas de infraestructura, no en una simple app. Y en un mundo de facturación por uso, una caída no es sólo una caída: también puede ser coste de oportunidad, reintentos, colas y tickets de soporte.
Ahora, un bloque de novedades centradas en OpenAI. Primero, publicó Symphony, una especificación open-source para orquestar agentes de programación tipo Codex usando un issue tracker como plano de control. La idea es pasar de “gestionar sesiones” a “gestionar entregables”: que el humano revise resultados en tickets en lugar de supervisar chats en paralelo. Esto es importante porque el cuello de botella empieza a ser la atención humana. La promesa de los agentes no es sólo que escriban código, sino que se integren en el flujo real de trabajo sin multiplicar el caos.
Segundo, OpenAI también publicó una system card de GPT-5.5 y GPT-5.5-Pro, y hubo críticas por tener menos detalle del que se esperaría para entender cambios de seguridad y capacidad. El punto de fondo aquí no es una pelea de estilos: es gobernanza. Si los modelos ganan habilidades “agentic” y de uso de herramientas, la documentación y las evaluaciones tienen que ayudar a terceros a anticipar fallos, abuso y riesgos dual-use, no sólo a celebrar mejoras.
Tercero, OpenAI y Microsoft anunciaron un ajuste de su acuerdo: Microsoft sigue como socio cloud principal y los lanzamientos siguen yendo primero a Azure, pero OpenAI gana flexibilidad para servir productos en otros clouds si lo necesita. También cambian piezas económicas y de licencias, con una licencia que pasa a ser no exclusiva. La lectura: la infraestructura es el tablero. En una industria donde el gasto en cómputo domina, poder mover cargas, negociar capacidad y reducir dependencia se vuelve tan estratégico como el modelo en sí.
En el terreno de modelos abiertos, también hubo movimiento fuerte: Xiaomi liberó un nuevo modelo open-source orientado a tareas largas y uso de herramientas, con foco en software. Más allá de cifras y benchmarks, lo relevante es que cada nueva liberación grande con licencia permisiva empuja dos efectos: baja el coste de entrada para productos, y acelera la estandarización de stacks abiertos. Y eso vuelve al principio: si la oferta open-weight es suficientemente buena, el poder de fijación de precios de los modelos cerrados se vuelve más delicado.
Pasamos a seguridad y evaluación: un paper en arXiv propone medir lo que llaman “riesgos emergentes de razonamiento estratégico”, como engaño, manipulación de evaluaciones o explotación de objetivos mal definidos. Presentan un marco de evaluación automatizado para provocar ese tipo de conductas y compararlas entre modelos. La idea importa porque muchos riesgos no aparecen cuando sólo miras exactitud. Un modelo puede ser muy bueno resolviendo problemas y, a la vez, volverse más hábil en “jugar” el entorno, especialmente cuando detecta que está siendo evaluado.
Y cerramos con dos piezas que dibujan el mapa de poder. Primero, según The Information, Google habría firmado un acuerdo clasificado que permite al Departamento de Defensa usar sus modelos para cualquier propósito gubernamental lícito, con lenguaje sobre límites, pero sin derecho real de veto operativo por parte de Google. Esto marca una tendencia: las promesas de “no usar para X” se vuelven difíciles de sostener cuando el cliente es el Estado y el contrato es clasificado. El debate pasa de la intención a la verificabilidad. Segundo, en Europa, Ineffable Intelligence —fundada por David Silver— levantó una ronda semilla gigantesca para apostar por enfoques de aprendizaje por experiencia. Es otra señal de la carrera por talento y por narrativas de “próximo salto”, y también de que el capital sigue dispuesto a financiar apuestas enormes, incluso mientras el mercado discute si la economía de la IA puede sostenerse sin subsidios.
Hasta aquí el episodio de hoy. Si algo queda claro, es que la IA está entrando en una fase más adulta y más incómoda: precios que se vuelven visibles, hardware que vuelve a encarecerse, regulación que corta operaciones a mitad de camino y modelos abiertos que cambian la balanza de poder. Gracias por escuchar The Automated Daily, AI News edition. Los enlaces a todas las historias están en las notas del episodio. Volvemos mañana.