Venta de chats internos a IA & Gobernanza global de la IA - Noticias de IA (18 abr 2026)
Privacidad en shock: startups venden Slack a laboratorios de IA. Además, Opus 4.7, Codex con agentes, Qwen open-weight y la carrera por chips y GPUs.
Our Sponsors
Today's AI News Topics
-
Venta de chats internos a IA
— Startups cerradas están vendiendo archivos de Slack, emails y tickets a empresas de IA como datos de entrenamiento, reavivando el debate sobre privacidad y consentimiento. -
Gobernanza global de la IA
— Asociaciones científicas chinas piden un marco global de gobernanza de IA “abierto y justo”, con énfasis en bienestar humano, control humano y participación equitativa bajo la ONU. -
Agentes que programan en escritorio
— OpenAI amplía Codex hacia un asistente de desarrollo más “agéntico”, capaz de operar apps de escritorio y sostener tareas largas, lo que cambia cómo se integra la IA en flujos reales. -
Open source y modelos ligeros
— Nuevos lanzamientos open-weight y modelos ultra-compactos buscan mejorar el rendimiento en dispositivos y abaratar la inferencia, con licencias permisivas y foco en utilidad práctica. -
Opus 4.7 y ciberseguridad
— Anthropic lanza Claude Opus 4.7 con mejoras en tareas largas, visión más nítida y nuevos bloqueos para peticiones de ciberataque, marcando tendencia en ‘safety’ aplicado. -
Guerra por el cómputo y chips
— OpenAI suena comprometida con grandes compras a Cerebras y xAI ofrecería GPUs a Cursor: señales de una carrera por capacidad de cómputo para entrenamiento e inferencia. -
Nvidia y el ciclo de inversión
— Jensen Huang dejó declaraciones poco habituales sobre compromisos de la cadena de suministro, estrategias de inferencia y el impacto geopolítico de China en el ecosistema de IA. -
Deuda técnica por código IA
— Thoughtworks alerta sobre ‘deuda cognitiva’ por código generado por IA y agentes con permisos excesivos, empujando prácticas como pruebas, seguridad por capas y control operacional. -
Web preparada para agentes
— Google lleva AI Mode a Chrome para investigar sin saltar de pestañas, mientras Cloudflare impulsa estándares de ‘agent readiness’ para que bots y agentes accedan con reglas claras.
Sources & AI News References
- → Chinese Science Groups Urge UN-Linked Global AI Governance Framework
- → PrismML Unveils Ternary Bonsai, a 1.58-Bit LLM Family for High-Accuracy Edge AI
- → OpenAI Expands Codex With Computer Control, Plugins, Memory, and Long-Running Automations
- → OpenAI Cookbook Demonstrates Sandboxed Agents for Safer Legacy Code Migrations
- → Hugging Face ships an agent Skill and test harness to port Transformers models to MLX faster
- → Anthropic Launches Claude Opus 4.7 with Stronger Coding, Higher-Resolution Vision, and Cyber Safeguards
- → Anthropic CPO Mike Krieger quits Figma board amid reports of competing AI design tools
- → Vercel Workflows reaches general availability for durable, long-running agents and backends
- → Jensen Huang Signals Nvidia’s Supply-Chain Leverage, Lab Financing Playbook, and Tiered Inference Strategy
- → Defunct Startups Monetize Slack and Email Archives as AI Training Data
- → DigitalOcean Announces Deploy San Francisco 2026 Conference on Production AI Inference
- → Thoughtworks Technology Radar Vol. 34 spotlights the risks and controls of agentic AI development
- → Notes on Distillation Limits, Pretraining Failure Modes, Scaling Parallelism, Cybersecurity, and Pipeline RL
- → OpenAI Reportedly Commits Over $20B to Cerebras Chips, With Potential Equity Stake
- → Alibaba’s Qwen Team Publishes Qwen3.6 Repo, Highlighting Agentic Coding and Persistent Reasoning
- → Perplexity’s Aravind Srinivas Pitches AI ‘Personal Computer’ to Cut Workflow Friction
- → xAI Reportedly to Supply Massive GPU Compute to Cursor for Composer 2.5 Training
- → OpenAI Launches GPT‑Rosalind, a Life Sciences Reasoning Model for Research Workflows
- → Windsurf 2.0 Launches Agent Command Center and Native Devin Integration
- → Google Brings AI Mode Deeper Into Chrome With Side-by-Side Browsing and Tab-Based Context
- → Cloudflare launches tool to assess whether websites are ready for AI agents
Full Episode Transcript: Venta de chats internos a IA & Gobernanza global de la IA
Hay una nueva fiebre del oro en la IA… y no viene de modelos ni de chips: viene de los chats internos. Algunas startups que quebraron están vendiendo sus historiales de Slack y correos para entrenar sistemas de IA, con implicaciones incómodas para la privacidad. Bienvenidos a The Automated Daily, edición AI News. El podcast creado por IA generativa. Hoy es 18 de abril de 2026. Soy TrendTeller, y en unos minutos repasamos lo más relevante del día: gobernanza global, nuevos modelos, agentes que programan y la carrera por el cómputo.
Venta de chats internos a IA
Empezamos por el tema más espinoso: según reportes citados por Fast Company, startups ya cerradas están vendiendo archivos completos de comunicación interna —mensajes, emails, tickets— a compañías de IA para usarlos como datos de entrenamiento. En algunos casos se habla de cifras de seis dígitos por esos archivos. El porqué importa es evidente: esos registros no son “texto genérico”, suelen incluir datos personales, chismes laborales, decisiones sensibles y contexto que podría reidentificar a personas incluso tras anonimización. Esto eleva la presión para que haya políticas claras de retención de datos, consentimiento y límites legales cuando una empresa muere… pero sus datos siguen teniendo vida comercial.
Gobernanza global de la IA
En paralelo, China mueve ficha en el tablero de la gobernanza. Dieciséis asociaciones científicas y tecnológicas chinas publicaron una iniciativa conjunta que pide un marco global de gobierno de la IA “abierto, justo y eficaz”. Insisten en que la IA sea centrada en las personas, orientada al bienestar público y bajo control humano, pero sin asfixiar la innovación. También enumeran riesgos inmediatos —abuso de algoritmos, desinformación, filtraciones de privacidad y manipulación de modelos— y riesgos más sistémicos a largo plazo, como pérdida de control o comportamientos autónomos. El mensaje político es igual de relevante: reclaman igualdad de participación en investigación y reglas, rechazan “hegemonías” tecnológicas y piden apoyo a países en desarrollo para cerrar la brecha de capacidades. Incluso proponen un organismo internacional de gobernanza bajo el paraguas de la ONU. Traducción: se viene más debate sobre quién fija las reglas… y desde qué valores.
Agentes que programan en escritorio
Pasamos a herramientas de desarrollo, donde el listón de lo que llamamos “asistente” sigue subiendo. OpenAI anunció una actualización grande de Codex para convertirlo en un socio más completo de ingeniería. La idea central: menos chat y más ejecución. Codex en escritorio puede operar en segundo plano, interactuando con interfaces cuando no hay un API cómodo, y sostener tareas prolongadas sin que tú estés encima todo el tiempo. También se acerca más al trabajo real de equipo con apoyo a revisión de PRs y flujos que mezclan código, navegador y capturas. Lo interesante no es una función concreta: es la dirección. Cada vez más, el IDE se vuelve una torre de control de agentes.
Open source y modelos ligeros
Relacionado con esto, OpenAI publicó en su cookbook una guía para migrar bases de código usando Agents SDK con un patrón de “sandbox agents”. En pocas palabras: separas la orquestación —donde viven credenciales y decisiones— de la ejecución, que ocurre en entornos aislados. ¿Por qué importa? Porque si vas a modernizar sistemas grandes, el riesgo no suele ser escribir código nuevo; es ejecutar cosas con permisos de más, romper pruebas en cadena, o terminar con cambios enormes imposibles de revisar. Este enfoque empuja migraciones por partes, con resultados verificables y auditables.
Opus 4.7 y ciberseguridad
En open source también hay una conversación madura sobre calidad y mantenimiento. Ingenieros de Hugging Face publicaron una “Skill” para agentes y un banco de pruebas independiente para acelerar el portado de arquitecturas desde Transformers a mlx-lm, el ecosistema de Apple MLX. El subtexto es importante: los PRs generados por IA están inundando proyectos, pero muchos fallan por no respetar convenciones implícitas. La solución propuesta no es “más IA”, sino IA con carriles: guías, pruebas reproducibles y artefactos verificables para que el revisor no tenga que confiar a ciegas.
Guerra por el cómputo y chips
Ahora, modelos. Anthropic lanzó Claude Opus 4.7 como actualización general, con foco en tareas difíciles de ingeniería de software y trabajos largos de varios pasos. También mejora visión con imágenes de mayor resolución, algo clave para leer capturas densas o diagramas. Donde se pone seria la cosa es en seguridad: Opus 4.7 estrena salvaguardas para detectar y bloquear solicitudes de ciberataque de alto riesgo, y Anthropic abre un programa de verificación para profesionales de seguridad que necesitan usar el modelo de forma legítima. Esto es una señal de época: los laboratorios empiezan a empaquetar “capacidad” y “contención” como un mismo producto, no como un apéndice.
Nvidia y el ciclo de inversión
Y una nota de industria alrededor de Anthropic: Mike Krieger, su chief product officer, dejó el consejo de Figma, según un documento presentado ante reguladores. La lectura dominante es conflicto de interés: se rumorea que Anthropic podría acercarse a herramientas de diseño impulsadas por IA, potencialmente rozando el terreno de Figma. No es un drama, pero sí un recordatorio: los modelos fronterizos ya no compiten solo en benchmarks; compiten entrando en categorías de software establecidas, y eso pone nerviosos a socios, clientes e inversores.
Deuda técnica por código IA
En el frente “modelos pequeños, impacto grande”, PrismML anunció Ternary Bonsai, modelos con pesos ternarios para mantener memoria bajísima sin caer al nivel de compresión extrema que suele degradar mucho la calidad. El mensaje de fondo es el mismo que estamos viendo en todo el sector: la inferencia manda. Si puedes correr un LLM decente en menos memoria y con menos energía, abres puertas en dispositivo, en edge y en despliegues donde el costo por token decide si el producto vive o muere.
Web preparada para agentes
También en open-weight, el equipo de Alibaba Qwen lanzó el repositorio de Qwen3.6, con énfasis en estabilidad y utilidad para desarrollo, especialmente en tareas de “agentic coding” y trabajo a nivel de repositorio. Que salga con licencia permisiva es relevante: baja fricción para adopción empresarial y acelera el ecosistema de herramientas alrededor. En 2026, la competencia no es solo “quién tiene el mejor modelo”, sino “quién se vuelve el default en la caja de herramientas del desarrollador”.
Hablemos de la carrera por el cómputo, porque aquí se está reescribiendo la economía de la IA. The Information reportó que OpenAI habría acordado gastar más de 20 mil millones de dólares en tres años en servidores con chips de Cerebras, con posibles incentivos de participación accionaria. Aunque no esté confirmado por todas las partes, el patrón sí es real: acuerdos gigantescos de capacidad para asegurar inferencia a escala. Y mientras tanto, Business Insider sugiere que xAI planea suministrar decenas de miles de GPUs a Cursor para entrenar su próximo modelo de programación. Si esto se consolida, xAI estaría actuando como proveedor de infraestructura, no solo como laboratorio de modelos. En otras palabras: se difumina la línea entre “lab”, “cloud” y “financiamiento del cómputo”.
En ese mismo eje de infraestructura, circuló un resumen con momentos llamativamente francos de una entrevista larga con Jensen Huang, CEO de Nvidia. Entre lo más comentado: la magnitud de compromisos de compra en semiconductores, cómo Nvidia “amarra” capacidad en la cadena de suministro, y su visión de que el mercado de inferencia terminará segmentado, con niveles de latencia y rendimiento como si fueran planes de ancho de banda. También dejó una postura clara sobre China: restringir demasiado podría acelerar un stack alternativo fuera de EE. UU. Sea cual sea tu lectura geopolítica, para el sector lo importante es que el costo, la disponibilidad y la estructura de precios de la inferencia están empezando a definir estrategias de producto.
Antes de cerrar, una idea que vale como brújula. Thoughtworks publicó su Technology Radar de abril de 2026 y alerta sobre dos riesgos muy de ahora: la “difusión semántica” —cambios rápidos de términos y modas— y la deuda que se acumula cuando equipos aceptan demasiado código generado por IA sin comprenderlo. Lo llaman una especie de deuda cognitiva: funciona hoy, pero mañana nadie sabe depurarlo. Su recomendación suena poco glamorosa, y por eso es útil: volver a fundamentos, pruebas, métricas, seguridad por capas y agentes con permisos mínimos. La IA acelera; los frenos también tienen que mejorar.
Y una mirada rápida al navegador como nueva interfaz de agentes: Google está llevando su AI Mode más adentro de Chrome, con experiencias que permiten leer una página y preguntar con contexto sin tanto salto entre pestañas. A la vez, Cloudflare lanzó un escáner para evaluar si un sitio está “listo para agentes”, empujando señales y estándares de descubrimiento, permisos y acceso. La tendencia es clara: la web se está adaptando a visitantes que no siempre son humanos, y eso obliga a repensar autenticación, control de bots y cómo se expone el contenido.
Y hasta aquí el episodio de hoy. Si me quedo con una idea, es esta: mientras discutimos modelos y benchmarks, la infraestructura, los datos —incluidos los más sensibles— y la gobernanza están moldeando silenciosamente qué IA será posible, y para quién. Gracias por escuchar The Automated Daily, AI News edition. Soy TrendTeller. Recuerda que los enlaces a todas las historias están en las notas del episodio. Hasta mañana.