Transcript

Venta de chats internos a IA & Gobernanza global de la IA - Noticias de IA (18 abr 2026)

18 de abril de 2026

Back to episode

Hay una nueva fiebre del oro en la IA… y no viene de modelos ni de chips: viene de los chats internos. Algunas startups que quebraron están vendiendo sus historiales de Slack y correos para entrenar sistemas de IA, con implicaciones incómodas para la privacidad. Bienvenidos a The Automated Daily, edición AI News. El podcast creado por IA generativa. Hoy es 18 de abril de 2026. Soy TrendTeller, y en unos minutos repasamos lo más relevante del día: gobernanza global, nuevos modelos, agentes que programan y la carrera por el cómputo.

Empezamos por el tema más espinoso: según reportes citados por Fast Company, startups ya cerradas están vendiendo archivos completos de comunicación interna —mensajes, emails, tickets— a compañías de IA para usarlos como datos de entrenamiento. En algunos casos se habla de cifras de seis dígitos por esos archivos. El porqué importa es evidente: esos registros no son “texto genérico”, suelen incluir datos personales, chismes laborales, decisiones sensibles y contexto que podría reidentificar a personas incluso tras anonimización. Esto eleva la presión para que haya políticas claras de retención de datos, consentimiento y límites legales cuando una empresa muere… pero sus datos siguen teniendo vida comercial.

En paralelo, China mueve ficha en el tablero de la gobernanza. Dieciséis asociaciones científicas y tecnológicas chinas publicaron una iniciativa conjunta que pide un marco global de gobierno de la IA “abierto, justo y eficaz”. Insisten en que la IA sea centrada en las personas, orientada al bienestar público y bajo control humano, pero sin asfixiar la innovación. También enumeran riesgos inmediatos —abuso de algoritmos, desinformación, filtraciones de privacidad y manipulación de modelos— y riesgos más sistémicos a largo plazo, como pérdida de control o comportamientos autónomos. El mensaje político es igual de relevante: reclaman igualdad de participación en investigación y reglas, rechazan “hegemonías” tecnológicas y piden apoyo a países en desarrollo para cerrar la brecha de capacidades. Incluso proponen un organismo internacional de gobernanza bajo el paraguas de la ONU. Traducción: se viene más debate sobre quién fija las reglas… y desde qué valores.

Pasamos a herramientas de desarrollo, donde el listón de lo que llamamos “asistente” sigue subiendo. OpenAI anunció una actualización grande de Codex para convertirlo en un socio más completo de ingeniería. La idea central: menos chat y más ejecución. Codex en escritorio puede operar en segundo plano, interactuando con interfaces cuando no hay un API cómodo, y sostener tareas prolongadas sin que tú estés encima todo el tiempo. También se acerca más al trabajo real de equipo con apoyo a revisión de PRs y flujos que mezclan código, navegador y capturas. Lo interesante no es una función concreta: es la dirección. Cada vez más, el IDE se vuelve una torre de control de agentes.

Relacionado con esto, OpenAI publicó en su cookbook una guía para migrar bases de código usando Agents SDK con un patrón de “sandbox agents”. En pocas palabras: separas la orquestación —donde viven credenciales y decisiones— de la ejecución, que ocurre en entornos aislados. ¿Por qué importa? Porque si vas a modernizar sistemas grandes, el riesgo no suele ser escribir código nuevo; es ejecutar cosas con permisos de más, romper pruebas en cadena, o terminar con cambios enormes imposibles de revisar. Este enfoque empuja migraciones por partes, con resultados verificables y auditables.

En open source también hay una conversación madura sobre calidad y mantenimiento. Ingenieros de Hugging Face publicaron una “Skill” para agentes y un banco de pruebas independiente para acelerar el portado de arquitecturas desde Transformers a mlx-lm, el ecosistema de Apple MLX. El subtexto es importante: los PRs generados por IA están inundando proyectos, pero muchos fallan por no respetar convenciones implícitas. La solución propuesta no es “más IA”, sino IA con carriles: guías, pruebas reproducibles y artefactos verificables para que el revisor no tenga que confiar a ciegas.

Ahora, modelos. Anthropic lanzó Claude Opus 4.7 como actualización general, con foco en tareas difíciles de ingeniería de software y trabajos largos de varios pasos. También mejora visión con imágenes de mayor resolución, algo clave para leer capturas densas o diagramas. Donde se pone seria la cosa es en seguridad: Opus 4.7 estrena salvaguardas para detectar y bloquear solicitudes de ciberataque de alto riesgo, y Anthropic abre un programa de verificación para profesionales de seguridad que necesitan usar el modelo de forma legítima. Esto es una señal de época: los laboratorios empiezan a empaquetar “capacidad” y “contención” como un mismo producto, no como un apéndice.

Y una nota de industria alrededor de Anthropic: Mike Krieger, su chief product officer, dejó el consejo de Figma, según un documento presentado ante reguladores. La lectura dominante es conflicto de interés: se rumorea que Anthropic podría acercarse a herramientas de diseño impulsadas por IA, potencialmente rozando el terreno de Figma. No es un drama, pero sí un recordatorio: los modelos fronterizos ya no compiten solo en benchmarks; compiten entrando en categorías de software establecidas, y eso pone nerviosos a socios, clientes e inversores.

En el frente “modelos pequeños, impacto grande”, PrismML anunció Ternary Bonsai, modelos con pesos ternarios para mantener memoria bajísima sin caer al nivel de compresión extrema que suele degradar mucho la calidad. El mensaje de fondo es el mismo que estamos viendo en todo el sector: la inferencia manda. Si puedes correr un LLM decente en menos memoria y con menos energía, abres puertas en dispositivo, en edge y en despliegues donde el costo por token decide si el producto vive o muere.

También en open-weight, el equipo de Alibaba Qwen lanzó el repositorio de Qwen3.6, con énfasis en estabilidad y utilidad para desarrollo, especialmente en tareas de “agentic coding” y trabajo a nivel de repositorio. Que salga con licencia permisiva es relevante: baja fricción para adopción empresarial y acelera el ecosistema de herramientas alrededor. En 2026, la competencia no es solo “quién tiene el mejor modelo”, sino “quién se vuelve el default en la caja de herramientas del desarrollador”.

Hablemos de la carrera por el cómputo, porque aquí se está reescribiendo la economía de la IA. The Information reportó que OpenAI habría acordado gastar más de 20 mil millones de dólares en tres años en servidores con chips de Cerebras, con posibles incentivos de participación accionaria. Aunque no esté confirmado por todas las partes, el patrón sí es real: acuerdos gigantescos de capacidad para asegurar inferencia a escala. Y mientras tanto, Business Insider sugiere que xAI planea suministrar decenas de miles de GPUs a Cursor para entrenar su próximo modelo de programación. Si esto se consolida, xAI estaría actuando como proveedor de infraestructura, no solo como laboratorio de modelos. En otras palabras: se difumina la línea entre “lab”, “cloud” y “financiamiento del cómputo”.

En ese mismo eje de infraestructura, circuló un resumen con momentos llamativamente francos de una entrevista larga con Jensen Huang, CEO de Nvidia. Entre lo más comentado: la magnitud de compromisos de compra en semiconductores, cómo Nvidia “amarra” capacidad en la cadena de suministro, y su visión de que el mercado de inferencia terminará segmentado, con niveles de latencia y rendimiento como si fueran planes de ancho de banda. También dejó una postura clara sobre China: restringir demasiado podría acelerar un stack alternativo fuera de EE. UU. Sea cual sea tu lectura geopolítica, para el sector lo importante es que el costo, la disponibilidad y la estructura de precios de la inferencia están empezando a definir estrategias de producto.

Antes de cerrar, una idea que vale como brújula. Thoughtworks publicó su Technology Radar de abril de 2026 y alerta sobre dos riesgos muy de ahora: la “difusión semántica” —cambios rápidos de términos y modas— y la deuda que se acumula cuando equipos aceptan demasiado código generado por IA sin comprenderlo. Lo llaman una especie de deuda cognitiva: funciona hoy, pero mañana nadie sabe depurarlo. Su recomendación suena poco glamorosa, y por eso es útil: volver a fundamentos, pruebas, métricas, seguridad por capas y agentes con permisos mínimos. La IA acelera; los frenos también tienen que mejorar.

Y una mirada rápida al navegador como nueva interfaz de agentes: Google está llevando su AI Mode más adentro de Chrome, con experiencias que permiten leer una página y preguntar con contexto sin tanto salto entre pestañas. A la vez, Cloudflare lanzó un escáner para evaluar si un sitio está “listo para agentes”, empujando señales y estándares de descubrimiento, permisos y acceso. La tendencia es clara: la web se está adaptando a visitantes que no siempre son humanos, y eso obliga a repensar autenticación, control de bots y cómo se expone el contenido.

Y hasta aquí el episodio de hoy. Si me quedo con una idea, es esta: mientras discutimos modelos y benchmarks, la infraestructura, los datos —incluidos los más sensibles— y la gobernanza están moldeando silenciosamente qué IA será posible, y para quién. Gracias por escuchar The Automated Daily, AI News edition. Soy TrendTeller. Recuerda que los enlaces a todas las historias están en las notas del episodio. Hasta mañana.