Foto falsa de lobo & Agentes corporativos: OpenAI y Google - Noticias de IA (24 abr 2026)
Agentes de IA para empresas: OpenAI y Google; 75% del código en Google; Copilot por tokens; fuga de GPT Image 2 y riesgos reales de la IA.
Our Sponsors
Today's AI News Topics
-
Foto falsa de lobo
— Un hombre en Corea del Sur difundió una imagen generada por IA de un lobo escapado y desvió la búsqueda oficial; caso de desinformación en emergencias. -
Agentes corporativos: OpenAI y Google
— OpenAI presenta “workspace agents” y Google lanza su plataforma de agentes empresariales; tendencia clave: agentes que ejecutan flujos largos con gobernanza y permisos. -
Google Workspace como contexto AI
— Google introduce “Workspace Intelligence” para conectar correo, chat y archivos como una capa semántica; más contexto compartido para agentes con cumplimiento y controles. -
Programación con IA: 75% Google
— Sundar Pichai afirma que ~75% del código nuevo en Google lo genera IA y luego se revisa; cambio cultural hacia flujos “agentic” en ingeniería. -
Copilot pasaría a tokens
— Microsoft planea mover GitHub Copilot a facturación por tokens; impacto en previsibilidad de costos, gobernanza y uso intensivo en equipos. -
Nuevos benchmarks para agentes
— Applied Compute critica benchmarks de inferencia de LLM obsoletos y propone trazas reales multi-turno con herramientas; foco en latencia p90/p99 y KV cache. -
Documentación que guía a agentes
— Augment muestra que AGENTS.md puede mejorar o empeorar a un agente de código; buenas prácticas: breve, “progressive disclosure” y tablas de decisión. -
MCP: estándar para herramientas
— Anthropic impulsa MCP como capa estándar para conectar agentes a sistemas; reduce el problema M×N, mejora autenticación y portabilidad en producción. -
Fuga de GPT Image 2
— OpenAI probó modelos de imagen anónimos en LM Arena y los retiró; la comunidad cree que “GPT Image 2” mejora texto en imagen y fotorealismo antes del fin de DALL‑E. -
IA en el mundo real: tienda
— Andon Market prueba un agente de IA gestionando una tienda física; decisiones extrañas y sesgos salariales revelan límites de juicio y riesgos operativos. -
Búsqueda con IA: entrenamiento
— Perplexity describe post‑training para modelos con búsqueda: SFT + RL con recompensas acotadas; objetivo: precisión sin romper guardrails ni disparar tool calls. -
Qwen 27B impulsa lo local
— Qwen3.6‑27B sugiere rendimiento de codificación “casi flagship” con tamaño manejable; acelera la adopción de asistentes locales y controlados. -
Ruptura en MeshCore por IA
— El proyecto MeshCore se divide por disputas de gobernanza y código generado con IA; el debate sobre transparencia y procedencia del software se intensifica. -
Nueva ola de laboratorios AI
— Jerry Tworek, ex OpenAI, crea Core Automation para automatizar la investigación del propio laboratorio; apuesta por nuevos algoritmos más allá de escalar transformers. -
Infraestructura AI: Vast recauda
— Vast Data levanta 1.000 millones y llega a valoración de 30.000 millones; señal de que la inversión sigue fluyendo a la infraestructura ‘picks-and-shovels’ de IA.
Sources & AI News References
- → OpenAI Launches Shared ‘Workspace Agents’ for Team Workflows in ChatGPT
- → Google Cloud Launches Gemini Enterprise Agent Platform to Build and Govern AI Agents
- → Google: 75% of New Code Is AI-Generated as Company Moves to Agentic Workflows
- → Applied Compute Releases Agentic Workload Benchmarks to Test LLM Inference Engines
- → Report: OpenAI quietly tests ‘GPT Image 2’ with hints of a near-term launch
- → Study Finds AGENTS.md Can Sharply Improve or Degrade AI Coding Output
- → Perplexity Unveils Two-Stage SFT-to-RL Pipeline to Train More Efficient, Reliable Search Agents
- → Google Launches Workspace Intelligence to Connect Gemini Across Gmail, Drive, Docs and Chat
- → South Korea arrests man over AI-generated photo that misled search for escaped zoo wolf
- → Ex-OpenAI researcher Jerry Tworek launches Core Automation to automate AI research
- → Anthropic Explains Why Production AI Agents Are Shifting to the Model Context Protocol
- → Garry Tan Calls for ‘Skillify’ Workflow to Make AI Agent Fixes Permanent
- → Vast Data raises $1 billion at $30 billion valuation with Nvidia among backers
- → Google Cloud Next 2026 in Las Vegas to Spotlight Agentic AI and Keynotes
- → Simon Willison Tests Qwen3.6-27B, a Smaller Open Model Claiming Flagship Coding Performance
- → AI-Managed SF Store Draws Scrutiny Over Odd Orders and Pay Disparity
- → Every Podcast Argues Humans Provide the ‘Bread’ in AI Workflows as Workplace Agents Consolidate
- → MeshCore Core Team Splits After Trademark and AI-Code Dispute with Andy Kirby
- → Anker Unveils ‘Thus’ Compute-in-Memory Chip to Bring Local AI to Earbuds and More
- → Personalized LLM Answers Often Share a Stable Core, Not Infinite Divergence
- → Microsoft Reportedly Shifting GitHub Copilot to Token-Based Billing Starting in June
Full Episode Transcript: Foto falsa de lobo & Agentes corporativos: OpenAI y Google
Una sola imagen generada por IA bastó para desviar una operación policial real y activar alertas de emergencia. Hoy, 24 de abril de 2026, ese caso nos sirve de aviso: la IA ya no es solo “respuestas en un chat”, está tocando procesos, presupuestos y decisiones en el mundo físico. Bienvenidos a The Automated Daily, AI News edition. El podcast creado por IA generativa. Soy TrendTeller, y en cinco minutos repasamos lo más relevante del día en inteligencia artificial, con foco en lo que cambió y por qué importa.
Foto falsa de lobo
Empezamos con el incidente en Corea del Sur: la policía arrestó a un hombre acusado de entorpecer la búsqueda de un lobo escapado al difundir una foto falsa creada con IA. La imagen se viralizó, hizo que las autoridades reasignaran recursos y que se enviaran avisos de emergencia a la población. Más allá de lo pintoresco, es un recordatorio duro: en situaciones críticas, la “verosimilitud” de la IA puede convertirse en coste público y en ansiedad colectiva si no hay verificación rápida.
Agentes corporativos: OpenAI y Google
Ahora sí, el gran tema empresarial del día: OpenAI presentó los “workspace agents” en ChatGPT, agentes compartidos para equipos que pueden ejecutar flujos complejos, durar horas o días, usar herramientas conectadas, recordar contexto y pedir aprobaciones antes de acciones delicadas. La lectura estratégica es clara: OpenAI quiere que la IA viva dentro de los permisos y controles de una organización, no solo como un asistente que responde a un prompt aislado.
Google Workspace como contexto AI
Y Google respondió con fuerza: lanzó la Gemini Enterprise Agent Platform, una plataforma unificada para construir, desplegar y gobernar agentes, con herramientas visuales y también enfoque para desarrolladores. Su mensaje es que la etapa de “pilotos” se está acabando: ahora importan identidad del agente, registro de herramientas aprobadas, pasarelas de seguridad y observabilidad. En otras palabras, menos magia y más auditoría: quién hizo qué, con qué datos, y bajo qué políticas.
Programación con IA: 75% Google
En esa misma línea, Google también presentó Workspace Intelligence, una especie de capa semántica que conecta correos, chats, archivos, personas y proyectos para darle a Gemini contexto compartido en el trabajo diario. Si esto aterriza bien, cambia la experiencia: en vez de buscar en cinco apps, le pides a un agente que entienda tu objetivo y actúe dentro del ecosistema. Pero el punto sensible es obvio: cuando la IA razona sobre contenido corporativo, el cumplimiento, el cifrado y la residencia de datos dejan de ser un “extra” y pasan a ser el producto.
Copilot pasaría a tokens
Del lado del desarrollo de software, Google hizo una afirmación que marca época: dice que alrededor del 75% del código nuevo ya lo genera IA y luego lo revisan ingenieros humanos. Además, lo vinculan a “workflows agentic”, donde agentes asumen tareas más autónomas, como migraciones internas aceleradas. Que sea cierto o no en todos los equipos, el titular importa porque redefine métricas: el valor del ingeniero se desplaza hacia revisión, arquitectura, pruebas y criterio, y las empresas empiezan a medir uso de IA como parte del rendimiento.
Nuevos benchmarks para agentes
Y hablando de medición, se filtró que Microsoft planea mover GitHub Copilot a un modelo de límites y cobro por tokens, manteniendo suscripción pero con un “saldo” consumible, y con tokens compartidos a nivel empresa. ¿Por qué es relevante? Porque convierte la asistencia de código en un coste más variable: puede empujar a controles internos, a políticas de uso, y a comparar con alternativas locales o de código abierto. También fuerza una conversación incómoda: ¿quién “gasta” tokens y para qué?
Documentación que guía a agentes
En paralelo, Applied Compute cuestiona los benchmarks clásicos de inferencia: pruebas de una sola pregunta y una sola respuesta ya no representan aplicaciones con agentes que hacen muchas idas y vueltas, llamadas a herramientas y cachés de contexto que viven mucho tiempo. Propusieron perfiles de carga que reproducen trazas completas y ponen el foco en cosas que a negocio le duelen: latencia de cola —p90 y p99—, tiempos de espera por herramientas y, sobre todo, la capacidad de KV cache como cuello de botella. Traducción: si tu agente se vuelve lento bajo concurrencia, quizá no es “el modelo”; es tu infraestructura y cómo mantiene el contexto.
MCP: estándar para herramientas
Otra pieza práctica para equipos: Augment analizó archivos AGENTS.md —documentos pensados para guiar a un agente de codificación— y encontró que pueden ser oro o un lastre. Los mejores eran cortos, directos, y organizaban la información para que el agente cargue solo lo necesario. Los peores, largos y llenos de prohibiciones, disparaban un modo de “sobreexploración” donde el agente se vuelve conservador e incompleto. La moraleja: documentar para agentes no es lo mismo que documentar para humanos; hay patrones que se pueden aprender y estandarizar.
Fuga de GPT Image 2
Y si tu stack ya tiene muchos servicios, llega otra discusión de infraestructura: Anthropic insiste en que, a la larga, la mayoría de equipos migra a MCP para conectar agentes con sistemas reales. El argumento no es glamour, es mantenimiento: cuando tienes muchos agentes y muchas integraciones, el enfoque “cada uno con su API” escala mal. Un protocolo común simplifica descubrimiento, autenticación y portabilidad entre entornos. En 2026, esa capa de conectividad empieza a parecerse a lo que fueron los gateways y los estándares de identidad para el software empresarial tradicional.
IA en el mundo real: tienda
En generación de imágenes, hubo un episodio curioso: OpenAI subió por poco tiempo tres modelos anónimos a LM Arena y los retiró en dos días, pero la comunidad ya los había asociado a OpenAI y los llama “GPT Image 2”. Las pruebas filtradas sugieren mejoras fuertes en texto dentro de imágenes, colores más naturales y más “conocimiento del mundo” para interfaces y productos reales. El calendario añade presión: DALL‑E 2 y 3 se apagan el 12 de mayo de 2026, y el sucesor tiene que estar a la altura justo cuando se acercan exigencias de transparencia en la UE para agosto.
Búsqueda con IA: entrenamiento
Del “demo” al mundo real: en San Francisco, una startup dejó a un agente llamado Luna gestionando una tienda física con personal humano. Y el experimento está siendo… irregular: decisiones raras de inventario, confusión operativa y hasta un caso de salarios distintos por género con una justificación discutible. Aunque haya supervisión humana, el punto es potente: cuando un agente administra personas y procesos, los fallos ya no son bugs simpáticos; son riesgos laborales, de reputación y de cumplimiento.
Qwen 27B impulsa lo local
En investigación aplicada, Perplexity publicó cómo está entrenando modelos con búsqueda sin sacrificar guardrails: primero afianzan conductas esenciales con SFT, luego aplican RL con recompensas diseñadas para no “premiar” respuestas bonitas si no son correctas y seguras. Esto es importante para cualquier producto que consulte la web: el usuario no quiere una IA que busque de más, ni una que invente, ni una que se vuelva rígida por miedo. El reto real es equilibrar precisión, coste y alineamiento en producción.
Ruptura en MeshCore por IA
Y para cerrar con algo que entusiasma a la comunidad open: Simon Willison destacó Qwen3.6-27B, un modelo de pesos abiertos que, según sus pruebas y los claims del fabricante, logra rendimiento de codificación muy alto con un tamaño mucho más manejable que gigantes anteriores. Si esa tendencia se sostiene, abre una vía concreta para empresas y desarrolladores: asistentes de código locales, con más control de datos y costes, y menos dependencia de una sola nube.
Nueva ola de laboratorios AI
Dos notas rápidas de ecosistema. Primero, MeshCore se partió en dos tras una disputa sobre gobernanza, marca y el uso no transparente de código generado por IA; un ejemplo claro de que la “procedencia” del software —saber qué se generó, cómo y por quién— se está convirtiendo en tema comunitario, no solo legal. Y segundo, Jerry Tworek, ex investigador de OpenAI, lanzó Core Automation con la idea de automatizar el propio trabajo de investigación del laboratorio: una apuesta a que la próxima ola no vendrá solo por escalar, sino por nuevas recetas de aprendizaje y arquitectura. Ah, y en el frente financiero, Vast Data levantó 1.000 millones con Nvidia entre los inversores, confirmando que la infraestructura —almacenamiento y datos para cargas de IA— sigue siendo donde se están concentrando cheques gigantes.
Y hasta aquí el episodio de hoy, 24 de abril de 2026. Si te quedas con una idea, que sea esta: la industria está pasando de “modelos que responden” a agentes que operan dentro de organizaciones… y eso obliga a elevar el nivel de gobernanza, métricas y verificación, tanto en oficinas como en la calle. TrendTeller se despide. Encontrarás los enlaces a todas las historias en las notas del episodio.