Transcript

Uber quema su presupuesto IA & La paradoja de productividad IA - Noticias de IA (20 abr 2026)

20 de abril de 2026

Back to episode

¿Qué pasa cuando una empresa logra que la IA escriba código de producción… y aun así se queda sin presupuesto a mitad de camino? Hoy, esa sorpresa tiene nombre propio: Uber. Bienvenidos a The Automated Daily, AI News edition. El podcast creado por IA generativa. Hoy es 20 de abril de 2026. Soy TrendTeller, y en los próximos minutos vamos a recorrer las historias que están marcando el pulso de la IA: desde el coste real de escalar herramientas de programación, hasta el choque entre promesas de productividad y resultados tibios; pasando por privacidad corporativa, seguridad en open source y el impacto ambiental del hambre de GPUs. Vamos al lío.

Empecemos por la noticia más reveladora del día: Uber y la factura inesperada de la programación con IA. Según The Information, la compañía impulsó fuerte el uso interno de asistentes de código, con tablas de liderazgo y seguimiento de adopción. El resultado: uso masivo… y el presupuesto de IA de 2026 ya consumido en apenas unos meses. Lo interesante es que no estamos hablando de una moda sin efecto: Uber dice que alrededor del 11% de las actualizaciones activas de su backend ya las generan agentes, tocando funciones muy sensibles como matching, precios y correcciones. La lección es incómoda pero clara: incluso cuando la IA produce, el coste operativo puede crecer más rápido de lo que la planificación financiera aguanta. Y ahora Uber se prepara para ampliar su “mix” probando también Codex de OpenAI, buscando equilibrio entre rendimiento, variedad y gasto.

Y esa tensión —mucho ruido, resultados desiguales— conecta con un segundo tema: la productividad. Un estudio del NBER basado en unos 6.000 ejecutivos en EE. UU., Reino Unido, Alemania y Australia sugiere que dos tercios dicen usar IA, pero de forma ligera: alrededor de hora y media a la semana. Y casi el 90% afirma no haber visto impacto en empleo ni productividad en los últimos tres años. Esto revive la vieja “paradoja de productividad” de la era de los PCs: la tecnología está por todas partes, pero no aparece en los números. ¿Por qué importa? Porque la narrativa pública y la de los earnings calls suena a transformación total, mientras muchas organizaciones todavía tropiezan con desconfianza, implementación a medias y saturación de herramientas. Algunos economistas apuestan por una curva en J: primero fricción y reorganización, luego el salto. Pero el mensaje para 2026 es que el retorno no viene “incluido”; depende de procesos, formación y rediseño del trabajo.

Ahora, un giro hacia datos y gobernanza: Atlassian anunció que, desde el 17 de agosto de 2026, empezará a recopilar por defecto metadatos de clientes y parte del contenido dentro de Jira, Confluence y otros productos Cloud para entrenar sus funciones de IA, como Rovo y Rovo Dev. La compañía intenta trazar una línea entre “metadatos” desidentificados y señales de uso, y “contenido” como títulos, descripciones y comentarios. Pero el punto delicado está en el control: en planes Free, Standard y Premium no se podrá desactivar la recolección de metadatos; el opt-out más sólido queda para Enterprise. ¿Por qué es relevante? Porque marca un cambio de postura respecto a no usar datos de clientes para entrenar, y abre preguntas de cumplimiento, auditoría y confianza. Para muchas empresas, no es solo un tema de privacidad: es gestión del riesgo contractual y de propiedad de la información de trabajo.

En el mundo open source, curl está viviendo un fenómeno que parece una señal de época. Daniel Stenberg, su creador, dijo que el proyecto enfrenta una cantidad inusualmente alta de reportes de seguridad antes del próximo lanzamiento: varias vulnerabilidades ya están en la cola, y llegan nuevas cada unas 20 horas. Su lectura es que herramientas impulsadas por IA están elevando el volumen —y también la calidad— de los hallazgos. Esto es un arma de doble filo. Por un lado, más ojos y mejores herramientas detectan problemas antes de que exploten. Por otro, la carga de triage y coordinación de divulgación responsable puede volverse una segunda jornada laboral para mantenedores. Lo que antes era “ruido” ahora se parece a un río constante de informes plausibles, y 2026 podría terminar siendo un año récord de avisos para proyectos críticos.

Siguiendo con código, pero desde el ángulo del rendimiento: el investigador Daniel Lemire probó si modelos como Grok y Claude pueden reescribir un bucle sencillo de conteo de caracteres para hacerlo mucho más rápido en ARM64, en un Apple M4. Con iteraciones sucesivas, los modelos fueron proponiendo versiones cada vez más afinadas, hasta llegar a ensamblador con SIMD que reduce drásticamente instrucciones en su benchmark. El detalle importante no es el microcaso en sí, sino lo que sugiere: a veces, un LLM puede actuar como “sparring” creativo para ideas de optimización que no aparecen en el camino típico del programador o del compilador en configuraciones estándar. Pero Lemire también lanza la advertencia correcta: rendimiento sin auditoría profunda puede esconder errores en casos límite. En otras palabras, la IA puede ayudar a descubrir caminos, pero la verificación sigue siendo humana y rigurosa.

Cambiemos de registro: la percepción pública de la IA. Un ensayo en LocalScribe argumenta que la hostilidad creciente no se explica solo por preocupaciones racionales como fraude, desinformación o pérdida de empleos, sino también por un “valle inquietante” que se ha expandido por la vida digital cotidiana. La idea es sencilla: cada vez vemos más textos, voces o videos que intentan sonar humanos, y muchas veces lo logran… hasta que algo no encaja. Esa sensación de “casi, pero no” puede generar rechazo visceral, no solo debate técnico. El autor cita encuestas que muestran una brecha entre expertos —más optimistas sobre beneficios personales— y el público, especialmente preocupado en educación. ¿Por qué importa para empresas y gobiernos? Porque confianza y adopción no dependen únicamente de precisión: también de cómo se presenta la IA, cuánta transparencia ofrece y qué expectativas genera.

En la conversación sobre riesgos, Cory Doctorow añade una crítica interesante: dice que parte del discurso sobre futuras “superinteligencias” se está usando como una especie de nueva apuesta de Pascal. Como el desastre es posible, habría que gastar sin límite para prevenirlo… pero sin una forma clara de saber cuándo es suficiente. Doctorow cuenta un debate con Yoshua Bengio y conecta puntos: sí, hacen falta bienes públicos digitales y sistemas auditables, pero el peligro más inmediato —según él— ya está aquí: poder corporativo concentrado, empresas que evaden responsabilidad y un ecosistema que degrada la rendición de cuentas. Su tesis práctica: construir infraestructura pública abierta, interoperable y transparente para reducir dependencia de plataformas dominantes. No es un argumento anti-IA, sino una llamada a priorizar gobernanza y resiliencia institucional antes de que la política se vuelva un péndulo de hype y backlash.

En clave más constructiva, Suiza se está posicionando fuerte en ciencia abierta con la Swiss AI Initiative, que anunció su tercera convocatoria grande para financiar artefactos open-science orientados a modelos fundacionales y aplicaciones de alto impacto social. Detrás hay recursos serios: horas de GPU en el supercomputador Alps y apoyo del ecosistema ETH–EPFL, con una red amplia de investigadores. Lo relevante aquí es el enfoque: publicar software, modelos y datos de forma más transparente para facilitar adopción confiable, incluyendo pymes y startups. En un momento en que gran parte del avance se concentra en laboratorios privados, estas iniciativas empujan el péndulo hacia reproducibilidad, auditoría y soberanía tecnológica. Y eso, a medio plazo, también es competitividad: no depender solo de lo que se pueda alquilar vía API desde fuera.

Cerramos con el coste que casi nunca aparece en las demos: el ambiental. Un reportaje advierte que la demanda de hardware para IA puede agravar la crisis global de residuos electrónicos. La dinámica es fácil de entender: ciclos de reemplazo rápidos para GPUs y servidores especializados, y montañas de equipos que terminan exportándose como “segunda mano” o “donaciones” hacia países con menos capacidad de gestión. India aparece como un destino clave, con un enorme sector informal de reciclaje donde se extrae valor con métodos peligrosos para la salud, como quemas y baños químicos. Aunque existen acuerdos internacionales para frenar exportaciones de residuos peligrosos, la aplicación es irregular, y tras restricciones en China, los flujos se movieron a otras regiones. La conclusión es incómoda: la carrera por más cómputo no solo consume energía; también desplaza externalidades tóxicas. Si 2026 es el año de los agentes, también debería ser el año de la trazabilidad y el reciclaje serio del hardware.

Y hasta aquí el episodio de hoy. Si algo queda claro es que la IA ya no se mide solo por lo que puede hacer, sino por lo que cuesta integrarla, asegurarla, gobernarla y sostenerla —también en términos ambientales. Soy TrendTeller, y esto fue The Automated Daily, AI News edition. Encontrarás enlaces a todas las historias en las notas del episodio. Hasta mañana.