Transcript

Gen Z se enfría con IA & IA como muleta y riesgo - Noticias de IA (10 may 2026)

10 de mayo de 2026

Back to episode

La generación que más usa IA está empezando a perderle la fe: sube el enfado, crece la sospecha en clase y en el trabajo, pero nadie siente que pueda bajarse del tren. Bienvenidos a The Automated Daily, AI News edition. El podcast creado por IA generativa. Hoy es 10 de mayo de 2026, y yo soy TrendTeller. Vamos con lo más relevante del día, con contexto y sin humo.

Empezamos con el termómetro social de la IA. Una nueva encuesta impulsada por Walton Family Foundation, GSV Ventures y Gallup sugiere que la relación de la Generación Z con la inteligencia artificial se está tensando. El dato llamativo es la mezcla: el uso sigue siendo habitual —aproximadamente la mitad dice usar IA semanalmente—, pero el entusiasmo baja y el enfado sube con fuerza. ¿De dónde viene ese giro? Sobre todo del trabajo y la escuela. Entre jóvenes que ya están empleados, casi la mitad dice que los riesgos pesan más que los beneficios, aunque reconozcan que les acelera tareas. Y hay un miedo muy concreto: que apoyarse demasiado en IA acabe debilitando el aprendizaje a largo plazo. En las aulas, además, proliferan normas sobre IA, pero también la desconfianza: muchos estudiantes creen que sus compañeros la usan incluso cuando no está permitido. En resumen: la IA se percibe como necesaria para estudiar y trabajar, pero cada vez cuesta más concederle “licencia social”. Para empresas y centros educativos esto es clave: no basta con desplegar herramientas; hay que construir reglas claras y credibilidad.

De esa tensión pasamos a una historia más íntima: un ensayo personal de Daniel Gilbert sobre la llamada “parálisis de tareas”. No habla de no saber qué hacer, sino de saberlo… y aun así no poder dar el primer paso. Él lo relaciona, con cautela, con posibles rasgos de ADHD, aunque no tenga diagnóstico. Lo interesante aquí es cómo describe la IA como palanca de arranque: en proyectos de programación, usar un asistente le reduce la distancia entre la idea y el primer resultado. Pero el texto también pone el dedo en un riesgo nuevo y muy actual: cuando la ayuda está ligada a consumo —tokens, créditos, pago por uso—, el ciclo de recompensa rápida puede volverse una especie de hábito compulsivo. No es un argumento anti-IA; es un recordatorio de que el diseño de acceso y facturación también moldea comportamientos, y que “productividad” puede venir con costes psicológicos y financieros.

Ahora, un caso curioso —y algo incómodo— sobre cultura digital: un ensayo en LessWrong usa el Go, el juego de mesa, como ejemplo de cómo la IA normaliza la dependencia sin que nadie lo decida explícitamente. El autor sostiene que, tras AlphaGo, se asentó un nuevo estándar tácito: el motor está siempre al alcance, y eso hace que hacer trampa —o jugar “asistido”— se vuelva endémico, incluso en ligas de entrenamiento sin premios. Lo más inquietante no es la trampa por dinero, sino por comodidad, curiosidad o por cuidar la imagen. Y aparece una racionalización familiar: “yo decido, la IA solo me sugiere”, como si eso mantuviera la autoría intacta. El argumento central es que, con el tiempo, esa práctica erosiona el aprendizaje real y reduce la sensación de agencia: se juega para confirmar la respuesta de la máquina, no para pensar. También deja una lección práctica sobre normas: medidas simbólicas pero visibles pueden disuadir más que procesos institucionales débiles donde acusar sale caro socialmente. Es un microcosmos de lo que podría pasar en otros ámbitos donde la IA esté a un clic.

Entramos en el bloque de empresas y empleo, donde la palabra “IA” se está convirtiendo en paraguas explicativo de muchas decisiones. Primero, Cloudflare: más de mil empleados despedidos —alrededor de una quinta parte de la plantilla—, y un mensaje corporativo que lo enmarca como preparación para una era de “IA agentica”. Tras el anuncio, el mercado reaccionó mal, con una caída notable en la acción fuera de horario. Un análisis crítico sugiere que el relato de “más IA, menos gente” podría encubrir presiones más clásicas: márgenes, ritmo de crecimiento, compensación en acciones y la dificultad de traducir ingresos en rentabilidad contable. Y hay un punto que importa a clientes: si recortas equipos que sostienen fiabilidad, operaciones y producto, puedes debilitar la capacidad de respuesta ante incidentes, especialmente en una plataforma que ya ha tenido caídas relevantes. La conclusión no es “pánico”, sino prudencia: revisar planes de contingencia y no dar por sentado que la reorganización mejora el servicio.

En paralelo, Meta también prepara recortes —miles de puestos— mientras eleva de forma agresiva el gasto en infraestructura de IA. El mensaje, esta vez, es más explícito: operar “más lean” para poder financiar el músculo de centros de datos, componentes más caros y compromisos de infraestructura que se disparan. Aquí hay una lectura estructural: el cuello de botella de 2026 no es contratar gente, sino conseguir GPUs, energía y capacidad física. Incluso si recortas nómina, no compensas ni de lejos una factura de infraestructura de ese tamaño. Es una señal de época: los grandes están optimizando por “cuota de cómputo”, y eso reordena prioridades internas, carreras profesionales y, de rebote, el mercado laboral tecnológico.

De lo corporativo pasamos al software abierto, donde los agentes de programación están cambiando incentivos. Un autor que lleva un par de meses usando “AI coding agents” dice que esto está reconfigurando, en la práctica, lo que significa una licencia open source. Su preocupación no es solo que la gente programe distinto, más distante del oficio; es que, con IA, resulta mucho más fácil tomar un proyecto, adaptarlo y sacar una versión “suficientemente buena” a gran velocidad. Eso puede favorecer forks oportunistas —a veces comerciales— que se llevan la atención, y dejan al proyecto original con la carga del mantenimiento y la presión de competir en velocidad, no en calidad. Por eso plantea moverse hacia licencias copyleft fuertes, como AGPL, para introducir fricción legal. Pero incluso esa fricción no resuelve el dilema del mantenedor: que lo popular no siempre sea lo mejor construido, y que la avalancha de cambios acelerados por IA pueda saturar a quienes sostienen el upstream. Es un debate que veremos repetirse en muchos repositorios este año.

Hablando de programación: otra pieza conecta dos tendencias que chocan. Por un lado, GitHub Copilot se mueve hacia modelos de cobro más ligados al uso; por otro, crece el deseo de volver a inferencia local para controlar costes y privacidad. El autor cuenta que está intentando llevar tareas cotidianas a un equipo doméstico potente, pero se topa con un límite práctico: para flujos con agentes —donde necesitas muchas idas y vueltas rápidas—, si el modelo local responde lento, la experiencia se degrada. La idea importante no es la lista de hardware, sino el trasfondo: todavía hay una brecha entre “puedo ejecutar un modelo en casa” y “puedo reemplazar con comodidad un servicio en la nube en tareas intensivas”. Aun así, el incentivo económico —evitar sorpresas en la factura por tokens— está empujando a mucha gente a experimentar, y eso puede acelerar un mercado de soluciones locales más pulidas.

En esa misma línea aparece un proyecto sobre “memoria persistente” para agentes, diseñado para correr localmente y recordar contexto entre sesiones sin tener que arrastrar conversaciones eternas en el prompt. La promesa aquí es sencilla: que el agente recupere lo relevante cuando lo necesita, y olvide lo irrelevante con el tiempo, mejorando eficiencia y reduciendo desperdicio de contexto. Más allá del nombre del proyecto, la señal es clara: estamos pasando de chatbots que viven en una ventana a agentes que actúan a lo largo de días o semanas. Y para eso, la memoria —qué se guarda, qué se borra, y con qué privacidad— se está convirtiendo en una pieza central del stack.

Cerramos con geopolítica. The Economist plantea que la IA ya es un asunto estratégico de primer nivel entre Estados Unidos y China, y que podría ocupar un lugar importante en la agenda de una próxima reunión entre Xi Jinping y Donald Trump en Beijing a mediados de mayo. El punto clave es el dilema: ambos países tienen incentivos para competir a fondo —por crecimiento económico, poder y seguridad—, pero a la vez comparten interés en evitar escenarios peligrosos: usos maliciosos, accidentes y aplicaciones militares desestabilizadoras. El artículo compara el momento con tecnologías de alto impacto del pasado, donde coexistían disuasión, secretismo y cooperación limitada. Lo que se decida ahora —normas, controles, canales de comunicación— puede marcar no solo la carrera tecnológica, sino la estabilidad entre potencias.

Y hasta aquí el episodio de hoy. Si algo queda claro, es que la IA no solo avanza en capacidad: también está cambiando confianza social, incentivos económicos, cultura y geopolítica, todo a la vez. Como siempre, los enlaces a todas las historias están en las notas del episodio. Gracias por escuchar The Automated Daily, AI News edition. Soy TrendTeller, y volvemos mañana con más.