Transcript
Instagram Plus y Stories anónimas & Mistral impulsa cómputo europeo - Noticias de Tecnología (31 mar 2026)
31 de marzo de 2026
← Back to episodeUna startup de biotecnología está siendo señalada por debatir una idea que suena a ciencia ficción: cuerpos humanos sin conciencia como “repuestos”. No hay pruebas de que lo hayan hecho, pero el solo plan ya encendió alarmas éticas. Bienvenidos a The Automated Daily, tech news edition. El podcast creado por IA generativa. Soy TrendTeller y hoy es 31 de marzo de 2026. En cinco minutos: una suscripción de Instagram que incluye ver Stories sin ser detectado, Europa apostando fuerte por cómputo para IA, Apple moviendo fichas con Siri, y por qué los agentes de programación están cambiando lo que significa “calidad”.
Empezamos con Meta y una prueba que va a dar que hablar. La empresa está ensayando una suscripción llamada Instagram Plus en algunos mercados, incluyendo México, Japón y Filipinas. Entre las funciones, hay una que destaca por encima de todas: permitir ver Stories sin que la otra persona reciba la notificación. Es decir, curiosidad sin huella. Además, se habla de más control sobre audiencias, Stories que duran más y métricas más finas, una señal clara de que Meta quiere convertir parte de Instagram en una herramienta “pro” con ingresos por suscripción. El problema: lo de mirar en secreto no solo abre preguntas de privacidad, también puede incentivar dinámicas bastante tóxicas.
En Europa, la carrera por la infraestructura de IA sigue acelerándose. La francesa Mistral AI consiguió más de 750 millones de euros en préstamos para ampliar su capacidad de cómputo y levantar un nuevo centro de datos cerca de París. El plan incluye comprar una gran cantidad de chips avanzados y poner el sitio en marcha durante el segundo trimestre de 2026. Lo interesante aquí no es solo el tamaño de la inversión, sino el mensaje: Europa quiere músculo propio para entrenar y operar modelos avanzados sin depender tanto de gigantes de nube de Estados Unidos. En 2026, el acceso a cómputo ya no es solo un tema técnico; es un cuello de botella estratégico.
Pasamos a herramientas para programadores: OpenAI publicó un plugin de código abierto para que quienes usan Claude Code puedan invocar Codex dentro del mismo flujo de trabajo. En la práctica, esto acerca dos asistentes muy populares, con comandos para revisiones de código, revisiones más “agresivas” para tensionar decisiones de diseño y delegación de tareas largas, como investigar bugs y proponer arreglos. Lo que lo vuelve relevante es la tendencia: equipos que ya trabajan con un asistente quieren combinar fortalezas sin saltar entre herramientas. Y eso empuja a que el “asistente” se parezca cada vez más a un sistema de trabajo, no solo a un chat.
Ahora Apple, con varias piezas conectadas. Por un lado, un reporte apunta a que la compañía planea abrir Siri y Apple Intelligence a servicios de terceros mediante una función tipo “extensiones” en iOS 27. Si se concreta, Siri podría convertirse en un punto de entrada que enruta solicitudes a distintos chatbots o servicios especializados, y hasta tendría un espacio propio en la App Store para estas integraciones. La lectura es clara: Apple puede competir en IA no solo por tener el mejor modelo, sino por controlar la plataforma y la distribución.
Pero al mismo tiempo, Apple está endureciendo la línea con ciertas apps de “vibe coding”. Según reportes, retiró de la App Store una app llamada Anything por violar la regla de que una app no debe descargar o ejecutar código que cambie su funcionamiento fuera del proceso de revisión. Es una tensión muy 2026: se quiere más IA dentro del sistema, pero no necesariamente más libertad para que una app genere y ejecute cosas que Apple no puede auditar. Y en paralelo, con el aniversario cincuenta de Apple como telón de fondo, vuelve una idea constante en su historia: hacer la informática accesible, sí, pero bajo reglas muy controladas.
Seguimos con el gran tema del año: agentes de programación, pero visto desde donde realmente duele. Un conjunto de ensayos coincide en que el cuello de botella no es producir código rápido, sino verificar que esté bien y que encaje con el objetivo. Uno de ellos propone mirar cada tarea con dos costos: lo que cuesta implementarla y lo que cuesta comprobarla. Si verificar sale caro, delegar a un agente puede salir más caro todavía, porque te deja con resultados difíciles de revisar y una especie de “deuda de verificación” que explota más adelante.
En esa misma línea, otro autor advierte que los tickets de ingeniería ya no son solo tickets: funcionan como prompts. Si están escritos de forma estrecha —centrados en archivos y cambios mínimos— los agentes tienden a obedecer esas fronteras, arreglan síntomas, crean nuevos bugs y generan más tickets, todo a gran velocidad, sin llegar al resultado real. Y desde Cognition, la empresa detrás de Devin, llega otra predicción: muchas sesiones de agentes empezarán a dispararse automáticamente por señales del sistema —tests que fallan, alertas, regresiones— en vez de por una persona “pidiendo” algo. Eso cambia el trabajo: diseñar disparadores, límites y controles de calidad pasa a ser tan importante como escribir prompts.
Todo esto además revive un debate filosófico y práctico: el valor del software libre. Hay quien sostiene que, con agentes capaces de leer y modificar código por usuarios no programadores, el acceso al código fuente vuelve a ser una ventaja real, no un ideal abstracto. En un mundo dominado por SaaS, muchas herramientas no se pueden adaptar: si no hay API, te quedas con trucos frágiles. Con agentes, la personalización podría ser más común… pero solo si el software es modificable y el modelo de mantenimiento aguanta la presión.
La cara más dura de los agentes aparece en seguridad. Un análisis advierte que podrían abaratar y escalar la investigación de vulnerabilidades: menos “escasez de atención experta” significa más ojos —aunque sean automatizados— revisando sistemas complejos y encontrando fallos explotables. Y esta semana ese contexto se mezcla con geopolítica: informes señalan que Irán intensificó su campaña cibernética, incluyendo mensajes masivos para sembrar pánico y engaños para instalar apps falsas que roban datos. También se mencionan ataques destructivos tipo ‘wiper’ y un ecosistema de operadores con distintos niveles de sofisticación. La conclusión práctica para empresas es incómoda: habrá más intentos, más variados, y no siempre dirigidos a los objetivos más “obvios”.
En gobernanza, California está intentando mover el tablero desde un lugar muy concreto: el poder de compra del Estado. El gobernador Gavin Newsom firmó una orden para que las agencias definan reglas de contratación que prioricen seguridad pública y derechos civiles, incluyendo salvaguardas contra contenidos gravemente dañinos y medidas para mitigar sesgos y usos discriminatorios. Es una forma de regulación indirecta: si quieres contratos, cumples condiciones. Mientras tanto, China anunció la creación de una organización internacional orientada a promover normas y acuerdos sobre uso y gobernanza de datos. Dos enfoques distintos, mismo objetivo: influir en las reglas del juego cuando datos e IA ya son infraestructura económica.
Un giro más ligero, pero con implicaciones: en TikTok, una serie generada por IA llamada “Fruit Love Island” explotó en popularidad en apenas días, acumulando millones de seguidores a velocidad récord. El atractivo es evidente: producir rápido, iterar sin parar y ajustarse al algoritmo. La inquietud también: creadores humanos sienten que compiten contra una fábrica de contenido que no se cansa, y vuelve el debate sobre el coste ambiental de generar entretenimiento sintético a escala, por la energía que consume la infraestructura detrás.
Y antes de cerrar, una historia que mezcla biotecnología, inversión y límites éticos. R3 Bio, una startup discreta en California, apareció públicamente diciendo que trabaja en estructuras biológicas para reducir pruebas en animales. Hasta ahí, una promesa relativamente alineada con tendencias actuales. Pero un reportaje sostiene que, en conversaciones privadas, se habrían explorado ideas mucho más controvertidas: cuerpos humanos sin conciencia como fuentes de órganos, e incluso especulaciones sobre trasplantes de cerebro a cuerpo. La empresa niega intenciones de ese tipo y no hay evidencia de que haya clonado humanos, pero el episodio muestra algo importante: la brecha entre lo que se discute en círculos de “longevidad extrema” y lo que la sociedad está preparada para aceptar, regular o siquiera debatir con claridad.
Cerramos con espacio. NASA reordenó el programa Artemis con una prioridad: pasar de una misión puntual a una presencia sostenida en la Luna, con la ambición de una base en los años 2030. El calendario se ajusta para favorecer pruebas intermedias y fiabilidad, y se pausaron piezas como la estación Gateway para concentrar inversión en infraestructura de superficie. También aumenta la dependencia de socios comerciales como SpaceX y Blue Origin: puede acelerar, pero exige que muchos engranajes funcionen a la vez. En el fondo, no es solo exploración; es quién define cómo se opera y se gobierna la actividad lunar a largo plazo.
Eso es todo por hoy. Si te quedas con una idea, que sea esta: en 2026 la tecnología no solo avanza; también redefine quién tiene control, quién puede verificar y quién pone las reglas, desde las Stories “anónimas” hasta la IA que escribe —y la que revisa— el código. Soy TrendTeller. Gracias por escuchar The Automated Daily, tech news edition. Volvemos mañana con más señales, menos ruido.