Transcript

EE. UU. contra Anthropic y Claude & Fiebre OpenClaw en la vida diaria - Noticias de Tecnología (16 mar 2026)

16 de marzo de 2026

Back to episode

Hoy una gran pregunta sacude a toda la industria: ¿puede un gobierno obligar a un laboratorio de IA a quitar límites éticos… o castigarlo si se niega? Enseguida te cuento qué está pasando y por qué podría cambiar cómo se compra y se usa la IA. Bienvenidos a The Automated Daily, tech news edition. El podcast creado por IA generativa. Soy TrendTeller y hoy es 16 de marzo de 2026. Vamos con las noticias.

Empezamos con el choque más tenso del día entre política y tecnología. Según se informa, la administración Trump ordenó terminar todos los contratos del gobierno estadounidense con Anthropic después de que su CEO, Dario Amodei, se negara a retirar restricciones que impiden usar Claude para vigilancia masiva o armas totalmente autónomas sin supervisión humana. Anthropic respondió con una demanda, alegando represalia ilegal y advirtiendo que la etiqueta de “riesgo en la cadena de suministro” podría contaminar también a socios. Lo relevante aquí es el precedente: si el Estado puede penalizar límites de seguridad impuestos por un proveedor, otras empresas de IA podrían verse forzadas a elegir entre contratos y principios, en un terreno legal todavía muy poco claro.

De ahí nos vamos a China, donde la IA no está en debate… está en la calle. OpenClaw, un agente de IA de código abierto, se volvió un fenómeno: gente haciendo fila para instalarlo, o pagando a desconocidos por internet para que se lo dejen funcionando. La promesa es tentadora: automatizar tareas, “montar un negocio paralelo” y reducir trabajo repetitivo. El problema es que la fiebre ya se empujó a usos arriesgados, como monitoreo de mercados y trading automatizado, y hay reportes de pérdidas por órdenes incorrectas y cálculos mal hechos. Y además está el frente de seguridad: la base nacional china de vulnerabilidades alertó sobre posibles ataques y filtraciones por instalaciones mal configuradas, y algunas agencias ya lo están restringiendo en equipos de trabajo. Es un ejemplo perfecto de cómo los agentes de IA pueden masificarse en días… y también multiplicar riesgos financieros y de ciberseguridad.

Hablando de presión por la IA: Meta vuelve a estar en el centro por posibles recortes. Reuters cita fuentes que hablan de planes para reducir personal en torno a una quinta parte o más, como forma de compensar el coste creciente de infraestructura y apuestas en modelos. Meta lo discute, pero la tendencia se repite en el sector: gastar fuerte en centros de datos y talento, mientras se pide a los equipos “hacer más con menos” apoyados en herramientas de IA. Si se confirma, sería otra señal de que el negocio se está reordenando alrededor del cómputo, no solo del producto.

Y en esa misma línea aparece Nvidia, que está usando su conferencia GTC para empujar un giro interesante: con aplicaciones de IA basadas en agentes —esos sistemas que coordinan muchas tareas y mueven muchos datos—, los CPUs vuelven a ser críticos. Nvidia está posicionando sus CPUs Arm como el “anfitrión” que mantiene a las GPUs trabajando sin cuellos de botella. Lo llamativo es el respaldo comercial: se habla de un acuerdo multianual con Meta para desplegar CPUs de Nvidia a gran escala y adoptar la próxima generación más adelante. Entre analistas, ya suena una advertencia: podría haber escasez silenciosa de CPUs de servidor si esta ola de agentes despega como esperan.

Ahora, el otro lado de la moneda: lo que pasa cuando la optimización de engagement manda. La BBC recoge testimonios de denunciantes y ex empleados que describen una especie de carrera armamentística de algoritmos entre TikTok y Meta, en la que decisiones de producto habrían aumentado exposición a contenido dañino. En paralelo, en Los Ángeles se escucharon alegatos finales de un juicio que acusa a Meta y Google de diseñar funciones que “enganchan” a menores: scroll infinito, reproducción automática y notificaciones que evitan puntos de salida naturales. Las empresas lo niegan, pero el caso importa por dos motivos: primero, porque puede cambiar el estándar legal de responsabilidad por diseño; y segundo, porque pone foco en algo difícil de auditar desde fuera: las prioridades internas entre crecimiento y seguridad.

Y si hablamos de plataformas, hoy X sigue lidiando con una avalancha de desinformación visual generada por IA sobre el conflicto en Oriente Medio. Aunque la red anunció que castigaría a creadores que moneticen “metraje de guerra” falso sin etiquetarlo, investigadores dicen que el feed sigue inundado, a menudo amplificado por cuentas con gran alcance. Peor aún: cuando un chatbot como Grok valida por error una imagen falsa, añade una capa extra de confusión. La conclusión práctica es incómoda: desincentivar con dinero ayuda, pero la aplicación es difícil y la verificación comunitaria no escala al ritmo del contenido sintético.

En neurotecnología, China dio un paso grande: su agencia reguladora aprobó el primer producto invasivo de interfaz cerebro-computadora del país, con un foco concreto en adultos con parálisis parcial por lesión medular. En ensayos, se reportan mejoras en funciones de la mano usando sensores implantados combinados con asistencia robótica. Más allá del dispositivo, la noticia es geopolítica tecnológica: Pekín está empujando estas tecnologías como industria estratégica, y la competencia con actores de EE. UU. se va a intensificar en regulación, financiación y velocidad de iteración clínica.

Un tema que mezcla biotecnología e IA: en Australia, un emprendedor trabajó con investigadores para desarrollar una vacuna mRNA personalizada para su perra Rosie, con cáncer agresivo. Secuenciaron el tumor y usaron herramientas de IA para analizar datos genéticos y proponer dianas de vacuna. Dicen que un tumor se redujo notablemente, mejorando su bienestar, aunque la enfermedad no desapareció. Es una historia potente, pero con letra pequeña: científicos recuerdan que un caso individual no prueba eficacia, y que hacen falta estudios controlados. Aun así, señala hacia dónde va la medicina personalizada: más rápida, más dirigida y, potencialmente, antes en veterinaria que en humanos.

En el espacio, una actualización científica muy elegante: un estudio afirma que el impacto de DART en 2022 no solo acortó la órbita de Dimorphos alrededor de Didymos; también cambió, mediblemente, la trayectoria del sistema alrededor del Sol. Es la primera vez que se observa de forma directa un cambio heliocéntrico tras un impacto de este tipo. ¿Por qué importa? Porque afina nuestros modelos de defensa planetaria: no solo cuenta el golpe, también el empuje extra del material expulsado, lo que ayuda a estimar cuánto se podría desviar un objeto si algún día hubiera riesgo real para la Tierra.

Cerramos con un movimiento de infraestructura que redefine un viejo sueño de Silicon Valley. Alphabet está vendiendo Google Fiber, ahora GFiber, al fondo Stonepeak y lo fusionará con Astound Broadband para crear un proveedor de internet más grande. Alphabet se quedaría con una participación minoritaria, lo que suena a retirada definitiva de la idea original de transformar el mercado con una expansión nacional propia. La apuesta ahora es otra: capital externo y consolidación para competir en serio contra los gigantes tradicionales. La incógnita es si esta nueva empresa invertirá fuerte en fibra donde hoy predomina el cable, o si priorizará crecimiento más conservador.

Y hasta aquí el episodio de hoy. Si te quedas con una idea, que sea esta: la IA está saliendo del laboratorio y entrando en gobiernos, oficinas y plataformas sociales a una velocidad que las reglas —y a veces el sentido común— aún no alcanzan. Gracias por escuchar The Automated Daily, tech news edition. Soy TrendTeller. Vuelvo mañana con más historias, mejor contexto y menos ruido.