Transcript

Musk y OpenAI, a juicio & Carrera por la AGI y poder - Noticias de Tecnología (8 may 2026)

8 de mayo de 2026

Back to episode

Salieron a la luz mensajes que sugieren que, en plena etapa fundacional, Elon Musk exploró absorber OpenAI dentro de Tesla… y ahora un jurado decidirá qué historia es más creíble. Bienvenidos a The Automated Daily, tech news edition. El podcast creado por IA generativa. Hoy es 8 de mayo de 2026. Soy TrendTeller, y en los próximos minutos repasamos lo más relevante del día en tecnología: poder, infraestructura, fiabilidad y también un par de avances científicos que pueden cambiar reglas de juego.

Empezamos con el caso que está concentrando miradas en Silicon Valley, aunque el juicio se esté celebrando en Oakland. Elon Musk se enfrenta a líderes de OpenAI, como Sam Altman y Greg Brockman, por una pregunta que suena casi filosófica, pero tiene consecuencias muy prácticas: ¿OpenAI se desvió de su misión original de servir al bien público como organización sin ánimo de lucro? Musk dice que hubo promesas tempranas de mantenerse como entidad no lucrativa. OpenAI responde que el pleito va menos de principios y más de competencia: Musk está levantando su propia empresa de IA, xAI, y querría debilitar a un rival directo.

Y aunque el juez ha insistido en que el proceso no trata sobre “seguridad de la IA”, la conversación se cuela una y otra vez por la puerta de atrás. En la sala se han mencionado preocupaciones que ya forman parte del debate público: impacto en empleo, discriminación, desinformación y, en el extremo, la posibilidad de sistemas superhumanos con riesgos existenciales. Un punto especialmente llamativo lo puso el experto Stuart Russell: advirtió que una carrera por llegar primero a una inteligencia general artificial puede ser peligrosa por sí misma, porque concentra poder en quien “gana”, incluso antes de preguntarnos si el ganador es responsable.

El elemento más incómodo para el relato de “defensor del bien común” es que, según testimonios y mensajes internos, Musk habría intentado en 2018 reclutar al núcleo fundador de OpenAI para montar un laboratorio dentro de Tesla o convertir OpenAI en una filial. La idea importante aquí no es quién tuvo la ocurrencia más ambiciosa, sino qué revela sobre las prioridades: OpenAI sostiene que Musk aceptaba un enfoque con ánimo de lucro si podía controlar la gobernanza y la dirección. Brockman, además, afirmó que Musk buscaba un control unilateral y que quería que se supiera que él mandaba. El jurado decidirá qué versión cuadra mejor con los hechos, y el veredicto podría sacudir el liderazgo de OpenAI y hasta entorpecer planes corporativos futuros.

Saltamos de tribunales a infraestructura, que es donde se decide buena parte de la ventaja en IA. OpenAI dice haber trabajado con actores enormes del sector —fabricantes de chips, nube y redes— para proponer un nuevo protocolo que mejore cómo se comunican los aceleradores en entrenamientos masivos. Traducido a lenguaje llano: hoy no solo importa tener muchas GPUs, sino evitar atascos cuando esas máquinas tienen que coordinarse. Si la red falla o se vuelve inestable, el entrenamiento se encarece y se frena. Que la especificación se publique como estándar abierto es una señal de que el sector está intentando poner suelo común a una parte crítica del “motor” de la IA.

Hablando de infraestructura crítica: GitHub, que para muchísimos equipos es prácticamente una utilidad pública, atraviesa una etapa de fiabilidad sorprendentemente mala. La noticia más seria no es solo que haya caídas, sino que se hayan reportado problemas de integridad de datos. Entre los incidentes, destacó un fallo que podía generar resultados incorrectos al combinar cambios, con casos en los que se “perdían” modificaciones y tocaba recuperar código a mano. A eso se sumaron episodios en los que pull requests o issues parecían desaparecer de la interfaz por problemas de carga en sistemas de búsqueda. En un ecosistema donde la confianza lo es todo, estos fallos empujan a algunos proyectos a mudarse a alternativas, y eso sí es un síntoma que duele.

La explicación oficial apunta a un aumento de tráfico impulsado por agentes de IA y a la complejidad de una migración de centros de datos hacia Azure. Lo interesante, más allá de la culpa puntual, es el mensaje para la industria: los agentes automatizados no solo generan código, también generan actividad —consultas, acciones, integraciones— y esa “nueva clase de usuario” puede multiplicar la carga de sistemas que no se diseñaron pensando en ello.

En ciberseguridad, hoy tenemos una cara más optimista de esa misma ola de automatización. Mozilla contó cómo usó modelos de IA, combinados con una infraestructura de pruebas y fuzzing, para descubrir y corregir una gran cantidad de vulnerabilidades en Firefox. La idea clave es que los informes de bugs generados por IA, que hace no tanto eran ruido, empiezan a convertirse en señales útiles cuando van acompañados de pruebas reproducibles y de un proceso de triaje serio. Mozilla presume de un aumento fuerte en correcciones de seguridad en los últimos meses. Y esto también cambia el equilibrio: si los defensores pueden escalar auditorías, los atacantes también pueden escalar búsquedas. La velocidad pasa a ser parte de la seguridad.

Ahora, una historia de comunidad y poder, pero en el mundo del software abierto: WordPress.org. Su cofundador, Matt Mullenweg, creó un canal público para un grupo de colaboradores con acceso directo para hacer cambios en producción sin el circuito habitual de aprobaciones. El objetivo declarado es destrabar mejoras que llevaban tiempo atascadas, especialmente alrededor de cómo se mide y se visibiliza la contribución al proyecto. Lo que lo hace interesante es el choque cultural: WordPress siempre ha presumido de procesos consensuados, y esta vía rápida puede ser eficaz… pero también plantea preguntas de transparencia y de quién decide qué es “lo mejor” para una comunidad enorme.

Pasamos a un tema que muchas empresas están viviendo en silencio: las métricas mal elegidas para evaluar IA. Un análisis reciente puso nombre a un patrón: cuando se premia el uso de IA por volumen —por ejemplo, tokens consumidos— se incentiva que la gente optimice el indicador, no el resultado. Es la Ley de Goodhart de toda la vida, con traje nuevo: conviertes una métrica en objetivo, y deja de medir lo que querías. Y lo peor es que esto no solo desperdicia presupuesto; también puede inflar trabajo inútil, aumentar ruido en los repositorios y crear incentivos para “parecer productivo” en lugar de serlo.

Esa distorsión conecta con otra discusión: cómo los agentes de programación están tensando el modelo clásico de revisión de código. Hay equipos que ya tenían colas largas de revisiones; ahora, si un agente produce más cambios en menos tiempo, el cuello de botella no desaparece, solo se mueve. La crítica más incisiva es la aparición de “PRs de relleno”: cambios generados por un agente que el humano apenas entiende, y donde el revisor termina cargando con casi toda la responsabilidad. En equipos pequeños y de mucha confianza puede funcionar si se refuerzan pruebas automáticas y disciplina. En organizaciones grandes, todavía falta un modelo de proceso que escale sin quemar a los revisores.

Y cerramos el bloque de industria con un impacto laboral muy tangible: Cloudflare anunció recortes de plantilla en el marco de una reestructuración impulsada por IA. El mensaje corporativo es que el software entra en un cambio de paradigma y que quieren operar con un modelo “AI-first”. Más allá del eslogan, esto refleja una tendencia: empresas que reasignan recursos hacia automatización y nuevos proyectos, mientras reducen roles que consideran duplicados o menos estratégicos. La pregunta que queda abierta es cómo se reparte el beneficio de esa productividad: en inversión, en precios, o simplemente en márgenes.

Antes de irnos, dos pinceladas de ciencia con implicaciones tecnológicas claras. Primero, un avance en CRISPR: investigadores describen una herramienta, Cas12a2, que puede programarse para matar células eucariotas solo cuando detecta un ARN específico. En términos prácticos, es como un interruptor de eliminación que se activa si una célula está expresando un mensaje concreto, algo que podría apuntar a células infectadas por virus o a células con mutaciones asociadas a cáncer. Aun así, la historia real será la de siempre: entrega, seguridad y verificación rigurosa antes de pensar en uso amplio.

Y, por último, un apunte de estrategia en biotecnología: varios observadores del sector señalan que China está aumentando de forma drástica la oferta de activos tempranos en áreas donde antes Occidente dominaba el “pipeline”. Eso puede sonar abstracto, pero significa competencia más dura por adquisiciones, menos salidas fáciles para proyectos incrementales y presión para que las empresas occidentales aporten valor real más allá de ‘intermediar’. En resumen: más volumen, más velocidad y un mercado global que se vuelve menos paciente con lo que no sea claramente diferencial.

Y hasta aquí la edición de hoy. Si en tu equipo ya convivís con agentes de IA, métricas nuevas y más carga de revisión, quizá la pregunta útil no sea “¿usamos IA?”, sino “¿qué estamos premiando exactamente?”. Soy TrendTeller. Esto fue The Automated Daily, tech news edition. Gracias por escuchar; volvemos mañana con más tecnología, sin humo y con contexto.