Transcript

Juicio OpenAI contra Elon Musk & Anthropic compra cómputo a gran escala - Noticias de Tecnología (7 may 2026)

7 de mayo de 2026

Back to episode

Un testimonio en un juicio en California sugiere que, en 2017, Elon Musk no solo apoyó cambiar OpenAI hacia un modelo con fines de lucro: también habría condicionado su dinero a quedarse con el control, mezclando la conversación con una visión de Marte. Ahora sí. Bienvenidos a The Automated Daily, edición de noticias tecnológicas. El podcast creado por IA generativa. Hoy es 7 de mayo de 2026. Yo soy TrendTeller, y en unos minutos te pongo al día con lo más relevante: desde la guerra por el cómputo para entrenar modelos, hasta cómo los deepfakes están erosionando la confianza en lo que vemos y oímos.

Arrancamos con el caso que puede marcar el futuro de una de las empresas más influyentes de la era de la IA. En un juicio en California, Greg Brockman —presidente de OpenAI— declaró que Elon Musk apoyó en su momento la idea de convertir OpenAI en una entidad con fines de lucro, con un argumento muy directo: como organización sin ánimo de lucro, dijo, no podía levantar el dinero descomunal necesario para construir sistemas de IA avanzados. Según Brockman, la relación se tensó cuando Musk habría exigido control mayoritario si se reestructuraba la empresa, y habría vinculado ese control a conseguir financiación gigantesca, incluso mencionando su plan de una ciudad autosuficiente en Marte. Musk demanda a OpenAI alegando que traicionó su misión; OpenAI responde que Musk actúa por arrepentimiento y por competencia con su propia iniciativa, xAI. Lo interesante aquí no es el drama, sino lo que está en juego: quién gobierna, con qué límites, y cómo se toman decisiones cuando la compañía planea inversiones de computación cada vez más colosales.

Y hablando de computación: la escasez de capacidad se está convirtiendo en la “pista de aterrizaje” que decide quién despega en IA. Anthropic anunció un acuerdo para usar toda la capacidad de un enorme centro de datos en Memphis, conocido como Colossus 1, propiedad de SpaceXAI. La idea es aumentar de golpe el margen para operar y entrenar modelos, y elevar límites de uso en productos como Claude, en particular su oferta enfocada a programación. Más allá del titular, el mensaje es claro: en 2026, el cuello de botella no es solo el talento o el algoritmo; es conseguir energía, chips, racks y espacio físico antes que el rival.

A esa misma historia se suma otro dato que retrata la escala del momento: un reporte indica que Anthropic habría pactado un compromiso de gasto gigantesco con Google a varios años vista para asegurar nube y hardware especializado. Aunque los términos exactos están en disputa, la señal para el mercado es nítida: las startups punteras están firmando contratos a largo plazo para no quedarse sin “combustible”. Y, de paso, los gigantes de la nube convierten esas necesidades en una fuente estable de ingresos futuros, acumulando una especie de cartera de demanda garantizada ligada al boom de la IA.

En paralelo, crece la presión por poner algo de orden antes de que modelos nuevos lleguen al público. Google, Microsoft y la xAI de Elon Musk acordaron someter voluntariamente sus próximos modelos a pruebas de seguridad en el Departamento de Comercio de Estados Unidos, a través del centro CAISI. El enfoque, según se ha contado, es evaluar capacidades, riesgos de ciberseguridad y posibles impactos en seguridad pública y nacional. Aunque sea voluntario, es relevante por dos motivos: primero, porque normaliza la idea de “evaluación previa” como parte del ciclo de lanzamiento; y segundo, porque sugiere un giro hacia más supervisión, incluso en un entorno político que a veces promete menos regulación.

Ahora, el lado oscuro de la IA que se siente en la vida diaria: los deepfakes. Expertos advierten que ya son tan realistas y tan fáciles de producir que las defensas sociales y legales no alcanzan. Se recuerda un caso muy sonado en New Hampshire: una llamada automatizada que imitaba la voz del presidente Joe Biden llegó a votantes justo antes de unas primarias, ilustrando cómo una falsificación puede sembrar confusión sin necesidad de “hackear” urnas. Y el problema ya no es solo vídeo editado: investigadores dicen que empiezan a aparecer falsificaciones en tiempo real durante videollamadas. Traducción: estamos perdiendo el viejo hábito de confiar en “se nota en la cara” o “se nota en la voz”. La recomendación más práctica sigue siendo la más aburrida: verificar con fuentes confiables y usar métodos fuera de línea —como una palabra clave familiar— cuando hay riesgo de suplantación.

Pasemos a una batalla distinta, pero con un trasfondo parecido: quién controla la distribución de software cuando el software ya no es un paquete estático. Replit, una app popular para programar, lleva meses sin poder actualizar su aplicación en iOS porque Apple estaría aplicando con dureza una norma que limita ejecutar código que cambie funciones de la app tras la revisión. El choque es conceptual: una app que genera y previsualiza otras apps, sobre la marcha, rompe la suposición de que el binario revisado es exactamente lo que el usuario “recibe” y ejecuta. Esto no afecta solo a Replit: abre una pregunta incómoda para las tiendas de apps sobre cómo se revisa algo que cambia en tiempo real, distinto para cada usuario y cada prompt. Si esto acaba en litigio, podría sentar un precedente importante para la próxima ola de herramientas de programación asistidas por IA.

En la web también hay fricción por cómo aterriza la IA en productos de uso masivo. Un desarrollador criticó que Google haya lanzado en Chrome una nueva interfaz —la llamada Prompt API— que, en la práctica, conecta con su propio modelo local. La queja de fondo no es “IA en el navegador sí o no”, sino si esto parece un estándar abierto o más bien una puerta con el logo de un proveedor. Además, se mencionan preocupaciones por privacidad y abuso: si una web puede activar un modelo en tu dispositivo sin pedir permiso explícito, eso puede consumir recursos y abrir nuevas formas de rastreo o comportamiento indeseado. Este tipo de debates suelen empezar técnicos, pero acaban siendo políticos: quién marca las reglas del terreno donde se construye la web.

De los navegadores a los tribunales, otra vez: autores y grandes editoriales demandaron a Meta en Manhattan por presunta infracción de copyright relacionada con sus modelos Llama. La acusación central es dura: que se habrían usado millones de libros y artículos obtenidos en sitios de piratería para entrenar modelos, en vez de licenciar ese contenido. Meta lo niega y se apoya en la idea de ‘uso legítimo’ en el entrenamiento de IA, un argumento que ya se está probando en varios casos. La clave aquí es el matiz: no es lo mismo entrenar con material disponible bajo acuerdos, que hacerlo con copias presuntamente pirateadas. Lo que decidan los jueces puede redefinir qué prácticas serán aceptables —y cuáles demasiado arriesgadas— para entrenar la próxima generación de modelos.

Vamos con ciencia aplicada, donde la IA también está cambiando la forma de trabajar, no solo el resultado. Investigadores de la EPFL presentaron Synthegy, un enfoque que permite a químicos guiar la planificación de síntesis de moléculas y el análisis de mecanismos de reacción usando instrucciones en lenguaje natural. En lugar de pelearse con filtros rígidos, el científico puede expresar una estrategia —por ejemplo, priorizar ciertas transformaciones o evitar rodeos— y el sistema ayuda a ordenar opciones y justificar por qué unas rutas parecen más coherentes que otras. En pruebas con decenas de químicos, el sistema coincidió con sus criterios con bastante frecuencia. Lo interesante es la promesa: menos ensayo y error y más accesibilidad para herramientas avanzadas, algo especialmente valioso en descubrimiento de fármacos y nuevos materiales.

Otra historia potente, ahora en biotecnología: un equipo reportó que una nucleasa CRISPR llamada Cas12a2 puede programarse para matar células eucariotas solo cuando detecta un ARN específico dentro de la célula. Dicho sin jerga: sería como un “interruptor de eliminación” que se activa si está presente el mensaje molecular adecuado. En experimentos, funcionó en líneas celulares humanas y en modelos con tumores derivados de pacientes, y mostraron ejemplos contra células positivas para HPV al apuntar a transcritos virales. También plantean una utilidad muy práctica en laboratorio: enriquecer poblaciones de células editadas, eliminando selectivamente las no editadas. Aún queda por resolver lo de siempre —entrega, seguridad y validación amplia—, pero la idea de apuntar a un estado celular definido por ARN, y no solo por ADN, abre un abanico nuevo.

En infraestructura de software, dos recordatorios de que lo “aburrido” sostiene el mundo. Primero: el creador de Redis propuso añadir un tipo de dato de arreglos, con nuevas operaciones para consultarlos y buscar patrones directamente en el servidor. Todavía es temprano, pero podría ampliar lo que Redis puede modelar sin trucos. Segundo: los mantenedores de SQLite volvieron a insistir en algo que a veces se olvida: es probable que SQLite esté instalado más que cualquier otra base de datos, apareciendo en teléfonos, sistemas operativos, navegadores y montones de aplicaciones. La moraleja es sencilla: si estas piezas pequeñas fallan, el impacto es gigantesco; y si mejoran, millones de productos mejoran con ellas.

Cerramos con dos notas espaciales y una de mercado. En bolsa, Alphabet se acercó a superar a Nvidia como la empresa más valiosa del mundo, impulsada por el crecimiento de Google Cloud y su narrativa de que no solo vende servicios de IA, sino que también compite en chips y puede capturar valor por el lado empresarial. Es un posible cambio de liderazgo: de la fiebre por vender ‘picos y palas’ —los chips— a la capacidad de monetizar la IA como plataforma y producto.

Y en SpaceX, doble señal. Por un lado, se filtraron detalles de un plan confidencial de salida a bolsa que, según reportes, daría a Elon Musk un control muy fuerte y limitaría la capacidad de los accionistas para demandar o organizar acciones colectivas, empujando disputas hacia arbitraje. Para algunos inversores eso es una línea roja; para otros, es el precio de entrar en una compañía única. Por otro lado, SpaceX estaría preparando una reducción gradual del ritmo de lanzamientos de Falcon 9 mientras reorienta recursos a hacer operativo Starship. No es un problema de fiabilidad: es una transición estratégica. Si Starship funciona como esperan, reconfigura costos, misiones y hasta la idea —todavía futurista— de infraestructura de cómputo vinculada al espacio. Pero hasta que eso se consolide, Falcon 9 seguirá siendo un pilar para satélites, misiones comerciales y el acceso tripulado estadounidense a la Estación Espacial.

Y eso es todo por hoy. Si te quedas con una sola idea, que sea esta: la IA ya no se decide solo en laboratorios; se decide en contratos de energía y chips, en políticas de plataformas como Apple y Google, y en tribunales que están redefiniendo reglas de juego. Soy TrendTeller, y esto fue The Automated Daily, edición de noticias tecnológicas. Gracias por escuchar; volvemos mañana con más actualidad, sin ruido y con contexto.