The Automated Daily - Tech News Edition · 28 de febrero de 2026 · 10:42

OpenAI rompe récord de financiación & Guerra por chips para IA - Noticias de Tecnología (28 feb 2026)

OpenAI levanta $110B; Meta alquila chips a Google; ASML High‑NA EUV lista; IA “lee” habla interna; neuronas juegan Doom; juicio a redes sociales.

OpenAI rompe récord de financiación & Guerra por chips para IA - Noticias de Tecnología (28 feb 2026)
0:0010:42

Our Sponsors

Topics

01
OpenAI rompe récord de financiación — OpenAI anuncia una ronda gigantesca con Amazon, Nvidia y SoftBank: valoración pre-money de 730.000 millones y foco en infraestructura para IA de frontera.
02
Guerra por chips para IA — Meta alquila TPUs de Google y sigue comprando aceleradores (AMD, Nvidia). La demanda de cómputo reconfigura el mercado más allá de las GPU.
03
ASML y la litografía High-NA — ASML declara lista su herramienta EUV High-NA para producción a gran volumen, clave para la próxima generación de chips y para sostener el ritmo de la IA.
04
BCI y texto desde pensamientos — Stanford demuestra decodificación de “habla interna” con microelectrodos y modelos de IA: hasta 74% en tareas guiadas, con retos claros en prompts abiertos.
05
Neuronas en chip jugando Doom — Cortical Labs entrena neuronas humanas sobre microelectrodos para jugar Doom en días gracias a herramientas Python, impulsando la computación bio-híbrida.
06
Pentágono presiona a Anthropic — El Departamento de Defensa de EE. UU. amenaza con rescindir contratos y etiquetar a Anthropic como “riesgo de cadena de suministro” por límites de uso militar de Claude.
07
Redes sociales ante los tribunales — En Los Ángeles arranca un juicio clave contra Meta y YouTube por diseño adictivo (scroll infinito, autoplay, ‘likes’) y daño a la salud mental juvenil.
08
Sensores rápidos contra contaminación tóxica — Rice University combina nanopartículas, espectroscopía infrarroja y aprendizaje automático para detectar contaminantes tipo PAH más rápido y potencialmente in situ.
09
IAEA, satélites y control nuclear — Un informe confidencial del OIEA/IAEA alerta de falta de acceso a instalaciones iraníes bombardeadas; se depende de imágenes satelitales y persiste la incertidumbre del stock de uranio.

Sources

Full Transcript

Dicen que la IA aún está “en pañales”… pero hoy tenemos una cifra que suena a ciencia ficción: OpenAI asegura 110.000 millones de dólares nuevos y, de paso, presume cerca de 900 millones de usuarios semanales. ¿Qué cambia cuando la IA deja de ser laboratorio y se vuelve infraestructura mundial? Bienvenidos a The Automated Daily, edición de noticias tecnológicas. El podcast creado por IA generativa. Soy TrendTeller y hoy es 28 de febrero de 2026. Vamos con un repaso claro, sin ruido, de las historias que están moviendo el tablero.

Empezamos por el dinero, porque aquí no se trata solo de titulares: OpenAI afirma haber asegurado 110.000 millones de dólares en nueva financiación, con Amazon liderando con 50.000 millones y Nvidia y SoftBank poniendo 30.000 millones cada uno. La valoración pre-money se sitúa, según la propia compañía, en 730.000 millones. Sam Altman lo enmarca como el inicio de una etapa distinta: la IA de frontera pasando de investigación a uso cotidiano a escala global. Y acompaña el argumento con métricas: más de 900 millones de usuarios activos semanales en ChatGPT y más de 50 millones de suscriptores de consumo. Además, OpenAI refuerza su alianza con Amazon Web Services como distribuidor cloud externo exclusivo para ciertos servicios “Frontier”, y amplía un acuerdo multianual con AWS en 100.000 millones adicionales a ocho años. Ojo: también recalcan que esto no rompe su relación con Microsoft; dicen que sigue siendo “central”.

Ese anuncio encaja con una segunda historia: la guerra silenciosa por el cómputo. Meta, según reportes, ha cerrado un acuerdo multianual para alquilar chips de IA de Google, concretamente TPUs. No es un detalle menor: durante años, la conversación se reducía a “¿cuántas GPU de Nvidia tienes?”. Ahora vemos algo más parecido a un mercado de aceleradores con alternativas reales, y con acuerdos de alquiler, no solo de compra. Meta ya venía de movimientos agresivos: conversaciones de compra, acuerdos con Nvidia para chips actuales y futuros, y un compromiso con AMD que se llegó a cifrar en decenas de miles de millones. Traducido: la escasez y el coste del cómputo están dictando estrategia tanto como los propios modelos. Si tu ventaja depende de entrenar y servir IA a escala, tu cadena de suministro es casi tu producto.

Y hablando de cadena de suministro, el tercer bloque es fabricación de chips. ASML dice que sus máquinas High-NA EUV —la siguiente generación de litografía ultravioleta extrema— ya están listas para que los fabricantes arranquen producción de alto volumen. Es un hito porque ASML es, en la práctica, el cuello de botella más sofisticado de la industria: nadie más vende EUV comercial. La High-NA promete simplificar pasos caros y complejos en el proceso, algo crucial ahora que la litografía actual se acerca a límites físicos para chips cada vez más densos, muy demandados por la IA. Cada máquina ronda los 400 millones de dólares y, según ASML, ya han procesado unas 500.000 obleas con niveles de precisión y tiempos de inactividad compatibles con producción. Eso sí: aunque la herramienta esté “lista”, ASML admite que integrar esto en una fábrica real puede llevar dos o tres años de pruebas y ajustes. En otras palabras: el futuro está llegando, pero con casco, guantes y checklist industrial.

Pasamos a una historia donde la palabra “futuro” se siente más íntima: interfaces cerebro-computadora. Un equipo de Stanford mostró avances que se acercan, con cautela, a lo que la gente llama “leer la mente”, especialmente para personas que no pueden hablar. En el estudio, una sobreviviente de ictus de 52 años —participante T16— llevó implantada una matriz de microelectrodos en la parte frontal del cerebro. Con ayuda de IA, el sistema tradujo actividad neuronal asociada a habla imaginada en texto en pantalla, en tiempo real. La pregunta clave era si se puede decodificar no solo “habla intentada” (cuando alguien intenta articular), sino también “habla interna”. En una tarea guiada de imaginar frases, llegaron a una precisión de hasta 74%. Pero cuando se volvió más espontáneo, o se pidió respuesta abierta, el rendimiento cayó y el texto se degradó hasta parecer un galimatías. También usaron tareas indirectas —como contar figuras de colores— para provocar “palabras numéricas internas” y vieron huellas en corteza motora. Conclusión provisional: habla interna y habla intentada se parecen mucho en patrones, pero la señal interna es más débil. La apuesta para mejorar pasa por muestrear más neuronas y quizá mirar otras regiones, como el giro temporal superior, lo que podría ayudar cuando la corteza motora está dañada. Paralelamente, avanza lo no invasivo: en Japón, Yu Takagi ha usado generadores tipo Stable Diffusion con datos de fMRI para reconstruir imágenes vistas o imaginadas, y hasta experimentos de reconstrucción musical, aunque el audio es más difícil por la resolución temporal de la fMRI. La tecnología va rápido; las preguntas éticas, también.

Si lo anterior suena a ciencia ficción seria, esto suena a ciencia ficción extraña: neuronas humanas en un chip aprendiendo a jugar Doom en aproximadamente una semana. La empresa australiana Cortical Labs cultiva neuronas sobre matrices de microelectrodos que estimulan y registran actividad eléctrica. Ya habían mostrado algo parecido con Pong en 2021, pero ahora el salto es doble: un juego más complejo y un entorno de programación más accesible. Con una interfaz nueva y herramientas en Python, un desarrollador independiente, Sean Cole, entrenó el sistema en días pese a tener poca experiencia en biología. El rendimiento, por supuesto, no compite con humanos expertos, pero supera a un “jugador” aleatorio. La lectura interesante aquí es la plataforma: bajar la barrera de entrada para experimentar con hardware neuronal vivo. Aun así, los expertos recuerdan una incógnita central: todavía no entendemos del todo qué representación interna construyen esas neuronas, ni cómo “interpretan” el juego sin ojos. Por ahora, es más un laboratorio de control y aprendizaje biológico que una alternativa inmediata al silicio, pero ya se habla de posibles aplicaciones híbridas, por ejemplo en robótica.

Ahora, el lado político y regulatorio de la IA: el Departamento de Defensa de EE. UU. presiona a Anthropic. Según la AP, el secretario de Defensa dio un ultimátum para permitir el uso militar de Claude sin restricciones, bajo amenaza de perder contratos y ser etiquetada como “riesgo de cadena de suministro”. Incluso se deslizó la idea de recurrir a la Defense Production Act, una ley histórica pensada para priorizar producción en contextos de defensa nacional. Forzar con esa herramienta cambios en límites de seguridad de un modelo sería, según expertos, algo inédito y con alta probabilidad de acabar en tribunales. Anthropic, por su parte, ha mostrado cautela por escenarios como drones armados totalmente autónomos o vigilancia masiva; el Pentágono responde que no busca eso y que mantendría humanos en el circuito. La lectura práctica: los próximos meses pueden marcar precedentes sobre quién decide “cómo” se usa un modelo generalista cuando el cliente es el Estado.

En paralelo, un caso judicial pone el foco en el diseño de plataformas. En Los Ángeles, una joven identificada como KGM testificó que su adicción a redes sociales comenzó en la infancia —YouTube a los seis, Instagram a los nueve— y que a los diez ya lidiaba con depresión y autolesiones. Es demandante principal en un litigio masivo contra Meta y YouTube, con más de 1.600 demandantes en conjunto, incluidas familias y distritos escolares. El argumento: funciones como scroll infinito, autoplay y la economía del “like” estarían diseñadas para enganchar, con efectos nocivos en salud mental adolescente. TikTok y Snap, que figuraban inicialmente, llegaron a un acuerdo antes del juicio. Meta y YouTube niegan responsabilidad y apuntan a factores personales y familiares. Este caso importa por una razón estructural: es un juicio “bellwether”, de esos que tantean cómo reacciona un jurado y pueden orientar decenas de casos posteriores. Más que una pelea puntual, puede convertirse en termómetro legal del diseño adictivo.

Cerramos con dos historias donde la tecnología actúa como herramienta de verificación y salud pública. Primero, un informe confidencial del OIEA dice que Irán no ha permitido acceso a instalaciones nucleares bombardeadas por Israel y Estados Unidos durante una guerra de 12 días en junio. Sin inspecciones, la agencia no puede confirmar ni la continuidad de actividades ni el tamaño del stock de uranio en sitios afectados. Hablan de “pérdida de continuidad de conocimiento”, que en verificación es casi lo peor: el momento en que ya no puedes asegurar qué ocurrió entre un punto y otro. Se apoyan en imágenes satelitales comerciales y observan actividad de vehículos en Isfahán y movimiento en Natanz y Fordow, pero sin poder verificar su naturaleza. Y, en Estados Unidos, un equipo de química en Rice University trabaja en detección más rápida y portátil de contaminantes peligrosos —por ejemplo PAHs asociados a riesgo de cáncer— usando nanopartículas como “tinta” sobre portaobjetos de vidrio. Al secarse una muestra, las moléculas se adhieren y se amplifica su señal en espectroscopía infrarroja. El truco moderno está en el software: aprendizaje automático para separar firmas solapadas en mezclas complejas, sin tener que aislar cada compuesto por separado. Prometen resultados en horas, potencialmente in situ, más rápido y más barato que protocolos estándar. No suena tan viral como un modelo nuevo, pero para zonas contaminadas y agencias locales, esto puede ser el tipo de innovación que cambia decisiones reales.

Hasta aquí el episodio de hoy. Si te quedas con una idea, que sea esta: el futuro de la IA no depende solo de modelos más listos, sino de chips, fábricas, contratos, tribunales… y, cada vez más, de cómo decidimos usarla cuando toca algo tan sensible como el cerebro o la seguridad nacional. Soy TrendTeller. Gracias por escuchar The Automated Daily, edición de noticias tecnológicas. Volvemos mañana con más señales —y menos ruido— del mundo tech.