Anthropic frena Claude Mythos & Guerra por potencia de cómputo - Noticias de Tecnología (10 abr 2026)
Anthropic frena su IA “frontier” por ciberseguridad, guerra por cómputo entre gigantes, deepfakes ante la ley y avances en CRISPR, Luna y salud.
Our Sponsors
Today's Tech News Topics
-
Anthropic frena Claude Mythos
— Anthropic decide no lanzar al público Claude Mythos por riesgos de seguridad: capacidades avanzadas en ciberseguridad y temor a abuso para ataques. Palabras clave: frontier model, ciberataques, gobernanza, acceso restringido. -
Guerra por potencia de cómputo
— Meta amplía su apuesta por CoreWeave y, a la vez, OpenAI y Anthropic se cruzan mensajes sobre quién escala más rápido. Palabras clave: GPUs, centros de datos, gigavatios, infraestructura, competencia. -
IA más visual e “identidades”
— Google lleva Gemini a visualizaciones 3D interactivas y YouTube prueba avatares realistas con etiquetas de procedencia. Palabras clave: Gemini, 3D, YouTube Shorts, avatar, SynthID, C2PA. -
Programación con LLM: realidad
— Un debate creciente recuerda que los LLM aceleran el código, pero no sustituyen especificación, pruebas e integración; incluso pueden empeorar la estabilidad. Palabras clave: productividad, DORA, CircleCI, calidad, pruebas. -
CRISPR de nueva generación clínica
— Un ensayo pequeño en China usa edición genética tipo CRISPR más precisa para β-talasemia, buscando menos efectos fuera de objetivo. Palabras clave: base editing, hemoglobina fetal, seguridad, ensayo clínico. -
Lentes inteligentes contra glaucoma
— Un prototipo de lente de contacto ‘inteligente’ promete medir presión ocular de forma continua y liberar medicación cuando haga falta. Palabras clave: glaucoma, presión intraocular, adherencia, tratamiento bajo demanda. -
Primer condenado por deepfakes sexuales
— EE. UU. registra la primera condena bajo la Take It Down Act por publicar imágenes íntimas no consentidas, incluidas deepfakes generadas con IA. Palabras clave: deepfakes, abuso sexual, retirada en plataformas, aplicación de la ley. -
Prohibiciones infantiles en redes sociales
— Más países avanzan hacia vetos por edad en redes sociales, trasladando a las plataformas la carga de verificación. Palabras clave: menores, verificación de edad, privacidad, salud mental, regulación. -
Onkalo: residuos nucleares bajo tierra
— Finlandia se prepara para abrir Onkalo, el primer depósito geológico permanente para combustible nuclear gastado, con dudas sobre riesgos a muy largo plazo. Palabras clave: residuos nucleares, cobre, bentonita, seguridad intergeneracional. -
Artemis II y carrera lunar
— Artemis II refuerza la rivalidad lunar con China y lleva experimentos biomédicos personalizados con ‘organ chips’ para estudiar radiación y microgravedad. Palabras clave: Artemis, Luna, China 2030, organ-on-chip, salud espacial. -
Tesla vuelve al SUV asequible
— Reuters señala que Tesla vuelve a explorar un SUV más pequeño y barato tras priorizar robotaxis, en plena presión competitiva en vehículos eléctricos. Palabras clave: Tesla, SUV compacto, China, precio, estrategia. -
Libélulas y visión casi infrarroja
— Investigadores hallan que libélulas perciben rojo extremadamente profundo y acercándose al infrarrojo, con posibles implicaciones para tecnologías médicas con luz. Palabras clave: opsinas, evolución paralela, optogenética, infrarrojo cercano.
Sources & Tech News References
- → Anthropic Withholds Claude Mythos, Citing Cybersecurity Misuse Risks
- → New base-editing therapy frees β-thalassaemia patients from transfusions in small trial
- → George Hotz sketches a path to owning a personal zettaflop computer
- → Meta Adds $21 Billion CoreWeave Commitment as AI Infrastructure Spending Surges
- → TLDR Pitches Newsletter Sponsorships Across 12 Tech-Focused Audiences
- → Battery-free smart contact lens aims to track eye pressure and deliver glaucoma drugs
- → Karpathy: AI Perceptions Split Between Free-Tier Glitches and Frontier Coding Agents
- → OpenAI Investor Memo Targets Anthropic’s Compute Strategy as Rival Gains Ground
- → Ohio man becomes first person convicted under federal law banning intimate deepfakes
- → Finland readies Onkalo, the world’s first permanent spent nuclear fuel repository
- → Google Gemini adds interactive 3D models and real-time simulations
- → NASA’s Artemis II milestone heightens scrutiny of China’s 2030 crewed Moon plan
- → Dragonfly red-light vision reveals human-like opsin mechanism with promise for optogenetics
- → Jassy pitches Amazon’s chips, satellites, and robots to defend record AWS spending
- → Countries Move Toward Social Media Bans for Children as Australia Sets Precedent
- → Developers Share Uninvestigated Hunches on Better GUIs, IaC, Memory Use, and OS Design
- → YouTube rolls out AI avatars for Shorts with watermarks and disclosure labels
- → Tesla Reportedly Plans New Low-Cost Compact SUV Built in Shanghai
- → Unwrap promotes AI platform for automated customer feedback trends and early issue alerts
- → Unwrap Team “Quick connect” booking page on Cal.com
- → Artemis II Carries Astronaut Cell ‘Organ Chips’ to Study Space Radiation and Microgravity Effects
- → Why LLM Code Generation Isn’t a Silver Bullet for Software Development
- → Anthropic rolls out Claude Cowork GA with admin controls, analytics, and Zoom connector
- → Ramp builds ‘Glass’ to standardize AI workflows and share reusable skills across employees
- → Inside Orion’s Fail-Silent, Eight-CPU Flight Computer for Artemis II
- → OpenAI Adds $100 ChatGPT Pro Tier to Boost Codex Usage and Compete With Anthropic
Full Episode Transcript: Anthropic frena Claude Mythos & Guerra por potencia de cómputo
Hoy una empresa de IA dice, básicamente, “esto es demasiado potente para soltarlo”: no por marketing, sino por miedo a que se use para ciberataques. Bienvenidos a The Automated Daily, edición de noticias tech. El podcast creado por IA generativa. Soy TrendTeller y hoy es 10 de abril de 2026. Vamos con lo más relevante: modelos de frontera y seguridad, la batalla por el cómputo, cambios legales por deepfakes, y ciencia que va de CRISPR a la Luna.
Anthropic frena Claude Mythos
Empezamos con Anthropic y una decisión poco común en un sector que suele competir por lanzar primero. La compañía afirma que no publicará para uso general su nuevo modelo de “frontera”, Claude Mythos, porque el salto de capacidades también eleva los riesgos de seguridad. En su adelanto técnico, Anthropic destaca algo concreto: habilidades inusualmente fuertes en ciberseguridad. En el lado bueno, el modelo podría ayudar a descubrir y corregir vulnerabilidades; en el lado peligroso, también podría facilitar ataques más sofisticados. La jugada de Anthropic es restringir el acceso a un conjunto pequeño de socios que operan infraestructura crítica, con contratos que limiten el uso a tareas defensivas. Expertos consultados dicen que el riesgo no es teórico, sobre todo ahora que los sistemas “agénticos” —herramientas que pueden ejecutar tareas encadenadas— empiezan a cruzarse con el mundo del hacking. Y, a la vez, otros recuerdan un punto incómodo: que una empresa se contenga no significa que el resto del ecosistema no llegue a capacidades parecidas. El trasfondo es claro: ransomware al alza y todavía sin reglas consistentes sobre cuándo un modelo es “seguro” para desplegarse masivamente.
Guerra por potencia de cómputo
Y si la seguridad es una parte de la conversación, la otra es el músculo: el acceso a computación. Meta acaba de reforzar su relación con CoreWeave con un compromiso adicional de capacidad a largo plazo, una señal de que incluso los gigantes que construyen sus propios centros de datos siguen comprando potencia fuera para no quedarse sin GPUs cuando la demanda aprieta. En paralelo, la rivalidad entre OpenAI y Anthropic se está volviendo cada vez más una disputa por infraestructura. Un memo de OpenAI a inversores critica a Anthropic por estar más limitada en cómputo, y sugiere que escalar más rápido genera una ventaja acumulativa: modelos más capaces y, con el tiempo, menor coste por uso. Anthropic, por su parte, responde apuntando a acuerdos propios para ampliar capacidad. Lectura rápida: la próxima generación de IA no sólo se decide con ideas y talento; se decide con electricidad, financiación y metros cuadrados de data center.
IA más visual e “identidades”
En esa misma línea de “la IA es infraestructura”, George Hotz lanzó una provocación: la idea de que, dentro de su vida, podría ser viable que una persona posea un ordenador de escala casi inimaginable, del tamaño de los sistemas que hoy asociamos a estados o a megaempresas. Su argumento no es tanto “faltan chips”, sino que el cuello de botella real es energía y software de orquestación. La parte interesante del debate es lo que deja en evidencia: la conversación pública suele obsesionarse con el modelo, pero el terreno decisivo está en lo mundano —suministro eléctrico, refrigeración, herramientas para coordinar hardware—. Aunque su plan sea un cálculo a ojo, funciona como recordatorio: democratizar la supercomputación no es sólo abaratar componentes; es resolver el ecosistema que la hace operable.
Programación con LLM: realidad
Cambiamos a productos de IA de cara al usuario, porque aquí también hay movimiento. Google está empujando a Gemini hacia respuestas más “manipulables”: además de texto, ahora puede generar visualizaciones 3D interactivas dentro de la explicación. La gracia no es el efecto espectacular, sino el cambio pedagógico: pasas de leer una descripción a experimentar con ella, tocando variables y viendo consecuencias. Y en YouTube, Google prueba otra pieza delicada: avatares fotorrealistas generados con IA a partir de tu cara y tu voz para Shorts. La plataforma intenta adelantarse a la preocupación inevitable: el abuso de identidad. Por eso promete señales visibles y etiquetas de procedencia para indicar que ese contenido fue generado o alterado con IA. Interesante por dos motivos: reduce fricción para creadores y, a la vez, normaliza el “contenido sintético” con marcas de autenticidad. Veremos si es suficiente para sostener la confianza.
CRISPR de nueva generación clínica
En el mundo del software, hay una discusión que se está volviendo más sobria: ¿de verdad los modelos de lenguaje están “revolucionando” la programación, o sólo aceleran una parte? Un análisis reciente insiste en lo segundo. La idea central es clásica: escribir código es sólo una fracción del trabajo; lo difícil es definir bien qué se necesita, coordinar cambios, probarlos y mantener estabilidad. Además, varios informes industriales apuntan a una tensión: más velocidad puede venir acompañada de más inestabilidad en entregas, con integraciones que se rompen más y validaciones que se vuelven el cuello de botella. La conclusión no es “no uses IA”, sino “sin disciplina de ingeniería —pruebas, revisión, especificación—, la IA puede amplificar el desorden”. Es una advertencia útil ahora que las herramientas son cada vez más capaces en tareas técnicas medibles.
Lentes inteligentes contra glaucoma
Saltamos a biotecnología. Investigadores en China publicaron resultados de un ensayo clínico pequeño para tratar β-talasemia con una versión más precisa de edición genética tipo CRISPR. En vez de cortar ambas hebras de ADN como hacen enfoques más conocidos, usan un editor de bases que busca reducir ediciones no deseadas. Lo llamativo es la estrategia terapéutica: en lugar de corregir una por una las muchas mutaciones posibles, el tratamiento reactiva la hemoglobina fetal en adultos, que puede compensar fallos en la hemoglobina “adulta”. En cinco pacientes, tras el procedimiento y el acondicionamiento médico necesario, todos pasaron al menos medio año sin transfusiones. Es prometedor, aunque sigue siendo un proceso complejo y costoso. La señal importante: la edición genética se expande más allá de casos ya emblemáticos y explora diseños con más foco en seguridad.
Primer condenado por deepfakes sexuales
Otra historia de salud, esta vez más cotidiana: un grupo de investigadores reportó pruebas tempranas de una lente de contacto experimental que busca medir la presión intraocular de forma continua y, cuando haga falta, liberar medicación para glaucoma. El glaucoma es traicionero: puede avanzar sin síntomas claros hasta que el daño es serio. Hoy dependemos de gotas diarias y mediciones esporádicas en consulta, aunque la presión fluctúa durante el día. Si una lente así se valida, podría mejorar dos problemas a la vez: seguimiento real y mejor adherencia al tratamiento. Aún estamos en fase experimental, pero la dirección es relevante: llevar el control desde la clínica hacia el día a día del paciente.
Prohibiciones infantiles en redes sociales
Ahora, el ángulo legal y social de la IA. En Estados Unidos, el Departamento de Justicia anunció la primera condena bajo la Take It Down Act, una ley federal que criminaliza la publicación de imágenes sexuales no consentidas, incluyendo deepfakes. El caso incluye material generado con IA y distribuido en línea, y se presenta como un hito porque pone a prueba una norma reciente en un problema que va en aumento. Más allá del caso concreto, el mensaje es doble: habrá más persecución penal, y también más presión sobre plataformas para retirar contenido reportado en plazos estrictos cuando esas reglas entren plenamente en vigor. Es un terreno donde tecnología, moderación y derechos chocan a diario, y donde la capacidad de generar contenido falso se está volviendo demasiado accesible.
Onkalo: residuos nucleares bajo tierra
Y hablando de plataformas, varios países se están moviendo para restringir el acceso de menores a redes sociales. Australia marcó un precedente con un veto amplio por edad y con la responsabilidad puesta sobre las empresas para verificar. En Europa se discuten medidas parecidas, con debates intensos sobre privacidad, verificación de edad y hasta el riesgo de crear infraestructuras de identificación que luego se usen para otros fines. Lo interesante es que la conversación ya no es “¿hay daño?” —eso muchos lo dan por sentado—, sino “¿cómo se implementa sin abrir otra caja de Pandora?”. Porque verificar edad a escala suele implicar más recolección de datos, y ahí aparece la tensión clásica entre protección infantil y vigilancia.
Artemis II y carrera lunar
Energía y largo plazo: Finlandia se prepara para abrir Onkalo, el primer depósito geológico permanente para combustible nuclear gastado comercial, excavado a gran profundidad en roca muy antigua. La promesa es simple y potente: dejar de depender de almacenamiento superficial vulnerable y sellar el residuo de forma más estable. Pero también es una historia sobre incertidumbre a escalas humanas imposibles: cuánto durarán ciertos materiales, cómo se comunica peligro a civilizaciones futuras, y quién carga con la responsabilidad durante cientos de miles de años. Onkalo no resuelve el debate global sobre nuclear, pero lo hace más concreto: alguien está poniendo la solución “final” en práctica, con todo lo que implica.
Tesla vuelve al SUV asequible
Miramos al espacio. La misión Artemis II de NASA, que llevó astronautas más allá de la Luna en un vuelo tripulado clave, vuelve a encender los focos sobre el objetivo de China de llegar con humanos antes de 2030. La competencia ya no es sólo plantar una bandera: es construir presencia sostenida y, de paso, influir en reglas, acuerdos y alianzas. Y Artemis II también trae ciencia biomédica interesante: un experimento con dispositivos tipo “organ chip” hechos con células de los propios astronautas para estudiar efectos de microgravedad y radiación comparando resultados en vuelo y en Tierra. Si esto escala, puede cambiar cómo se estudian riesgos de salud espacial con muestras más personalizadas y medibles, algo crucial si de verdad hablamos de estancias largas en la Luna o misiones a Marte.
Libélulas y visión casi infrarroja
En movilidad eléctrica, Reuters reporta que Tesla estaría desarrollando un SUV más pequeño y más barato, un giro significativo después de haber priorizado el relato de robotaxis y autonomía total. El contexto importa: crecimiento de entregas más lento, competencia feroz —especialmente en China— y una demanda que castiga los precios altos. Si el proyecto se confirma, sugiere pragmatismo: no todo puede esperar a la autonomía perfecta. En mercados sensibles a coste, ganar volumen depende de ofrecer algo asequible sin prometer el futuro como excusa.
Cerramos con ciencia curiosa que podría tener derivadas médicas. Un equipo en Japón encontró que las libélulas pueden detectar rojo extremadamente profundo, rozando el infrarrojo cercano, más allá de lo típico en la visión humana. Identificaron un pigmento visual y un mecanismo de ajuste molecular sorprendentemente parecido al de mamíferos: un caso de evolución paralela. ¿Por qué importa más allá de lo fascinante? Porque la luz de longitudes de onda más largas puede penetrar más en tejido. Si podemos aprender de estos sistemas, podrían inspirar herramientas de biomedicina que usan luz para activar o medir procesos dentro del cuerpo con mayor alcance.
Eso es lo esencial de hoy: modelos de IA que se frenan por seguridad, una carrera por computación que ya parece una carrera energética, y avances científicos que van desde el ojo hasta el ADN. Si quieres, cuéntame qué tema te preocupa más ahora mismo: la verificación de edad, los deepfakes, o que la ciberseguridad se convierta en el principal “test de estrés” de la IA. Hasta mañana.