Transcript
Fuite Anthropic et cyber-risque & OpenAI GPT-Rosalind pour biologie - Actualités Technologiques (18 avr. 2026)
18 avril 2026
← Back to episodeEt si le prochain grand accélérateur du cybercrime n’était pas un nouveau malware… mais un modèle d’IA jugé trop dangereux pour être publié? Une fuite chez Anthropic a mis le sujet sur la table, et les banques comme les régulateurs n’ont pas l’air de prendre ça à la légère. Bienvenue dans The Automated Daily, édition tech. Le podcast créé par l’IA générative. Nous sommes le 18 avril 2026. Je suis TrendTeller, et on fait le tour des actus qui comptent — celles qui disent où va la tech, et pourquoi ça change la donne.
On commence donc par ce qui fait le plus réagir: une fuite accidentelle de fichiers internes d’Anthropic. On y voit apparaître « Claude Mythos », décrit comme suffisamment puissant pour servir d’outil de hacking haut de gamme. D’après le contenu divulgué, le système serait capable d’identifier des failles inédites et de les enchaîner pour pénétrer des systèmes majeurs. Anthropic affirme que c’est précisément pour ça que le modèle ne doit pas être diffusé publiquement. Ce qui rend l’histoire intéressante, ce n’est pas seulement la promesse technique, mais la réaction institutionnelle: aux États-Unis, des discussions auraient réuni des responsables du Trésor, de la Fed et des acteurs bancaires. Au Royaume-Uni, la Banque d’Angleterre et les autorités cyber se préparent aussi. Et Anthropic ouvre des tests très encadrés via un programme baptisé Project Glasswing. Le message implicite est clair: l’IA de pointe n’est plus seulement un sujet de productivité, c’est un paramètre de risque systémique.
Dans un registre plus constructif — mais tout aussi stratégique — OpenAI annonce GPT‑Rosalind, une nouvelle série de modèles dédiée aux sciences de la vie. Le nom rend hommage à Rosalind Franklin, figure clé de la compréhension de la structure de l’ADN. L’idée: un modèle qui raisonne plus naturellement sur des concepts comme molécules, protéines, gènes, voies biologiques et mécanismes de maladie, et qui sait enchaîner des étapes de travail scientifique. OpenAI insiste sur un point: en biologie, les blocages ne viennent pas uniquement de la théorie ou du labo, mais aussi de workflows lourds, fragmentés, remplis d’outils et de bases de données. Si l’IA arrive à mieux connecter littérature, données et planification expérimentale, elle peut aider à faire émerger des hypothèses plus solides — et plus vite. Des partenaires comme Amgen, Moderna, l’Allen Institute ou Thermo Fisher testent l’approche en conditions réelles. Si les promesses se confirment, c’est un coup d’accélérateur dans la compétition très dense de la découverte de médicaments assistée par IA.
Restons sur la compétition, mais à l’échelle géopolitique. Un rapport de Stanford HAI estime que la Chine a presque comblé son retard sur les États-Unis dans certains classements comparant des chatbots, avec un écart qui s’est nettement réduit depuis 2023. Les États-Unis gardent une avance en nombre de modèles « top niveau », mais la Chine mène sur d’autres indicateurs: citations académiques, brevets, et déploiement de robots industriels. Le rapport met aussi le doigt sur un sujet moins glamour que les modèles eux-mêmes: l’énergie. Les analystes évoquent un réseau électrique américain vieillissant, qui pourrait devenir un goulot d’étranglement pour les nouveaux data centers. Et côté talents, la dynamique d’attraction américaine ralentit depuis plusieurs années, même si les entrées restent supérieures aux sorties. En clair: la prochaine phase de la course à l’IA pourrait se jouer autant sur l’électricité, l’infrastructure et la mobilité des chercheurs que sur les algorithmes.
Justement, l’actualité énergétique du moment bouscule déjà les marchés. Les exportations chinoises de technologies « propres » ont fortement grimpé en mars, alors que beaucoup de pays et de consommateurs cherchent des alternatives à des approvisionnements fossiles devenus instables dans le contexte du conflit avec l’Iran et de la fermeture temporaire du détroit d’Ormuz. Les chiffres des douanes montrent une hausse marquée des expéditions de batteries, de véhicules électriques et de cellules solaires, et les concessionnaires dans plusieurs capitales asiatiques décrivent une bascule d’acheteurs vers l’électrique, tout simplement pour limiter l’exposition aux prix à la pompe. Un détail intéressant: certains volumes auraient aussi été gonflés par des expéditions avancées, avant des changements fiscaux côté chinois. Au-delà des chiffres, le signal est net: l’énergie est redevenue une question de sécurité, et ça accélère l’adoption des alternatives.
On passe à un sujet du quotidien, mais très sensible: Google ajoute une fonctionnalité de génération d’images « personnalisée » dans Gemini, en permettant — si l’utilisateur l’accepte — de connecter directement sa bibliothèque Google Photos. Concrètement, l’outil de génération visuelle peut produire des scènes à partir de vos photos existantes, sans que vous ayez à les réuploader une par une. C’est séduisant pour l’usage, parce que ça réduit la friction, et ça rend la création vraiment personnelle. Mais c’est aussi un cran de plus dans l’accès d’un chatbot à des données privées. Google affirme ne pas entraîner directement ses modèles sur les photos des utilisateurs, tout en indiquant que certaines informations, comme les prompts et les réponses, peuvent être utilisées, et que des personnes étiquetées dans Photos peuvent être référencées. Ce genre de nuance va compter, parce que la personnalisation est un avantage produit… et un terrain miné pour la confiance.
Et puisqu’on parle de confiance en ligne: Tinder et Zoom annoncent des partenariats autour du réseau World, pour proposer une vérification optionnelle via scan de l’iris, afin d’afficher un badge ou marqueur de « preuve d’humanité ». L’objectif est de réduire l’usurpation d’identité et la fraude, au moment où les deepfakes et les contenus générés par IA rendent le faux moins coûteux, plus rapide, et donc plus fréquent. Tinder y voit un complément à ses vérifications existantes, notamment face aux faux profils et aux arnaques sentimentales. Zoom, de son côté, met en avant la menace des escroqueries en entreprise, où un visage et une voix synthétiques peuvent suffire à déclencher un virement. World insiste sur l’anonymat, en expliquant que le système n’exige pas d’identité civile complète. Mais la question reste: même optionnelle, la biométrie s’installe comme solution « par défaut » pour prouver qu’on est bien… quelqu’un.
Côté matériel, l’Europe tente de se faire une place dans un marché dominé par Nvidia. Plusieurs startups européennes qui développent des alternatives aux GPU, particulièrement pour l’inférence — le moment où l’IA répond et produit des résultats — visent des levées de fonds très élevées. Parmi elles, une jeune pousse néerlandaise, Euclyd, dit chercher un financement massif pour passer à l’échelle et servir ses premiers clients. L’enjeu est double: réduire la dépendance à une chaîne d’approvisionnement concentrée, et répondre à la contrainte énergétique, parce que l’efficacité devient un avantage concurrentiel. Mais l’article souligne aussi les limites: cycles de développement longs, capacité de production limitée en Europe, et financement moins abondant qu’aux États-Unis. C’est un pari de souveraineté technologique… qui demande une patience et des moyens rarement compatibles avec la vitesse du marché IA.
Enfin, un mot de robotique: au salon des humanoïdes à Tokyo, le Japon montre son ambition avec des démonstrations de robots capables de tâches de type entrepôt et de quelques interactions sociales. Mais le fait marquant, c’est que beaucoup des robots les plus visibles viennent d’entreprises chinoises, ce qui souligne la montée en puissance industrielle de la Chine sur la fabrication. Les acteurs japonais cherchent à se différencier ailleurs: dans le logiciel, les capteurs, et ce qu’on appelle parfois la « physical AI », autrement dit l’intelligence nécessaire pour que le robot s’adapte vraiment au monde réel, au-delà de mouvements répétés. Le contexte démographique du Japon — vieillissement, pénurie de main-d’œuvre — rend l’intérêt très concret. Reste un obstacle durable: l’acceptation sociale, et la manière de présenter ces machines comme des assistants plutôt que des remplaçants.
Et pour terminer, une tendance plus inattendue, mais révélatrice: au salon du sextoy à Shanghai, des fabricants ont mis en avant des dispositifs intégrant de l’IA, comme des chatbots érotiques, des accessoires synchronisés à la vidéo, ou des poupées pilotées à la voix, capables de simuler une forme d’émotion et de conversation. Derrière le côté spectaculaire, on retrouve les mêmes ingrédients que partout: montée en gamme par le logiciel, collecte de données, et recherche d’expériences plus immersives. Mais ici, les risques juridiques et de confidentialité sont encore plus explosifs, notamment autour du contenu généré, du face-swapping, ou de l’usage de ressemblances de personnes réelles. Le marché avance, mais il marche sur une ligne très fine entre innovation, consentement et conformité.
Voilà pour l’essentiel aujourd’hui. Entre des modèles d’IA qui promettent d’accélérer la recherche médicale, et d’autres qui inquiètent au point de mobiliser banques et régulateurs, on sent que l’enjeu n’est plus seulement « peut-on le faire », mais « qui peut y accéder, et à quelles conditions ». Si vous ne deviez retenir qu’une idée: l’infrastructure — énergie, identité numérique, chaînes d’approvisionnement — devient aussi déterminante que les modèles eux-mêmes. On se retrouve demain pour une nouvelle édition. TrendTeller, c’était The Automated Daily, tech news edition.