Transcript

Centres de données pris pour cibles & Artemis II et rivalités lunaires - Actualités Technologiques (3 avr. 2026)

3 avril 2026

Back to episode

Et si la prochaine cible stratégique n’était ni une base militaire ni un satellite… mais un centre de données commercial ? Des frappes revendiquées ou attribuées à des drones auraient touché des infrastructures cloud dans le Golfe, et ça pourrait changer la façon dont on pense la “neutralité” du numérique. Bienvenue dans The Automated Daily, tech news edition. Le podcast créé par l’IA générative. Nous sommes le 3 avril 2026, je suis TrendTeller, et on fait le tour des infos tech qui comptent — sans jargon inutile, et sans perdre de vue le “pourquoi c’est important”.

On commence donc par ce qui ressemble à un tournant : des attaques de drones de type Shahed auraient frappé des centres de données d’AWS aux Émirats arabes unis début mars, avec d’autres impacts rapportés ensuite à Bahreïn, et même une frappe alléguée sur un site Oracle à Dubaï. Le point le plus marquant, c’est l’idée assumée de viser des infrastructures cloud commerciales comme objectif de guerre. Même si on ne sait pas clairement si ces sites hébergeaient des charges militaires sensibles, le signal est fort : le cloud est devenu une pièce du rapport de force, à la fois utile, visible… et vulnérable. Et l’effet collatéral n’est pas théorique : des pannes bancaires locales ont été évoquées après les frappes aux Émirats.

Direction l’espace : Artemis II vient de décoller, première mission habitée du programme Artemis, avec trois astronautes américains et un Canadien. Objectif : un grand tour autour de la Lune, sans alunissage, mais avec une mission critique de validation — le genre de vol qui sert à prouver que le “transport” fonctionne avant d’envisager l’installation durable. Au-delà du symbole, la Lune redevient un terrain de compétition et de règles à écrire : accords Artemis d’un côté, plans sino-russes de l’autre, et tout le monde regarde le pôle sud lunaire, là où se concentrent les promesses de ressources et d’infrastructures futures. La question n’est plus seulement “peut-on y aller ?”, mais “qui encadre quoi, et comment on évite que ça dérape ?”.

Dans la course à l’intelligence artificielle, Microsoft envoie un message très clair : l’entreprise veut une pile multimodale de plus en plus “maison”, même en restant très liée à OpenAI. Elle annonce trois modèles fondamentaux : un pour la transcription multilingue, un pour générer de l’audio et des voix personnalisées, et un modèle orienté image — que Microsoft présente aussi comme un modèle capable d’aller vers la vidéo. L’ensemble est proposé via sa plateforme Microsoft Foundry, avec des accès de test dans son Playground. Ce qui est intéressant ici, ce n’est pas seulement la performance annoncée, c’est le positionnement : Microsoft met en avant la compétitivité coût, et souligne que ces modèles sont pensés pour des usages de communication “pratiques”. En clair : moins de démos, plus de production, et une pression accrue sur Google et OpenAI… tout en continuant de travailler avec eux.

En face, Google DeepMind muscle aussi l’offre “ouverte” avec Gemma 4, publié sous licence Apache 2.0. C’est un détail juridique qui a un impact énorme : Apache, c’est la voie la plus simple pour intégrer, modifier et redistribuer un modèle, y compris dans un produit commercial, sans les restrictions plus floues qu’on voyait parfois dans les générations précédentes. Gemma 4 est présenté comme plus efficient et plus multimodal, avec des capacités autour de l’image — et même, selon les variantes, de l’audio. Le signal de fond : l’IA locale et embarquée progresse, pas seulement pour la confidentialité, mais aussi pour réduire la dépendance au cloud et les coûts à l’usage.

OpenAI, de son côté, fait un pas très “média” : l’entreprise a acquis TBPN, une émission tech en ligne connue pour ses analyses rapides et ses interviews de dirigeants. Les montants ne sont pas publics, mais l’intention est limpide : être plus présent dans le cycle quotidien de l’actualité et, surtout, maîtriser une partie de la narration. OpenAI promet que l’équipe continuera avec une indépendance éditoriale. La vraie question, c’est la confiance : quand une entreprise d’IA devient aussi un acteur de diffusion et de commentaires, la frontière entre information, communication et influence devient plus délicate à tenir — même avec les meilleures intentions.

Sur le web, une avancée moins visible mais structurante : le W3C pousse WebNN, une API destinée à permettre de faire tourner des modèles d’IA dans le navigateur de façon accélérée, sans exposer trop d’informations sur le matériel de l’utilisateur. En pratique, ça prépare des usages “on-device” plus fluides — vision en temps réel, traitement audio, génération de texte — tout en essayant d’éviter un piège classique : que les différences de matériel deviennent un nouveau moyen de pister les gens. C’est le genre de standard qui ne fait pas la une… mais qui change ce qu’on pourra faire demain, directement dans une page web.

Et justement, la question de l’IA “dans les plateformes” devient explosive côté contenu. Une coalition de plus de 200 experts et organisations demande à Google d’arrêter de recommander des vidéos générées par IA aux mineurs sur YouTube, et de les retirer de YouTube Kids. Leur inquiétude : une vague de contenus synthétiques produits en masse, souvent de faible qualité, conçus pour capter l’attention plus que pour éduquer. Ils soulignent aussi un problème très concret : les labels “contenu altéré” ne servent pas à grand-chose quand le public ne sait pas lire. Dans le même esprit, un autre phénomène viral illustre la mécanique : des vidéos TikTok entièrement générées — les fameuses “fruit dramas”, avec personnages de fruits et scénarios chaotiques — cartonnent, parfois en flirtant avec des thèmes franchement problématiques. Moralité : l’IA ne crée pas seulement du contenu, elle teste les limites de nos systèmes de recommandation… et de nos garde-fous.

Derrière ces contenus, il y a l’infrastructure. Cloudflare explique que le trafic automatisé pèse désormais lourd, avec des crawlers IA qui se comportent très différemment des humains : ils balayent énormément de pages, en parallèle, avec beaucoup de requêtes uniques. Résultat : les caches des CDNs sont moins efficaces, les serveurs d’origine sont plus sollicités, les coûts montent, et la latence peut augmenter. Cloudflare parle même d’un choix forcé pour certains sites : optimiser pour les lecteurs humains, ou pour les machines. La piste explorée : un “cache conscient de l’IA”, avec des stratégies séparées, pour éviter que les performances côté utilisateurs ne paient l’addition des robots.

Petit détour par la régulation : en Chine, l’administration du cyberespace propose des règles pour encadrer les “humains numériques”, ces avatars ou personnages virtuels pilotés par IA. Au programme : obligation d’étiquetage clair, interdiction d’utiliser l’identité de quelqu’un sans consentement, blocage des tentatives de contourner la vérification d’identité, et restrictions spécifiques quand il s’agit de mineurs — notamment sur les relations virtuelles intimes. C’est un exemple net de la ligne chinoise : déployer vite l’IA, mais resserrer les boulons sur la gouvernance, la protection des mineurs et les contenus jugés sensibles.

Côté santé, deux avancées retiennent l’attention. D’abord, des “jumeaux numériques” du cœur pour aider à planifier une ablation par cathéter chez des patients souffrant de tachycardie ventriculaire — un trouble du rythme potentiellement mortel. Dans un petit essai, la planification assistée par modèle a drastiquement réduit le temps d’intervention, ce qui peut aussi réduire des risques liés à la sédation. C’est prometteur, même si on attend des études plus larges pour confirmer l’impact clinique. Et puis en oncologie, des chercheurs décrivent des molécules précliniques visant à bloquer simultanément deux régulateurs majeurs liés à l’hypoxie tumorale, HIF-1 et HIF-2. Dans des modèles chez la souris, combinées à l’immunothérapie, elles ont donné des rémissions complètes dans une part importante des cas. On parle encore de recherche précoce, mais l’idée est intéressante : attaquer un mécanisme qui aide les tumeurs à résister aux défenses immunitaires.

Enfin, quelques signaux sur le futur du logiciel et des organisations. Plusieurs analyses récentes convergent sur un point : si les agents de code “dérapent”, ce n’est pas seulement une question de modèle, c’est une question de design — surtout la gestion du contexte, de la mémoire, et des permissions. On voit émerger une discipline plus “ingénierie des agents”, où l’enjeu devient : comment vérifier, comment tester, et comment empêcher le système de s’auto-emballer. Et à l’intérieur des grandes plateformes cloud, un récit d’ingénieur chez Microsoft décrit un chantier Azure jugé irréaliste autour d’un portage massif de composants vers un accélérateur à ressources limitées, avec une prolifération d’agents logiciels difficile à justifier. À prendre avec prudence — c’est un témoignage, pas un audit — mais ça rappelle une évidence : dans le cloud, la technique et l’organisation sont indissociables, et la complexité mal gouvernée finit par se voir côté fiabilité.

Voilà pour l’essentiel aujourd’hui. Si je devais résumer l’épisode en une phrase : le numérique devient de plus en plus “stratégique”, donc de plus en plus disputé — que ce soit dans l’espace, dans les centres de données, ou dans les flux de contenus qui façonnent l’attention. On se retrouve demain pour un nouveau tour d’horizon. C’était TrendTeller, pour The Automated Daily, tech news edition.