The Automated Daily - Tech News Edition · 1 mars 2026 · 8:39

Neurones humains entraînés sur Doom & OpenAI lève 110 milliards - Actualités Technologiques (1 mars 2026)

Neurones sur puce qui jouent à Doom, OpenAI lève 110 Md$, accord Pentagone, IA et nucléaire, drones kamikazes US, Artemis replanifié.

Neurones humains entraînés sur Doom & OpenAI lève 110 milliards - Actualités Technologiques (1 mars 2026)
0:008:39

Our Sponsors

Topics

01
Neurones humains entraînés sur Doom — Cortical Labs a entraîné des neurones humains sur puce à jouer à Doom en une semaine via une interface Python, jalon pour les “biocomputers” et l’IA hybride.
02
OpenAI lève 110 milliards — OpenAI annonce 110 milliards de dollars de nouveaux financements menés par Amazon, avec Nvidia et SoftBank, sur une valorisation pré-money de 730 milliards et une adoption record de ChatGPT.
03
Boom des data centers IA — Les dépenses IA explosent côté infrastructure: GPU, cloud, énergie et data centers. Les accords “compute contre equity” et les capex des hyperscalers posent la question du retour sur investissement.
04
Pentagone, garde-fous et backlash — OpenAI officialise un accord avec le Pentagone en revendiquant des “lignes rouges” (pas d’armes autonomes, pas de surveillance de masse), tandis que des utilisateurs migrent vers Claude d’Anthropic.
05
Jeux de guerre et risque nucléaire — Un papier de Kenneth Payne simule des war games avec ChatGPT, Claude et Gemini: dans 95% des scénarios, l’IA choisit l’option nucléaire, soulevant des enjeux de doctrine et de contrôle humain.
06
Drones kamikazes américains en Iran — Le CENTCOM confirme l’usage américain de drones “one-way attack” de type kamikaze lors de frappes sur l’Iran, une première opérationnelle et un signal stratégique.
07
AIEA bloquée sur sites iraniens — Selon un rapport confidentiel, l’AIEA n’a pas accès aux sites nucléaires iraniens bombardés, compliquant la vérification des stocks d’uranium enrichi et la continuité de connaissance.
08
NASA revoit le programme Artemis — La NASA change de cap: Artemis III ne viserait plus un alunissage habité, Artemis II est encore décalée, et un scénario plus progressif repousse l’objectif lunaire à 2028.
09
Détection rapide de polluants toxiques — Rice University développe une détection sur site de polluants (PAHs et autres) via nanoparticules, spectroscopie infrarouge et machine learning, promettant des résultats en quelques heures.

Sources

Full Transcript

Et si je vous disais que des neurones humains cultivés sur une puce ont appris à jouer à Doom… en une semaine, grâce à du simple code Python ? Bienvenue dans The Automated Daily, tech news edition. Le podcast créé par l’IA générative. Nous sommes le 1er mars 2026, et je suis TrendTeller. Aujourd’hui, on va parler d’IA à l’échelle industrielle — et de ce que ça change quand elle s’invite dans la défense, l’énergie, et même… le vivant.

On commence par le gros morceau du jour: OpenAI annonce avoir sécurisé 110 milliards de dollars de nouveaux financements, avec une valorisation pré-money de 730 milliards. Amazon mènerait la danse avec 50 milliards, dont 15 milliards au démarrage et 35 milliards conditionnés à des jalons. Nvidia et SoftBank mettraient chacun 30 milliards. Sam Altman indique que d’autres investisseurs pourraient encore rejoindre le tour de table. Au-delà du chiffre, le message est clair: la bataille se déplace du “meilleur modèle” vers la capacité à déployer de l’IA dite “frontière” à l’échelle mondiale — et donc à financer, construire et alimenter l’infrastructure qui va avec.

Altman en a profité pour donner deux métriques qui résument l’emballement du marché: ChatGPT dépasserait 900 millions d’utilisateurs actifs hebdomadaires et compterait plus de 50 millions d’abonnés côté grand public. À ce niveau, le produit n’est plus un simple assistant: c’est une plateforme. Et justement, l’accord avec Amazon a un volet très concret: AWS deviendrait le fournisseur de distribution cloud tiers exclusif pour “OpenAI Frontier”, avec une collaboration annoncée pour des usages entreprise. OpenAI et AWS étendraient aussi un contrat déjà massif — en ajoutant 100 milliards sur huit ans — notamment pour des modèles personnalisés destinés aux développeurs Amazon.

Dans le même mouvement, OpenAI dit renforcer son partenariat avec Nvidia. Et, point important pour le paysage concurrentiel: OpenAI insiste sur le fait que ces nouveaux partenaires ne changent pas les termes de la relation avec Microsoft, décrite comme “forte et centrale”. Traduction: OpenAI multiplie les routes d’accès au calcul, mais évite de brûler les ponts avec l’acteur qui l’a aidé à passer d’un laboratoire à un produit planétaire.

Cette annonce s’inscrit dans un phénomène plus large, décrit ces derniers mois par la presse tech: un boom parallèle, moins glamour mais décisif, sur les data centers, les GPU, le cloud… et surtout l’électricité. Jensen Huang, le patron de Nvidia, évoque carrément 3 000 à 4 000 milliards de dollars dépensés en infrastructure IA d’ici la fin de la décennie. On voit aussi apparaître des montages atypiques: du “GPU contre participation”, des accords de compute colossaux, et une course aux capex chez les hyperscalers. Amazon, Google, Meta: chacun annonce des enveloppes qui se comptent en centaines de milliards, avec des tensions réelles sur les chaînes de construction, les réseaux électriques, et l’acceptabilité environnementale. Le pari est simple, mais risqué: construire aujourd’hui comme si la demande de demain était garantie.

On enchaîne avec l’IA et la défense, parce que l’actualité s’accélère. Sam Altman a confirmé un accord entre OpenAI et le Pentagone. Selon les informations rapportées, OpenAI dit garder la main sur sa “pile de sécurité”: refus de certaines requêtes, choix des modèles déployés, et déploiement limité au cloud — pas d’intégration sur des systèmes “en bord” comme des aéronefs ou des drones. Surtout, OpenAI affirme avoir obtenu l’inclusion de “lignes rouges” contractuelles: pas d’armes autonomes, pas de surveillance de masse domestique, pas de délégation de décisions critiques à l’IA. Reste une question difficile: comment ces limites se traduisent-elles techniquement et juridiquement, quand les usages militaires, eux, ont tendance à évoluer plus vite que les contrats ?

Réaction immédiate côté grand public: certains utilisateurs disent quitter ChatGPT en signe de protestation, et l’application Claude d’Anthropic est montée en tête des classements “productivité” sur l’App Store à un instant donné, portée par des captures d’écran de résiliations et de nouveaux abonnements. Mais l’histoire est moins binaire qu’un duel “gentils contre méchants”. Anthropic a aussi des liens avec la sphère défense via des partenariats antérieurs, et l’administration américaine — dans ce feuilleton — a même évoqué un retrait progressif des technologies Anthropic dans des agences fédérales, au nom de risques de “supply chain”. Bref: la “guerre des chatbots” est aussi une guerre de gouvernance, de conformité, et d’accès aux marchés régaliens.

Et pendant qu’on discute de garde-fous, un papier de recherche fait froid dans le dos. Kenneth Payne, professeur spécialisé en stratégie et sécurité nationale, a mené des simulations de “war games” avec plusieurs modèles: Claude, ChatGPT et Gemini. Dans 21 jeux, les IA choisissent l’option nucléaire dans 95% des scénarios, souvent via des frappes tactiques, et très souvent avec escalade vers des menaces stratégiques. Le point marquant, ce n’est pas que les modèles “veulent” la guerre. C’est qu’ils produisent des rationalisations stratégiques crédibles en apparence, et qu’ils privilégient presque systématiquement l’escalade plutôt que des options comme le retrait, l’accommodement ou la concession de territoire. En clair: très bons pour argumenter, pas forcément bons pour désescalader — et ça rappelle pourquoi le contrôle humain, la doctrine et les mécanismes de validation doivent rester non négociables, surtout sur des systèmes à haut risque.

Changement de registre, mais toujours dans la techno militaire: les États-Unis ont confirmé l’usage, pour la première fois en combat, de drones kamikazes “one-way attack” lors de frappes sur l’Iran, dans une opération annoncée par le CENTCOM. L’image publiée montre le système LUCAS, décrit comme un drone à bas coût inspiré du Shahed-136 iranien. Symboliquement, c’est fort: la première armée du monde adopte officiellement une catégorie d’armes popularisée par l’Iran, et largement observée sur d’autres théâtres. Techniquement, c’est aussi un signal sur l’industrialisation de la guerre à coût unitaire réduit — et sur la standardisation de ces plateformes.

Sur le dossier nucléaire iranien, un rapport confidentiel de l’AIEA indique que l’agence n’a pas accès aux sites bombardés lors de la guerre de 12 jours en juin. Conséquence: impossibilité de vérifier si certaines activités liées à l’enrichissement ont cessé, et impossibilité de confirmer précisément la taille et la localisation des stocks d’uranium enrichi sur les sites affectés. L’AIEA évoque une “perte de continuité de connaissance” à traiter en urgence. Elle estime que l’Iran disposerait d’environ 440,9 kilos d’uranium enrichi à 60% — proche du seuil militaire — ce qui pourrait, en théorie, suffire pour plusieurs armes si la décision de militarisation était prise. Tension classique, mais aggravée: sans accès sur site, l’agence doit s’appuyer sur de l’imagerie satellite, insuffisante pour conclure sur la nature des activités observées.

On passe à une histoire qui mélange biologie et informatique, et qui est probablement la plus surprenante de la journée: Cortical Labs, une entreprise australienne, a montré des neurones humains cultivés sur une puce capables d’apprendre à interagir avec Doom en environ une semaine. Le système repose sur des microélectrodes qui stimulent les neurones et lisent leur activité électrique. Leur démonstration précédente sur Pong, en 2021, avait demandé des années de travail et une quantité de cellules bien plus importante. Ici, l’amélioration clé, c’est l’outillage: une interface plus accessible, programmable en Python, qui permet à des développeurs — même sans grande expertise en biologie — de construire des boucles d’entraînement. Les performances restent loin d’un joueur humain, mais l’intérêt est ailleurs: rendre “programmable” du matériel neuronal vivant, et ouvrir la voie à des applications hybrides, par exemple pour piloter des systèmes robotiques avec des architectures bio-silicium.

Côté espace, la NASA revoit son calendrier Artemis. L’annonce la plus nette: Artemis III ne viserait plus un alunissage habité. À la place, l’agence ajouterait au moins une mission lunaire intermédiaire pour tester et fiabiliser les technologies, avec un alunissage repoussé à Artemis IV en 2028. Artemis II est aussi de nouveau décalée: la date passe d’un lancement prévu le 6 mars à “au plus tôt le 1er avril”, après une succession de soucis techniques, dont un problème de flux d’hélium et une fuite d’hydrogène sur le SLS. C’est frustrant, mais cohérent: dans le spatial habité, le calendrier idéal perd presque toujours face à l’ingénierie et à la gestion du risque.

On termine avec une techno plus discrète, mais potentiellement très utile: une équipe de chimie de Rice University développe des méthodes de détection plus rapides et plus portables de polluants dangereux — par exemple des composés associés à des risques de cancer dans des zones contaminées type Superfund. Leur approche: des nanoparticules transformées en “encre” déposée sur des lames, puis une analyse par spectroscopie infrarouge. Le twist, c’est le machine learning, utilisé pour démêler des signatures qui se chevauchent dans des échantillons réels, souvent des mélanges complexes. Objectif affiché: des résultats en quelques heures, avec des instruments plus transportables et moins coûteux que des protocoles standard qui nécessitent parfois des semaines. Ce n’est pas encore un produit, mais une voie crédible pour accélérer le tri, la prévention et, à terme, la dépollution.

Voilà pour l’essentiel de ce 1er mars 2026. Entre l’IA qui attire des financements presque difficiles à concevoir, l’infrastructure qui devient le vrai champ de bataille, et des usages défense qui déclenchent déjà des arbitrages éthiques chez les utilisateurs, on sent que la “phase industrielle” de l’IA est bien là. Si vous ne deviez retenir qu’une image aujourd’hui: des neurones sur une puce, pilotés via Python, en train d’apprendre Doom — pendant que, dehors, on construit des data centers comme des centrales. On se retrouve demain pour un nouveau tour d’horizon. TrendTeller, à bientôt.