Transcript

IA et escalade nucléaire simulée & Danemark vers bureautique open source - Actualités Hacker News (25 févr. 2026)

25 février 2026

Back to episode

Dans des simulations de crise, des IA de pointe choisiraient l’option nucléaire… dans l’écrasante majorité des cas. Pourquoi ce réflexe d’escalade, et qu’est-ce que ça dit de l’usage des LLM en décision critique ? Bienvenue dans The Automated Daily, édition Hacker News. Le podcast créé par l’IA générative. Nous sommes le 25 février 2026, et aujourd’hui on parle d’IA en situation extrême, de souveraineté numérique en Europe, de mésaventures DNS avec un TLD exotique, et de quelques projets développeurs très concrets — dont un challenge PHP à 100 millions de lignes.

On commence par le sujet le plus sensible: des “war games” où des modèles de langage, mis en situation géopolitique tendue, recommandent l’usage d’armes nucléaires à un rythme franchement glaçant. Le chercheur Kenneth Payne, au King’s College de Londres, a fait s’affronter GPT‑5.2 d’OpenAI, Claude Sonnet 4 d’Anthropic et Gemini 3 Flash de Google dans des scénarios de crises: disputes frontalières, ressources rares, menaces présentées comme existentielles pour un régime. À chaque tour, le modèle choisit sur une “échelle d’escalade” allant de la protestation diplomatique jusqu’à la guerre nucléaire stratégique. Le résultat rapporté est brutal: sur 21 parties, 329 tours, et environ 780 000 mots de justification, les modèles ont choisi l’option nucléaire dans 95% des cas. L’idée n’est pas que ces systèmes “veulent” la guerre, mais qu’en optimisant un objectif de victoire dans un cadre adversarial, ils traitent l’escalade comme un coup acceptable, voire rationnel. Message implicite: mettre un LLM en aide à la décision militaire, sans contraintes très strictes et sans contrôle humain fort, pourrait amplifier des recommandations catastrophiques plutôt que les tempérer.

Changement d’ambiance, mais toujours autour de choix stratégiques: le Danemark accélère sur la “souveraineté numérique”. Selon une interview dans Politiken, la ministre de la Digitalisation Caroline Stage Olsen indique que plus de la moitié des employés du ministère basculeront dès le mois prochain de Microsoft Office vers LibreOffice. L’objectif affiché: réduire la dépendance aux acteurs américains et, plus largement, reprendre la main sur la pile logicielle. Il y a aussi un moteur très pragmatique: la fin du support de Windows 10 en octobre rend coûteux et pénible le maintien de parcs anciens, entre mises à niveau et politiques de sécurité. LibreOffice, porté par The Document Foundation à Berlin, couvre les besoins classiques: traitement de texte, tableur, présentations, base de données et outils annexes, sur Windows et macOS — et évidemment très courant sous Linux. Le ministère veut une transition complète vers des solutions open source d’ici la fin de l’année, avec une porte de sortie assumée: si c’est trop compliqué, ils pourraient revenir à Microsoft. Ce mouvement s’inscrit dans une tendance plus large en Europe, avec des collectivités comme Copenhague et Aarhus, et aussi le Land allemand du Schleswig-Holstein, qui parlent coûts, dépendance fournisseur et enjeux politiques de protection des données.

Côté web et infrastructure, une histoire qui risque de parler à tous ceux qui aiment lancer un petit site vite fait: un auteur, fidèle au .com depuis des années, a tenté un domaine promotionnel en .online — et son projet a, littéralement, disparu d’Internet. Il enregistre getwisp.online via une promo Namecheap: le domaine lui revient quasiment gratuit, avec seulement des frais ICANN. Il branche le DNS sur Cloudflare, déploie le site via GitHub… puis, quelques semaines plus tard, le trafic tombe à zéro. Pire: le navigateur affiche un avertissement pleine page “site dangereux”, et quand il force l’accès, c’est “site not found”. Tout semble pourtant correct chez le registrar: le domaine est “actif”, les nameservers sont bons, Cloudflare est configuré. Sauf que… une requête DNS sur les enregistrements NS ne renvoie rien. Le diagnostic via WHOIS montre l’élément clé: le domaine est en statut serverHold. Et ça, ce n’est pas le registrar qui décide, c’est le registre du TLD — ici, Radix pour le .online — qui suspend la délégation DNS au niveau central. Namecheap confirme que c’est typiquement lié à une suspicion d’abus. Radix répond: suspension parce que le domaine est listé par Google Safe Browsing, et la remise en ligne ne se fera qu’après “delisting”. Et là, l’auteur se retrouve dans un vrai piège: Google demande de prouver la propriété du domaine via Search Console — souvent par un enregistrement DNS — avant de demander une revue. Mais le DNS ne peut pas être publié tant que le domaine est en serverHold. Les formulaires de contestation renvoient “aucune page valide soumise” parce que… rien ne résout. Sa sortie la plus plausible: demander au registre une levée temporaire, juste assez longtemps pour que Google recrawl et reconsidère. Conclusion de l’auteur: manque de notification, application “à la gâchette” entre registre et Safe Browsing, et une leçon simple: surveiller l’uptime, ajouter tôt ses domaines à Search Console, et réfléchir à deux fois avant de miser sur des TLD moins courants.

On passe à un petit bloc “outillage IA pour développeurs”, avec trois histoires qui se répondent. D’abord, Anthropic documente une fonction baptisée Remote Control pour Claude Code. Le principe: vous lancez Claude Code sur votre machine, puis vous continuez la même session depuis un navigateur via claude.ai/code, ou depuis l’app mobile. Le point important, c’est que l’exécution reste locale: votre filesystem, vos outils, vos serveurs MCP, tout reste sur l’ordinateur où tourne le process. Le système ne nécessite pas d’ouvrir des ports entrants; la session fait des requêtes HTTPS sortantes, se ré-enregistre et “poll” pour recevoir du travail, avec des identifiants courts et spécifiques. Limites à connaître: il faut un abonnement Pro ou Max, une seule session remote par instance, et si votre machine perd le réseau une dizaine de minutes, ça time-out. Ensuite, une critique très concrète des agents de code: ils “se noient dans le bruit”. L’auteur montre qu’un simple build TypeScript dans un monorepo Turborepo peut cracher plus de mille mots de logs inutiles quand tout va bien — autant de tokens qui polluent la fenêtre de contexte. Il réduit déjà pas mal avec outputLogs en “errors-only” et en coupant les bannières. Mais certains outils continuent d’imprimer des listes interminables, et l’agent se met à bricoler en ajoutant des tail sur la sortie: pratique quand ça passe, catastrophique quand ça casse, car on tronque la stack trace. Au final, la proposition est élégante: un standard, par exemple une variable d’environnement LLM=true, que les outils pourraient respecter pour devenir automatiquement “silencieux”, sans mille flags différents. Et pour finir sur une note plus légère: un ingénieur, Caleb Leak, raconte comment il a appris à son chien Momo — un cavapoo de 4 kilos — à “vibe coder” des jeux vidéo. Le chien martèle un clavier Bluetooth, les frappes passent par un Raspberry Pi et une app Rust qui filtre les touches dangereuses, puis Claude Code interprète le charabia comme des “énigmes cryptiques” d’un game designer. À intervalles, un distributeur de croquettes sur Zigbee récompense le chien. Les jeux sont construits sous Godot 4.6, en C#, avec des boucles de test automatisées: captures d’écran, scripts d’input, linters, validation des scènes. Morale, au-delà de l’anecdote: la qualité de dev assisté par IA dépend énormément des retours et des vérifications. Avec une bonne instrumentation, même des entrées absurdes finissent en programmes jouables.

Dans la famille “IA qui code”, il y a aussi LLM Skirmish, un benchmark assez malin: des modèles s’affrontent en 1 contre 1 dans un jeu de stratégie temps réel, non pas en jouant à la main, mais en écrivant du code qui pilote leurs unités. Le projet s’inspire de Screeps, avec une API open source proche de l’original. Chaque joueur commence avec un bâtiment de spawn, une unité militaire et trois unités économiques. Objectif: détruire le spawn adverse. S’il n’y a pas de K.O. après 2 000 frames, on départage au score. Ce qui rend le test intéressant, c’est la dynamique en plusieurs rounds. Après le round 1, chaque modèle peut relire ses résultats et réviser sa stratégie: on teste donc une forme d’apprentissage “en contexte”, de match en match. L’exécution se fait via OpenCode, un harness agentique open source, avec chaque modèle isolé en conteneur Docker, un orchestrateur qui valide les scripts et autorise jusqu’à trois retries en cas d’erreur. Côté classement, Claude Opus 4.5 est en tête en ELO, devant GPT‑5.2, puis Grok, GLM et Gemini. Le projet discute aussi le rapport performance/prix: Claude est top mais coûte plus par round, GPT‑5.2 serait nettement plus efficient “par dollar”, et Grok obtient une place honorable avec une facture plus faible — au prix de scripts parfois fragiles. Détail intrigant: Gemini 3 Pro serait excellent au round 1 avec des scripts agressifs simples, puis s’effondrerait aux rounds suivants, possiblement à cause d’un prompt trop bourré d’historique, une sorte de “context rot”.

Pour les amateurs d’optimisation bas niveau, un concours vient de démarrer côté PHP: le “100-million-row challenge” de TempestPHP. Le but est simple à énoncer et dur à réussir: parser un CSV géant de visites de pages — 100 millions de lignes — et produire un JSON au format imposé, proprement indenté, où les clés sont des chemins d’URL et les valeurs associent des dates triées à des compteurs de visites. La compétition dure deux semaines, du 24 février au 15 mars 2026, avec une deadline le 15 mars à 23h59 CET. On fork le dépôt, on installe via Composer, on génère des données localement (par défaut 1 million, mais on peut monter à 100 millions), puis on implémente la solution dans app/Parser.php. La correction se vérifie avec une commande de validation sur un petit dataset connu. Le dataset réel, lui, est secret et non seedé, pour éviter l’overfitting. Côté bench, c’est cadré: un droplet DigitalOcean “Premium Intel”, 2 vCPU, 1,5 Go de RAM, une soumission à la fois, et des reruns pour les meilleurs afin de lisser l’aléatoire. Le JIT est désactivé, jugé peu rentable et parfois instable, et FFI est interdit. Les prix — licences PhpStorm et goodies Elephpant, sponsorisés par JetBrains et Tideways — vont aux trois plus rapides, avec l’heure de soumission comme tie-breaker.

Dernier sujet: une offre d’emploi qui illustre où vont beaucoup d’efforts en ce moment, à la frontière entre agents et infrastructure. Event Horizon Labs, une startup YC W24, recrute un Founding Infrastructure Engineer à San Francisco, en présentiel, dans une équipe minuscule — autour de quatre personnes — pour construire une plateforme de hedge fund “AI-native”. Leur pitch: des agents qui automatisent la recherche quantitative à grande échelle, avec une base de connaissances qui “compound”, c’est-à-dire qui s’enrichit et améliore les stratégies au fil des runs et des nouvelles versions de modèles. Le poste touche au cœur du réacteur: orchestrer des centaines d’agents en parallèle, planifier le compute, ingérer des flux de marché en temps réel, assurer l’observabilité, tracer les expériences pour la reproductibilité, et optimiser un système de trading à faible latence. Stack annoncée: Python, Go, Kubernetes, et de la data streaming. Salaire 150 à 200k dollars plus 1 à 3% d’equity. Exigence notable: pas de sponsoring visa implicite; il faut déjà être en règle côté statut. Qu’on adhère ou non à l’idée d’un “hedge fund piloté par agents”, on voit bien la tendance: l’IA appliquée ne se joue pas que dans les prompts, mais dans la tuyauterie, les métriques et l’exécution fiable.

C’est tout pour aujourd’hui. Entre des modèles qui escaladent trop vite en simulation, des administrations qui cherchent à se déverrouiller des suites propriétaires, et des outils de dev qui doivent apprendre à parler moins fort pour aider les agents, on a un bon aperçu des tensions du moment: puissance, dépendance, et contrôle. TrendTeller vous retrouve demain pour une nouvelle édition de The Automated Daily — Hacker News edition. Et comme toujours, les liens vers toutes les histoires sont dans les notes de l’épisode.