Transcript
Data centers IA et gaz & ASML et la lithographie EUV - Actualités Hacker News (28 avr. 2026)
28 avril 2026
← Back to episodeEt si l’explosion de l’IA était en train de relancer, discrètement, une nouvelle vague de centrales au gaz… à l’échelle de dizaines de millions de tonnes de CO₂ par an ? Bienvenue dans The Automated Daily, hacker news edition. Le podcast créé par IA générative. Nous sommes le 28 avril 2026. Aujourd’hui, on parle d’énergie et d’IA, du verrou ASML sur les puces de pointe, d’un modèle de langage “d’avant 1931”, et de quelques histoires plus terre-à-terre—dont un PC vintage où ajouter de la RAM le rend… plus lent.
On commence par le sujet qui fâche: l’énergie derrière l’IA. Une enquête basée sur des documents de permis environnementaux suggère que des projets de centrales au gaz associés à une poignée de grands campus de data centers—liés à des acteurs majeurs de l’IA—pourraient, sur le papier, être autorisés à émettre au total plus de 129 millions de tonnes de gaz à effet de serre par an. Ce chiffre, même s’il reflète souvent des plafonds plutôt que des émissions réelles, donne une idée de l’ordre de grandeur. Ce qui change la donne, c’est la stratégie dite “behind-the-meter”: produire l’électricité sur place, sans passer par le réseau. Pour les opérateurs, c’est un raccourci face aux files d’attente d’interconnexion et aux débats politiques sur l’impact des data centers sur les factures. Mais côté climat, ça risque de contrecarrer les promesses de neutralité carbone, et surtout d’installer de nouvelles infrastructures fossiles pour longtemps. Le point intéressant ici n’est pas seulement l’hypocrisie potentielle, c’est le verrou d’inertie: une fois les turbines construites, elles tournent.
Dans la catégorie “goulets d’étranglement”, retour sur une ascension industrielle devenue géopolitique: ASML. Longtemps entreprise néerlandaise assez discrète, elle est devenue le passage obligé pour fabriquer les semiconducteurs les plus avancés, grâce à un pari précoce sur la lithographie EUV. Pourquoi c’est crucial? Parce que l’EUV a permis d’imprimer des motifs plus fins avec moins d’étapes qu’avant, ce qui accélère les nœuds de pointe—et donc la progression des CPU, des GPU et désormais des accélérateurs IA. L’article rappelle aussi que cette domination n’était pas écrite: ASML vient d’un spin-off de Philips, a misé sur une approche modulaire et une chaîne de fournisseurs très spécialisée, a profité de collaborations de recherche et de sites d’essai comme l’IMEC, puis a traversé un passage à vide où l’EUV semblait presque trop difficile à industrialiser. À ce moment-là, le financement—y compris via Intel, TSMC et Samsung—et l’intégration de fournisseurs clés ont aidé à faire passer la technologie du “presque” au “ça marche”. Résultat: aujourd’hui, la cadence du progrès matériel dépend en partie d’une entreprise, et les contrôles à l’export autour de ses machines pèsent directement sur les rapports de force mondiaux.
Restons sur l’IA, mais côté modèles. Des chercheurs ont présenté “talkie”, un modèle de langage d’environ 13 milliards de paramètres entraîné uniquement sur de l’anglais publié avant 1931. L’idée est simple et assez brillante: construire un assistant “pré-moderne”, qui n’a pas absorbé internet, ni les connaissances postérieures—et s’en servir à la fois comme objet culturel et comme outil de recherche. Ce que ça apporte, c’est une façon de tester la créativité, le raisonnement général, ou la robustesse, sans tomber dans un biais très actuel: l’évaluation contaminée par des données vues pendant l’entraînement. En comparaison, un “jumeau moderne” entraîné sur des données web reste meilleur sur les questions de connaissance. Mais dès qu’on filtre les questions anachroniques, l’écart se réduit, et le modèle historique tient parfois bien sur des tâches de langage ou de calcul simple. Le revers, c’est que travailler avec des corpus historiques, c’est aussi se battre contre le bruit—notamment l’OCR—et contre les fuites temporelles, quand des faits postérieurs se glissent dans les données. En clair: même faire “un modèle de 1930” est difficile, car nos archives numériques trichent sans le vouloir. C’est une excellente piqûre de rappel: la donnée n’est jamais neutre, ni propre.
Autre secousse dans l’écosystème IA: Microsoft et OpenAI ont modifié leur accord pour mettre fin à l’exclusivité qui donnait à Microsoft le droit unique de vendre les modèles OpenAI via son cloud. Concrètement, ça ouvre la porte à des accords de distribution avec d’autres fournisseurs—et ça pourrait déclencher une nouvelle compétition entre clouds pour héberger et empaqueter des modèles leaders. Côté Microsoft, l’échange est intéressant: moins de coûts liés au partage de revenus sur les produits revendus, mais une exclusivité qui s’effrite, donc davantage de concurrence potentielle. Côté OpenAI, c’est un pas vers plus d’indépendance stratégique. Et pour le marché, c’est un signal: la valeur se déplace, et le “qui distribue quoi, et où” devient presque aussi important que la qualité du modèle lui-même.
Dans un registre plus sociologique, un essai propose ce qu’il appelle le “Social Edge Paradox”. La thèse: les systèmes d’IA ne “pensent” pas au sens humain, ils rejouent des motifs issus de la pensée collective encodée dans le langage. Or si les organisations utilisent l’IA pour réduire les interactions—moins de débats, moins d’apprentissage sur le tas, moins de friction—elles risquent d’affaiblir précisément le moteur qui a produit la connaissance que l’IA recycle. Le texte relie ça à plusieurs signaux: des entreprises qui gèlent l’embauche et compressent les postes juniors, des études où l’IA augmente la performance individuelle mais uniformise le résultat d’un groupe, et l’idée de “model collapse” quand on réentraîne trop sur du contenu généré par l’IA, au risque d’aplatir les points de vue minoritaires. L’intérêt, ici, c’est le cadrage: au-delà du compute et des GPU, l’avantage long terme pourrait venir d’organisations qui conçoivent des métiers plus “riches en interactions”, plutôt que de traiter l’IA comme une simple machine à réduire des effectifs.
Pause ciel nocturne. La NASA a mis en avant une photo en pose longue d’une comète, prise à l’aube en Bavière, où l’objet est partiellement masqué par une toile de traînées de satellites. En dix minutes d’exposition, des points lumineux deviennent des lignes, et l’image rend très concret un problème souvent abstrait: la multiplication des satellites complique l’astronomie d’observation et l’astrophotographie. Le message n’est pas “plus de satellites = plus de science ou plus de pollution”, il est surtout dans l’arbitrage. On empile des usages—télécoms, imagerie, navigation—dans des orbites déjà très sollicitées, et les astronomes doivent gérer un ciel qui change. Cette photo fait office de thermomètre visuel: ce qu’on lançait autrefois au compte-gouttes est désormais une infrastructure massive.
Côté sécurité, un rappel utile avec GTFOBins: une base de connaissances qui recense comment des exécutables Unix parfaitement légitimes peuvent servir à contourner des restrictions locales quand une machine est mal configurée. Ce n’est pas une collection de failles “magiques”; c’est plutôt un inventaire de techniques dites “living off the land”: utiliser les outils déjà présents pour lire des fichiers, s’échapper d’un shell restreint, ou élever des privilèges—si des permissions ont été accordées trop largement. Pourquoi c’est important pour les défenseurs? Parce que ça remet l’accent sur l’hygiène: règles sudo trop permissives, binaires avec des droits inadaptés, capacités Linux accordées sans réfléchir. Le même outil qui sert à administrer peut servir à compromettre. Et cette frontière, elle se joue souvent dans la configuration, pas dans un patch.
Un article plus “langages” s’attaque à une idée répandue: WebAssembly serait une machine à pile. L’auteur explique qu’en pratique, dès qu’on écrit ou qu’on raisonne sur des instructions, Wasm se comporte moins comme une vraie VM à pile—du type où l’on manipule constamment la pile pour réutiliser des valeurs—et davantage comme un modèle où l’on finit par introduire des variables locales, donc quelque chose qui ressemble à des registres. Pourquoi on s’en soucie? Parce que la manière dont on se représente le modèle d’exécution influence les optimisations des compilateurs et la façon dont les développeurs comprennent les limites. Si la “pile” est surtout un format d’encodage, certaines réécritures de code sont moins naturelles qu’on ne l’imagine. Ce n’est pas un drame, c’est juste un bon exemple de vocabulaire qui brouille la réalité technique.
Et on termine avec une histoire savoureuse de rétro-computing. Un passionné a voulu “maxer” la RAM d’un PC dédié à Quake, époque Pentium MMX. Sauf que, surprise: plus il ajoutait de mémoire, plus les performances chutaient—au point de perdre une grosse fraction des FPS. Après avoir suspecté la carte graphique, les drivers, le système… la solution a été de retirer de la RAM. L’explication est très années 90: certaines cartes mères ne peuvent mettre en cache qu’une quantité limitée de mémoire. Au-delà, la RAM supplémentaire devient, pour une partie des accès, beaucoup plus lente. Et comme certains systèmes allouent la mémoire d’une certaine manière, on peut se retrouver à faire travailler la machine dans la zone “non cachée”. Morale: sur du matériel ancien, “plus” n’est pas toujours “mieux”, et les spécifications marketing ne racontent pas toujours la vérité du comportement réel.
C’est tout pour aujourd’hui. Si un fil conducteur se dégage, c’est que l’IA ne vit pas dans un nuage abstrait: elle dépend de chaînes industrielles très concrètes, d’accords commerciaux mouvants, d’énergie bien réelle, et même—par ricochet—de la façon dont on préserve nos échanges humains et nos connaissances. On se retrouve demain pour une nouvelle édition. Les liens vers toutes les histoires sont dans les notes de l’épisode.