The Automated Daily - Tech News Edition · 28 février 2026 · 10:40

Décrypter la pensée avec IA & Neurones sur puce jouent à Doom - Actualités Technologiques (28 févr. 2026)

IA “lecture de pensée”, neurones jouant à Doom, OpenAI à 730 Md$, pénurie de calcul, bras de fer Pentagone-Anthropic et procès réseaux sociaux.

Décrypter la pensée avec IA & Neurones sur puce jouent à Doom - Actualités Technologiques (28 févr. 2026)
0:0010:40

Our Sponsors

Topics

01
Décrypter la pensée avec IA — Des interfaces cerveau-machine à Stanford traduisent la “parole intérieure” en texte (jusqu’à 74% sur tâches guidées). Enjeux: communication post-AVC/ALS, éthique du décodage des pensées, régions comme le cortex moteur et le gyrus temporal supérieur.
02
Neurones sur puce jouent à Doom — Cortical Labs entraîne des neurones humains sur microélectrodes à interagir avec Doom en une semaine via une interface Python. L’actualité illustre le potentiel des ordinateurs biologiques hybrides, même si la performance reste loin d’un joueur humain.
03
Course mondiale aux puces IA — OpenAI lève 110 milliards de dollars et revendique 900 millions d’utilisateurs hebdomadaires; Meta loue des puces IA à Google et achète aussi chez AMD/Nvidia. Mot-clé: capacité de calcul, cloud AWS, alternatives aux GPU (TPU), industrialisation de l’IA de pointe.
04
Pentagone contre garde-fous d’IA — Le Département de la Défense américain menace Anthropic: accès à Claude “sans restrictions” ou rupture de contrat, avec la menace de qualification “risque supply chain”. Débat central: sécurité, limites d’usage militaire, et précédent juridique autour du Defense Production Act.
05
Procès addiction réseaux sociaux — À Los Angeles, une plaignante décrit une dépendance précoce à YouTube/Instagram et ses effets sur santé mentale et image de soi. Le dossier, avec plus de 1.600 plaignants, vise des mécanismes comme autoplay, scroll infini et validation par “likes”.
06
Détection express de polluants toxiques — Rice University combine nanoparticules, spectroscopie infrarouge et machine learning pour repérer des polluants (PAH, mélanges complexes) en quelques heures. Objectif: dépistage sur site, instruments portables, coûts réduits, avant une identification plus fine.
07
Iran, IAEA et vérification nucléaire — Un rapport confidentiel de l’IAEA indique un manque d’accès aux sites iraniens bombardés, empêchant de vérifier activités et stocks d’uranium enrichi. L’agence s’appuie sur images satellites, tandis que des discussions techniques se poursuivent à Vienne.

Sources

Full Transcript

Et si votre “voix intérieure” pouvait apparaître en temps réel sur un écran… sans que vous prononciez un mot? Aujourd’hui, on parle d’IA qui commence à décoder la parole imaginée — et des questions vertigineuses que ça soulève. Bienvenue dans The Automated Daily, tech news edition. Le podcast créé par générative AI. Nous sommes le 28 février 2026. Je suis TrendTeller, et on fait le tour de l’essentiel, sans bruit inutile.

On démarre donc avec les interfaces cerveau-machine, et un cap important franchi côté “parole intérieure”. À Stanford, des chercheurs ont implanté une micro-matrice d’électrodes chez une femme de 52 ans, survivante d’un AVC — identifiée comme la participante T16 — pour capter l’activité neuronale dans une zone frontale liée à la production de la parole. Un système d’IA traduit ensuite l’activité associée à une phrase simplement imaginée en texte affiché à l’écran, quasiment en temps réel. Trois patients atteints de SLA ont aussi participé. Le point clé de cette étude, annoncée en août 2025, c’est qu’elle ne se limite pas à la “parole tentée” — quand on essaye de parler sans y parvenir — mais explore la “parole intérieure”, celle qu’on formule mentalement. Résultat: sur des tâches guidées d’imagerie de phrases, la précision grimpe jusqu’à environ 74%. En revanche, dès qu’on s’éloigne des scénarios très cadrés, la performance chute: pour des invites plus ouvertes, ça devient souvent confus, voire incompréhensible. Ce n’est pas de la télépathie; c’est une avancée prometteuse, mais encore fragile dès qu’on demande de la spontanéité. Les chercheurs montrent aussi, avec des exercices comme compter des formes colorées, qu’on peut repérer des traces de “mots-nombres” dans l’activité du cortex moteur. Leur hypothèse: la parole intérieure et la parole tentée partagent des patrons neuronaux très corrélés, mais les signaux de la parole intérieure sont plus faibles — ce qui colle avec des travaux antérieurs en imagerie et électrophysiologie. Et pour élargir l’accès, l’idée serait de capter davantage de neurones que les systèmes actuels — typiquement quelques centaines d’électrodes — et d’explorer d’autres régions impliquées dans le langage interne, comme le gyrus temporal supérieur, ce qui pourrait aider des patients dont le cortex moteur a été endommagé par un AVC. En parallèle, on voit aussi progresser des approches non invasives. Le chercheur japonais Yu Takagi a notamment utilisé des générateurs d’images avec des données d’IRM fonctionnelle pour reconstruire ce que des personnes voient ou imaginent. Il a même tenté des reconstructions musicales à partir de signaux fMRI, mais l’audio reste plus compliqué, notamment à cause de la résolution temporelle limitée de cette mesure. Les usages envisagés vont de la restauration de la communication à l’étude de la perception — et, plus spéculativement, jusqu’à des reconstructions de rêves. Évidemment, le volet éthique reste central: droits fondamentaux, consentement, limites de surveillance, et le spectre d’une “lecture de pensée” détournée.

Dans un autre registre, mais toujours à la frontière entre neurones et informatique, l’Australien Cortical Labs a entraîné des cellules cérébrales humaines cultivées sur une puce à jouer à Doom — oui, le jeu de tir à la première personne. Le système utilise des neurones vivants connectés à une matrice de microélectrodes, qui stimule et mesure leur activité électrique. Ce qui change ici, ce n’est pas seulement la démonstration: c’est l’outillage. Là où un neurone-chip jouant à Pong avait demandé des années d’efforts et une énorme masse de cellules, cette fois le prototype utilise environ quatre fois moins de neurones, et surtout une nouvelle interface programmable plus simplement, via Python. Un développeur indépendant, avec peu d’expérience en biologie, a pu configurer l’entraînement en quelques jours, et obtenir un comportement meilleur qu’un “joueur” aléatoire — même si on est encore très loin d’un humain compétitif. Des experts y voient un progrès réel dans le contrôle de systèmes neuronaux vivants pour des tâches plus complexes, avec plus d’incertitude et de décisions en temps réel. Mais une grande question demeure: qu’est-ce que “voit” exactement ce réseau de neurones, et comment se construit la représentation de l’environnement de jeu sans capteurs biologiques? Tant qu’on ne comprend pas mieux ce mécanisme, on reste dans une ingénierie pragmatique plus que dans une théorie solide. Cela dit, les perspectives — par exemple des ordinateurs bio-hybrides pour piloter des robots — deviennent un peu moins science-fiction et un peu plus feuille de route.

Passons maintenant à l’économie de l’IA, où la bataille se joue de plus en plus sur l’accès au calcul. OpenAI annonce un tour de table colossal: 110 milliards de dollars, mené par Amazon avec 50 milliards, et complété par Nvidia et SoftBank à hauteur de 30 milliards chacun. La valorisation annoncée atteint 730 milliards de dollars avant nouvel investissement — un chiffre qui dit surtout une chose: le marché parie que l’IA “de frontière” est en train de quitter le labo pour devenir une infrastructure mondiale. Sam Altman indique au passage que ChatGPT dépasse 900 millions d’utilisateurs actifs hebdomadaires, avec plus de 50 millions d’abonnés grand public. Et côté partenariats, Amazon Web Services deviendrait le distributeur cloud tiers exclusif pour OpenAI Frontier. Le duo étend aussi un accord existant, avec 100 milliards supplémentaires sur huit ans, notamment pour des modèles personnalisés destinés aux développeurs chez Amazon. À noter: OpenAI insiste que cela ne modifie pas la relation avec Microsoft, toujours décrite comme “forte et centrale”. Dans le même esprit de ruée vers la puissance de calcul, Meta aurait signé un accord pluriannuel et à plusieurs milliards pour louer des puces IA de Google, les TPU. C’est un signal clair: l’écosystème cherche des alternatives crédibles aux GPU de Nvidia, au moment où la demande explose. Meta, de son côté, diversifie visiblement: discussions autour des TPU, achats de puces chez AMD, et accords avec Nvidia. Et pour Google, pousser les TPU est aussi une manière de transformer l’investissement IA en revenus cloud, tout en élargissant le marché des accélérateurs au-delà du duopole “GPU ou rien”.

Cette course au calcul ne tient pas seulement aux data centers: elle se joue aussi à l’usine, sur la lithographie. ASML annonce que ses machines de nouvelle génération, les High-NA EUV, sont prêtes pour une montée en cadence vers la production de masse. Pour situer: ASML est l’unique fournisseur commercial de machines EUV, indispensables pour graver les puces les plus avancées. Les outils High-NA promettent de simplifier certaines étapes complexes de fabrication, ce qui compte énormément pour les feuilles de route des puces IA, justement proches des limites des systèmes actuels. Chaque machine est annoncée autour de 400 millions de dollars, environ le double des générations précédentes. ASML dit avoir déjà traité environ 500.000 wafers et atteindre autour de 80% de disponibilité, avec un objectif à 90% d’ici la fin de l’année. Même si la machine est “prête”, il reste une réalité industrielle: les fondeurs auront encore deux à trois ans de tests et d’intégration avant un déploiement généralisé. Mais le message est clair: sans progrès en lithographie, pas de progrès durable en accélérateurs — et sans accélérateurs, pas d’IA à l’échelle.

Côté politique tech, gros bras de fer aux États-Unis entre le Pentagone et Anthropic. Selon l’Associated Press, le secrétaire à la Défense Pete Hegseth aurait posé un ultimatum: permettre l’usage de Claude par l’armée “sans restrictions” avant une échéance très courte, sinon rupture du contrat. Des responsables auraient aussi brandi la possibilité de qualifier Anthropic de “risque de chaîne d’approvisionnement”, et même — au moins comme menace — d’invoquer le Defense Production Act, une loi de 1950 conçue pour mobiliser l’industrie au service de la défense. Le sujet est explosif pour une raison simple: forcer, via un dispositif juridique, la modification de garde-fous d’un modèle d’IA serait un précédent. Anthropic est présentée comme la dernière grande entreprise du secteur à résister à une intégration complète dans un nouveau réseau interne militaire, son PDG Dario Amodei évoquant notamment les risques d’usages non contrôlés: drones armés entièrement autonomes, surveillance de masse assistée par IA. Le Pentagone, lui, dit ne pas vouloir de surveillance de masse ni d’armes sans humain dans la boucle. Mais dans les faits, le conflit porte sur “qui décide des limites” et sur la capacité de l’État à imposer ses priorités. Et si la voie DPA semble, selon un porte-parole, possiblement abandonnée au profit d’une rupture pure et simple, l’affaire pourrait finir en contentieux, et attirer l’attention du Congrès — d’autant que la loi doit être réautorisée et arrive à échéance fin septembre.

Autre dossier très concret, cette fois sur l’impact des plateformes: à Los Angeles, une jeune femme identifiée par les initiales KGM témoigne qu’elle a commencé YouTube à 6 ans, Instagram à 9, et qu’à 10 ans elle était déjà en dépression, avec automutilation. Elle décrit anxiété, insécurité, isolement, et l’effet des filtres de beauté sur son image corporelle. Point marquant: elle dit encore utiliser les réseaux sociaux aujourd’hui parce que c’est “trop dur” de s’en passer. KGM est la plaignante principale d’un procès visant YouTube et Meta, accusés de concevoir des produits intentionnellement addictifs pour les mineurs, via des mécanismes comme le scroll infini, l’autoplay, et la quête de validation par les “likes”. Le dossier est le premier procès d’un contentieux consolidé de plus de 1.600 plaignants, dont des familles et des districts scolaires; l’enjeu est aussi de tester la réaction des jurés dans des procès pilotes, qui peuvent ensuite influencer la jurisprudence. TikTok et Snap, initialement dans la procédure, ont réglé à l’amiable juste avant le procès, avec des termes non publics. Meta et YouTube contestent les accusations. La suite, avec auditions familiales et expertises psychiatriques, devrait alimenter un débat qui dépasse largement ce tribunal: quelles obligations de sécurité mentale pour des produits numériques conçus pour capter l’attention?

On termine avec deux sujets où la donnée, la mesure et la vérification jouent un rôle central. D’abord l’environnement: une équipe de chimie de Rice University travaille sur des méthodes plus rapides et plus accessibles pour repérer des polluants toxiques — notamment des hydrocarbures aromatiques polycycliques — dans l’eau, le sol, voire le sang. Leur approche combine des nanoparticules déposées comme une “encre” sur des lames, une lecture par spectroscopie infrarouge, puis du machine learning pour démêler des signatures qui se chevauchent dans des mélanges réels. Objectif annoncé: passer de semaines à quelques heures, et viser des instruments portables moins coûteux pour du dépistage sur site. Il y a encore des limites — optimiser les nanoparticules selon les classes de polluants, adapter les modèles aux signatures — mais c’est typiquement le genre d’innovation qui peut accélérer la décision: où nettoyer, quoi prioriser, et comment réduire l’exposition. Ensuite, le nucléaire iranien: un rapport confidentiel de l’IAEA indique que l’agence n’a pas obtenu l’accès à des sites bombardés par Israël et les États-Unis lors d’une guerre de 12 jours en juin. Sans accès, impossible de vérifier la suspension d’activités liées à l’enrichissement ou de confirmer la taille et l’emplacement des stocks d’uranium sur ces sites. L’IAEA parle d’une “perte de continuité des connaissances” à corriger d’urgence. L’agence estime qu’environ 440,9 kilogrammes d’uranium enrichi jusqu’à 60% existent — proche du seuil militaire à 90% — et rappelle que ce type de matière devrait normalement être vérifié mensuellement. Faute d’inspections, l’IAEA s’appuie notamment sur des images satellites, qui montrent de l’activité de véhicules sur certains sites, sans pouvoir en confirmer la nature. Des discussions techniques sont annoncées à Vienne, et l’IAEA devrait rester un acteur clé de toute solution, parce que sans vérification, il n’y a pas d’accord crédible.

Voilà pour l’essentiel de ce 28 février 2026. Si vous ne deviez retenir qu’une idée: l’IA progresse en même temps sur deux fronts — comprendre le monde, et comprendre… l’humain. Et dans les deux cas, la question qui revient, c’est: qui contrôle l’infrastructure, et qui fixe les limites? C’était TrendTeller pour The Automated Daily, tech news edition. À demain pour une nouvelle synthèse.