Transcript

Un data center avec neurones vivants & Apple retarde son hub domotique - Actualités Technologiques (10 mars 2026)

10 mars 2026

Back to episode

Et si, demain, une partie de l’IA tournait… sur des neurones vivants, dans un data center “biologique” à Singapour ? Restez avec moi, parce que ce projet soulève autant de promesses énergétiques que de questions éthiques. Bienvenue dans The Automated Daily, tech news edition. Le podcast créé par l’IA générative. Nous sommes le 10 mars 2026, et je suis TrendTeller. Aujourd’hui, on parle aussi de l’IA qui bouscule la QA, d’un nouvel épisode tendu entre Anthropic et le Pentagone, d’Apple encore freinée par Siri, et de l’offensive mondiale sur la vérification d’âge en ligne.

On commence donc par ce pari singapourien: DayOne, développeur de data centers, s’associe à Cortical Labs pour bâtir ce qu’ils présentent comme un “bio data centre”. L’idée, c’est d’héberger des unités de calcul faites de neurones cultivés à partir de cellules souches, avec l’objectif affiché de faire tourner certains workloads d’IA en consommant beaucoup moins d’énergie que le silicium classique. Le projet démarre modestement à l’université, puis vise une montée en puissance si la technique, la réglementation et la biosécurité suivent. Ce qui rend l’annonce intéressante, c’est le contexte: Singapour ajoute de la capacité data center sous des règles de durabilité plus strictes. Tout ce qui promet de réduire l’empreinte énergétique devient un levier stratégique… à condition de prouver que c’est gouvernable et sûr.

Dans l’infrastructure IA plus “classique”, l’argent continue d’affluer. La startup britannique Nscale annonce une levée géante, avec Nvidia parmi les participants, pour accélérer son expansion en Europe, Amérique du Nord et Asie. Au-delà du montant, le signal est clair: le marché récompense ceux qui peuvent sécuriser du calcul et le déployer vite, alors que la demande dépasse encore l’offre. Et, en filigrane, cela renforce aussi le poids des acteurs qui contrôlent les puces et l’écosystème.

Autre gros pari: AMI Labs, la nouvelle aventure de Yann LeCun, lève plus d’un milliard de dollars alors que l’équipe est encore minuscule. Le discours est celui des “world models”, des modèles censés apprendre davantage à partir de données du monde réel et moins uniquement à partir de textes. L’ambition est de réduire certaines limites bien connues des grands modèles, comme les réponses inventées, qui deviennent critiques en santé ou dans des systèmes autonomes. Là aussi, ce financement dit quelque chose de l’époque: les investisseurs misent très cher sur des trajectoires de recherche longues, tant que le pedigree scientifique et la promesse d’une nouvelle génération de modèles sont là.

Passons aux assistants et aux produits grand public: Apple aurait à nouveau repoussé son écran connecté pour la maison, un appareil pensé comme un “hub” domestique. Le matériel serait prêt depuis un moment, mais le produit dépendrait de fonctions Siri de nouvelle génération, notamment de personnalisation basée sur les données de l’utilisateur. Ce feuilleton est intéressant parce qu’il illustre la contrainte d’Apple aujourd’hui: l’entreprise sait livrer du matériel, mais son calendrier devient tributaire de la maturité de ses couches IA. Et quand la brique “assistant” prend du retard, c’est toute la stratégie maison connectée qui se décale.

Sur le front de la régulation, on voit monter une vague mondiale de contrôles d’âge en ligne, motivée par la santé mentale des ados, les abus, et la diffusion d’images illégales générées par IA. Après l’Australie, des pays et des États discutent de restrictions ou d’obligations de vérification pour les réseaux sociaux, certains chatbots et les sites pour adultes. Ce qui change par rapport à il y a quelques années, c’est l’argument “c’est techniquement faisable”: les fournisseurs d’outils d’“age assurance” assurent que la précision s’améliore et que les coûts baissent. Mais les angles morts restent nombreux: erreurs autour des seuils légaux, performance inégale selon les conditions de caméra ou les tons de peau, et risques pour la vie privée. En clair, la faisabilité progresse, et le débat se déplace vers: quel niveau d’intrusion accepte-t-on, et qui est responsable quand ça se trompe ?

Dans un autre registre politique, Anthropic attaque le Département de la Défense américain en justice après avoir été qualifiée de “risque pour la chaîne d’approvisionnement”, un label qui, de fait, coupe l’accès à certains contrats. Anthropic dit y voir une sanction idéologique liée à ses positions sur certains usages, comme la surveillance de masse ou les armes autonomes. L’affaire est lourde de conséquences: si ce type d’outil administratif devient une manière de faire pression sur des fournisseurs d’IA, ça peut refroidir la critique interne et la défense de principes de sécurité. Et, en même temps, cela montre à quel point l’IA est devenue une pièce stratégique des systèmes gouvernementaux.

Côté droits d’auteur, environ dix mille écrivains publient un livre… vide. Le titre, lui, ne l’est pas: “Don’t Steal This Book”. À l’intérieur, seulement des noms, comme une signature collective. Le message vise le débat britannique sur l’entraînement des IA: faut-il autoriser l’usage d’œuvres par défaut, avec une option de retrait pour les ayants droit, ou exiger un accord explicite ? Ce coup d’éclat compte parce qu’il met la pression au moment où des mécanismes de licences collectives commencent à émerger. Et parce qu’il rappelle un point simple: sans cadre clair, la bataille se jouera dans les tribunaux, pays par pays.

Dans les équipes logiciels, l’IA s’invite désormais dans un endroit très concret: les tests. QA Wolf pousse une approche “IA-native” combinant plateforme et service managé, avec la promesse d’accélérer la couverture de tests de bout en bout sur web et mobile, et surtout de réduire la corvée de maintenance. Ce qui compte ici, c’est moins le slogan que la tendance: de plus en plus d’outils essaient de distinguer rapidement un vrai bug d’un test instable, et de donner un verdict plus vite à chaque déploiement. Si ça marche, ça raccourcit les cycles de release. Si ça marche mal, on risque de déplacer le problème: moins de tests manuels, mais plus de confiance aveugle dans l’automatisation. À noter: QA Wolf insiste sur le fait que le code de test reste récupérable par le client, un point sensible pour éviter l’enfermement chez un fournisseur.

Toujours sur l’IA côté dev, Anthropic tease aussi une fonction de revue de code qui se déclencherait lors de l’ouverture d’une pull request, avec plusieurs agents qui passent les changements au crible. L’idée est séduisante: la revue est souvent un goulot d’étranglement, et beaucoup d’équipes aimeraient un premier “filet de sécurité” automatique avant l’œil humain. La question, comme toujours, sera celle du taux de faux positifs, et du risque inverse: laisser passer des problèmes parce que “l’IA n’a rien dit”.

Justement, comment mesurer si ces outils aident vraiment ? Un ingénieur de WorkOS raconte avoir dû construire des systèmes d’évaluation après avoir réalisé que des agents “tournaient” sans preuve d’amélioration. Leur approche privilégie des tendances mesurables: des taux de réussite, des comparaisons A/B, et des critères de qualité adaptés au domaine. Le détail le plus important est presque philosophique: les évaluateurs peuvent se tromper eux-mêmes, et il faut parfois déboguer le juge avant de juger le modèle. Un bon rappel, à l’heure où on intègre des agents partout: l’intuition ne suffit plus, il faut des garde-fous chiffrés.

Petite parenthèse de “hacking” instructif: un ingénieur a reproduit une démonstration d’appel vidéo relayé via PostgreSQL, en s’appuyant sur les flux de changements de la base. Ce n’est pas présenté comme une solution réaliste pour la visio, mais comme une façon de montrer jusqu’où on peut pousser une base de données quand on la traite comme un bus d’événements temps réel. Intéressant pour les architectes: cela illustre la frontière entre ce qui est possible, et ce qui est raisonnable en production.

Côté outils, Ghostty — un émulateur de terminal — sort une mise à jour majeure. Au-delà des améliorations de confort, il y a surtout un correctif de sécurité autour du collage et du glisser-déposer de caractères de contrôle, susceptibles, dans certains contextes, de provoquer l’exécution de commandes. Moralité: même des outils “basiques” comme un terminal méritent une hygiène de sécurité, car ils touchent directement au cœur des workflows développeurs.

Passons à la robotique: selon des analyses récentes, des firmes chinoises concentreraient l’immense majorité des ventes mondiales de robots humanoïdes, avec des expéditions déjà à l’échelle de milliers d’unités. Le facteur clé n’est pas seulement l’IA, mais la capacité industrielle: produire, intégrer, distribuer, maintenir. Les États-Unis gardent des champions très visibles, mais la bataille se joue aussi sur la chaîne de fabrication et sur la vitesse de déploiement chez des clients réels — parce que, sans données terrain, la robotique progresse moins vite que l’IA “texte”.

Dans la science, une équipe a reconstruit de petits “films” granuleux à partir d’enregistrements d’activité cérébrale chez des souris regardant des vidéos. Les images restent limitées, mais l’idée est forte: utiliser des modèles pour relier des signaux neuronaux à des scènes perçues. À court terme, c’est une nouvelle fenêtre sur la perception animale. À long terme, cela réactive un sujet qui va revenir: la confidentialité neuronale. Aujourd’hui, c’est la souris; demain, la question sera jusqu’où ces méthodes pourraient aller chez l’humain, et sous quel contrôle.

Autre domaine où l’IA accélère: la conception de protéines, notamment d’anticorps et de binders. Les outils récents rendent plus accessible la génération de candidats “dessinés” par ordinateur, avec des taux de réussite souvent supérieurs à certaines méthodes traditionnelles de criblage au hasard. Mais le point à retenir, c’est la limite: les scores informatiques ne remplacent pas la preuve au laboratoire, et la partie la plus difficile reste souvent l’optimisation finale — affinité, spécificité, stabilité. Cela dit, la capacité à explorer des designs auparavant impraticables pourrait changer la donne en biotech.

Direction l’espace: Amazon demande au régulateur américain des télécoms de rejeter la demande de SpaceX visant à autoriser une forme de “data center orbital” à très grande échelle. Amazon argue que le dossier manque de détails essentiels et souligne des risques: interférences, collisions, impact sur l’astronomie et l’environnement. Derrière le juridique, on voit une lutte de pouvoir: qui fixe les règles quand on parle de constellations géantes, et à quel niveau de précision technique doit-on répondre avant d’obtenir un feu vert ?

Dans l’aérien, la FAA valide plusieurs programmes pilotes pour élargir les essais d’appareils électriques de type eVTOL. L’intérêt est surtout réglementaire: accumuler des données d’exploitation, définir des procédures, et réduire l’incertitude qui freine la certification et l’investissement. Même si les taxis aériens ne remplissent pas le ciel demain matin, ces pilotes sont une étape vers des usages plus concrets, comme le transport régional, le cargo ou les urgences médicales.

Enfin, côté sécurité internationale, le Japon déploie des missiles antinavires à portée étendue sur son territoire, dans une logique de “capacité de contre-frappe”. Le message est double: dissuasion face à un environnement régional plus tendu, et évolution d’une posture longtemps très défensive. Et en Chine, de nouveaux plans économiques mettent l’accent sur les percées technologiques — IA, semi-conducteurs, robotique, réseaux — tout en cherchant à muscler le marché intérieur. Là encore, la rivalité technologique et les restrictions extérieures poussent Pékin à accélérer l’autonomie sur les “technos clés”, avec le risque, selon certains analystes, d’alimenter encore des tensions commerciales si la production dépasse la demande.

C’est tout pour aujourd’hui. Si un sujet mérite qu’on le suive de près, c’est bien cette combinaison: plus d’IA partout — dans les data centers, dans les outils dev, dans la régulation — et, en parallèle, une bataille grandissante sur les règles du jeu, de la vie privée au droit d’auteur. On se retrouve demain pour un nouveau tour d’horizon. C’était TrendTeller, pour The Automated Daily, tech news edition.