Transcript
Une comète inverse sa rotation & Clonage sur 58 générations - Actualités Technologiques (27 mars 2026)
27 mars 2026
← Back to episodeUne comète a tellement changé de rythme qu’elle aurait, littéralement, inversé le sens de sa rotation — un phénomène observé dans des archives de Hubble, et qui dit beaucoup sur la façon dont ces objets finissent par se désintégrer. Bienvenue sur The Automated Daily, tech news edition. Le podcast créé par l’IA générative. Nous sommes le 27 mars 2026. Je suis TrendTeller, et voici l’essentiel de l’actualité tech et science — sans jargon inutile, avec ce qu’il faut de contexte pour comprendre pourquoi ça compte.
On commence donc avec cette histoire de comète. Des astronomes, en revisitant des données de Hubble, ont repéré un cas inédit: la comète 41P/Tuttle–Giacobini–Kresák aurait ralenti sa rotation, puis fini par repartir dans l’autre sens lors de son passage près du Soleil en 2017. L’idée, c’est que des jets de gaz et de poussière — comme de minuscules propulseurs naturels — peuvent freiner, puis “retourner” l’objet si la poussée est assez asymétrique. Pourquoi c’est intéressant? Parce que ça donne une fenêtre en temps réel sur la fragilité des petits noyaux cométaires, et sur la manière dont ils s’épuisent… ou se brisent.
Autre résultat scientifique marquant, côté biologie cette fois: au Japon, des chercheurs du RIKEN ont mené une expérience de clonage… sur vingt ans. Ils ont cloné des souris à partir de cellules prises sur le clone précédent, et ainsi de suite, jusqu’à 58 générations — au prix de dizaines de milliers de tentatives. La conclusion de leur analyse finale, en 2026, est assez nette: ce n’est pas tant un “mauvais réglage” biologique qui s’aggrave, mais une usure génétique. Les mutations s’accumulent plus vite qu’avec une reproduction classique, et des dégâts structurels du génome finissent par apparaître. Message implicite: si un jour on parle de programmes de clonage à long terme, le contrôle génomique ne serait pas une option, mais une condition de survie du programme.
Passons à la conduite automatisée, avec une critique qui fait du bruit autour de Tesla. L’argument central: le défaut de sécurité majeur ne serait pas un capteur ou un algorithme en particulier, mais le “problème du relais”. Quand un système marche bien la plupart du temps, l’humain se désengage mentalement — et, au moment rare où ça dérape, il n’a ni la vigilance ni les secondes nécessaires pour reprendre proprement. L’auteur rappelle que des équipes chez Google et Waymo avaient déjà constaté ce phénomène chez des conducteurs d’essai, au point de renoncer à des concepts où l’on attend un sauvetage humain instantané. Et l’exemple cité est parlant: un ancien responsable de l’autonomie chez Uber, donc quelqu’un de parfaitement conscient du risque, raconte avoir quand même eu un accident en tentant d’intervenir sur une manœuvre inattendue. Le point de fond, c’est la divergence de stratégie: d’un côté, les robotaxis de niveau 4 dans des zones limitées et préparées; de l’autre, une assistance de niveau 2 vendue au grand public, qui suppose que l’utilisateur “rattrape” les erreurs. Si la promesse est l’échelle, la question devient: peut-on demander à des millions de personnes d’être des superviseurs d’élite, tout le temps, sans entraînement?
Dans la même veine “IA et responsabilité”, on voit un tournant judiciaire sur les réseaux sociaux. Deux verdicts, en Californie et au Nouveau-Mexique, ont donné raison à des plaignants accusant Meta — et, dans un procès à Los Angeles, aussi YouTube — de nuire aux jeunes. Ce qui change, d’après plusieurs observateurs, c’est l’angle d’attaque: moins une guerre sur ce que postent les utilisateurs, plus une mise en cause du design des produits, présenté comme intentionnellement addictif ou insuffisamment protecteur. Meta et Google contestent et envisagent des recours, mais ces décisions pourraient encourager une nouvelle vague de plaintes, et renforcer la pression politique pour encadrer les mécanismes d’engagement visant les mineurs.
En Europe, autre front: la violence sexuelle “augmentée” par l’IA. En Allemagne, une affaire médiatique autour d’images pornographiques générées artificiellement relance la question d’un vide juridique: les lois construites autour du contact physique ou d’images enregistrées couvrent mal les deepfakes. Un plan d’action pousse à criminaliser clairement la création et la diffusion de contenus sexuels truqués, à restreindre les applications de “nudification”, et à obliger les plateformes à retirer rapidement ces contenus, tout en renforçant les droits des victimes. La tendance est claire: la régulation se déplace vers l’authenticité, le consentement, et la traçabilité des auteurs — parce que l’échelle de diffusion rend les recours classiques trop lents.
Parlons Apple, où l’IA bouscule autant la stratégie produit que la gestion des talents. D’abord, selon des informations de presse, Apple aurait un accès très poussé aux modèles Gemini de Google… à l’intérieur même de ses propres centres de données. Objectif probable: s’en servir comme “professeur” pour entraîner des modèles plus petits, plus efficaces, taillés pour ses appareils. Ensuite, Apple préparerait une évolution majeure de Siri: pouvoir confier une requête à plusieurs assistants IA tiers, pas seulement à ChatGPT, via des intégrations activables dans les réglages. Et en coulisses, la concurrence se voit aussi sur le recrutement: Apple aurait accordé de grosses primes de rétention à des designers de l’iPhone, pendant qu’OpenAI attirerait de nombreux anciens d’Apple. Bref, la bataille n’est pas seulement technologique: elle est organisationnelle, et elle se joue sur qui contrôle l’interface utilisateur… et qui garde les équipes capables de la réinventer.
Côté interfaces encore, mais cette fois au plus près du cerveau: un participant à l’essai Neuralink, paralysé, affirme jouer à World of Warcraft en contrôlant l’ordinateur par la pensée, environ cent jours après l’implant. Au-delà de l’effet démonstration, ce qui compte, c’est le passage d’actions simples à un usage soutenu dans un logiciel complexe. Ça reste un essai très encadré, avec peu de participants, donc impossible d’en tirer des conclusions générales. Mais en termes d’impact potentiel — autonomie, accès au numérique, contrôle d’outils — c’est un jalon qui mérite d’être surveillé.
Sur l’écosystème IA, Nvidia continue d’imposer une vision: l’entreprise ne vend pas seulement des puces, elle vend une histoire où le calcul devient une ressource industrielle centrale — des “usines” qui produisent des réponses, des agents, et des services toujours actifs. L’enjeu derrière le récit, c’est l’investissement: énergie, centres de données, chaînes d’approvisionnement. Et plus cette idée d’agents permanents s’installe, plus l’inférence — donc l’usage continu — devient le gros poste de consommation, ce qui nourrit mécaniquement la demande en infrastructure.
Et puisqu’on parle d’infrastructure, SpaceX se retrouve au carrefour de l’espace, de l’IA et de la finance. Dans une interview, Gwynne Shotwell évoque l’intégration encore naissante entre SpaceX et xAI, avec l’idée que l’IA prenne une place croissante dans l’ingénierie et la production. En parallèle, un IPO de SpaceX serait préparé avec une approche très “à la Musk”: plutôt que d’aller convaincre les investisseurs, l’entreprise voudrait les faire venir sur place, visiter, et peut-être assister à des lancements. Si cela se confirme, ça illustre une tendance: les entreprises les plus désirées tentent de réécrire les règles du marché… tout en soulevant des questions de gouvernance, surtout quand on parle aussi d’extension massive de constellations de satellites.
Toujours sur le thème énergie et souveraineté, plusieurs pays d’Asie du Sud-Est relancent sérieusement leurs ambitions nucléaires. Deux moteurs se combinent: la vulnérabilité aux chocs pétroliers — ravivée par un contexte géopolitique tendu — et la montée rapide de la demande électrique, dopée par les data centers orientés IA. Le nucléaire est vu comme une option de sécurité énergétique et de décarbonation, mais avec des obstacles très concrets: sûreté, déchets, acceptabilité sociale, et surtout la difficulté de bâtir une filière entière à partir de presque rien.
Dans ce contexte, la NASA prend aussi une décision structurante: mise en pause de Gateway, sa station en orbite lunaire, et réorientation d’un module avancé vers une démonstration de propulsion nucléaire-électrique en direction de Mars. Le pari: prouver, enfin, qu’un réacteur peut alimenter une propulsion électrique de façon fiable au-delà de l’orbite terrestre. C’est stratégique — pour la logistique martienne — mais aussi politiquement et réglementairement délicat, puisqu’il faut certifier le lancement de matériel nucléaire. Le calendrier annoncé est ambitieux, et c’est typiquement le genre de projet où la discipline d’exécution compte autant que la science.
Un mot de défense et d’industrie: la Corée du Sud a célébré la première livraison de ses chasseurs KF-21 produits en série. Au-delà de l’avion, le signal est celui d’une capacité nationale à concevoir et fabriquer du “haut de gamme” militaire, et à se positionner comme exportateur. Dans un monde où les chaînes d’approvisionnement et les alliances sont scrutées, ce type de programme pèse autant en géopolitique qu’en ingénierie.
Pour finir, quelques idées fortes sur la transformation du travail par l’IA. Plusieurs essais convergent sur un point: la valeur se déplace. Pour les juniors du logiciel, on attendrait moins une longue montée en compétence sur l’exécution, et plus tôt une compréhension du problème, des contraintes, du coût, et de l’impact en production. Pour les cabinets — droit, audit, conseil, assurance — certains évoquent un risque d’extinction si le modèle reste “des heures facturées par des humains prestigieux”, au lieu d’investir dans des systèmes mesurables et orientés résultats. Et même le vieux tabou de la “réécriture complète” d’un logiciel est revisité: les agents rendent le code moins cher à produire, mais la partie vraiment rare reste la connaissance opérationnelle accumulée — les incidents, les exceptions, les compromis — que le code actuel capture souvent mieux que n’importe quel document. En clair: l’IA accélère, mais elle ne supprime pas la réalité du terrain.
Dernier point, plus académique mais très concret: des chercheurs présentent un système surnommé “AI Scientist”, qui tente d’automatiser toute la chaîne de recherche en machine learning, de l’idée à la rédaction, et même une forme de relecture. Ils montrent qu’avec plus de puissance de calcul et de meilleurs modèles, la “qualité” mesurée grimpe — ce qui suggère une trajectoire rapide. Mais le revers est évident: si produire des articles devient facile, la revue par les pairs peut être submergée, et les incitations peuvent se dégrader. D’où l’importance, martelée par plusieurs voix, de normes de divulgation et de garde-fous avant que la pratique ne se banalise.
Et en toile de fond de cette accélération, l’argent. SoftBank annonce un financement massif, sous forme de prêt relais, pour soutenir ses investissements IA, dont OpenAI. C’est un rappel utile: la compétition IA ne se joue pas seulement sur les idées, mais sur l’accès au capital — et donc sur la capacité à encaisser des paris coûteux, avec les risques qui vont avec.
C’est tout pour aujourd’hui. Si un sujet vous a fait tiquer — la reprise en main impossible en conduite assistée, la riposte juridique contre les deepfakes, ou la course à l’infrastructure IA — gardez-le en tête: ce sont souvent ces “détails” qui finissent par décider de ce qui se déploie, et de ce qu’on accepte collectivement. On se retrouve demain pour un nouveau point sur l’actualité. Vous écoutiez The Automated Daily, tech news edition.