Transcript

CAR-T créées directement dans le corps - Actualités Technologiques (20 mars 2026)

20 mars 2026

Back to episode

Et si, demain, on pouvait « fabriquer » des cellules CAR-T directement dans le corps, en une seule intervention, au lieu d’attendre une production longue et coûteuse en laboratoire ? On commence avec ça. Bienvenue à The Automated Daily, tech news edition. Le podcast créé par l’IA générative. Nous sommes le 20 mars 2026, et je suis TrendTeller. Aujourd’hui, on parle de thérapies anticancer qui changent de cadence, de cryptographie post-quantique où la Chine veut écrire ses propres règles, et d’un Web qui pourrait bientôt être principalement visité… par des robots.

D’abord, une avancée marquante en biotechnologie : des chercheurs décrivent une méthode d’édition génétique in vivo qui vise à générer des cellules CAR-T directement à l’intérieur de l’organisme. L’intérêt, c’est de contourner le goulot d’étranglement actuel : la fabrication patient par patient, lente, chère, et parfois trop tardive pour des cancers agressifs. Dans des modèles de souris humanisées, l’équipe obtient des niveaux de cellules modifiées suffisamment élevés pour produire un effet thérapeutique, avec des signaux encourageants côté contrôle et sécurité dans le cadre testé. Ce n’est pas encore un traitement prêt pour l’hôpital, mais le jalon est important : réussir une insertion ciblée d’un “gros” morceau d’ADN au bon endroit, sur les bonnes cellules, sans passer par l’usine à cellules.

Toujours dans la santé, mais côté “humain augmenté” : la Chine accélère sur les interfaces cerveau-machine. Un dispositif invasif a récemment obtenu une autorisation commerciale — une étape rare — pour aider des patients, notamment via le contrôle d’un gant robotique. En parallèle, des startups soutenues par l’État reconnaissent être encore derrière les leaders américains, Neuralink en tête, mais elles élargissent rapidement leurs essais. Ce qui rend ce dossier intéressant, ce n’est pas seulement la compétition technologique : c’est le fait que Pékin traite désormais ces implants comme une industrie d’avenir stratégique, avec financement et calendrier, ce qui peut accélérer l’arrivée d’appareils médicaux sur le marché… et les débats éthiques qui vont avec.

Un détour par la robotique biohybride : à Singapour, des chercheurs ont mis au point des tissus musculaires cultivés qui se renforcent “tout seuls”, en continu, grâce à une astuce de conception où deux muscles se sollicitent mutuellement. Résultat : des actionneurs plus puissants, et un petit robot nageur, OstraBot, qui atteint une vitesse record pour un système propulsé par muscle. Le point clé ici, c’est la résolution d’un vieux problème : les muscles cultivés sont souvent trop faibles ou trop instables pour des usages concrets. Si on franchit ce cap, on ouvre la porte à des robots souples, potentiellement biodégradables, utiles pour de la surveillance environnementale ou des outils médicaux temporaires.

Passons à la cybersécurité : la Chine pourrait définir des standards nationaux de cryptographie post-quantique d’ici trois ans, selon une chercheuse de référence à Tsinghua. Le moteur, on le connaît : la crainte qu’à terme, des ordinateurs quantiques cassent une partie du chiffrement actuel, forçant États et industries à migrer. Ce qui retient l’attention, c’est la dimension géopolitique des standards. Les États-Unis ont finalisé une première vague de normes en 2024 et visent une migration large d’ici 2035. La Chine, elle, veut pousser des approches différentes et prioriser des secteurs comme la finance et l’énergie, où la durée de vie des données et l’impact d’une fuite sont critiques. En clair : ce n’est pas qu’une histoire d’algorithmes, c’est une course d’influence sur les règles de sécurité qui structureront les infrastructures numériques.

Sur l’Internet lui-même, une projection frappe : le patron de Cloudflare estime que le trafic de bots alimentés par l’IA pourrait dépasser le trafic humain dès 2027. L’argument est simple : un agent IA qui “fait du shopping” ou “compare des options” n’ouvre pas quelques onglets, il interroge des centaines ou des milliers de sites. Pourquoi c’est important ? Parce que la facture — serveurs, bande passante, fiabilité — est payée par les sites, pas par les agents. Ça remet sur la table des questions de contrôle d’accès, de rémunération des contenus, et de nouvelles protections pour éviter que le Web devienne un back-end gratuit pour des armées d’automates.

En Chine, justement, on voit comment une technologie d’agent peut être industrialisée socialement. OpenClaw, un assistant open source capable d’opérer un ordinateur à la place de l’utilisateur, connaît une adoption spectaculaire, avec des événements publics d’installation et un soutien indirect d’acteurs majeurs. L’outil est présenté comme un accélérateur de “micro-entreprises à une personne”, en automatisant administration, marketing ou gestion. Mais il y a un revers : les autorités alertent sur les risques de sécurité et de fuite de données, et demandent déjà à certains secteurs sensibles de limiter l’usage. On retrouve une tension classique : diffusion rapide pour gagner en productivité, et contrôle strict pour réduire les angles morts.

Sur les développeurs, deux idées reviennent fortement cette semaine. D’un côté, un manifeste intitulé “AI Code” insiste sur la discipline de structure et de nommage pour éviter qu’une base de code ne se dégrade quand plusieurs agents IA produisent du code en parallèle. De l’autre, l’ingénieur Edward Z. Yang propose une règle de survie : “lire moins, piloter plus”. Autrement dit, arrêter de traiter la sortie de l’IA comme un roman à relire ligne par ligne, et plutôt forcer l’outil à justifier, clarifier et s’aligner sur une intention précise. Le message commun est assez sain : les gains viennent de la supervision et des conventions d’équipe, pas d’un abandon de responsabilité. L’IA peut accélérer l’écriture, mais la compréhension et la qualité restent des choix d’organisation.

Côté industrie logicielle, une acquisition à surveiller : OpenAI annonce le rachat d’Astral, connu pour des outils Python très utilisés comme uv et ruff. La promesse affichée est de continuer à les soutenir en open source, mais l’opération relance une inquiétude récurrente : quand une brique devient “porteuse” pour tout un écosystème, sa gouvernance compte presque autant que son code. Dans un contexte de concurrence intense sur les assistants de programmation, certains craignent qu’un acteur puisse, un jour, orienter un outil essentiel à son avantage. La bonne nouvelle, c’est que l’open source offre souvent une porte de sortie — le fameux “fork” — mais dans les faits, la fragmentation a aussi un coût collectif.

Un point régulation, avec l’Europe : des députés clés du Parlement soutiennent l’idée d’ajouter une interdiction des applications de “nudification” dans l’AI Act — ces services qui fabriquent des images sexuelles non consenties à partir d’une photo. Après plusieurs scandales de deepfakes, le mouvement est clair : renforcer les protections contre des usages qui détruisent des vies, tout en ajustant le calendrier de certaines obligations pour les systèmes à haut risque. Le signal est double : tolérance de plus en plus faible pour les atteintes sexuelles synthétiques, et en même temps, pression pour que les règles restent applicables et alignées sur des standards techniques réalistes.

En Amérique latine, le Brésil durcit aussi le cadre : un nouveau statut numérique visant la protection des enfants et adolescents entre en vigueur. Il impose davantage de supervision pour les moins de 16 ans, limite des mécaniques de captation de l’attention, et demande des contrôles d’âge plus robustes que la simple déclaration. Pour les plateformes, le message est net : la responsabilité ne se résume plus à “proposer des outils”, elle se traduit par des contraintes de design et des obligations de prévention. Reste à voir l’exécution concrète, et l’équilibre entre protection, vie privée et contournements.

Enfin, un sujet très matériel, mais crucial pour la tech : l’hélium. Le conflit au Moyen-Orient perturbe des opérations liées au Qatar, qui pèse lourd dans l’approvisionnement mondial. Or l’hélium n’est pas un gadget : il est vital pour certains procédés industriels, notamment dans les semiconducteurs, et pour l’imagerie médicale. Même si beaucoup de contrats sont de long terme, les tensions sur l’offre peuvent se traduire par des arbitrages, des hausses de coûts, et parfois des interruptions. Et dans une chaîne d’approvisionnement déjà fragile, un “petit” gaz rare peut devenir un gros problème.

Pour terminer sur la défense spatiale : la startup américaine True Anomaly parie que les conflits en orbite ressembleront moins à des combats spectaculaires qu’à des approches lentes, de l’inspection, et des manœuvres de proximité. Elle développe des satellites conçus pour bouger beaucoup, observer, et jouer des scénarios d’exercice avec la Space Force. Ce qui change, c’est le passage d’idées théoriques à des capacités plus fréquentes, plus industrialisées, et donc potentiellement plus déployables. En clair : l’espace continue de se normaliser comme un domaine opérationnel, avec doctrine, exercices, et équipements dédiés.

Voilà pour l’essentiel de l’actualité tech de ce 20 mars 2026. Si un fil rouge se dégage, c’est celui de la mise à l’échelle : des thérapies qui cherchent à sortir du sur-mesure, des agents IA qui multiplient le trafic, des standards de sécurité qui deviennent des enjeux de puissance, et des ressources critiques qui redeviennent stratégiques. Je suis TrendTeller, et vous écoutiez The Automated Daily, tech news edition. On se retrouve demain pour un nouveau tour d’horizon.