Transcript

OpenAI ferme Sora, Disney recule & OpenAI vers une IPO risquée - Actualités IA (25 mars 2026)

25 mars 2026

Back to episode

OpenAI vient de couper court à une application vidéo très médiatisée… et, en coulisses, un géant du divertissement se serait retiré d’un accord majeur. Pourquoi ce virage maintenant, et qu’est-ce que ça dit de la bataille de l’IA générative? Bienvenue à The Automated Daily, AI News edition. Le podcast créé par l’IA générative. Nous sommes le 25 mars 2026, je suis TrendTeller, et aujourd’hui on parle stratégie produit, agents qui prennent la main sur nos machines, commerce “dans” les chatbots… et cette question qui fâche: est-ce que l’IA fait vraiment exploser la production logicielle, ou est-ce surtout l’écosystème IA qui s’emballe? On déroule tout ça, calmement, et avec l’essentiel: ce qui s’est passé, et pourquoi ça compte.

On commence par le gros mouvement du jour côté vidéo: OpenAI ferme son application Sora, à peine quelques mois après son lancement. La surprise, c’est surtout le signal stratégique: la génération vidéo ne disparaît pas forcément, mais OpenAI semble préférer l’intégrer à des produits plus larges plutôt que de porter une app dédiée. Et selon une source reprise par la presse spécialisée, Disney abandonnerait un investissement et un accord de licence liés à Sora. Si ce retrait se confirme, ça illustre un point clé: sur la vidéo, les enjeux de droits, d’IP et d’accords industriels peuvent compter autant que la qualité des modèles.

Dans la même veine “réalité économique”, OpenAI a aussi fait circuler un document à la manière d’un prospectus d’introduction en bourse, listant ses facteurs de risque. Le message est clair: la dépendance à Microsoft pour une part du financement et du calcul reste un talon d’Achille; les engagements de dépenses en infrastructure et en compute s’étendent loin, jusqu’à la fin de la décennie; et les risques juridiques s’accumulent, entre litiges très médiatisés et plaintes d’utilisateurs. Pourquoi c’est important? Parce que ça remet l’IA à sa place: ce n’est pas seulement une course aux benchmarks, c’est une industrie lourde, capitalistique, et de plus en plus régulée par les tribunaux… et par la géopolitique des semi-conducteurs.

Et puis, il y a la question du “commerce agentique”, cette idée d’acheter directement dans un chatbot. Walmart dit avoir testé l’achat dans ChatGPT via un dispositif de paiement intégré, sur un grand catalogue, et le résultat est plutôt mauvais: les achats conclus directement dans la conversation convertissaient environ trois fois moins que quand les clients repassaient par Walmart.com. Walmart parle d’une expérience d’achat “insatisfaisante” et réoriente son approche: au lieu de laisser le chatbot gérer la caisse, l’enseigne veut intégrer son propre assistant, avec connexion au compte et finalisation dans ses systèmes. À retenir: les chatbots attirent l’intention, mais la conversion reste, pour l’instant, un sport de terrain… et le terrain appartient aux marchands.

Côté “agents qui agissent”, Anthropic étend Claude avec des fonctions de prise en main de l’ordinateur: ouvrir des fichiers, naviguer sur le web, utiliser des outils de développement. C’est une préversion de recherche, avec l’idée que le modèle demande la permission avant d’exécuter des actions. La prudence affichée est notable: Anthropic recommande d’éviter les données sensibles tant que les garde-fous ne sont pas éprouvés. Pourquoi ça compte? Parce qu’on passe d’un assistant qui conseille à un agent qui opère — et le cœur du débat devient la sécurité pratique: droits, traçabilité, erreurs, et responsabilité quand “ça clique tout seul”.

À propos d’impact réel, un article a cherché un “effet IA” mesurable dans l’écosystème Python de PyPI. Et la conclusion est contre-intuitive: pas de boom général des créations de paquets ni de rupture nette après l’arrivée de ChatGPT, une fois qu’on tient compte des vagues de spam et de malwares qui faussent les compteurs. En revanche, quand on découpe par thématique, le changement post-ChatGPT apparaît: les paquets liés à l’IA, eux, accélèrent fortement, avec des fréquences de releases qui dépassent largement celles des paquets populaires non-IA. Autrement dit: l’IA ne semble pas, pour l’instant, doubler la production de tout le logiciel… mais elle dope clairement la vitesse d’itération du logiciel “autour de l’IA”.

Et ça rejoint une humeur qui monte chez les développeurs. Un ingénieur, Jake Saunders, raconte qu’il utilise l’IA tous les jours et la trouve réellement productive… mais qu’il n’en peut plus d’en parler en permanence. Son reproche: les espaces de discussion se focalisent sur les micro-variantes d’outillage et de workflows, au détriment de ce que les gens construisent et de ce que ça résout. Il vise aussi les dérives côté management, avec des objectifs du style “utiliser plus d’IA” ou des métriques proches de “tokens par développeur”, comme un retour déguisé aux mauvaises mesures du passé. L’intérêt de ce texte, c’est le rappel de base: un outil n’est pas un résultat; et l’IA n’a de valeur que si elle améliore un produit, un service, ou un utilisateur réel.

Sur la recherche, deux histoires illustrent à la fois le potentiel… et la limite. D’abord, Epoch AI annonce qu’un problème ouvert de FrontierMath, en combinatoire de type Ramsey sur les hypergraphes, a été résolu avec l’aide d’un modèle GPT, puis confirmé par le contributeur mathématicien. Le fait marquant, ce n’est pas juste “une IA a trouvé quelque chose”: c’est que le résultat semble assez propre pour un write-up et une suite potentielle, et qu’un protocole d’évaluation a permis à plusieurs modèles d’y arriver sous test structuré. Ensuite, un physicien de Harvard décrit un projet de physique théorique mené avec Claude, de bout en bout via prompts, aboutissant à un papier en environ deux semaines — là où on parle souvent de plusieurs mois. Mais il insiste sur le coût caché: supervision experte constante, vérifications multiples, et des erreurs subtiles, parfois des “raccourcis” où le modèle ajuste plutôt que d’expliquer. La leçon est cohérente: les LLM peuvent accélérer, mais pas remplacer le jugement scientifique — en tout cas pas encore.

Sur l’infrastructure IA, Google Research présente TurboQuant, une famille de techniques pour compresser des vecteurs utilisés dans deux endroits très coûteux: la mémoire du KV cache quand on sert des LLM en long contexte, et le stockage des index en recherche vectorielle. L’idée générale: réduire la mémoire et les coûts sans casser la qualité perçue. C’est important parce que, dans la vraie vie, les limites des produits IA viennent souvent de la facture et de la latence, pas de la “magie” du modèle. Dans un registre plus spectaculaire, une vidéo affirme qu’un modèle gigantesque tournerait localement sur iPhone, certes à une vitesse très lente. Même si les détails manquent, le signal est clair: l’inférence “on-device” progresse, ce qui ouvre des usages hors-ligne et plus privés — mais avec des compromis très concrets sur la réactivité.

Autre débat très pratique: pourquoi le fine-tuning n’a pas envahi le quotidien des équipes? Un auteur explique que le prompting, les modèles de base plus performants, et surtout l’intégration logicielle autour du modèle suffisent souvent. Et il pointe le vrai frein: la maintenance. Collecter des exemples, retuner à chaque nouvelle version de modèle, gérer les régressions… c’est un coût continu. En parallèle, un autre billet s’interroge sur la faible adoption de DSPy et propose une lecture simple: ce type d’outil impose une façon de penser plus “ingénierie système” — schémas, modules, évaluations — qui arrive souvent après plusieurs itérations bricolées. En clair: on peut éviter le fine-tuning, mais on n’échappe pas à la discipline d’évaluation si on veut de la fiabilité.

METR, de son côté, a mené un exercice de simulation: des chercheurs ont joué un scénario où des agents IA auraient bientôt des horizons de travail bien plus longs. Leur estimation: un gain de productivité multiplié, oui — mais surtout un déplacement du travail. Moins de saisie, plus de définition d’objectifs, de supervision, et de vérification. Et ils identifient de nouveaux goulots: feedback humain, collecte de données, expériences, validation externe. C’est une idée utile pour 2026: même avec de très bons agents, les délais de projet ne fondent pas toujours, parce que le monde réel — et nos processus — restent séquentiels.

On termine avec une perspective socio-économique plus large: un essai avance que l’IA pourrait casser une “passerelle” historique entre diplômes, travail cognitif bien payé, et mobilité sociale, tout en laissant la dynamique du capital et de l’héritage intacte. Si la prime salariale des métiers cognitifs routiniers baisse, l’accès à la richesse dépendrait encore plus du patrimoine initial. On peut discuter les conclusions, mais l’angle est intéressant: au-delà des démos et des APIs, l’IA touche le mécanisme par lequel une société répartit revenus, statut et opportunités.

Et, rapidement, côté génération vidéo encore, des chercheurs de DeepMind et partenaires proposent DynaEdit, une méthode d’édition de vidéos réelles guidée par texte, sans ré-entraînement, visant des modifications d’actions et d’interactions avec moins d’artefacts temporels. Pourquoi c’est à suivre? Parce que l’édition — changer une scène existante de manière cohérente — est souvent plus utile en production que la génération “from scratch”.

C’est tout pour aujourd’hui, le 25 mars 2026. Si un fil rouge se dégage, c’est celui-ci: l’IA avance vite, mais l’impact mesurable se concentre là où l’argent, les usages et les contraintes — sécurité, conversion, coûts — sont les plus tangibles. Je suis TrendTeller, et c’était The Automated Daily, AI News edition. Vous trouverez les liens vers toutes les histoires dans les notes de l’épisode.