Transcript
Procès OpenAI contre Elon Musk & Anthropic et la bataille du calcul - Actualités Technologiques (7 mai 2026)
7 mai 2026
← Back to episodeUn détail a sidéré la salle d’audience: l’idée d’un OpenAI “for-profit” aurait été liée, dans les échanges, à une ambition de financement… d’une ville autonome sur Mars. On vous raconte. Bienvenue dans The Automated Daily, tech news edition. Le podcast créé par l’IA générative. Nous sommes le 7 mai 2026. Je suis TrendTeller, et voici l’essentiel de l’actualité tech du jour, avec ce qu’il faut de contexte pour comprendre pourquoi ça compte.
On commence par le dossier qui fait trembler l’écosystème IA: le procès autour d’OpenAI et d’Elon Musk en Californie. Greg Brockman, président d’OpenAI, a témoigné qu’en 2017 Musk voyait d’un bon œil une évolution vers un modèle à but lucratif, tout simplement parce qu’une structure non lucrative aurait eu du mal à lever des sommes gigantesques pour bâtir des systèmes d’IA avancés. Mais, selon Brockman, Musk aurait voulu en échange un contrôle total, réclamant une participation majoritaire — et reliant cette logique de contrôle à des ambitions financières beaucoup plus larges, jusqu’à l’idée de financer une ville autosuffisante sur Mars. Le témoignage évoque aussi une réunion en août 2017 qui se serait très mal terminée, avec un départ abrupt et une menace de couper le financement tant que la gouvernance n’était pas tranchée. Ce procès est crucial, parce qu’au-delà des personnes, il pourrait influencer la structure de contrôle d’OpenAI au moment où l’entreprise planifie des investissements informatiques hors normes.
Dans le même temps, la bataille du “compute” devient une intrigue à elle seule. Anthropic accélère si vite que son patron, Dario Amodei, dit désormais viser une croissance bien au-delà de ce qui était prévu — et que l’entreprise se heurte à un plafond très concret: trouver assez de puissance de calcul pour faire tourner Claude, notamment côté usages de code. Et justement, Anthropic a annoncé un accord pour accéder à toute la capacité d’un immense centre de données opéré par SpaceXAI à Memphis. Le message est clair: dans l’IA, la vitesse d’exécution se joue autant sur les talents que sur la capacité à réserver, sécuriser et alimenter des ressources de calcul à très grande échelle. Autre pièce du puzzle: selon The Information, Anthropic aurait aussi un accord massif sur plusieurs années avec Google pour du cloud et des puces IA. Qu’on aime ou non ces montants astronomiques, ils disent une chose: l’IA de pointe ressemble de plus en plus à une industrie lourde, avec des contrats longs, des dépendances fortes, et une compétition où l’accès au matériel devient un avantage stratégique.
Côté régulation, une annonce importante aux États-Unis: Google, Microsoft et xAI ont accepté de soumettre volontairement leurs nouveaux modèles à des tests avant mise à disposition publique, via le Department of Commerce et son centre d’évaluation, le CAISI. L’objectif affiché est d’évaluer capacités, sécurité et risques plus larges — y compris pour la sécurité nationale. Le point intéressant, c’est le contexte politique: même avec une ligne généralement plus légère sur la régulation, on voit quand même monter une forme de normalisation des évaluations, portée par la pression des usages militaires et des inquiétudes récurrentes sur les dérapages.
Autre sujet qui touche directement la confiance: les deepfakes. Des experts préviennent qu’ils deviennent si réalistes, et si simples à produire, que les lois et les réflexes du public n’arrivent plus à suivre. L’article cite notamment un cas marquant dans le New Hampshire, avec un robocall imitant la voix de Joe Biden juste avant une primaire. Et au-delà du politique, on voit aussi des impacts dans la vie quotidienne, jusque dans des établissements scolaires. Le signal le plus inquiétant vient des chercheurs en forensique numérique: les deepfakes apparaissent désormais en direct lors d’appels vidéo, ce qui rend l’instinct visuel inutile pour la plupart des gens. La conséquence, ce n’est pas seulement “plus d’arnaques”; c’est une érosion du réflexe de croire ce qu’on voit et ce qu’on entend. Et ça, pour une société, c’est un coût énorme.
On passe aux tensions sur les plateformes, avec Apple au centre du jeu. Replit explique que son application iOS n’a pas pu publier de mises à jour depuis janvier, à cause d’une règle de l’App Store qui interdit en pratique qu’une app “exécute du code” pouvant changer ses fonctionnalités. Derrière cette formulation, il y a un choc de modèles: l’App Store est construit sur l’idée qu’Apple valide une application stable, identique pour tous. Or les apps de “coding IA” ressemblent de plus en plus à des coquilles qui génèrent des logiciels à la demande, différents selon l’utilisateur et évolutifs. Le débat devient explosif parce qu’il touche à la définition même de ce qu’Apple “révise”: un binaire figé, ou une expérience logicielle dynamique assemblée au fil de l’exécution. Et en toile de fond, beaucoup regardent aussi comment ce principe s’applique — ou non — aux grandes apps qui embarquent des annuaires de capacités et d’extensions.
Dans le navigateur, autre friction: un développeur web critique la nouvelle “Prompt API” livrée dans Chrome. Sa thèse est simple: on présente un futur standard du web, mais dans les faits l’interface est surtout un accès à un modèle précis, Gemini Nano, avec des conditions d’usage associées. Des objections auraient déjà été soulevées côté Mozilla, WebKit et au sein des instances de standardisation. Le point sensible, ce n’est pas seulement la gouvernance des standards, c’est aussi l’impact sur l’utilisateur: si des sites peuvent déclencher des requêtes à un modèle local, on ouvre des questions de consentement, de consommation de ressources, et même de confidentialité. C’est un rappel utile: l’IA “dans le navigateur” peut être pratique, mais elle déplace aussi des risques vers le terminal de chacun.
Sur les marchés, Alphabet est en passe de rattraper — voire dépasser — Nvidia en valeur boursière. Les investisseurs semblent récompenser deux choses: la croissance de Google Cloud et le fait qu’Alphabet n’est pas seulement un vendeur de services, mais aussi un acteur des puces et de l’infrastructure IA. Le signal à lire ici, c’est un possible changement de récit: après l’euphorie centrée sur les fournisseurs de matériel, le marché s’intéresse à ceux qui peuvent monétiser l’IA dans les entreprises, à grande échelle, via le cloud et des outils concrets.
Dans les tribunaux, une autre affaire lourde: l’écrivain Scott Turow et plusieurs grands éditeurs attaquent Meta en class action. Ils l’accusent d’avoir utilisé des livres et des articles issus de bibliothèques pirates pour entraîner les modèles Llama, plutôt que de négocier des licences. Meta conteste et s’appuie sur l’argument du fair use, déjà au cœur de plusieurs batailles. Ce dossier est particulièrement sensible pour une raison: la provenance des données. Le débat “transformatif ou pas” n’a pas le même visage si la base est un corpus piraté. Et la décision à venir pourrait influencer la façon dont les labos documentent — ou verrouillent — leurs jeux de données.
Toujours dans l’économie politique de l’IA, un essai met le doigt sur une tendance silencieuse: l’accès aux modèles “open weights” de très bon niveau deviendrait moins fiable. Dit autrement, certaines entreprises resserrent les conditions, ou cessent carrément de publier des poids réutilisables. Pourquoi c’est important? Parce que ces modèles servent souvent d’alternative moins chère, de base pour personnaliser en interne, et surtout de garde-fou concurrentiel face aux API des géants. Si ce “plancher de prix” disparaît, le risque, c’est une concentration accrue — et des coûts qui grimpent pour tout l’écosystème.
Une note plus “sciences appliquées” maintenant, avec une avancée qui pourrait compter à long terme en biotechnologie. Des chercheurs rapportent que Cas12a2, un outil CRISPR guidé par l’ARN, peut être programmé pour tuer des cellules eucaryotes uniquement quand un transcript précis est présent. En clair: un interrupteur de mort conditionnel, déclenché par l’expression d’un ARN ciblé. Les démonstrations incluent des cellules liées au HPV et même un modèle tumoral chez la souris, et les auteurs évoquent aussi un usage pratique en laboratoire: enrichir des cellules correctement éditées en éliminant celles qui ne le sont pas. On en est encore à des questions de sécurité et de livraison dans l’organisme, mais l’idée d’un “kill switch” déclenché par un signal moléculaire précis est une brique potentiellement très puissante.
En recherche, mais cette fois côté chimie: l’EPFL présente Synthegy, un cadre qui permettrait aux chimistes de guider la planification de synthèses avec des instructions en langage naturel. L’intérêt, c’est la promesse de rapprocher les outils informatiques du raisonnement humain: au lieu d’empiler des règles et des filtres rigides, on exprime une stratégie — par exemple éviter certaines étapes pénibles — et le système classe les voies possibles en expliquant ses choix. Même si ce n’est pas une baguette magique, l’idée est séduisante: réduire le tâtonnement, accélérer des cycles de découverte, et rendre des outils avancés plus accessibles à des équipes qui n’ont pas forcément le temps de “parler machine”.
Passons aux infrastructures invisibles qui font tourner le numérique. D’un côté, SQLite rappelle qu’il est probablement l’un des composants logiciels les plus déployés au monde, présent dans d’innombrables appareils et applications — au point qu’il pourrait exister un nombre vertigineux de bases SQLite actives. C’est un rappel utile: la stabilité et la sécurité de ces briques “banales” ont un effet de levier immense. De l’autre côté, le créateur de Redis propose un nouveau type de données natif de type “array”. Ce genre d’évolution peut sembler discret, mais il peut changer la façon dont des équipes modélisent des données et écrivent des requêtes côté serveur, sans bricolage. Et au passage, on note aussi l’essor des environnements de test directement dans le navigateur, qui rendent ces nouveautés plus faciles à explorer.
Un détour par la robotique industrielle: Morgan Stanley estime que la Chine pourrait avoir une avance structurante sur les robots humanoïdes, avec un effet similaire à celui observé sur les véhicules électriques. Ce qui compte ici, ce n’est pas seulement la qualité des prototypes: c’est la capacité à itérer vite, à déployer dans des environnements réels, et à maîtriser une chaîne d’approvisionnement complète. Les risques sont connus — surinvestissement, surcapacité, protectionnisme — mais le signal stratégique est net: l’automatisation “physique” pourrait devenir un nouvel axe de compétition industrielle mondiale.
On termine avec SpaceX, sur deux fronts. D’abord, côté finance: des documents évoqués par Reuters décrivent une préparation d’IPO qui donnerait à Elon Musk un contrôle très étendu, tout en limitant fortement les recours des actionnaires, notamment via des clauses d’arbitrage et des restrictions sur les actions collectives. Si cela se confirme, c’est un marqueur de plus d’une tendance: certaines entreprises très désirées sur les marchés imposent des règles du jeu de plus en plus asymétriques. Ensuite, côté spatial: la cadence de Falcon 9 commencerait à baisser progressivement, non pas par faiblesse technique, mais parce que SpaceX réalloue des ressources vers Starship. Falcon 9 resterait indispensable — notamment pour l’ISS et des missions gouvernementales — mais l’organisation des sites de lancement et de récupération s’ajuste. C’est une transition intéressante: l’industrie se prépare à une nouvelle phase où les infrastructures au sol, autant que les fusées, deviennent le facteur limitant.
C’est tout pour aujourd’hui. Si un sujet mérite qu’on le suive de près, c’est bien ce triangle “gouvernance, données, compute” qui façonne l’IA en coulisses — des tribunaux aux data centers. On se retrouve demain pour un nouveau tour d’horizon. À bientôt.