Transcript

Anthropic retient un modèle dangereux & Alphabet investit autrement dans l’IA - Actualités Technologiques (9 avr. 2026)

9 avril 2026

Back to episode

Un grand labo d’IA affirme avoir créé un modèle si puissant qu’il préfère ne pas le publier, de peur qu’il n’accélère les cyberattaques. Qui y aura accès, et pourquoi maintenant ? Bienvenue dans The Automated Daily, tech news edition. Le podcast créé par l’IA générative. Nous sommes le 9 avril 2026. Je suis TrendTeller, et en cinq minutes on fait le point: les nouveaux rapports de force autour des modèles d’IA, la vague de lois sur les mineurs et les réseaux sociaux, un tournant chez Amazon pour les vieux Kindle, et un retour historique vers la Lune.

On commence par l’IA… et par une décision assez rare. Anthropic dit avoir construit un nouveau modèle, baptisé Claude Mythos Preview, qu’il juge trop sensible pour une sortie publique, notamment à cause de son potentiel en cybersécurité. À la place, l’entreprise ouvre l’accès à un groupe de plus de quarante organisations, via une coalition appelée Project Glasswing, pour traquer et corriger des failles dans des logiciels très utilisés. Le signal derrière cette annonce est clair: on passe d’une course à la diffusion à une course à l’avantage défensif, avec l’idée de donner un temps d’avance aux “bons acteurs” avant que des capacités similaires ne se banalisent.

Dans le même esprit, un analyste en sécurité, Daniel Miessler, estime que l’histoire la plus importante n’est même pas la cybersécurité. Selon lui, si un modèle généraliste peut enchaîner des failles modestes pour aboutir à une exploitation critique, cela dit surtout quelque chose sur sa capacité globale à “faire du travail” de haut niveau. Et donc, par ricochet, sur la pression à venir sur de nombreux métiers de bureau: rédaction, analyse, synthèse, suivi opérationnel. La thèse est brutale, mais elle explique pourquoi tant d’entreprises accélèrent, parfois sans attendre des cadres parfaits.

Justement, côté entreprises: Alphabet assume un changement de doctrine. Sundar Pichai explique que le boom de l’IA crée davantage d’occasions d’investir, mais avec une approche plus “bilan” que capital-risque classique: des mises importantes, plus proches d’un partenariat stratégique que d’un simple chèque de venture. Il cite SpaceX comme exemple historique d’investissement devenu énorme sur le papier, et rappelle surtout la position d’Alphabet dans Anthropic, à la fois rival sur les modèles et gros client de l’infrastructure cloud de Google. C’est intéressant parce que ça résume une nouvelle logique: gagner de l’argent sur l’écosystème, tout en verrouillant des alliances industrielles.

Et l’adoption, concrètement, ressemble de plus en plus à une bataille d’organisation, pas seulement de technologie. Chez Ramp, un dirigeant explique que l’erreur la plus fréquente est de “sur-stratégiser” l’IA. Leur recette revendiquée: banaliser l’usage via des attentes claires, mesurer l’adoption, montrer des démos en interne, et surtout enlever les frictions avec un agent maison préconfiguré, connecté aux outils de l’entreprise. Le message: si l’IA reste un onglet de chat isolé, elle plafonne. Si elle est branchée aux systèmes du quotidien, elle devient un réflexe.

À l’échelle du marché, a16z avance un chiffre qui contredit le récit des “pilotes qui échouent”: une part non négligeable des très grandes entreprises aurait déjà basculé de tests à des déploiements payants, surtout sur le code, le support client et la recherche interne. Pourquoi ces cas-là ? Parce que les résultats se vérifient plus facilement: on peut contrôler la qualité, suivre le temps gagné, et limiter les dégâts quand ça se trompe. C’est un rappel utile: l’IA progresse là où le retour sur investissement est visible, pas forcément là où la démo est la plus spectaculaire.

Du côté de Meta, changement de tempo. L’entreprise présente Muse Spark, son premier modèle public issu de son laboratoire “Superintelligence”, et le positionne comme très intégré à ses réseaux sociaux: réponses ancrées dans des contenus publics, avec attribution, et à terme davantage de liens avec photos, posts et vidéos courtes. Dans le même temps, une autre histoire illustre la réalité interne: Meta aurait fermé un classement d’employés basé sur la consommation de tokens, après qu’il a fuité. Problème: ce tableau mettait aussi en évidence l’ampleur de l’usage de modèles concurrents, notamment Claude. Derrière l’anecdote, on voit une tension très Silicon Valley: mesurer l’IA comme un indicateur de productivité… sans toujours prouver que “plus de tokens” signifie “meilleur résultat”.

On enchaîne avec la sécurité et les mineurs, un thème qui prend de l’ampleur partout. OpenAI publie un “plan directeur” pour réduire les risques d’exploitation sexuelle d’enfants via des outils d’IA: l’idée centrale, c’est la sécurité dès la conception, avec des garde-fous, des systèmes de signalement plus efficaces, et une coordination plus étroite avec les autorités et les associations spécialisées. Ce n’est pas juste un document de principes: c’est aussi une tentative de fixer des attentes, à un moment où les contenus générés peuvent baisser les barrières pour produire et diffuser du matériel illégal.

Et la justice bouge aussi. Aux États-Unis, un homme de l’Ohio devient le premier condamné au titre du Take It Down Act, une loi fédérale qui vise la publication d’images intimes non consenties, y compris des deepfakes générés par IA. L’affaire est lourde, et elle sert de cas test: elle montre que les deepfakes sexuels ne sont plus traités comme une zone grise, mais comme un terrain d’application prioritaire, avec des conséquences pénales nettes.

En parallèle, plusieurs pays serrent la vis sur l’accès des enfants aux réseaux sociaux. L’Australie a posé une référence en interdisant l’accès aux moins de seize ans, en faisant porter la responsabilité de la vérification d’âge sur les plateformes. Le Danemark prépare une interdiction sous quinze ans et travaille sur un outil de preuve d’âge; la France a fait avancer un texte similaire, encore en débat; l’Allemagne discute; le Royaume-Uni consulte. La Turquie, elle aussi, débat une restriction sous quinze ans, avec un volet de contrôle et des sanctions possibles. Le point commun est évident: protéger des risques comme le harcèlement, l’addiction et les prédateurs. La fracture, elle, reste la même: comment vérifier l’âge sans créer une infrastructure de surveillance, ni pousser les jeunes vers des contournements encore moins encadrés.

Passons à un sujet plus “consommation”, mais pas anodin: Amazon va couper l’accès à la boutique Kindle sur des liseuses sorties en 2012 ou avant, à partir du 20 mai. On pourra continuer à lire ce qui est déjà stocké, mais acheter ou retélécharger des livres depuis ces appareils deviendra impossible, et une réinitialisation pourrait même empêcher toute reconnexion. C’est un tournant, parce qu’Amazon avait longtemps laissé les très vieux Kindle survivre dans l’écosystème. Pour les utilisateurs, ça rappelle une réalité du numérique: posséder un appareil, ou même un livre numérique, dépend souvent d’un service encore “d’accord” pour vous laisser y accéder.

Côté espace, une étape historique: l’équipage d’Artemis 2 a réalisé un survol rapproché de la Lune le 6 avril, marquant le retour d’humains dans l’espace lunaire pour la première fois depuis 1972. C’est un vol d’essai, sans mise en orbite lunaire ni alunissage, mais crucial pour tester le vaisseau Orion et la vie au-delà de l’orbite terrestre. Et symboliquement, la mission compte: elle réunit un équipage plus représentatif que l’ère Apollo, et elle remet la Lune au centre d’une stratégie qui combine moyens publics et partenaires commerciaux.

Un détour par la crypto maintenant. Une enquête signée John Carreyrou au New York Times affirme que la piste la plus solide, à défaut de preuve décisive, pointerait vers le cryptographe britannique Adam Back comme possible Satoshi Nakamoto. L’argumentaire s’appuie sur des ressemblances d’écriture, des coïncidences de calendrier, et le fait que Back a inventé Hashcash, un élément clé repris dans l’histoire du minage. Back nie. L’intérêt de l’histoire, au-delà du “qui est qui”, c’est que dévoiler Satoshi pourrait avoir des impacts juridiques, politiques et de marché, tant l’influence symbolique et financière du créateur de Bitcoin reste énorme.

Et on termine par trois tendances côté développement logiciel, là où l’IA change déjà les habitudes. D’abord, un projet expérimental de langage, Vera, se présente comme pensé pour être écrit par des modèles plutôt que par des humains, en forçant une forme canonique et des contrats explicites sur le comportement. Ensuite, un conseil très pragmatique circule: pour comprendre un codebase, regarder l’historique Git avant même d’ouvrir les fichiers peut révéler les zones fragiles, les fichiers à forte turbulence et les endroits où les “correctifs” s’accumulent. Enfin, côté web, certains développeurs rappellent qu’on peut souvent éviter des bibliothèques lourdes pour formater dates et nombres, en s’appuyant sur l’API Intl du navigateur, ce qui réduit les dépendances et limite les malentendus de format selon les pays. Trois signaux différents, mais une même direction: industrialiser la qualité et la maintenance dans un monde où du code est produit plus vite… parfois plus vite qu’on ne le comprend.

Voilà l’essentiel pour aujourd’hui. Entre des modèles d’IA jugés trop risqués pour être diffusés, des États qui cherchent la bonne formule pour protéger les mineurs, et des plateformes qui referment progressivement l’accès aux anciens appareils, on voit le numérique entrer dans une phase plus “verrouillée” — autant par la sécurité que par l’économie. On se retrouve demain pour un nouveau tour d’horizon. Si vous appréciez l’épisode, partagez-le à quelqu’un qui veut rester à jour sans y passer une heure. À très vite.