Transcript
Presse en ligne vs Wayback Machine & Mamba-3 et IA plus rapide - Actualités Hacker News (21 mars 2026)
21 mars 2026
← Back to episodeBienvenue dans The Automated Daily, édition Hacker News. Le podcast créé par une IA générative. Nous sommes le 21 mars 2026, et au menu: un trou potentiel dans la mémoire du web. De grands médias commenceraient à empêcher l’Internet Archive de les archiver, ce qui pourrait compliquer la vérification de ce qui a été publié… et de ce qui a discrètement changé. Je suis TrendTeller, et dans les prochaines minutes on va aussi parler d’un nouveau type de modèle IA pensé pour aller plus vite en production, d’un décryptage clair de l’architecture de FFmpeg, et de la promesse — très ambitieuse — d’une recharge de voiture électrique en quelques minutes. Allons-y.
On commence par la préservation du web. L’Electronic Frontier Foundation s’inquiète: des éditeurs de presse bloqueraient l’Internet Archive, l’organisation derrière la Wayback Machine, pour l’empêcher de copier et conserver leurs pages. Le New York Times est cité, et d’autres titres comme The Guardian seraient sur la même trajectoire. Officiellement, c’est une réaction à la peur du scraping pour entraîner des modèles d’IA, sur fond de procès autour du droit d’auteur. Mais l’EFF souligne un point concret: s’attaquer à une archive non lucrative ne stoppera pas les scrapeurs déterminés… et ça crée surtout des zones blanches dans l’historique public. Pour les journalistes, les chercheurs, les tribunaux ou Wikipedia, les archives sont souvent la seule “preuve” d’une version antérieure d’un article.
Côté IA, un papier attire l’attention avec Mamba-3, proposé par Together AI et des collaborateurs académiques et industriels. L’idée centrale est un changement de priorité: au lieu d’optimiser surtout l’entraînement, ils optimisent l’inférence — donc le moment où le modèle tourne réellement en production et génère du texte. C’est là que se joue une bonne partie du coût et de la latence, surtout avec des usages comme les agents de code ou des méthodes de post-entraînement. Les auteurs annoncent des gains de latence sur la combinaison “préparation + génération” par rapport à des approches précédentes, et publient aussi des kernels haute performance pour que ce ne soit pas juste une promesse sur papier. Ce qu’il faut retenir: la course ne se fait plus seulement sur “qui entraîne le plus gros”, mais sur “qui sert le plus vite et pour moins cher”.
Pour les développeurs qui touchent à l’audio/vidéo, un autre article sert de boussole: une introduction à l’architecture de FFmpeg. Plutôt que de rester au niveau des commandes, le texte relie les outils — ffmpeg, ffplay, ffprobe — aux bibliothèques utilisées par des applications. Pourquoi ça compte? Parce que beaucoup de projets finissent par devoir décoder, analyser, ou transcoder des flux, et l’API de FFmpeg peut sembler intimidante au départ. Là, on comprend la chaîne logique: ouvrir un média, identifier les flux, choisir un décodeur, puis convertir des données compressées en images ou audio “bruts” exploitables. Ce genre de vue d’ensemble fait gagner du temps et évite de bricoler à l’aveugle.
Passons mobilité et énergie. BYD affirme avoir amélioré son système de charge “Flash Charger” jusqu’à 1 500 kW, avec des recharges annoncées de l’ordre de quelques minutes sur des modèles compatibles. Sur le papier, c’est spectaculaire, et la stratégie est claire: tout contrôler — la voiture, la batterie, la borne — pour pousser le courant et réduire le temps d’arrêt. Mais l’intérêt au quotidien est plus nuancé: la plupart des recharges se font à domicile, et gagner quinze minutes sur une recharge publique ne change pas la vie tous les jours. Le vrai verrou, c’est l’infrastructure. À ces puissances, il faut des sites adaptés, une connexion réseau solide, parfois du stockage sur place, et une logistique de déploiement lourde. En bref: la techno avance vite, mais le réseau électrique, lui, ne se met pas à jour en une nuit.
Petite leçon de design “anti-catastrophe” ensuite, avec un billet sur les “molly guards”: ces capots en plastique qu’on soulève avant d’appuyer sur un bouton critique, pour éviter l’erreur bête. L’auteur raconte une origine anecdotique — une jeune Molly qui aurait adoré appuyer sur un gros bouton rouge — mais l’intérêt est surtout conceptuel. Dans le matériel, on retrouve ça partout: boutons encastrés, protections, mécanismes qui demandent un geste volontaire. Et dans le logiciel, c’est pareil: confirmations, raccourcis à plusieurs touches, ou étapes supplémentaires avant une action irréversible. Le twist intéressant, ce sont les “reverse molly guards”: au lieu d’attendre indéfiniment une réponse, un système choisit une option sûre après un délai. Parfois, la meilleure protection, c’est d’éviter qu’un simple prompt bloque tout un traitement pendant des heures.
On termine par une note plus culturelle, mais révélatrice de la manière dont des règles implicites structurent nos interactions: un glossaire de l’étiquette des baguettes au Japon, et des fautes de table — parfois juste maladroites, parfois franchement taboues. Certaines interdictions viennent directement de rituels funéraires, comme le fait de se passer de la nourriture de baguettes à baguettes, ou de planter les baguettes dans le riz. Pourquoi en parler ici? Parce que c’est un rappel utile: les “interfaces sociales” ont aussi leurs garde-fous, leurs signaux d’alarme, et leurs exceptions. Et comme dans le monde tech, ignorer le contexte peut créer des frictions — même si l’intention est parfaitement neutre.
Voilà pour l’essentiel d’aujourd’hui. Si un fil conducteur se dégage, c’est celui des garde-fous: protéger la mémoire du web, accélérer l’IA là où ça coûte vraiment, éviter les erreurs humaines, et même respecter des codes culturels qui comptent. TrendTeller au micro — merci pour votre écoute. Les liens vers toutes les histoires sont disponibles dans les notes de l’épisode.