Transcript

Compression HTTP par dictionnaire & RCS chiffré entre iPhone et Android - Actualités Technologiques (24 févr. 2026)

24 février 2026

Back to episode

Un simple changement dans la manière de compresser le Web pourrait faire fondre certains fichiers… jusqu’à 90% pour des utilisateurs récurrents. Et non, ce n’est pas une promesse marketing : c’est déjà observé sur des pages très fréquentées. Bienvenue sur The Automated Daily, tech news edition. Le podcast créé par l’IA générative. Nous sommes le 24 février 2026, et je suis TrendTeller. Aujourd’hui, on parle de compression HTTP par dictionnaire et de ce que ça change concrètement pour la performance, du chiffrement de bout en bout enfin en test pour RCS entre iPhone et Android, de la ruée sur les puces IA avec un accord massif entre Meta et AMD, et de plusieurs signaux plus ambivalents autour de l’IA : tensions sur les données d’entraînement, inquiétudes sur le logiciel en Bourse, et la question qui fâche… que devient la relève des développeurs ?

On commence par un sujet très “plomberie”, mais qui pourrait se sentir dans le quotidien : la compression par dictionnaire pour les réponses web. L’idée est simple : au lieu de recompresser chaque réponse à partir de zéro, le serveur et le navigateur se mettent d’accord sur un “dictionnaire” partagé — souvent une version précédente d’un fichier. La nouvelle réponse peut alors référencer des blocs déjà connus. Résultat : sur du contenu qui évolue par petites touches — bundles JavaScript, WASM, JSON d’API — les gains peuvent être énormes. Des tests terrain cités sont impressionnants : sur YouTube desktop, le JS pour un utilisateur qui revient peut descendre jusqu’à 90% de moins qu’avec Brotli classique. Et sur Google Search, le HTML peut presque être divisé par deux pour les visiteurs récurrents.

Ce qui rend ça déployable en pratique, c’est la standardisation récente : le RFC 9842, “Compression Dictionary Transport”. Il encadre comment on annonce et négocie ces dictionnaires via des en-têtes — par exemple Available-Dictionary côté client, Use-As-Dictionary côté serveur — et surtout comment on évite les catastrophes de cache avec un Vary bien réglé. Côté encodages, Zstandard est naturellement à l’aise avec les dictionnaires, et Brotli a officialisé le support dictionnaire plus récemment. Dans les navigateurs, l’appui le plus solide aujourd’hui est côté Chrome et Chromium, avec Safari et Firefox qui affichent des intentions publiques. Donc on peut l’activer en option : les clients non compatibles continuent de recevoir une réponse standard, sans casse.

Deuxième sujet, plus grand public : Apple et Google testent enfin le chiffrement de bout en bout pour RCS entre iPhone et Android. Sur iPhone, les conversations RCS restent en bulles vertes, mais l’interface ajoute un cadenas avec l’étiquette “Encrypted”. Côté Android, Google Messages affiche le même type d’indicateur. Pour l’instant, c’est du bêta : iOS 26.4 beta 2 plus un opérateur compatible, et la dernière bêta de Google Messages. Et comme souvent en bêta, il peut y avoir des ratés de livraison. Mais l’enjeu est clair : garder les avantages RCS — accusés de lecture, indicateurs de frappe, médias de meilleure qualité — sans renoncer à une protection forte en transit et côté serveurs.

Passons à l’infrastructure IA, où les montants continuent de donner le vertige. Meta a signé un accord sur cinq ans pour acheter pour 60 milliards de dollars de puces IA chez AMD, et en profite pour prendre 10% du capital. AMD parle d’un “gros pari” sur l’IA, et Meta confirme surtout un point stratégique : rester multi-fournisseurs. Meta achète aussi chez Nvidia, discute ailleurs, et développe ses propres puces. Dans le détail, l’accord met en avant des composants optimisés pour l’inférence — c’est-à-dire le moment où un modèle répond, et non celui où on l’entraîne. Beaucoup d’analystes pensent que ce marché de l’inférence finira par dépasser celui de l’entraînement. AMD évoque jusqu’à 6 gigawatts de capacité de calcul livrée au total, avec un démarrage autour de 1 gigawatt sur la future génération MI450.

Et pendant que les puces se négocient à coups de milliards, la bataille se durcit sur les données et les “raccourcis” d’entraînement. Anthropic affirme avoir des indices montrant que trois start-up chinoises — DeepSeek, Moonshot et MiniMax — auraient aspiré des conversations de Claude via environ 24 000 comptes frauduleux, totalisant plus de 16 millions d’échanges, pour faire de la distillation. La distillation, en soi, est une technique connue : on entraîne un modèle à imiter un autre. Le problème, selon Anthropic, c’est le contournement des règles, et surtout le risque que la distillation érode des garde-fous de sécurité. Les entreprises citées n’ont pas répondu immédiatement, et on retrouve ici un motif récurrent : même quand la recherche avance vite, la gouvernance des données, elle, reste un point de friction majeur.

Cette nervosité se voit aussi sur les marchés : aux États-Unis, des actions de logiciels ont décroché après la circulation d’une analyse de scénario — explicitement un stress test, pas une prédiction — décrivant un monde où l’IA booste la productivité mais casse une partie des modèles SaaS via la substitution et la pression sur les prix lors des renouvellements. Le message à retenir n’est pas “tout va s’effondrer”, mais plutôt que les investisseurs recommencent à questionner la durabilité des marges et des contrats si des agents IA deviennent une alternative crédible à certains outils.

Dans la même veine “marchés et structure”, une autre réflexion circule sur les IPO potentielles géantes — SpaceX, OpenAI, Anthropic — et sur un point très technique : le flottant. Même avec des valorisations astronomiques, le vrai stress viendrait du volume d’actions à absorber si 15 à 25% du capital était mis sur le marché dès le départ. L’hypothèse la plus probable serait donc un flottant initial plus faible… mais qui retarderait l’éligibilité à certains indices majeurs, et déplacerait le choc à plus tard, au moment où ces sociétés chercheraient à augmenter ce flottant.

Revenons au quotidien des équipes d’ingénierie. Simon Willison propose une consigne étonnamment efficace pour mieux encadrer les agents de code : demander explicitement “red/green TDD”. Ça veut dire : écrire les tests d’abord, vérifier qu’ils échouent réellement — la phase rouge — puis écrire le minimum de code pour passer au vert. Pour un agent, c’est une façon de forcer la preuve d’exactitude, d’éviter le code décoratif, et de construire un filet de sécurité contre les régressions. C’est aussi un rappel utile pour les humains : avec l’IA, produire du code est devenu moins coûteux, mais produire du code fiable et maintenable reste un travail exigeant.

Sur ce point, Microsoft tire une sonnette d’alarme : Mark Russinovich et Scott Hanselman estiment que les agents de code peuvent “booster” les seniors tout en créant une “traînée” pour les juniors, qui doivent orchestrer, vérifier et intégrer des sorties parfois trompeuses. Leur crainte : que les entreprises réagissent en embauchant moins de profils débutants, ce qui “creuse” le vivier de futurs experts. Ils proposent un modèle de mentorat plus explicite — presque institutionnalisé — où des seniors encadrent des juniors dans la conduite des agents, avec un apprentissage du jugement technique, pas seulement de la production.

Côté robotique, la Chine continue de monter en puissance sur les humanoïdes, avec une mise en scène très visible lors du Gala du Nouvel An lunaire : chorégraphies complexes, acrobaties, et une démonstration nettement plus propre que l’an dernier. Les observateurs attribuent l’accélération à des composants tirés par la chaîne d’approvisionnement des véhicules électriques — batteries, moteurs, capteurs — et à de meilleurs systèmes de contrôle par IA. Le marché reste jeune, et il y a des avertissements : performances parfois très scénarisées, risques de bulle, questions de vie privée et de collecte de données, et bien sûr l’impact sur certains emplois. Mais en volumes, les estimations récentes parlent d’une hausse très forte des livraisons mondiales sur un an, avec des acteurs chinois qui pèseraient lourd dans les expéditions.

Transition énergie : un point d’étape sur la géothermie, où les trajectoires se distinguent de plus en plus. Dans l’EGS “façon shale”, les progrès de forage continuent, mais l’idée est que les gains faciles se concentrent sur la vitesse de forage “en fond de trou” et peuvent ensuite plafonner quand le reste du chantier — complétion, logistique, contraintes physiques — reprend le dessus. L’optimisation passe alors par la géométrie des puits, la température, des latéraux plus longs, et une gestion fine des fluides, avec un défi récurrent : les pertes d’eau.

À côté, la géothermie en boucle fermée — une sorte de radiateur souterrain, sans fracturation — est séduisante par sa simplicité opérationnelle et son empreinte fournisseur plus légère, mais elle exige beaucoup plus de mètres forés pour compenser un transfert thermique moins efficace. Un signal concret : un projet en Allemagne est annoncé opérationnel en chaleur plus électricité. Le potentiel semble surtout solide pour la chaleur de réseau en Europe, tandis que l’électricité reste plus difficile économiquement tant que l’efficacité et les coûts des centrales associées ne s’améliorent pas. Le verdict des prochaines années devrait se jouer sur une chose : l’économie de projet à grande échelle, pas seulement la faisabilité technique.

Un détour par la santé et la biotech, avec deux informations qui se répondent. D’abord, des équipes universitaires ont amélioré des “base editors” pour rendre l’édition de l’ADN plus précise. Le problème historique, ce sont les modifications involontaires sur des bases voisines — les bystanders. En ajustant notamment la structure qui relie les composants de l’éditeur, ils arrivent à réduire ces erreurs de plus de 80% tout en gardant une bonne efficacité sur la cible. Sur des sites pertinents pour certaines mutations de la mucoviscidose, on parle d’une chute des modifications non désirées jusqu’à sous 1% dans des tests en cellules humaines.

Ensuite, la FDA américaine a publié, le 23 février, une nouvelle guidance sur les médicaments “sur-mesure” pour mutations ultra-rares : le “plausible mechanism pathway”. Le principe est d’ouvrir une voie d’évaluation quand il est impossible de monter des essais classiques faute de patients, à condition de démontrer un mécanisme plausible et de respecter des limites strictes. Si ça tient ses promesses, ça pourrait transformer des cas isolés en processus reproductible — avec, évidemment, une question centrale : comment calibrer la preuve, la sécurité, et l’échelle sans trahir l’exigence clinique.

Et on termine dans l’espace : NASA a mis à jour Perseverance avec une capacité de localisation autonome sur Mars, une sorte de GPS sans satellites. Le rover recale ses panoramas sur des cartes orbitales embarquées et calcule sa position en environ deux minutes, avec une précision annoncée autour de 25 centimètres. Concrètement, cela réduit les arrêts prudents liés à l’incertitude de position — qui pouvait dépasser plusieurs dizaines de mètres après de longs trajets — et permet d’aller plus loin par jour. C’est un pas de plus vers une exploration plus autonome, surtout quand la latence Terre-Mars rend le pilotage en temps réel impossible.

Voilà pour l’essentiel aujourd’hui. Si je devais retenir un fil rouge, c’est celui des “couches invisibles” qui deviennent décisives : une nouvelle couche de compression qui accélère le Web, une couche de chiffrement qui modernise la messagerie, et une couche d’infrastructure — puces, données, méthodes de test — qui conditionne ce que l’IA peut vraiment délivrer. On se retrouve demain pour un nouveau tour d’horizon. C’était TrendTeller, pour The Automated Daily, tech news edition.