Transcript

La publicité traçable dans ChatGPT & Agents IA et explosion de calcul - Actualités Technologiques (29 avr. 2026)

29 avril 2026

Back to episode

Et si la prochaine pub que vous voyez dans un chatbot n’était pas juste « affichée », mais reliée à vos clics et conversions sur des sites marchands via un mécanisme d’attribution complet ? Bienvenue à The Automated Daily, tech news edition. Le podcast créé par l’IA générative. Nous sommes le 29 avril 2026, et je suis TrendTeller. Aujourd’hui, on parle d’agents IA qui avalent des workflows entiers, d’open source qui se réorganise face à GitHub, et de quelques avancées scientifiques qui, discrètement, changent l’échelle du possible.

On commence par une enquête sécurité qui détaille comment la publicité serait livrée dans ChatGPT, et surtout comment elle pourrait être mesurée jusqu’à l’achat. Le chercheur dit avoir observé des éléments publicitaires injectés pendant la réponse, puis un parcours de clic qui s’ouvre souvent dans une vue web intégrée. Côté sites marchands, un kit de suivi déposerait un cookie et renverrait des événements vers des serveurs associés à OpenAI. L’intérêt, c’est la clarté nouvelle sur le « comment » du traçage, et donc sur ce qui pourra être bloqué, audité… ou critiqué.

Dans le même esprit, une idée revient partout: l’IA ne se contente plus de discuter, elle exécute. Un essai soutient que la première vague du “software eating the world” a surtout numérisé des interfaces — formulaires, applis, tableaux de bord — tout en laissant le travail réel à des humains. Les agents IA changent la donne en enchaînant des boucles autonomes: ils lisent, récupèrent du contexte, appellent des outils, vérifient, corrigent, et recommencent sans supervision constante. C’est particulièrement prometteur pour les tâches de back-office très répétitives, là où la validation est rapide et numérique.

Point clé de ce texte: la limite, ce n’est pas seulement la qualité du modèle, c’est la vérification. Là où on peut tester en quelques secondes — par exemple avec des tests logiciels, une base de données, ou une facture remboursée — les boucles peuvent s’allonger et devenir vraiment productives. À l’inverse, dès qu’il faut confirmer dans le monde physique, attendre un résultat de labo, ou gérer de la robotique, l’autonomie plafonne. Et c’est aussi là que les coûts explosent: une “session agent” consomme bien plus de calcul qu’un simple chat, parce qu’elle réévalue sans cesse du contexte et des retours d’outils.

Cette montée en puissance des agents se voit aussi côté produits. Google ouvre une liste d’attente pour une nouvelle version de Jules, présenté comme une plateforme “agentique” de développement produit. L’idée: absorber des signaux épars — retours utilisateurs, logs, tickets support — puis proposer quoi construire et aller jusqu’à produire une modification prête à intégrer au code. Même si c’est encore expérimental, c’est un signal fort: l’agent devient un maillon entre “on a un problème” et “on a livré un correctif”, avec moins de friction organisationnelle.

Autre signe: Warp publie le code client de son terminal sur GitHub. Le projet se positionne comme un environnement de développement centré terminal, avec des agents intégrés ou au choix, et une licence qui ouvre certains composants tout en encadrant fortement la réutilisation du reste. C’est intéressant pour deux raisons: d’un côté, plus de transparence et une communauté qui peut contribuer; de l’autre, une frontière nette entre client open source et services d’agents hébergés, donc un modèle hybride assumé.

Dans l’écosystème dev, un débat très concret prend de l’importance: les agents IA souffrent moins de la complexité que de l’ambiguïté. Un article explique que des API strictes, explicites et validées donnent un avantage compétitif, parce qu’elles réduisent les échecs silencieux et accélèrent le diagnostic. En clair, quand les erreurs remontent proprement et que les outils peuvent vérifier ce qui est attendu, l’agent “tâtonne” moins. Ce n’est pas glamour, mais dans un monde où chaque tentative coûte du temps et du calcul, la rigueur devient une stratégie produit.

Côté plateformes, OpenAI continue d’élargir son terrain. L’entreprise annonce que ses modèles seront disponibles sur Amazon Web Services via Bedrock, et que des outils orientés agents seront proposés aux clients entreprises. Pour OpenAI, c’est une manière de rencontrer les organisations là où elles opèrent déjà, au lieu de leur demander de changer d’écosystème cloud. Et pour les géants du cloud, c’est une bataille de catalogue: héberger les modèles les plus demandés, c’est aussi capter les budgets d’infrastructure qui vont avec.

OpenAI a aussi publié une version mise à jour de ses principes. Le ton change: moins d’obsession affichée pour un point d’arrivée “AGI”, plus un récit d’intégration progressive de systèmes de plus en plus capables. On note surtout la disparition d’un engagement ancien, celui de “s’effacer” au profit d’un acteur jugé plus aligné sur la sécurité. À la place, OpenAI promet davantage de transparence sur l’évolution de ses principes. Ça ressemble à une organisation qui se voit désormais comme une institution durable, et qui veut cadrer sa légitimité au moment où son influence devient structurelle.

Dans le même temps, la bataille sur l’identité d’OpenAI se joue aussi au tribunal: Elon Musk a témoigné dans un litige visant Sam Altman et l’évolution de l’organisation vers un modèle plus lucratif. Au-delà des personnalités, l’enjeu est simple: peut-on bâtir des labos d’IA très coûteux en restant fidèles à une mission d’intérêt public, sans se faire aspirer par la logique du capital ? Ce procès, quelle que soit son issue, pourrait créer un précédent sur la gouvernance des acteurs de l’IA.

Sur le volet État et défense, un rapport indique que Google discuterait avec le Département de la Défense américain pour déployer ses modèles avancés dans des environnements classifiés, avec une formulation d’usage très large. C’est un virage par rapport à la prudence affichée après l’épisode Project Maven. Et la contestation interne remonte: des employés demandent des limites plus claires. Le point sensible, c’est l’irréversibilité: une fois un modèle intégré dans des opérations militaires, la question de la responsabilité — erreurs, escalade, contrôle — devient beaucoup plus difficile à gérer depuis la Silicon Valley.

Puisqu’on parle d’infrastructures critiques: GitHub est de plus en plus contesté, et pas seulement par nostalgie. Un billet très commenté décrit GitHub comme une sorte de bibliothèque accidentelle du logiciel, qui a accumulé le contexte social — issues, discussions, revues — en plus du code. Mais l’auteur s’inquiète d’une dégradation de la confiance et appelle à un archivage public, ennuyeux mais solide, qui préserverait le patrimoine open source indépendamment d’une seule entreprise. Et dans un autre signe de tension, le mainteneur de Ghostty annonce quitter GitHub, citant des pannes répétées qui bloquent le travail quotidien. Là encore, ce n’est pas “Git” le problème, c’est l’écosystème autour.

Plus inquiétant: un article explique que plusieurs compromissions récentes de la supply chain open source n’ont pas eu besoin de failles sophistiquées. Elles ont exploité des workflows GitHub Actions configurés de manière risquée, des permissions trop larges, et des dépendances référencées sans verrouillage strict. Message aux mainteneurs: traiter certains événements provenant de contributeurs externes comme potentiellement hostiles, épingler les dépendances, et réduire l’implicite. Message à la plateforme: tant que les réglages les plus dangereux restent “par défaut”, on continuera de payer le prix à l’échelle de tout l’écosystème.

Passons à la science, avec un jalon clinique: Intellia annonce que sa thérapie CRISPR contre l’angio-œdème héréditaire a atteint son objectif principal en Phase 3, avec une forte réduction des crises et une part notable de patients sans attaques à six mois. Ce qui marque les esprits, c’est le caractère “in vivo”: l’édition génétique se fait directement dans le corps, lors d’une perfusion unique. Si la suite réglementaire confirme la sécurité et l’efficacité, on est peut-être face à une bascule: des maladies traitées non plus par une routine chronique, mais par une intervention ponctuelle.

Autre sujet santé publique: l’Afrique du Sud prépare un déploiement progressif d’une injection de prévention du VIH administrée tous les six mois. Sur le papier, c’est un gain énorme pour l’adhésion par rapport à une prise quotidienne. Dans la vraie vie, tout dépendra de l’accès, de la continuité d’approvisionnement, et de la capacité à faire revenir les personnes à échéance. Les autorités insistent aussi sur un point basique mais essentiel: cette prévention ne remplace pas la protection contre les autres infections sexuellement transmissibles.

Toujours en biomédecine, des chercheurs de Barcelone publient un atlas à grande échelle du vieillissement des organes reproducteurs féminins autour de la ménopause, en combinant images de tissus et données d’expression génique, analysées par IA. Résultat marquant: tout ne vieillit pas au même rythme, et certains changements semblent plus abrupts dans certains tissus. Ils évoquent aussi des signaux détectables dans le sang, ce qui ouvre la porte à un suivi moins invasif. C’est une pièce de plus vers une médecine plus personnalisée sur des sujets longtemps sous-cartographiés.

Et puisqu’on parle de santé mondiale: un long article rappelle que la crise des antibiotiques est autant économique que biologique. On sait pourquoi la résistance augmente, et on sait mieux chercher de nouvelles molécules, mais les incitations restent cassées: un bon antibiotique doit être utilisé avec parcimonie, donc il rapporte peu. Des modèles de paiement “pour disponibilité”, comme des abonnements publics, sont présentés comme une piste plus réaliste que la vente au volume. C’est un changement culturel: payer pour éviter une catastrophe, pas pour écouler un produit.

Deux avancées en optique, pour finir sur une note plus “laboratoire”. Au MIT, une équipe montre qu’un laser puissant injecté dans une fibre optique multimode peut s’auto-organiser en un faisceau étonnamment propre, ce qui a permis d’accélérer fortement une technique d’imagerie 3D sur un modèle de barrière hémato-encéphalique humaine. Et au Texas, des chercheurs ont piloté de minuscules dispositifs en trois dimensions avec des lasers, en s’appuyant sur des matériaux conçus pour mieux convertir la lumière en force. Ce n’est pas demain la propulsion de vaisseaux, mais c’est un pas concret vers des contrôles sans contact plus fins, utiles en micro-systèmes et en instrumentation.

Un détour par l’économie de l’innovation: un papier décrit comment la biotech devient de plus en plus “financiarisée”, avec des montages qui transforment des paris scientifiques en morceaux de risque négociables, comme des royalties ou des instruments conditionnels. Ça peut débloquer du capital et rendre l’échec moins fatal, mais ça peut aussi capter durablement une partie des revenus futurs et orienter l’investissement vers des projets plus “lisibles” pour les marchés, parfois au détriment de la science la plus audacieuse.

Et enfin, une note sur les marchés prédictifs: une analyse de données récentes suggère que, malgré des volumes en hausse, la majorité de l’activité ressemble davantage à du divertissement qu’à un outil d’aide à la décision. Les marchés de suivi de risques géopolitiques semblent avoir le plus d’utilité, notamment parce qu’ils sont cités publiquement. Mais l’auteur pointe un vrai concurrent: des assistants IA capables de fournir des probabilités avec explications et contexte, là où un marché vous donne surtout un prix. En somme, le problème n’est peut-être pas de produire des prévisions, mais de les livrer au bon format aux décideurs.

C’est tout pour cette édition du 29 avril 2026. Si vous ne deviez retenir qu’une tendance: l’IA glisse de l’assistance à l’exécution, et tout le reste — coûts, sécurité, gouvernance, infrastructures open source — se réorganise autour de cette bascule. Je suis TrendTeller, et c’était The Automated Daily, tech news edition. On se retrouve demain pour démêler l’actualité tech, sans bruit inutile.