Influenceurs IA et manipulation politique & Agents IA persistants chez OpenAI - Actualités IA (23 avr. 2026)
Influenceur politique créé par IA, agents persistants OpenAI/Anthropic, coûts tokens hors contrôle, sabotage de modèles, multimodal Qwen, Deep Research Gemini.
Our Sponsors
Today's AI News Topics
-
Influenceurs IA et manipulation politique
— Une enquête révèle un compte pro-MAGA viral entièrement généré par IA, monétisé via merchandising et contenus adultes. Mots-clés: deepfakes, réseaux sociaux, manipulation, monétisation, Gemini. -
Agents IA persistants chez OpenAI
— OpenAI testerait “ChatGPT Agents” (Hermes), des agents persistants avec connecteurs, déclencheurs et workflows. Mots-clés: agents, automatisation, productivité, permissions, connecteurs. -
Claude toujours actif chez Anthropic
— Anthropic préparerait “Conway”, un Claude toujours-on avec conteneur, extensions et contrôles fins. Mots-clés: agent persistent, extensions, webhooks, sécurité, plateforme. -
Coûts tokens et gouvernance
— Des tests montrent que les agents de code ne s’auto-limitent pas, et que le “tokenmaxxing” glorifie des factures explosives. Mots-clés: tokens, coûts, contrôle, ROI, audit. -
Sécurité modèles et sabotages matériels
— Des chercheurs montrent qu’un sabotage par quelques flips de bits peut ruiner un modèle, relançant le débat sur la protection des poids. Mots-clés: DNL, intégrité, stockage, attaques, robustesse. -
Multimodalité: images, audio, design
— Qwen décrit un modèle omnimodal massif, OpenAI améliore la génération d’images, et Google propose DESIGN.md pour rendre les systèmes de design lisibles par IA. Mots-clés: multimodal, image, audio, design system, API. -
Recherche autonome dans Gemini API
— Google lance Deep Research dans l’API Gemini, pour des rapports multi-étapes avec citations et connexions à des données privées via MCP. Mots-clés: recherche agentique, MCP, citations, entreprise, automatisation. -
Transparence médias sur l’IA
— Ars Technica publie une politique claire: journalisme humain, IA limitée à l’assistance et vérification obligatoire. Mots-clés: transparence, rédaction, éthique, confiance, IA générative.
Sources & AI News References
- → Runpod Adds AP-IN-1 Datacenter and Joins OpenAI Model Craft Challenge as Infrastructure Partner
- → Ramp Labs Finds Coding Agents Ignore Token Budgets and Need External Spend Controllers
- → Runpod launches new AP-IN-1 datacenter and partners with OpenAI on Model Craft Challenge
- → Altman Accuses Anthropic of Using Fear to Market Restricted ‘Mythos’ Cybersecurity Model
- → OpenAI tests Hermes, a platform for always-on ChatGPT agents
- → Qwen Publishes Qwen3.5-Omni Report Claiming SOTA Audio-Visual Performance and New Streaming Speech Alignment
- → Agent-World Introduces a Self-Evolving Training Arena for Tool-Using AI Agents
- → Google open-sources Stitch’s DESIGN.md design-system format for cross-platform use
- → Google Skills Updates Cloud TPU Training Course and Notes Vertex AI Rebrand
- → Study Finds AI-Style Design Patterns Now Common Across Show HN Landing Pages
- → Google Launches Deep Research and Deep Research Max Agents for Enterprise-Grade Gemini Workflows
- → Brex Open-Sources CrabTrap Proxy to Policy-Check AI Agents’ Network Requests with an LLM Judge
- → David Bessis Warns AI Is Breaking Mathematics’ Theorem-First Incentive System
- → OpenAI Launches ChatGPT Images 2.0 With Improved Control, Typography, and Multilingual Rendering
- → Data-Free Sign-Bit Flips Can Cripple Vision and Language Neural Networks
- → WorkOS AuthKit CLI Automates Framework Detection and One-Command Integration
- → Viral MAGA Influencer ‘Emily Hart’ Exposed as AI Persona Created by Medical Student in India
- → Anthropic’s ‘Conway’ Always-On Claude Agent Shows Signs of a Mini-App Extensions Platform
- → Study Finds RLVR Generalization Depends on Saturation Dynamics and Faithful Reasoning
- → Startups Tout ‘Tokenmaxxing’ as AI Spend Replaces Hiring People
- → Anker Unveils ‘Thus’ Compute-in-Memory Chip to Bring Local AI to Earbuds and More
- → Ars Technica Publishes Public Policy Limiting Generative AI Use in Its Newsroom
- → OpenAI releases prompting guide for GPT image generation and editing workflows
- → WorkOS introduces Agent Experience to let coding agents configure and run WorkOS from the CLI
Full Episode Transcript: Influenceurs IA et manipulation politique & Agents IA persistants chez OpenAI
Un influenceur politique très suivi… qui n’a jamais existé. Une enquête explique comment une persona générée par IA a attiré des millions de vues, puis été monétisée. Bienvenue dans The Automated Daily, AI News edition. Le podcast créé par l’IA générative. Je suis TrendTeller, et nous sommes le 23 avril 2026. Aujourd’hui: la montée des agents “toujours actifs”, la facture de tokens qui dérape, et plusieurs signaux forts sur la sécurité et la création multimodale.
Influenceurs IA et manipulation politique
On commence donc par cette histoire qui résume bien l’époque. Wired raconte qu’une influenceuse pro-MAGA, “Emily Hart”, connue pour des posts patriotiques très viraux, était en réalité une persona fabriquée avec des outils d’IA. Selon l’enquête, le créateur — un étudiant en médecine en Inde — a ciblé un public précis, publié à un rythme industriel, puis monétisé l’audience via des ventes et du contenu adulte généré. Pourquoi c’est important: parce que le coût de production de “personnages” crédibles s’effondre, et que la manipulation — politique, commerciale, ou les deux — devient plus simple à mettre à l’échelle. Instagram aurait supprimé le compte pour activité frauduleuse, mais le mécanisme, lui, ne disparaît pas.
Agents IA persistants chez OpenAI
Dans le même esprit de “ce qui devient facile à l’échelle”, parlons agents. OpenAI testerait une zone dédiée dans ChatGPT pour des “ChatGPT Agents”, avec le nom de code Hermes. L’idée: des agents persistants, qui ne se contentent pas de répondre à une question, mais qui restent actifs, se déclenchent sur des événements, et se connectent à des services externes. Ce virage compte, parce qu’il déplace ChatGPT d’un outil conversationnel vers une plateforme de travail, où l’on pourrait orchestrer plusieurs rôles — un agent “produit”, un agent “tech”, un agent “support” — et les faire coopérer dans un même espace. En face, Anthropic avancerait sur son propre agent “always-on”, Conway, avec un environnement conteneurisé, des connecteurs, des webhooks, et surtout une logique d’extensions qui pourrait transformer l’app en sorte de tableau de bord modulaire. Là encore, l’enjeu est moins la nouveauté du mot “agent” que la normalisation: des agents persistants, avec permissions, et une surface produit pensée pour l’opérationnel.
Claude toujours actif chez Anthropic
Mais dès qu’on parle d’agents qui agissent, la question qui suit, c’est: qui paie, et qui contrôle? Un papier de Ramp Labs montre que les agents de code consomment des budgets de tokens énormes… sans jamais s’auto-freiner. Dans leurs tests, afficher un compteur de budget ne change rien; même une “note” sur l’efficacité n’incite pas à s’arrêter. Et lorsqu’ils ajoutent un modèle “contrôleur” chargé d’autoriser ou non des dépenses supplémentaires, la plupart des contrôleurs approuvent trop souvent, même quand refuser serait préférable. Leur conclusion est assez nette: si vous voulez contrôler les coûts, il faut des mécanismes externes, auditables, basés sur des preuves concrètes du progrès — fichiers modifiés, tests passés, résultats observables — pas sur l’agent qui s’auto-juge. Cette étude résonne avec une autre tendance plus culturelle: certains dirigeants revendiquent le “tokenmaxxing”, autrement dit des factures d’IA gigantesques présentées comme un signe de productivité. Le problème, c’est que la dépense n’est pas une métrique de valeur. Entre boucles d’agents, essais-erreurs, et nettoyage humain derrière, la question centrale devient le ROI réel: qu’est-ce qui est effectivement livré, plus vite, et avec quel niveau de qualité?
Coûts tokens et gouvernance
Du côté “mettre des garde-fous”, une publication intéressante vient de Brex, qui open-source CrabTrap: un proxy HTTP/HTTPS conçu pour encadrer les agents quand ils utilisent de vrais identifiants de production. Le point clé, c’est l’idée d’un point de contrôle unique pour toutes les sorties réseau, avec règles simples et une seconde couche d’évaluation basée sur une politique en langage naturel, plus des journaux d’audit. Pourquoi c’est notable: parce que les entreprises veulent des agents connectés à des API réelles, mais redoutent les actions hallucinées, les injections de prompt, ou juste les erreurs coûteuses. Cette approche tente de rendre l’adoption plus “gouvernable” sans devoir réécrire chaque intégration outil par outil.
Sécurité modèles et sabotages matériels
Sur la sécurité, un résultat de recherche fait froid dans le dos: des chercheurs NVIDIA et Technion/IBM expliquent qu’en modifiant seulement quelques bits — le bit de signe — dans les poids stockés d’un réseau, on peut faire s’effondrer ses performances. Et c’est décrit comme “data-free”: pas besoin de données d’entraînement, ni de gros calcul, juste la capacité d’écrire dans certains endroits critiques. Le message, c’est que la sécurité des modèles ne se limite pas à filtrer les prompts: l’intégrité du stockage, du matériel, et de la chaîne de déploiement devient un sujet de premier ordre. Dans un autre registre sécurité, le débat s’enflamme aussi sur la communication autour des modèles. Sam Altman a critiqué le message d’Anthropic sur un modèle orienté cybersécurité, Mythos, en l’accusant de jouer sur la peur pour justifier un accès très restreint. Au-delà de la joute entre labos, l’enjeu est politique: qui a accès aux outils puissants de défense… et potentiellement d’attaque? Et selon quels critères: prudence, équité, ou avantage compétitif?
Multimodalité: images, audio, design
Côté capacités, la multimodalité continue d’avancer vite. L’équipe de Qwen publie un rapport technique sur Qwen3.5-Omni, un modèle présenté comme “omnimodal”, capable de comprendre et générer sur texte, image, audio et vidéo. Ce qui compte ici, ce n’est pas le détail d’architecture: c’est le signal que les grands modèles deviennent des interfaces générales, capables de passer d’un média à l’autre, et donc de servir d’assistant plus naturel dans des contextes réels — réunions, contenus, support, analyse. OpenAI, de son côté, annonce ChatGPT Images 2.0, avec un accent sur la précision, la mise en page et surtout le rendu fiable du texte dans les images, y compris en plusieurs langues. C’est un point très “terrain”: dès qu’on veut faire des affiches, des schémas, des supports pédagogiques ou du contenu éditorial, le texte mal rendu ruine tout. On se rapproche d’un usage où l’image générée n’est pas seulement illustrative, mais directement publiable. Et pour relier l’IA au monde du design, Google publie la spécification brouillon de DESIGN.md, un format pour décrire des règles de design de façon lisible par machine. L’intérêt: donner aux outils — et aux agents — un langage commun pour respecter une charte, vérifier l’accessibilité, et éviter que chaque génération d’interface reparte de zéro.
Recherche autonome dans Gemini API
Autre signal fort: Google lance dans l’API Gemini deux versions de Deep Research, dont une variante “Max” pensée pour des recherches plus longues et itératives. Le message est clair: on veut des agents de recherche qui produisent des rapports structurés, avec des citations, et qui peuvent aussi se connecter à des données privées et des sources spécialisées via MCP. Pour les équipes, ça ouvre la porte à une automatisation plus proche du travail d’analyste — pas parfaite, mais plus industrialisable — à condition de bien gérer la traçabilité et la vérification.
Transparence médias sur l’IA
Enfin, petite respiration sur la confiance et les pratiques: Ars Technica publie une politique publique sur l’usage de l’IA dans sa rédaction. Leur ligne: le contenu reste écrit par des humains; l’IA peut aider sur la forme ou la navigation dans des documents, mais toute information doit être vérifiée, et l’IA ne sert pas à fabriquer des citations ou des sources. C’est intéressant parce qu’au-delà d’un média, ça ressemble à un modèle de gouvernance simple: définir ce qui est autorisé, ce qui est interdit, et qui est responsable. Dans une époque de contenus synthétiques, cette clarté devient un avantage.
C’est tout pour aujourd’hui. Entre agents persistants, coûts de tokens à surveiller de près, et sécurité qui descend jusqu’au niveau des bits, on voit se dessiner une nouvelle normalité: l’IA n’est plus un gadget, c’est une infrastructure — et donc un sujet de contrôle. Je suis TrendTeller, et vous écoutiez The Automated Daily, AI News edition. Les liens vers toutes les histoires sont disponibles dans les notes de l’épisode. À demain.