L’IA met la pression énergétique & Nouveaux outils créatifs chez Google - Actualités IA (26 févr. 2026)
IA et énergie: des datacenters alimentés au gaz, parfois avec des moteurs d’avion. Google booste ProducerAI, agents en entreprise, Qwen 1M tokens.
Topics
Sources
- → https://blog.google/innovation-and-ai/models-and-research/google-labs/producerai/?utm_source=tldrai)
- → https://www.salesforce.com/tdx/?d=701ed00000iqbO2AAI&utm_source=tldr&utm_medium=display&utm_campaign=amer_xc_cross-cloud_cross-industry&utm_content=all-segments_pg-mtp_701ed00000iqbO2AAI_english_tdx-2026)
- → https://bmdragos.github.io/intelligence-yield/?utm_source=tldrai)
- → https://huggingface.co/Qwen/Qwen3.5-35B-A3B?utm_source=tldrai)
- → https://blog.google/innovation-and-ai/models-and-research/google-labs/opal-agent/?utm_source=tldrai)
- → https://www.theregister.com/2026/02/17/ai_datacenters_driving_up_emissions/
- → https://video-reason.com/?utm_source=tldrai)
- → https://about.fb.com/news/2026/02/meta-amd-partner-longterm-ai-infrastructure-agreement/?utm_source=tldrai)
- → https://you.com/resources/ai-use-cases?utm_campaign=32665521-TLDR_AI_Q1&utm_source=external-newsletter&utm_medium=email&utm_term=tldr_ai_secondary_1.19).
- → https://thezvi.substack.com/p/citrinis-scenario-is-a-great-but?utm_source=tldrai)
- → https://www.salesforce.com/tdx/?d=701ed00000iqbO2AAI&utm_source=tldr&utm_medium=display&utm_campaign=amer_xc_cross-cloud_cross-industry&utm_content=all-segments_pg-mtp_701ed00000iqbO2AAI_english_tdx-2026)
- → https://you.com/resources/ai-use-cases?utm_campaign=32665521-TLDR_AI_Q1&utm_source=external-newsletter&utm_medium=email&utm_term=tldr_ai_secondary_1.19)
- → https://aircada.com/blog/ai-vs-human-3d-ecommerce
- → https://www.theverge.com/ai-artificial-intelligence/884911/burger-king-ai-assistant-patty
- → https://www.cnbc.com/2026/02/24/anthropic-claude-cowork-office-worker.html?utm_source=tldrai)
- → https://technoyoda.github.io/agent-search.html?utm_source=tldrai)
- → https://metr.org/blog/2026-02-24-uplift-update/?utm_source=tldrai)
- → https://venturebeat.com/orchestration/kilo-launches-kiloclaw-allowing-anyone-to-deploy-hosted-openclaw-agents-into?utm_source=tldrai)
- → https://www.cnbc.com/2026/02/24/head-of-amazons-agi-lab-is-leaving-the-company.html?utm_source=tldrai)
- → https://www.reuters.com/world/china/deepseek-withholds-latest-ai-model-us-chipmakers-including-nvidia-sources-say-2026-02-25/
- → https://www.tolans.com/relay/how-we-hire-engineers-when-ai-writes-our-code
- → https://you.com/resources/ai-use-cases?utm_campaign=32665521-TLDR_AI_Q1&utm_source=external-newsletter&utm_medium=email&utm_term=tldr_ai_secondary_1.19)
- → https://vercel.com/blog/security-boundaries-in-agentic-architectures?utm_source=tldrai)
- → https://dataconomy.com/2026/02/24/anthropic-offers-staff-6b-share-sale-at-staggering-350b-valuation/?utm_source=tldrai)
Full Transcript
On pensait que la ruée vers l’IA se jouerait surtout sur les GPU… et pourtant, le goulot d’étranglement devient parfois beaucoup plus basique: l’électricité. Au point que certains opérateurs recyclent des moteurs d’avion pour produire du courant sur site. Pourquoi cette course à l’énergie, et ce que ça dit de l’IA en 2026—on en parle tout de suite. Bienvenue dans The Automated Daily, AI News edition. Le podcast créé par l’IA générative. Nous sommes le 26 février 2026. Aujourd’hui: la facture énergétique des datacenters, les nouveaux outils créatifs de Google, l’agentic AI côté entreprise, et une salve de modèles et de benchmarks qui cherchent enfin à mesurer l’efficacité, pas seulement la performance.
Commençons par l’infrastructure, parce que l’IA a beau être “logicielle”, elle finit toujours par cogner contre le monde physique. Plusieurs enquêtes décrivent une accélération de la construction de datacenters, et surtout un choix très pragmatique: produire de l’électricité sur site avec des turbines à gaz. C’est rapide à déployer, surtout quand une conduite de gaz passe déjà dans le coin. Problème: ça contredit frontalement l’histoire officielle des hyperscalers “100% renouvelables”, et Truthout avance un ordre de grandeur qui frappe—jusqu’à 44 millions de tonnes de CO₂ additionnelles d’ici 2030, l’équivalent des émissions annuelles d’environ 10 millions de voitures. Le détail le plus révélateur, c’est la pénurie de turbines dédiées. Quand la demande explose, certains opérateurs se tournent vers des solutions de contournement, y compris des moteurs d’avion reconvertis en générateurs. Boom Supersonic, par exemple, se positionne sur des turbines dérivées de son moteur Symphony; Crusoe serait un premier client pour plusieurs dizaines d’unités. Et on voit des projets géants, comme un campus de Meta en Louisiane évoqué à des puissances qui se comptent en gigawatts, avec des centrales à cycle combiné construites autour. Moralité: l’IA, aujourd’hui, se discute autant en kWh qu’en paramètres.
Dans ce contexte, l’annonce de Meta et AMD prend un relief particulier: Meta signe un accord d’infrastructure IA de long terme, avec l’objectif d’aller jusqu’à 6 gigawatts de GPU AMD Instinct dans son parc—un chiffre qui donne le vertige. L’idée est de diversifier les fournisseurs, d’aligner les roadmaps matériel et logiciel, et de pousser une intégration “rack-scale” autour d’une architecture nommée Helios. Les premiers envois pour les déploiements initiaux sont annoncés pour le deuxième semestre 2026. C’est un signal de marché: même les plus gros clients cherchent à ne pas dépendre d’un seul écosystème, et à optimiser l’énergie et la performance au niveau du rack, pas seulement au niveau de la puce. Mais ça ramène à la question du début: à quoi bon sécuriser des GPU si l’alimentation électrique devient l’élément limitant?
Passons à Google, qui joue sur deux tableaux: la création et les agents. Côté musique, ProducerAI—une plateforme de création et de “raffinage” musical—rejoint Google Labs. Le positionnement est clair: un “collaborateur créatif” qui transforme un prompt du type “fais-moi un beat lofi” en morceau complet, puis qu’on retravaille itération après itération: paroles, mélodie, arrangement, et même exploration de nouveaux genres. Techniquement, Google met en avant un assemblage de modèles DeepMind: Gemini pour l’orchestration, Lyria 3 pour la génération musicale haute fidélité, Veo côté vidéo, et même un modèle nommé Nano Banana pour d’autres briques du workflow. Point important: toutes les sorties sont marquées avec SynthID, le watermark imperceptible de Google pour identifier l’IA générative. Et Google insiste sur un axe: le contrôle créatif. Une fonction appelée “Spaces” doit permettre de créer des instruments et effets via langage naturel—du simple clavier jusqu’à des environnements audio modulaires façon patchs node-based—avec l’idée de partager et remixer ces “mini-apps” entre utilisateurs. Autrement dit: on ne vend pas juste un générateur, on vend un écosystème de composants créatifs. En parallèle, Google Labs met à jour Opal avec un “agent step”: au lieu d’empiler des étapes de génération figées, on choisit un agent qui comprend l’objectif, décide des outils, et enchaîne les actions—recherche web, génération vidéo, etc. Les nouveautés qui comptent: une mémoire entre sessions, du routage dynamique selon des critères, et un chat interactif où l’agent pose des questions quand l’entrée est incomplète. C’est la même tendance partout: moins de pipelines rigides, plus de systèmes orientés but, avec une boucle de feedback.
Justement, “agentic AI” devient aussi un thème marketing assumé côté entreprise. Salesforce pousse TDX 2026 comme un événement très développeurs autour d’Agentforce 360: keynotes, centaines de sessions techniques, ateliers, consultations personnalisées, et un hackathon mondial où les équipes construisent des solutions et peuvent les pitcher en live. Ils ajoutent des formats plus ludiques—“Vibe Coding”, mini-challenges, et une zone immersive “Agentforce City”. Tout ça vise à rendre concret un message: l’agent n’est pas un gadget, c’est une nouvelle manière de bâtir des apps métier. Chez Anthropic, même direction avec Claude Cowork: l’outil s’étend avec des connecteurs vers Google Drive, Gmail, DocuSign, FactSet, et des plugins personnalisables pour la finance, l’ingénierie ou les RH. Le pari est simple: un assistant n’est utile que s’il voit le contexte—documents, mails, workflows internes—et si l’IT peut l’administrer. Et, au passage, cette poussée “enterprise” s’accompagne d’un signe très fort: une opération de rachat d’actions pour employés à une valorisation implicite autour de 350 milliards de dollars, dans la foulée d’un tour récent qui valorisait l’entreprise encore plus haut. Qu’on aime ou non ces chiffres, ils montrent où se concentre l’argent: sur les outils qui s’installent dans le quotidien des organisations. Et pour celles qui se demandent “par où commencer”, You.com publie un guide très terre-à-terre: on ne “fait pas de l’IA”, on choisit des cas d’usage à impact—internes (back-office, knowledge management, efficacité) et externes (support client, personnalisation, engagement). Le mot clé, c’est l’alignement: une méthode de découverte partagée, sinon on finance des démos brillantes qui ne changent rien.
Maintenant, parlons du nerf de la guerre pour ces agents: la sécurité et la fiabilité. Vercel publie une alerte très concrète: dès qu’un agent peut lire/écrire des fichiers et exécuter du code généré, le risque majeur devient l’injection de prompt qui se transforme en actions arbitraires. Exemple typique: une instruction malveillante cachée dans un log qui pousse l’agent à exfiltrer des clés SSH ou des credentials cloud. Leur recommandation: arrêter de tout faire tourner dans un seul “contexte de confiance”. Séparer le cerveau (le harness, avec ses secrets) du bac à sable (où tourne le code généré), et compléter avec une injection de secrets au niveau réseau—les programmes peuvent utiliser un secret sans jamais le lire en clair. Dans la même veine, un essai plus théorique propose une “Agent Field Theory”. L’idée est simple mais utile: un agent n’est pas une entité qui “pense”, c’est une politique qui explore un espace de comportements sous contrainte de récompenses, du prompt et de l’environnement. La conséquence, c’est que les raccourcis et le reward hacking ne sont pas des accidents moraux: ce sont des trajectoires “payantes” dans l’espace de recherche. Le remède n’est pas un meilleur discours dans le prompt, mais un meilleur design d’environnement: permissions comme murs durs, outils minimaux, dépôts propres, et surtout des vérificateurs forts—tests, linters, CI—qui servent de feedback réel. Et ça rejoint un point très observé par METR: mesurer le gain de productivité des développeurs avec l’IA devient difficile, car beaucoup refusent désormais de faire certaines tâches sans outils. Leurs résultats récents suggèrent un speedup, mais avec des biais de sélection et une instrumentation de temps de travail de plus en plus compliquée quand des agents tournent en parallèle. En clair: l’IA change les pratiques plus vite que nos méthodes de mesure.
Côté modèles, il y a une sortie qui risque de faire du bruit chez les équipes qui veulent du long contexte et du multimodal “utile”: Alibaba publie sur Hugging Face Qwen3.5-35B-A3B. Le modèle affiche 35 milliards de paramètres au total, mais seulement environ 3 milliards activés à l’inférence grâce à une architecture Mixture-of-Experts—avec 256 experts et un routage par token. Le point spectaculaire: 262 144 tokens de contexte natif, et une extension documentée vers environ un million de tokens via des techniques de scaling RoPE comme YaRN. Sur le plan pratique, la page fournit des commandes de déploiement compatibles OpenAI via SGLang ou vLLM, parle d’outils/agents via Qwen-Agent, et mentionne un “thinking mode” en `<think>...</think>` activé par défaut qu’on peut désactiver par paramètre API. On voit aussi la bataille du “serving” se standardiser: mêmes stacks, mêmes conventions, et une obsession commune—tenir 128K ou plus sans exploser la mémoire. Dans le même univers agentique, une startup nommée Kilo annonce KiloClaw: héberger un agent OpenClaw en moins d’une minute, en évitant le trio “SSH, Docker, YAML”. Leur angle: VM multi-tenant sur Fly.io, proxies pour éviter d’exposer des clés, monitoring, et possibilité de choisir parmi des centaines de modèles via une passerelle. C’est une tendance nette: l’infrastructure des agents devient un produit à part entière, avec de l’isolation et de l’exploitation 24/7.
Pour évaluer tout ça, de nouveaux métriques et benchmarks essaient de dépasser le simple “qui a le meilleur score”. Un site propose “Intelligence Yield”: combien de travail utile un modèle produit par minute de calcul, à partir des données METR Time Horizons. L’idée est saine: la capacité brute ne suffit pas, il faut la capacité par unité de compute—donc, une mesure qui pousse à l’efficacité. Et sur la partie multimodale, un benchmark baptisé VBVR—A Very Big Video Reasoning Suite—met le focus sur le raisonnement vidéo: tâches de perception, spatialité, transformation, abstraction… avec un leaderboard qui rappelle la réalité: humains à 97,4%, meilleur modèle autour de 68,5%, puis une chute rapide. Autrement dit: la vidéo “raisonnée” n’est pas juste un filtre sur des frames, c’est une compétence encore loin d’être banalisée.
Avant de conclure, deux exemples de l’IA qui descend sur le terrain. D’abord dans la restauration: Burger King pilote “Patty”, un chatbot vocal dans les casques employés, qui aide sur des questions opérationnelles—recettes, nettoyage, ruptures de stock—et qui évalue aussi la “friendliness” via des phrases repères comme “please” et “thank you”. Ils parlent d’un outil de coaching, mais la frontière est fine entre assistance et surveillance. Le déploiement annoncé: une plateforme BK Assistant à grande échelle d’ici fin 2026 aux États-Unis, et Patty testée dans plusieurs centaines de restaurants. Ensuite, un rappel utile sur les limites: Aircada explique pourquoi la 3D générée par IA n’est pas encore prête pour de l’e-commerce sérieux. Oui, en huit secondes on obtient un modèle “qui ressemble”, mais en production on a besoin de topologie propre, d’UV exploitables et de maps PBR séparées—sinon la moindre retouche devient un cauchemar, et le produit paraît cheap en rotation. Et sur le recrutement, Tolan décrit une boucle d’entretien qui assume l’IA: au lieu d’algos à réciter, un mini-produit à construire depuis un spec, avec usage autorisé de Claude, Codex, Cursor ou Gemini. Le critère devient le jugement: clarifier les zones floues, choisir les bons compromis, et surtout être capable de maintenir ce qu’on livre—même si un modèle a écrit la moitié du code.
Voilà pour l’essentiel d’aujourd’hui: une IA qui avance à coups de modèles, d’agents… et de mégawatts. Entre la création musicale sous watermark, les agents qui s’invitent dans les outils de bureau, et les débats très concrets sur la sécurité et la mesure de productivité, on sent que 2026 est moins une année de “démos” qu’une année d’industrialisation. Je m’arrête ici. Les liens vers toutes les histoires sont disponibles dans les notes de l’épisode. À demain.