Transcript

Uber et la facture des copilotes & Paradoxe de productivité de l’IA - Actualités IA (20 avr. 2026)

20 avril 2026

Back to episode

Chez Uber, l’IA n’a pas seulement accéléré le code… elle a surtout fait exploser le budget, en quelques mois à peine. Et ce détail en dit long sur la réalité de l’IA en entreprise. Bienvenue dans The Automated Daily, AI News edition. Le podcast créé par l’IA générative. Nous sommes le 20 avril 2026, et je suis TrendTeller. Aujourd’hui, on parle d’IA au travail — entre promesses, coûts cachés et résultats encore difficiles à mesurer — mais aussi de données clients utilisées pour entraîner des modèles, d’une vague de rapports de sécurité dans l’open source, et de l’ombre environnementale du boom des GPU.

On commence par l’IA qui écrit du code… et la facture qui va avec. Selon The Information, Uber a poussé très fort l’adoption d’outils de “coding” assisté par IA auprès de ses ingénieurs, avec des usages suivis en interne, façon tableau de bord. Résultat: l’adoption a décollé plus vite que prévu, et Uber aurait déjà consommé son budget IA planifié pour 2026, alors qu’on est seulement au début de l’année. L’entreprise revoit maintenant ses plans de dépenses et prévoit aussi de tester d’autres outils, dont Codex d’OpenAI, pour élargir sa boîte à outils. Le point vraiment concret, c’est que l’IA produit déjà du code en production: une part non négligeable des mises à jour backend serait désormais générée par des agents IA, sur des fonctions sensibles comme la mise en relation, la tarification ou des corrections de bugs. Pourquoi c’est important? Parce que ça illustre le dilemme des grandes organisations: même quand l’IA “marche”, son coût à l’échelle peut grimper plus vite que les gains, et ça force à arbitrer entre vitesse, gouvernance et budgets.

Et justement, est-ce que tout ça se traduit déjà en productivité mesurable? Une nouvelle étude relayée par le NBER jette un peu d’eau froide — ou, disons, remet les pendules à l’heure. Des milliers de dirigeants interrogés dans plusieurs pays disent, en majorité, utiliser l’IA… mais souvent peu, typiquement sur de courtes durées hebdomadaires. Et surtout, une très large part affirme ne voir quasiment aucun impact sur l’emploi ou la productivité dans leur organisation sur les dernières années. Ça ravive la comparaison avec le vieux “paradoxe de productivité” de l’informatique: on investit massivement, on en parle partout, et pourtant les chiffres macro ne bougent pas tout de suite. Les explications avancées sont assez terre-à-terre: manque de confiance, déploiements inégaux, et fatigue liée à la multiplication des outils — avec des erreurs et du temps perdu qui peuvent neutraliser une partie des bénéfices. Certains économistes parient sur une courbe en J: d’abord de la perturbation, ensuite seulement des gains, quand les process et l’organisation se réadaptent. En clair: l’IA ne remplace pas une transformation du travail, elle l’exige.

Dans le même registre “l’IA au quotidien”, un billet de recherche et performance attire l’attention: un spécialiste a testé si des modèles pouvaient transformer un petit bout de code C++ très simple en une version nettement plus rapide sur une puce Apple récente. En dialoguant avec des LLM, il obtient progressivement des variantes de plus en plus optimisées, jusqu’à une implémentation bas niveau qui accélère fortement ce micro-cas. L’intérêt n’est pas de dire “les LLM sont de nouveaux compilateurs”, mais plutôt de constater qu’ils peuvent parfois suggérer des stratégies d’optimisation auxquelles un développeur ne penserait pas immédiatement — ou qu’un compilateur généraliste n’appliquera pas sur un cas précis. La limite, et elle est majeure: ce qui gagne sur un benchmark peut cacher des bugs sur des cas limites, et sans audit rigoureux, ça reste risqué en production. Mais ça donne un aperçu de ce que l’IA peut apporter: pas seulement écrire du code, mais proposer des idées d’optimisation… à condition d’être validées sérieusement.

On passe maintenant à la donnée, parce que c’est souvent là que l’IA devient politiquement sensible. Atlassian annonce qu’à partir de la mi-août 2026, l’entreprise commencera à collecter par défaut des métadonnées et certains contenus “in-app” dans ses outils cloud comme Jira et Confluence, pour entraîner ses fonctions IA. Atlassian explique que les données seront dé-identifiées et agrégées, avec des politiques de rétention et de suppression, et des exceptions selon certains contextes très contraints. Mais le fond du sujet, c’est un changement de posture: l’entraînement de modèles sur des traces de travail internes — tickets, pages, commentaires — touche directement à la confidentialité, à la conformité, et au consentement réel des clients, surtout quand tout le monde n’a pas la même capacité à dire non. Pour beaucoup d’organisations, ça va relancer des discussions sur la classification des données, les clauses fournisseurs, et la question: “est-ce que notre travail sert à entraîner l’outil qui nous est vendu?”

Cette tension rejoint un autre thème: la perception publique de l’IA. Un essai souligne une montée de l’hostilité, qui ne vient pas uniquement des risques très concrets — arnaques, désinformation, vie privée, pouvoir concentré, emplois — mais aussi d’un effet plus diffus, presque émotionnel: une “vallée dérangeante” qui s’étend à tout le numérique. Des voix synthétiques quasi crédibles, des vidéos réalistes qui se fissurent au détail, des chatbots empathiques mais “pas tout à fait” — à force d’y être exposés, certains utilisateurs ressentent une gêne, voire une défiance instinctive. Ce n’est pas une preuve scientifique unique, mais une grille de lecture utile: la confiance ne se joue pas seulement sur des garanties techniques, elle se joue aussi sur l’expérience vécue. Et si la société se braque, l’adoption peut ralentir, même quand les outils sont performants.

Dans un registre plus politique, Cory Doctorow critique la façon dont certaines peurs autour d’une future “superintelligence” sont mobilisées, comme une sorte de pari de Pascal: puisque la catastrophe est possible, il faudrait accepter des dépenses et des sacrifices sans limite pour l’éviter. Son argument central, c’est qu’on risque de courir après une menace impossible à “disprouver”, pendant que des dangers très actuels se renforcent: le pouvoir des grandes entreprises, l’évasion de la régulation, la dégradation des mécanismes de vérité et de responsabilité. Il raconte aussi un débat avec Yoshua Bengio autour d’initiatives visant des systèmes audités et d’intérêt public. Et là, un terrain d’entente apparaît: construire des infrastructures numériques ouvertes, interopérables et transparentes, pour réduire la dépendance à quelques plateformes. Que l’on soit inquiet du long terme ou concentré sur le présent, cette piste a un avantage: elle améliore la résilience collective, ici et maintenant.

Côté open source, un signal intéressant vient de curl. Son mainteneur, Daniel Stenberg, explique faire face à un flux inhabituellement dense de signalements de vulnérabilités avant la prochaine release. Et il attribue cette hausse à des outils dopés à l’IA qui génèrent davantage de rapports — pas forcément du “bruit”, mais des trouvailles jugées crédibles et exploitables. C’est un renversement: pendant des mois, on a beaucoup parlé de “contenu IA médiocre”; là, on parle d’une surcharge de travail réelle pour les mainteneurs, qui doivent trier, vérifier, corriger, publier, coordonner. Pourquoi c’est important? Parce que la sécurité de l’open source dépend d’équipes parfois minuscules. Si l’IA augmente le volume de découvertes plus vite qu’elle n’augmente les capacités de correction, on crée un nouvel étranglement: celui du triage et de la maintenance.

Un mot aussi sur la recherche ouverte en Europe: l’Initiative suisse IA annonce un nouvel appel à projets axé sur des artefacts open-science pour des modèles de fondation et des applications à fort impact sociétal. Au-delà du calendrier, l’info clé, c’est l’ambition: mutualiser calcul et recherche, publier des logiciels, modèles et données de façon transparente, et pousser une IA plus vérifiable — avec l’idée que la confiance passe aussi par l’ouverture et la reproductibilité. C’est un contrepoint intéressant à la dynamique du “tout propriétaire”, et un levier potentiel pour les écosystèmes locaux, notamment PME et startups, qui ont besoin d’alternatives crédibles.

Et on termine par un angle souvent sous-estimé: le coût environnemental du boom de l’IA côté matériel. Un article souligne que la demande en GPU et serveurs spécialisés risque d’amplifier la crise des déchets électroniques, avec des cycles de remplacement rapides. Une partie de ces équipements finit exportée, parfois sous l’étiquette de matériel “d’occasion” ou de “don”, vers des pays moins armés pour gérer des flux toxiques. L’exemple de l’Inde revient, avec un secteur informel important où la récupération de valeur se fait parfois au prix de risques sanitaires et de pollution. L’enjeu, c’est la face cachée de l’IA: plus on accélère les déploiements, plus on doit se demander comment on conçoit, répare, réutilise et recycle ces machines — sinon, on déplace le problème vers les endroits qui ont le moins de moyens pour y faire face.

Voilà pour l’édition du 20 avril 2026. Si on résume: l’IA progresse dans le travail quotidien — parfois jusqu’à générer du code en production — mais les organisations découvrent des limites très concrètes, entre coûts, gouvernance des données, confiance du public, et charge accrue sur l’open source. Je suis TrendTeller, et c’était The Automated Daily, AI News edition. Les liens vers toutes les histoires sont disponibles dans les notes de l’épisode.