Transcript
Violences et rejet public de l’IA & Mesurer l’apport réel du code IA - Actualités IA (26 avr. 2026)
26 avril 2026
← Back to episodeUne maison liée à l’IA ciblée au cocktail Molotov, une autre attaque accompagnée d’un message contre les data centers… et, en parallèle, des sondages qui montrent une défiance qui se durcit. Que se passe-t-il quand la promesse technologique se heurte au coût social perçu ? Bienvenue dans The Automated Daily, AI News edition. Le podcast créé par IA générative. Nous sommes le 26 avril 2026. Je suis TrendTeller, et aujourd’hui on parle de la montée d’un rejet public de l’IA, de surveillance autonome qui déborde la frontière, et d’un angle plus discret mais explosif dans les entreprises: la façon dont on “mesure” ce que l’IA produit réellement.
On commence par le climat autour de l’industrie IA. The New Republic décrit une hostilité grandissante, illustrée par deux faits divers violents: un cocktail Molotov visant le domicile de Sam Altman, et une fusillade chez un responsable local dans l’Indiana avec un mot “No Data Centers”. L’article condamne clairement la violence, mais il s’en sert comme signal d’alarme: en ligne, et dans de nouveaux sondages, l’écart se creuse entre des experts plutôt confiants et un public nettement plus inquiet, notamment sur l’emploi et l’économie. Ce qui alimente la colère, selon eux, c’est un discours industriel qui oscille entre prophéties de “risque existentiel” et récits de substitution massive d’emplois, alors que le quotidien se renchérit et que des communautés encaissent des effets très concrets, comme la pression des data centers sur l’électricité et les infrastructures. Autre point piquant: des recherches suggèrent que beaucoup de déploiements corporate d’IA n’apportent pas de gains mesurables, ce qui fragilise la promesse d’un bénéfice économique “pour tous”. OpenAI et Microsoft évoquent des idées de redistribution et de filets de sécurité, mais l’article questionne la crédibilité tant que la transparence est faible et que le lobbying vise à limiter régulation et responsabilité. En clair: sans règles vérifiables et sans véritable place donnée aux territoires concernés, la défiance risque de se transformer en populisme anti-IA… et le passage à l’acte pourrait se multiplier.
Dans le monde du dev, une autre forme de décalage s’installe: la manière dont on quantifie l’impact de l’IA. Un ingénieur logiciel, William O’Connell, raconte avoir vu un tableau de bord d’IDE “augmenté” afficher près de 98% de “nouveau code écrit par l’outil”. Intrigué, il a cherché à comprendre le calcul et conclut que ces métriques peuvent gonfler artificiellement la part attribuée à l’IA, notamment quand des insertions automatiques, des collages ou des éditions ne sont pas correctement comptabilisées côté “humain”, tandis que certaines manipulations assistées peuvent, elles, gonfler le compteur IA. Il compare avec une mesure concurrente liée aux commits Git, plus plausible mais encore imparfaite, allant parfois jusqu’à attribuer un fichier entier à l’IA après une modification partielle. Pourquoi c’est important? Parce que ces pourcentages sont déjà utilisés comme arguments de ROI, et qu’un chiffre trop beau peut pousser des dirigeants à fixer des objectifs irréalistes, à revoir des effectifs, ou à mal évaluer les risques juridiques si l’entreprise croit que l’essentiel de son code est “généré” et donc potentiellement contestable en matière de droits.
Et ça rejoint une critique plus large formulée par Daniel Vaughan: les agents de code rendent très facile le fait de démarrer dix projets, mais plus difficile d’en terminer un proprement. Il compare ça à une pile de livres achetés mais jamais lus: ça ressemble à du progrès, mais c’est surtout de l’accumulation. L’IA fait baisser le coût du prototype, alors que le vrai travail—valider, tester, déployer, maintenir, supporter—reste largement humain. Résultat: une “dette de compréhension”, où le volume de code dépasse la capacité de l’équipe à expliquer et opérer ce qu’elle a construit. Et le risque n’est pas théorique: un démonstrateur qui marche n’est pas un produit qui tient dans la durée. Son antidote est presque ennuyeux, donc probablement vrai: des contraintes de discipline, un seul projet à la fois, des critères de succès explicites, et un vrai “portique de production” avant de célébrer.
Côté libertés publiques, direction la Californie. La Customs and Border Protection cherche l’accord de la ville de San Clemente pour installer une tour de surveillance autonome Anduril “Sentry” sur une falaise. Problème soulevé par l’Electronic Frontier Foundation: l’angle de vue ne se limiterait pas au littoral, mais pourrait embrasser une large partie de la ville. Et la question n’est pas seulement “est-ce qu’on voit”, mais “est-ce qu’on suit”: ces systèmes combinent capteurs et vision par ordinateur pour détecter et suivre des mouvements. Des services municipaux auraient tenté d’inscrire noir sur blanc une interdiction de surveillance des quartiers, mais l’agence fédérale aurait refusé une restriction contractuelle, préférant une promesse plus souple d’“éviter” les zones résidentielles, tout en gardant la capacité de suivre une activité en ville en cas de suspicion. Autre point sensible: la conservation des données. Même si certaines images seraient effacées au bout d’un temps, la question du “matériel d’entraînement” conservé plus longtemps, voire indéfiniment, inquiète—car cela revient à transformer les déplacements des habitants en matière première pour améliorer des algorithmes. Ce dossier illustre une tendance: une technologie pensée pour la frontière peut normaliser une surveillance étendue, avec un contrôle local limité et des garde-fous encore flous.
Dans l’écosystème open source, la Free Software Foundation prend position contre les Responsible AI Licenses, souvent appelées RAIL. Leur argument est frontal: une licence qui restreint les usages—même au nom d’une intention morale—n’est pas une licence libre, parce qu’elle retire la liberté fondamentale d’exécuter un programme pour n’importe quel usage. La FSF estime que normaliser ce type de restrictions crée surtout de la confusion et de l’injustice: on se retrouve à devoir interpréter des critères vagues, changeants, et à fragmenter la compatibilité entre projets. Et, selon eux, ça n’arrêtera pas les acteurs malveillants, d’autant que beaucoup de comportements “interdits” le sont déjà par la loi. Point intéressant spécifiquement pour le machine learning: la FSF souligne qu’une étiquette “responsable” ne remplace pas la transparence matérielle—données d’entraînement, configurations, versions de modèles—nécessaires à un vrai contrôle. Leur alternative reste la même: du copyleft solide, et un soutien public et communautaire aux outils qui respectent les libertés.
Autre angle sur la confiance, mais cette fois dans la culture: Ellipsus a publié une enquête auprès de lecteurs et d’auteurs sur la présence de l’IA générative dans les plateformes d’écriture. Le résultat marquant, c’est cette idée de lecture devenue “forensique”: beaucoup disent lire en mode suspicion, comme si n’importe quel texte pouvait être synthétique—du fandom à la recherche, jusqu’à des contenus académiques. Et cette suspicion produit un effet pervers: des “chasses aux sorcières” où des auteurs humains, parfois justement parce qu’ils écrivent bien, se font accuser, harceler, voire changent de style ou disparaissent des espaces publics par peur d’être copiés ou “scrapés”. En parallèle, certains décrivent l’inverse: une motivation renouvelée à écrire, comme une forme de résistance, parce que ce qu’ils reprochent au texte généré n’est pas seulement la qualité, mais l’absence d’intention vécue. Les demandes qui reviennent sont très politiques et très concrètes: transparence sur les datasets, consentement, sanctions contre le scraping non autorisé, et un étiquetage standardisé du contenu généré ou assisté—sans s’en remettre à des détecteurs réputés peu fiables. Au fond, l’enjeu dépasse le marché du travail: c’est une crise de lien social et de confiance dans les échanges écrits.
On termine avec une idée plus constructive sur la manière d’utiliser des LLM sans se raconter d’histoires: HATS, un projet open source, propose de faire travailler plusieurs agents qui ne sont pas d’accord par design, inspirés d’une méthode de réflexion en “rôles”. Au lieu d’une réponse unique, on obtient un mini-débat: faits, risques, opportunités, créativité, et une synthèse qui oblige à regarder les angles morts. L’intérêt, c’est moins le gadget que la posture: réduire l’excès de confiance, et transformer l’IA en outil de contestation structurée plutôt qu’en machine à valider la première idée venue. Dans des équipes produit ou architecture, ça peut servir de garde-fou, surtout quand la pression pousse à aller vite.
Voilà pour l’essentiel aujourd’hui. Si on doit retenir un fil rouge, c’est celui de la confiance: confiance du public face aux impacts visibles des infrastructures, confiance des entreprises face aux métriques qui peuvent raconter une histoire trop optimiste, et confiance entre humains quand l’écrit devient suspect par défaut. Je suis TrendTeller, et c’était The Automated Daily, AI News edition. Les liens vers toutes les histoires sont disponibles dans les notes de l’épisode.