Transcript
IA et censure dans écoles & Agents de code: course mondiale - Actualités IA (27 mars 2026)
27 mars 2026
← Back to episodeRetirer 1984 d’Orwell d’une bibliothèque scolaire… parce qu’un outil d’IA l’a jugé “inapproprié”. Et derrière, une enquête de “safeguarding” qui peut briser une carrière. On commence par là. Bienvenue dans The Automated Daily, AI News edition. Le podcast créé par l’IA générative. Nous sommes le 27 mars 2026. Je suis TrendTeller, et en cinq minutes on fait le tour de ce qui bouge vraiment: l’IA qui filtre, l’IA qui code, l’IA qui fuit, et l’IA qui coûte — parfois beaucoup plus qu’on ne le croit.
On démarre avec une histoire très concrète sur l’IA… et la lecture. Dans le Grand Manchester, un collège-lycée a retiré environ 200 livres de sa bibliothèque après qu’une équipe de direction a utilisé un outil d’IA pour signaler des titres jugés “inappropriés”. Parmi les ouvrages retirés, on retrouve 1984, Twilight, l’autobiographie de Michelle Obama ou encore The Notebook. Des notes générées par IA auraient justifié les retraits avec des motifs comme “violence”, “coercition sexuelle” ou “thèmes romantiques adultes”. Ce qui inquiète, ce n’est pas seulement la liste: c’est l’usage de l’automatisation pour donner une apparence d’objectivité à des décisions très larges — et le fait qu’une bibliothécaire, qui aurait refusé d’appliquer l’interdiction, se soit retrouvée prise dans une procédure de “safeguarding”, avant de démissionner. En clair: l’IA ne fait pas que trier des contenus, elle peut devenir un levier administratif… avec des conséquences humaines lourdes.
Passons à l’IA qui écrit du code, et à la compétition qui s’intensifie. Cognition, jeune startup de San Francisco, pousse toujours “Devin”, présenté comme un agent capable de prendre un projet de bout en bout avec très peu d’intervention humaine. L’entreprise grandit vite, revendique des essais chez de gros noms, et assume une culture interne très “war time”. Pourquoi c’est intéressant? Parce que le débat n’est plus “est-ce que l’IA peut aider un développeur”, c’est “qui orchestre le travail”: l’humain ou l’agent. Et Cognition n’est pas seul: Cursor, Claude Code et Codex tirent aussi le marché vers une programmation plus pilotée par agents. Si ça marche à grande échelle, la valeur se déplace: moins sur l’écriture de code, davantage sur le cadrage, les choix produit, la qualité, et la responsabilité.
Dans la même veine, deux signaux montrent comment l’industrie essaie de rendre l’autonomie plus sûre. D’abord, OpenAI lance un Safety Bug Bounty public: l’idée est de récompenser les chercheurs qui trouvent non seulement des failles de sécurité classiques, mais aussi des scénarios d’abus propres aux agents, comme la prompt injection via des contenus tiers, ou l’exfiltration de données. Ensuite, OpenAI explique comment son “Model Spec” sert de boussole: des règles explicites sur les priorités d’instructions, ce qui est non négociable, et ce qui est ajustable. Ce n’est pas qu’un document de communication: c’est une tentative d’industrialiser la cohérence du comportement. À mesure que les agents agissent dans le monde réel — fichiers, emails, systèmes internes — ces “règles du jeu” deviennent aussi importantes que les gains de performance.
Côté sécurité, une autre actualité rappelle qu’on peut perdre beaucoup… par une simple erreur opérationnelle. Anthropic a confirmé travailler sur un modèle plus puissant après une fuite accidentelle de brouillons et de matériaux internes, attribuée à une mauvaise configuration d’un outil CMS externe. Les documents évoquaient un modèle surnommé “Claude Mythos” et un nouveau palier, avec des performances en hausse, mais aussi un message très clair: les risques cyber pourraient grimper, et l’accès serait d’abord orienté vers des acteurs de la défense. À retenir: l’IA de pointe ne se joue pas uniquement dans les labos. La manière de protéger les informations, les prototypes, et même les pages de blog en brouillon devient un enjeu stratégique.
Parlons maintenant d’argent et de compute, parce que c’est souvent mal compris. Une analyse d’Epoch AI souligne que le “dernier entraînement” d’un modèle publié — le run final dont on parle dans les médias — ne représente qu’une petite partie du compute total de R&D. L’essentiel partirait dans l’expérimentation, les tests d’échelle, la génération de données synthétiques, et des modèles qui ne sortent jamais. Pourquoi ça compte? Quand on discute de “coût d’entraînement” ou de régulation basée sur le compute, se focaliser sur le run final peut sous-estimer l’investissement réel. Et à l’inverse, une fois qu’une recette est connue, les suiveurs peuvent parfois reproduire certains résultats avec moins d’essais: ça change la dynamique entre leaders et challengers.
Et justement, pour servir des LLM à moindre coût, la bataille se déplace vers l’optimisation mémoire. Google Research présente TurboQuant, une approche qui vise à réduire fortement la mémoire du KV-cache — cette mémoire interne qui aide les modèles à générer rapidement sur de longs contextes. L’enjeu est simple: si on réduit ce cache sans perdre en qualité, on peut soit faire tourner des modèles plus gros sur le même GPU, soit réduire la facture d’inférence. En parallèle, un autre article remet en perspective la quantification des poids: en pratique, passer en 8-bit est souvent presque “gratuit” en qualité, le 4-bit peut être un bon compromis, et en dessous on atteint vite une falaise où le modèle se dégrade. Traduction: l’avenir “LLM partout” dépend autant de ces choix d’ingénierie que de nouvelles architectures révolutionnaires.
Sur l’optimisation encore, un retour d’expérience montre aussi les limites du “tout agent”. Un développeur a testé un agent autonome pour accélérer l’inférence sur Apple Silicon avec une batterie de benchmarks et de garde-fous qualité. Résultat: des gains existent, mais souvent modestes, et certains “tweaks” séduisants sont surtout du bruit, voire des régressions. La leçon est saine: l’IA peut accélérer l’itération, mais sans banc d’essai rigoureux on risque de confondre une vraie amélioration avec une simplification qui change la difficulté de la tâche.
Autre angle, plus économique: une tribune affirme que le vrai duel entre modèles fermés et open weights n’est pas l’écart brut sur les benchmarks, mais l’écart “monétisable” — ce pour quoi les clients acceptent réellement de payer. L’idée est que beaucoup de tâches de volume — rédaction, synthèse, traitement documentaire, code routinier — deviennent “assez bonnes” en open source, et donc difficiles à facturer premium. Si cette thèse se confirme, on pourrait voir la valeur glisser vers deux extrêmes: en bas, l’infrastructure et le financement du compute; en haut, les applications et workflows qui créent des coûts de changement et de la confiance. Et ça met une pression particulière sur les acteurs dont le business repose surtout sur la vente enterprise de performances marginales.
Dans ce contexte, François Chollet apporte un rappel utile: même si l’agentic coding progresse, cloner un SaaS n’a jamais été la partie la plus difficile. Le vrai mur, c’est la distribution, la stratégie produit, et l’adhérence des usages — autrement dit, faire venir les utilisateurs et les garder. Chollet insiste aussi sur un point de fond: l’AGI, au sens d’une capacité à apprendre efficacement des tâches vraiment nouvelles, n’est pas garantie par la seule “scale”. Il met en avant l’intérêt de benchmarks qui testent la généralisation sur de la nouveauté réelle, et l’idée que des techniques de recherche au moment de l’inférence peuvent parfois apporter des gains là où l’empilement de paramètres plafonne.
On termine avec deux sujets de gouvernance, l’un local et l’autre géopolitique. À New York, le réseau public NYC Health + Hospitals annonce qu’il ne renouvellera pas son contrat avec Palantir et prévoit de revenir à des systèmes internes. La controverse tourne autour de l’usage de données sensibles, de la confiance, et du risque — même avec des données “désidentifiées” — qu’elles soient ré-identifiables ou réutilisées au-delà de l’intention initiale. Et côté géopolitique, des autorités chinoises auraient demandé à deux cofondateurs d’une startup IA, liée à une acquisition par Meta, de ne pas quitter la Chine pendant l’examen du dossier. Même présenté comme une “consigne” plutôt qu’une interdiction formelle, le message est clair: l’IA est désormais traitée comme un actif stratégique, et les acquisitions transfrontalières peuvent se transformer en parcours réglementaire à haut risque.
Enfin, un clin d’œil à l’IA “vérifiable” dans les usages du quotidien: un ingénieur a créé un “portier numérique” pour son portfolio, capable de répondre en s’appuyant sur des preuves issues de ses repos GitHub, plutôt que de réciter un CV. L’idée intéressante ici, c’est l’architecture: séparer un agent public, exposé, d’un agent privé pour les actions sensibles, avec des limites de coûts et des garde-fous. C’est un bon résumé de l’époque: l’IA devient une interface permanente, mais la confiance se gagne par la traçabilité, la segmentation, et la maîtrise des risques.
C’est tout pour aujourd’hui. Si un fil rouge se dégage, c’est que l’IA n’est plus seulement une question de “capacité”: c’est une question de gouvernance, de coûts réels, et d’impacts très concrets sur les institutions — écoles, hôpitaux, entreprises. Je suis TrendTeller, et vous écoutiez The Automated Daily, AI News edition. Retrouvez les liens vers toutes les histoires dans les notes de l’épisode.