Transcript

Washington contre Anthropic et l’éthique & Plan chinois pour dominer l’IA - Actualités Technologiques (15 mars 2026)

15 mars 2026

Back to episode

Un labo d’IA majeur vient d’être écarté des contrats fédéraux américains… parce qu’il refuse que son modèle serve à la surveillance de masse ou à des armes totalement autonomes. Jusqu’où un gouvernement peut-il forcer la main à une entreprise sur l’éthique? Bienvenue à The Automated Daily, tech news edition. Le podcast créé par l’IA générative. Nous sommes le 15 mars 2026, et je suis TrendTeller. Aujourd’hui: le bras de fer explosif entre Washington et Anthropic, la Chine qui affiche ouvertement ses ambitions pour dicter le tempo en intelligence artificielle, et la bataille qui s’intensifie entre vie privée et sécurité en ligne.

On commence par le dossier qui secoue à la fois la Silicon Valley et l’appareil de défense américain. L’administration Trump a ordonné la fin des contrats fédéraux avec Anthropic, après le refus de l’entreprise d’assouplir des limites d’usage: pas de surveillance de masse, et pas d’armes pleinement autonomes sans supervision humaine. Anthropic a attaqué l’État en justice, dénonçant une mesure de représailles et un précédent dangereux. Ce qui rend l’affaire particulièrement sensible, c’est que Claude serait déjà intégré à des usages très critiques côté défense, et remplacer un outil au cœur d’écosystèmes existants n’est pas une simple bascule. En toile de fond, on retrouve surtout un vide: les règles du jeu sur l’IA militaire et l’IA de surveillance restent floues, et ce flou transforme chaque décision en bras de fer politique.

En miroir, Pékin affiche une confiance nouvelle. La Chine vient d’approuver et publier son quinzième plan quinquennal, couvrant la période 2026 à 2030, avec une promesse de mesures “extraordinaires” pour devenir leader mondial en intelligence artificielle, technologies quantiques et autres domaines de pointe. Le signal important, ce n’est pas seulement “investir plus”, c’est la posture: on ne parle plus de rattraper, mais de donner le rythme. Et l’objectif de souveraineté technologique est martelé, notamment sur des maillons où la Chine se heurte encore à des goulots d’étranglement, comme les composants avancés et des briques logicielles clés. L’autre angle, très politique, c’est la volonté de peser sur les règles internationales de gouvernance de l’IA — autrement dit: pas seulement fabriquer les outils, mais influencer les normes.

Restons sur l’IA, mais côté grand public, là où la confiance se gagne… ou se perd vite. Sur X, une vague de vidéos truquées liées au conflit Iran–États-Unis circule massivement: faux soldats capturés, bâtiments prétendument en feu, villes dévastées. Le mélange de contenus réels et manipulés brouille les repères, et la viralité fait le reste. X annonce un durcissement: les comptes monétisés qui publient des contenus de guerre générés par IA sans le signaler risquent une suspension, et les récidivistes une exclusion durable. Sauf que les observateurs expliquent que, sur le terrain, les flux restent saturés. Et détail inquiétant: le chatbot Grok aurait, dans certains cas, validé à tort des images truquées comme authentiques. Le point intéressant ici, c’est l’économie de l’attention: quand l’engagement rapporte, la tentation du sensationnel reste structurelle.

Autre front majeur, et cette fois dans les messages privés: Meta annonce qu’Instagram va mettre fin au chiffrement de bout en bout pour les messages directs à partir du 8 mai 2026. Concrètement, on revient à un modèle où la plateforme peut accéder aux contenus quand la loi l’exige — et où, surtout, elle peut déployer davantage de détection automatisée. Meta justifie ce recul par la lutte contre des contenus graves: exploitation d’enfants, harcèlement, escroqueries, et tentatives de manipulation. Cette décision s’inscrit aussi dans une pression réglementaire croissante aux États-Unis, au Royaume-Uni et en Europe, où l’on demande aux plateformes d’identifier ce qui se passe même dans des espaces “privés”. C’est un épisode de plus dans un bras de fer devenu classique: protection de la vie privée d’un côté, sécurité et application des lois de l’autre — avec, au milieu, la question de la confiance.

Et puisqu’on parle de l’impact des réseaux, un procès très suivi se déroule à Los Angeles. Une jeune femme, identifiée comme Kaley, accuse Instagram et YouTube d’avoir contribué à de graves dommages sur sa santé mentale, après une exposition précoce et une utilisation intensive dès l’enfance. Ce dossier est particulièrement important parce qu’il s’agit du premier procès à aller jusqu’au bout parmi une vaste série de plaintes comparables visant plusieurs plateformes. Le débat central: est-ce que ces produits ont été pensés pour créer des comportements proches de l’addiction chez les mineurs, et si oui, est-ce que cela crée une responsabilité juridique? Meta conteste le lien de causalité et renvoie à d’autres facteurs personnels et familiaux. Quelle que soit l’issue, un verdict pourrait redessiner les lignes sur la responsabilité des plateformes vis-à-vis des enfants — et peser sur des milliers de dossiers en attente.

Côté cybersécurité, Interpol annonce des résultats d’une opération internationale visant des infrastructures criminelles en ligne. L’action, menée sur plusieurs mois avec des dizaines de pays, a permis de neutraliser une grande quantité d’adresses et de serveurs utilisés pour des arnaques et des attaques. Dans les cas mis en avant, on retrouve un cocktail tristement familier: hameçonnage, usurpation de sites, escroqueries sentimentales, sextorsion, vols d’identité. Ce type d’opération n’élimine pas la cybercriminalité — elle se reconstruit vite — mais elle peut casser des chaînes logistiques entières, perturber des groupes, et surtout réduire le nombre de victimes à court terme. La leçon, c’est que la coordination transfrontalière reste l’un des rares leviers capables de frapper à grande échelle.

Un détour par l’espace, avec une avancée qui confirme que la “défense planétaire” n’est plus de la science-fiction. Une nouvelle étude montre que l’impact de la mission DART de la NASA, en 2022, n’a pas seulement raccourci l’orbite d’un petit astéroïde autour de son compagnon: il a aussi modifié — de façon mesurable — la trajectoire du duo autour du Soleil. C’est une première observation directe de ce type. Et c’est intéressant pour une raison très concrète: si un jour on détecte un objet réellement menaçant, il ne suffira pas de “viser juste”. Il faudra estimer précisément le coup de pouce obtenu. Or l’étude suggère que les débris éjectés lors de l’impact ont amplifié l’effet, ce qui aide à mieux prédire les résultats d’une future mission de déviation.

On termine avec deux histoires à la frontière entre santé et technologies, qui montrent à quel point la compétition s’accélère. D’abord en Chine: une autorisation commerciale a été accordée à un implant cérébral destiné à aider certaines personnes paralysées à retrouver une partie de la fonction de la main, via un dispositif qui traduit l’intention de mouvement en action assistée. Au-delà du progrès médical potentiel, ce feu vert est aussi un signal industriel: Pékin veut faire des interfaces cerveau-machine un axe stratégique, et on voit se dessiner une course mondiale où plusieurs acteurs — y compris aux États-Unis — visent un passage à l’échelle. Ensuite, une anecdote devenue cas d’école médiatique: en Australie, un entrepreneur a participé, avec des chercheurs, à la création d’un vaccin anticancer personnalisé à base d’ARNm pour sa chienne, en s’appuyant sur des outils d’IA pour traiter des données génétiques. Un des effets rapportés est encourageant, même si les scientifiques rappellent qu’un résultat isolé ne remplace pas des preuves contrôlées. Ce qui compte ici, c’est la tendance: la médecine personnalisée, dopée par l’IA, pourrait se démocratiser d’abord sur des cas très ciblés — et pas uniquement chez l’humain.

Voilà pour l’essentiel aujourd’hui. Entre l’IA qui devient un enjeu de souveraineté et de défense, les réseaux sociaux de plus en plus contestés sur la santé mentale et la désinformation, et la science qui progresse — jusqu’à déplacer un astéroïde sur son orbite solaire — la tech continue de sortir de son cadre “produit” pour redevenir un sujet de société. Je suis TrendTeller, et vous écoutiez The Automated Daily, tech news edition. On se retrouve demain pour un nouveau tour d’horizon.