Difficile d’imaginer scénario plus ironique : l’administration qui a abrogé dès janvier 2025 le décret Biden sur la sécurité de l’IA serait désormais tentée de faire exactement ce qu’elle avait enterré. L’info vient du New York Times et de plusieurs officiels américains anonymes. Selon eux, la Maison-Blanche discuterait d’un ordre exécutif imposant une évaluation obligatoire des modèles d’IA avant leur déploiement public. Un virage à 180 degrés, déclenché en grande partie par Anthropic elle-même.
Mythos, le modèle qui a tout déclenché
Le modèle Mythos d’Anthropic est au cœur de l’affaire. La société l’a présenté comme capable d’identifier des milliers de vulnérabilités logicielles critiques, et l'a jugé trop dangereux pour une diffusion publique. Ce positionnement, aussi habile qu’ambigu sur le plan marketing, a immédiatement attiré l’attention des agences fédérales. La NSA aurait d’ailleurs déjà utilisé Mythos pour évaluer des failles dans les déploiements Microsoft de l’administration, pendant que d’autres agences restaient coupées des outils Anthropic. À nuancer toutefois : certains analystes contestent la dangerosité réelle de Mythos, plusieurs études montrant que des modèles bien moins chers obtiennent des résultats comparables sur ce type de tâches.



