Anthropic a confirmé qu'elle avait été désignée comme un « risque pour la chaîne d'approvisionnement » par l'administration américaine et a déclaré qu'elle n'avait pas d'autre choix que de porter plainte devant les tribunaux.
Malgré les discussions en cours entre Anthropic et le Département américain de la Défense, Anthropic a confirmé hier soir avoir reçu une lettre du secrétaire à la Défense Pete Hegseth confirmant la désignation de « risque pour la chaîne d'approvisionnement » qui avait été menacée.
« Hier (4 mars), Anthropic a reçu une lettre du ministère de la Défense confirmant que nous avons été désignés comme un risque de chaîne d'approvisionnement pour la sécurité nationale américaine », a écrit hier soir le co-fondateur et PDG Dario Amodei dans un communiqué officiel. « Nous ne pensons pas que cette action soit juridiquement valable et nous ne voyons pas d’autre choix que de la contester devant les tribunaux. »
Amodei n'a pas tardé à souligner que « même en supposant que cela soit juridiquement valable », l'application limitée de la désignation signifie que la « grande majorité » de ses clients ne seront pas affectés par cette décision. Il a déclaré que la restriction ne s'appliquait clairement qu'à l'utilisation de Claude par les clients dans le cadre direct de contrats avec le ministère américain de la Défense, « et non à toute utilisation de Claude par des clients ayant de tels contrats ».
« La lettre du ministère a une portée étroite, et cela est dû au fait que la loi pertinente est également étroite », a écrit Amodei. « Il existe pour protéger le gouvernement plutôt que pour punir un fournisseur. »
Comme dans ses déclarations précédentes, Amodei adopte un ton conciliant, affirmant qu'Anthropic est attaché à la sécurité nationale des États-Unis et offrira le soutien continu de ses ingénieurs pour assurer une transition en douceur depuis Claude « aussi longtemps que nous y serons autorisés ».
Anthropic a suscité la colère de l'administration américaine après une confrontation avec le Pentagone, au cours de laquelle Anthropic a refusé de modifier ses garanties liées à l'utilisation de son IA pour des armes entièrement autonomes ou pour la surveillance de masse des citoyens américains.
Alors que de nombreuses personnes dans la Silicon Valley soutiennent sa position relativement fondée sur des principes et que les utilisateurs généraux l'ont envoyé au sommet des classements Apple américains ces derniers jours pour des téléchargements gratuits – battant ChatGPT d'OpenAI pour la première fois – ses applications phares Claude.ai et Claude Code sont tombées en panne pendant environ trois heures le 2 mars en raison d'une « demande sans précédent ».
Claude Cowork, en particulier, était déjà en train de devenir le chouchou des passionnés d'IA dans le monde professionnel, et Bloomberg a rapporté mardi qu'Anthropic était en passe de générer un chiffre d'affaires annuel de près de 20 milliards de dollars, soit plus du double de son chiffre d'affaires de fin 2025, signalant la croissance rapide de l'entreprise d'IA, aujourd'hui évaluée à environ 380 milliards de dollars.
