Alors que l'administration américaine s'apprête à abandonner Anthropic en tant que fournisseur, nombreux sont ceux qui se rallient à la position relativement éthique de la société d'IA, créant ainsi une « demande sans précédent » pour Claude.
Claude d'Anthropic est rapidement devenue la coqueluche des passionnés d'IA, pour le développement, la recherche et le travail en entreprise. Elle se trouve désormais confrontée à la puissance de l’administration américaine qui menace de l’abandonner complètement en tant que fournisseur après une dispute avec le Pentagone au sujet de soi-disant « lignes rouges » qu’elle ne franchirait pas.
Alors que de nombreuses personnes dans la Silicon Valley soutiennent sa position relativement fondée sur des principes et que les utilisateurs généraux l'ont envoyé au sommet des classements Apple américains ces derniers jours pour des téléchargements gratuits – battant ChatGPT d'OpenAI pour la première fois – ses applications phares Claude.ai et Claude Code sont tombées en panne pendant environ trois heures lundi 2 mars, ce qui a amené beaucoup à déplorer son absence. Au moment où nous écrivons, il y a déjà des rapports faisant état de nouvelles pannes, bien que sa dernière mise à jour indique « un correctif a été mis en œuvre et nous surveillons les résultats ».
Boycott de fait
Hier soir, le secrétaire au Trésor, Scott Bessent, a ajouté sa voix au boycott de facto des produits Anthropic par l'administration américaine, en déclarant dans un article sur X que son ministère mettrait fin à l'utilisation des produits Anthropic.
Cela fait suite à une directive du président Donald Trump ordonnant aux agences américaines de « supprimer progressivement » leur utilisation des produits de la société d’IA, et à son ministère de la Défense qualifiant Anthropic de « risque pour la chaîne d’approvisionnement », une allocation normalement réservée aux fournisseurs étrangers provenant d’États non amis. Anthropic a rapidement déclaré qu'il s'agissait d'une désignation « juridiquement mal fondée » et devrait contester cette décision devant les tribunaux.
Reuters rapporte également avoir vu des mémos adressés aux employés du ministère de la Santé et des Services sociaux, leur demandant de passer à d'autres plateformes d'IA telles que ChatGPT et Gemini, et au Département d'État annonçant qu'il changeait le modèle alimentant son chatbot interne – StateChat – d'Anthropic à OpenAI.
Financièrement, cela portera sûrement un coup dur à Anthropic à court terme, mais certains commentateurs affirment que cela pourrait être un moment charnière pour Anthropic, car beaucoup peuvent le considérer comme un choix relativement éthique lorsqu'il s'agit des géants de l'IA.
Le récent scandale Grok a mis un point d'interrogation majeur sur les références de xAI et Sam Altman d'OpenAI voit clairement le risque de réputation puisqu'il a rapidement affirmé qu'il garantissait certaines garde-fous dans son contrat avec le Pentagone.
Hier, sur X, Altman a affirmé que ces garde-fous garantiraient qu'OpenAI ne serait pas « intentionnellement utilisé pour la surveillance nationale des personnes et ressortissants américains ».
La trame de fond
Si vous n'avez pas suivi, Anthropic a suscité la colère de l'administration américaine après une confrontation avec le Pentagone, où Anthropic a refusé de modifier ses garanties liées à l'utilisation de son IA pour des armes entièrement autonomes ou pour la surveillance de masse des citoyens américains.
Jeudi 27 février, Dario Amodei d'Anthropic a publié une déclaration officielle affirmant qu'Anthropic pensait que dans « un ensemble restreint de cas, nous pensons que l'IA peut saper, plutôt que défendre, les valeurs démocratiques ».
« Certaines utilisations dépassent tout simplement les limites de ce que la technologie actuelle peut faire de manière sûre et fiable », a-t-il déclaré. « Deux de ces cas d’utilisation n’ont jamais été inclus dans nos contrats avec le ministère de la Guerre, et nous pensons qu’ils ne devraient pas l’être.
« Nous soutenons l'utilisation de l'IA pour des missions licites de renseignement étranger et de contre-espionnage. Mais l'utilisation de ces systèmes pour une surveillance intérieure de masse est incompatible avec les valeurs démocratiques. »
Amodei a poursuivi en affirmant que les armes partiellement autonomes, comme celles utilisées aujourd’hui en Ukraine, sont essentielles à la défense de la démocratie. « Mais aujourd'hui, les systèmes d'IA de pointe ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes. Nous ne fournirons pas sciemment un produit qui mettrait en danger les combattants et les civils américains. »
C'est une débâcle qui risque de se poursuivre dans les prochains jours, et il reste à voir si Anthropic pourra résister à l'assaut sans précédent de son propre gouvernement et compter sur le soutien des utilisateurs pour sa position de principe. À court terme, son défi semble être de répondre à la demande actuelle sur ses systèmes.
