Une cour d'appel de Washinton DC a refusé de suspendre la désignation d'Anthropic par l'administration américaine comme « risque de chaîne d'approvisionnement », mais recommande que l'affaire soit accélérée.

Anthropic a remporté son premier procès le 26 mars, lorsqu'un juge de district a accordé une injonction temporaire contre la décision de l'administration américaine de désigner le créateur de Claude comme un « risque pour la chaîne d'approvisionnement », ce qui est normalement réservé aux acteurs étrangers.

Cependant, hier soir, le Pentagone a réussi à annuler l'injonction alors qu'une cour d'appel de Washington DC a refusé de suspendre l'« interdiction » effective. Le tribunal a cependant reconnu les « préjudices » causés à Anthropic et a recommandé que l'affaire soit accélérée.

Le tribunal s'est largement rangé du côté de l'administration américaine dans son ordonnance, déclarant : « À notre avis, l'équilibre équitable penche ici en faveur du gouvernement. D'un côté, il y a un risque relativement contenu de préjudice financier pour une seule entreprise privée. De l'autre côté, il y a la gestion judiciaire de la manière et par l'intermédiaire de qui, le ministère de la Guerre sécurise la technologie vitale de l'IA pendant un conflit militaire actif. Pour cette raison, nous rejetons la requête d'Anthropic pour une suspension en attendant un examen sur le fond. »

Cependant, le tribunal a également reconnu les préjudices potentiels qui étaient causés à Anthropic et a recommandé que l'affaire soit accélérée : « Néanmoins, étant donné qu'Anthropic soulève des contestations substantielles sur la décision et qu'elle subira probablement un préjudice irréparable pendant la durée de ce litige, nous convenons avec Anthropic qu'une expédition substantielle est justifiée. »

Cette dernière demande d'accélération du processus avait été faite par l'équipe juridique d'Anthropic comme alternative à toute suspension, en cas d'échec, et la société AI a salué cet élément de l'ordonnance.

« Nous sommes reconnaissants que le tribunal ait reconnu que ces problèmes doivent être résolus rapidement et restons convaincus que les tribunaux finiront par convenir que ces désignations de chaînes d'approvisionnement étaient illégales », a déclaré un porte-parole d'Anthropic à Siliconrepublic.com. « Bien que cette affaire soit nécessaire pour protéger Anthropic, nos clients et nos partenaires, notre objectif reste de travailler de manière productive avec le gouvernement pour garantir que tous les Américains bénéficient d'une IA sûre et fiable. »

« La requête d'Anthropic soulève des questions nouvelles et difficiles, notamment ce qui est considéré comme un risque pour la chaîne d'approvisionnement en vertu de l'article 4713 et ce qui est considéré comme un intérêt urgent de sécurité nationale justifiant le recours à des procédures statutaires tronquées », a également conclu le jugement, et ce sera la question fondamentale au fur et à mesure que l'affaire avancera.

La juge de district américaine Rita F Lin avait conclu dans le premier procès qui avait accordé une injonction temporaire contre l'interdiction le mois dernier que : « Ces mesures générales ne semblent pas être dirigées contre les intérêts déclarés du gouvernement en matière de sécurité nationale. Si l'inquiétude est l'intégrité de la chaîne de commandement opérationnelle, le ministère de la Guerre (sic) pourrait simplement cesser d'utiliser Claude. Au lieu de cela, ces mesures semblent conçues pour punir Anthropic. »

C'est un point de vue partagé par beaucoup. Anthropic a suscité la colère de l'administration américaine après une confrontation avec le Pentagone, au cours de laquelle Anthropic a refusé de modifier ses garanties liées à l'utilisation de son IA pour des armes entièrement autonomes ou pour la surveillance de masse des citoyens américains. Cette position relativement éthique face aux énormes pressions de l'administration américaine a valu à l'entreprise de nombreux défenseurs et même une flopée de nouveaux clients.

Projet Aile de Verre

Anthropic a encore une fois fait preuve d'éthique et de sécurité cette semaine en refusant de rendre public son nouveau modèle puissant Claude Mythos, car beaucoup craignent les conséquences de sa chute entre les mains de mauvais acteurs.

Au lieu de cela, son projet Glasswing rassemblera des entreprises de premier plan, notamment Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JP Morgan Chase, la Linux Foundation, Microsoft, Nvidia et Palo Alto Networks, leur permettant d'accéder à l'aperçu Mythos (publié le 7 avril) pour renforcer leurs cyberdéfenses.

Selon Anthropic, son inédit Claude Mythos a déjà découvert des milliers de vulnérabilités de grande gravité, dont certaines dans tous les principaux systèmes d'exploitation et navigateurs Web.

L'aperçu Mythos d'Anthropic est nettement plus capable de générer des exploits. Dans ses recherches, la société a noté que Mythos avait développé des exploits fonctionnels 181 fois sur plusieurs centaines de tentatives, tandis qu'Opus 4.6 avait un taux de réussite proche de 0%.

« Les modèles d'IA ont atteint un niveau de capacité de codage où ils peuvent surpasser tous les humains, sauf les plus compétents, pour trouver et exploiter les vulnérabilités logicielles », a déclaré Anthropic, qui a promis de partager les enseignements du projet Glasswing au profit de l'ensemble de l'industrie.

A lire également