Le responsable de la robotique d'OpenAI a démissionné samedi en raison de l'accord précipité de l'entreprise avec le Pentagone aux États-Unis, considéré comme opportuniste au milieu du conflit Anthropic.
La chef de l'équipe de robotique d'OpenAI, Caitlin Kalinowski, a démissionné samedi pour « principe », après qu'OpenAI s'est précipité pour conclure un accord avec le Pentagone lorsqu'il est devenu clair qu'Anthropic n'était pas en faveur – un accord qui, même Sam Altman d'OpenAI, admet qu'il semblait « opportuniste et bâclé ».
« J'ai démissionné d'OpenAI », a écrit Kalinowski samedi dans un article sur LinkedIn. « Cela n'a pas été une décision facile. L'IA a un rôle important dans la sécurité nationale. Mais la surveillance des Américains sans contrôle judiciaire et l'autonomie mortelle sans autorisation humaine sont des lignes qui méritaient plus de délibérations qu'elles n'en ont eu. Il s'agissait d'une question de principe, pas de personnes. «
Altman s'est engagé dans un parcours de limitation des dégâts depuis la conclusion de l'accord, après que de nombreuses personnes dans la Silicon Valley et au-delà aient loué la position plus dure d'Anthropic pour des raisons éthiques et critiqué la précipitation d'OpenAI à remplacer son rival en matière d'IA.
« Les problèmes sont extrêmement complexes et nécessitent une communication claire », a déclaré Altman dans un message interne partagé plus tard sur X la semaine dernière (3 mars). « Nous essayions véritablement de désamorcer la situation et d'éviter un résultat bien pire, mais je pense que cela semblait simplement opportuniste et bâclé. »
Anthropic envisage de contester devant les tribunaux sa désignation par l'administration américaine comme un « risque pour la chaîne d'approvisionnement », après avoir refusé de retirer ses garde-fous lors des négociations avec le Pentagone.
« Nous ne pensons pas que cette action soit juridiquement valable, et nous ne voyons pas d'autre choix que de la contester devant les tribunaux », a déclaré le co-fondateur et PDG Dario Amodei dans un communiqué officiel le 5 mars, dans lequel il a laissé entendre que la décision de l'administration américaine visait davantage à « punir un fournisseur » qu'à la sécurité nationale.
Anthropic a suscité la colère de l'administration américaine après une confrontation avec le Pentagone, au cours de laquelle Anthropic a refusé de modifier ses garanties liées à l'utilisation de son IA pour des armes entièrement autonomes ou pour la surveillance de masse des citoyens américains.
Claude d'Anthropic s'est hissé au sommet du classement Apple américain ces derniers jours pour les téléchargements gratuits, battant pour la première fois ChatGPT d'OpenAI. Ses applications phares Claude.ai et Claude Code sont tombées en panne pendant environ trois heures le 2 mars en raison d'une « demande sans précédent ».
Claude Cowork, en particulier, était déjà en train de devenir le chouchou des passionnés d'IA dans le monde professionnel et Bloomberg a rapporté la semaine dernière qu'Anthropic était en passe de générer un chiffre d'affaires annuel de près de 20 milliards de dollars, soit plus du double de son chiffre d'affaires de fin 2025, signalant la croissance rapide de l'entreprise d'IA qui est aujourd'hui évaluée à environ 380 milliards de dollars.
