L'unité cloud d'Amazon a présenté mardi de nouveaux serveurs de centre de données équipés de ses propres puces d'IA qui mettront au défi Nvidia, dont Apple est client, de les utiliser.

Les nouveaux serveurs, basés sur 64 puces Trainium2 d'Amazon Web Services (AWS), seront regroupés dans un énorme supercalculateur doté de centaines de milliers de puces, avec l'aide de la startup d'IA Anthropic, qui sera la première à l'utiliser. Benoit Dupin, directeur d'Apple, a également déclaré que la société technologique utilisait des puces Trainium2.

Avec plus de 70 % de part de marché, Nvidia domine la vente de puces IA, et ses rivaux traditionnels de l'industrie des puces, tels qu'Advanced Micro Devices (AMD), se précipitent pour rattraper leur retard.

Mais certains des concurrents les plus redoutables de Nvidia sont également ses clients : Meta d'Alphabet, Microsoft et Google possèdent tous leurs propres puces d'IA personnalisées. Alors que la puce de Meta alimente les opérations internes, Amazon et Google utilisent leurs puces en interne mais les commercialisent également auprès de clients payants.

Le PDG d'AWS, Matt Garman, a également déclaré que Trainium3, la prochaine génération de puces IA de l'entreprise, ferait ses débuts l'année prochaine.

Les nouvelles offres « sont conçues spécifiquement pour les charges de travail de pointe en matière de formation et d’inférence en IA générative », a déclaré Garman lors de l’événement à Las Vegas mardi.

AWS cherchera à concurrencer Nvidia dans le secteur des puces IA

Les nouveaux serveurs, qu'AWS appelle Trn2 UltraServers, rivaliseront avec le serveur phare de Nvidia qui comprend 72 de ses dernières puces Blackwell. Les deux sociétés proposent également une technologie propriétaire pour connecter les puces, bien que Gadi Hutt, qui dirige le développement commercial des puces IA chez AWS, ait déclaré qu'elle serait capable de connecter un plus grand nombre de puces ensemble que Nvidia.

« Nous pensons qu'avec Trainium2, (les clients) bénéficieront de plus de puissance de traitement que ce que Nvidia propose aujourd'hui, et qu'ils pourront réaliser des économies », a déclaré Hutt à Reuters dans une interview, ajoutant que certains modèles d'IA peuvent être entraînés à un coût de 40 %. inférieur aux puces Nvidia.

Les dirigeants d'AWS ont déclaré que les nouveaux serveurs et le supercalculateur massif seraient mis en ligne l'année prochaine, mais n'ont pas donné de date précise. AWS et Nvidia se battent pour commercialiser leurs offres phares dans un contexte de demande en plein essor, bien que les expéditions de Nvidia aient été limitées par les contraintes de la chaîne d'approvisionnement.

Nvidia et AWS utilisent Taiwan Semiconductor Manufacturing (TSMC) pour fabriquer leurs puces.

« Du point de vue de l'approvisionnement, nous sommes en assez bonne forme tout au long de la chaîne d'approvisionnement », a déclaré Hutt à Reuters. « Lorsque nous fabriquons les systèmes, le seul élément que nous ne pouvons pas doubler sont les puces Trainium. »

Avec les informations de Reuters

A lire également