En mars, NVIDIA a dévoilé sa plateforme innovante Blackwell, qui permet de réduire jusqu’à 25 fois les coûts et la consommation d’énergie par rapport à son modèle précédent pour la formation de modèles linguistiques volumineux. Les principaux fournisseurs de services cloud et les grandes entreprises d’IA, comme Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla et xAI, attendent avec impatience la sortie de Blackwell, qui devrait intégrer ses fonctionnalités à leurs opérations dès sa sortie.
Cependant, le lancement de la plateforme Blackwell a été retardé de trois mois en raison d’un problème de conception. Récemment, Microsoft a annoncé sur X qu’il avait déjà commencé à recevoir les puces Blackwell GB200 de NVIDIA et qu’il optimisait actuellement ses serveurs pour exploiter pleinement ces nouvelles puces. Cette optimisation s’appuie sur la technologie de réseau avancée Infiniband de NVIDIA et sur des systèmes innovants de refroidissement liquide en boucle fermée.
Microsoft Azure est la première plateforme cloud à déployer l’architecture Blackwell de @nvidia avec des serveurs IA pilotés par GB200. Nous améliorons les performances à tous les niveaux pour prendre en charge les principaux modèles d’IA du monde, en utilisant le réseau Infiniband et le refroidissement liquide en boucle fermée de pointe. Découvrez-en plus sur MS Ignite. pic.twitter.com/K1dKbwS2Ew
— Microsoft Azure (@Azure) 8 octobre 2024
De plus, le PDG de Microsoft, Satya Nadella, a également partagé une mise à jour concernant le déploiement du GB200 :
Notre collaboration durable avec NVIDIA et notre innovation continue donnent le ton à l’industrie, permettant les charges de travail d’IA les plus complexes. https://t.co/qaEoSv8dm5
– Satya Nadella (@satyanadella) 8 octobre 2024
De plus, NVIDIA a récemment livré l’une des premières versions d’ingénierie du DGX B200 à l’équipe OpenAI :
Découvrez ce qui vient d’arriver à notre bureau. Merci, @nvidia , de nous avoir envoyé l’une des premières unités d’ingénierie du DGX B200. pic.twitter.com/vy8bWUEwUi
– OpenAI (@OpenAI) 8 octobre 2024
Compte tenu de l’intérêt considérable manifesté par divers clients potentiels pour la plateforme Blackwell de NVIDIA, il est logique que Microsoft et OpenAI soient parmi les premiers à recevoir ces puces. Contrairement à d’autres grands fournisseurs de cloud tels que Google et AWS, qui disposent de leurs propres infrastructures de formation IA (Google avec Tensor Processing Units et AWS en développant des puces personnalisées), Microsoft et OpenAI s’appuient entièrement sur la technologie de NVIDIA, ce qui les positionne parmi les plus gros clients de NVIDIA.
De plus amples détails concernant le déploiement du GB200 de NVIDIA sont attendus de la part de Microsoft lors de sa conférence Ignite prévue en novembre.
Laisser un commentaire