
La nouvelle superpuce NVIDIA Blackwell AI, connue sous le nom de GB300, surpasse considérablement son prédécesseur, le GPU H100, en optimisant le parallélisme des tenseurs pour offrir des performances de débit considérablement améliorées.
NVIDIA GB300 : mémoire et bande passante améliorées pour un débit supérieur à celui du H100
L’introduction des superpuces d’IA de NVIDIA, optimisées par Blackwell, marque une avancée majeure dans la technologie GPU. Le GB300 représente le produit le plus avancé de NVIDIA à ce jour, affichant des améliorations remarquables en termes de capacités de calcul, ainsi qu’une capacité mémoire et une bande passante accrues. Ces améliorations sont essentielles pour gérer les tâches d’IA exigeantes. Un récent benchmark réalisé par CoreWeave illustre le potentiel du GB300 : il atteint un débit nettement supérieur grâce à une réduction du parallélisme des tenseurs.
Lors des tests réalisés par CoreWeave avec le modèle de raisonnement DeepSeek R1, un framework d’IA complexe, une distinction notable est apparue entre les deux plateformes. L’exécution du modèle DeepSeek R1 nécessitait un cluster de 16 GPU NVIDIA H100, tandis que quatre GPU GB300 fonctionnant sur l’infrastructure NVIDIA GB300 NVL72 suffisaient à réaliser la même tâche. Fait remarquable, le système GB300 est capable de fournir un débit brut six fois supérieur par GPU, soulignant ses performances supérieures à celles du H100 dans les charges de travail d’IA complexes.

Les résultats démontrent un avantage significatif pour le GB300, qui exploite une configuration simplifiée de parallélisme tenseur à 4 voies. Cette réduction du parallélisme améliore la communication entre GPU, tandis que la capacité mémoire et la bande passante supérieures contribuent à des gains de performances substantiels. La plateforme GB300 NVL72 bénéficie d’interconnexions NVLink et NVSwitch à haut débit, facilitant les échanges de données rapides entre GPU.
Cette avancée technologique se traduit par des avantages tangibles pour les utilisateurs, permettant une génération de jetons plus rapide et une latence réduite, favorisant ainsi une évolutivité plus efficace des opérations d’IA en entreprise. CoreWeave a mis en avant les caractéristiques remarquables du système rackable NVIDIA GB300 NVL72, doté d’une capacité mémoire impressionnante de 37 To (pouvant atteindre 40 To), idéale pour la gestion de modèles d’IA complexes et volumineux, ainsi que de capacités d’interconnexion atteignant jusqu’à 130 To/s de bande passante mémoire.

En fin de compte, le NVIDIA GB300 va au-delà de la simple fourniture de TFLOPs impressionnants ; il met l’accent sur l’efficacité opérationnelle. En minimisant le parallélisme des tenseurs, le GB300 réduit la charge de communication entre les GPU, généralement source d’entrave aux processus d’entraînement et d’inférence d’IA à grande échelle. Ainsi, les entreprises peuvent désormais atteindre un débit nettement supérieur avec moins de GPU, ce qui se traduit par des réductions de coûts et une meilleure évolutivité de leurs implémentations d’IA.
Source de l’actualité : CoreWeave
Laisser un commentaire