
Les GPU Blackwell de NVIDIA se sont positionnés à l’avant-garde des performances d’inférence de l’IA, conduisant à des marges bénéficiaires nettement plus élevées pour les entreprises exploitant cette technologie par rapport à leurs concurrents.
Logiciel d’IA complet et optimisations de NVIDIA : un avantage concurrentiel sur AMD
Une analyse récente de Morgan Stanley Research propose une comparaison approfondie des marges bénéficiaires et des coûts opérationnels associés aux charges de travail d’inférence IA entre différents fournisseurs technologiques. Les résultats révèlent que les entreprises fonctionnant comme des « usines » d’inférence IA réalisent des marges bénéficiaires supérieures à 50 %, NVIDIA s’imposant comme le leader incontesté.

L’étude a évalué plusieurs usines d’IA, notamment celles nécessitant une puissance de 100 MW, intégrant des racks de serveurs de plusieurs acteurs clés du secteur, dont NVIDIA, Google, AMD, AWS et Huawei. Parmi celles-ci, la plateforme GPU GB200 NVL72 « Blackwell » de NVIDIA se distingue, avec une marge bénéficiaire impressionnante de 77, 6 % et un bénéfice estimé à environ 3, 5 milliards de dollars.
Le pod TPU v6e de Google suit de près, avec une marge bénéficiaire de 74, 9 %, tandis que le Trn2 Ultraserver d’AWS occupe la troisième place avec une marge bénéficiaire de 62, 5 %.D’autres solutions affichent des marges bénéficiaires d’environ 40 à 50 %, mais AMD a un chemin considérable à parcourir, comme l’indiquent ses indicateurs de performance.

À l’inverse, la transition d’AMD vers sa dernière plateforme MI355X a généré une marge bénéficiaire négative inquiétante de 28, 2 %.Le modèle MI300X précédent s’en sortait encore plus mal, avec une marge bénéficiaire négative stupéfiante de 64, 0 % en termes de performances d’inférence IA. Le rapport de Morgan Stanley détaille également la génération de revenus par puce et par heure : le GB200 de NVIDIA atteint 7, 5 $ par heure, suivi du HGX H200 à 3, 7 $.En comparaison, le MI355X d’AMD ne génère que 1, 7 $ par heure, tandis que la plupart des autres concurrents se situent entre 0, 5 $ et 2, 0 $, ce qui témoigne de la domination de NVIDIA dans ce secteur.

L’avantage significatif de NVIDIA en matière d’inférence IA résulte principalement de sa prise en charge de FP4 et des améliorations continues apportées à sa pile d’IA CUDA. L’entreprise a efficacement traité plusieurs de ses anciens modèles de GPU, dont Hopper et même Blackwell, avec ce qui s’apparente à un traitement de qualité, améliorant progressivement leurs performances chaque trimestre.
Bien que les plates-formes MI300 et MI350 d’AMD soient performantes en termes de capacités matérielles, la société est toujours confrontée à des défis dans l’optimisation des logiciels pour l’inférence de l’IA, un domaine dans lequel des améliorations sont absolument nécessaires.

Morgan Stanley a également souligné que le coût total de possession (CTP) des plateformes MI300X d’AMD pouvait atteindre 744 millions de dollars, soit un niveau comparable à celui de la plateforme GB200 de NVIDIA, qui s’élève à environ 800 millions de dollars. Cela indique que la structure de coûts d’AMD pourrait ne pas être favorable dans un contexte concurrentiel. Le CTP estimé du nouveau serveur MI355X, à 588 millions de dollars, est comparable à celui du CloudMatrix 384 de Huawei, mais la dépense initiale plus élevée pourrait dissuader les utilisateurs potentiels de choisir AMD, notamment compte tenu des performances supérieures de NVIDIA en matière d’inférence IA, qui devrait dominer 85 % du marché de l’IA dans les années à venir.
Alors que NVIDIA et AMD s’efforcent de rivaliser, NVIDIA s’apprête à lancer son GPU Blackwell Ultra cette année, promettant une amélioration de 50 % des performances par rapport au modèle GB200 actuel. La production de la future plateforme Rubin est ensuite prévue pour le premier semestre 2026, accompagnée des processeurs Rubin Ultra et Feynman. AMD prévoit quant à lui de lancer le MI400 l’année prochaine pour concurrencer Rubin et devrait implémenter plusieurs optimisations d’inférence IA pour sa gamme MI400, ce qui créera une concurrence dynamique et intéressante sur le segment de l’IA.
Sources d’information : WallStreetCN, Jukanlosreve
Laisser un commentaire