
Este conteúdo não constitui recomendação de investimento. O autor não possui posições nas ações aqui mencionadas.
Compreendendo a economia da GPU e a eficiência da fábrica de IA
Em meio à dinâmica flutuante da economia de GPU, o Morgan Stanley divulgou uma análise convincente destacando a eficiência excepcional das GPUs GB200 NVL72 da NVIDIA para alimentar fábricas de IA em larga escala. Essa percepção é especialmente pertinente para stakeholders envolvidos em decisões de investimento ou avanços tecnológicos em infraestrutura de IA.
Principais componentes dos racks NVL72 AI
Para esclarecer, cada rack NVL72 AI integra 72 GPUs NVIDIA B200 e 36 CPUs Grace, interconectadas pela avançada tecnologia NVLink 5$3.1 million
, projetada para alta largura de banda e baixa latência. Notavelmente, o custo atual de um rack de servidor desse tipo excede £ 1.000, em forte contraste com aproximadamente £ 1.000 $190, 000
para um rack H100.
Apesar do investimento inicial mais alto, o Morgan Stanley argumenta que escolher a mais recente solução em escala de rack da NVIDIA oferece vantagens econômicas superiores em relação à geração mais antiga H100k, alinhando-se às demandas contemporâneas do mercado.
Insights de lucratividade
De acordo com os cálculos do Morgan Stanley, os sistemas GB200 NVL72 da NVIDIA superam os concorrentes em termos de lucratividade e geração de receita. Os pods TPU v6e desenvolvidos pelo Google estão logo atrás dos produtos da NVIDIA, conforme ilustrado no gráfico de lucratividade a seguir para um modelo teórico 100MW AI factory
.

Especificamente, os racks GB200 NVL72 AI podem gerar uma margem de lucro impressionante de 77, 6%, enquanto o TPU v6e do Google atinge uma margem próxima a 74, 9%.
Comparações de custos e dinâmica de mercado
Embora os preços dos pods TPU v6e do Google ainda não estejam disponíveis publicamente, é geralmente observado que os custos de aluguel de pods TPU são cerca de 40 a 50 por cento menores do que aqueles para racks NVL72.
Posição da AMD no mercado
O relatório do Morgan Stanley indica ainda uma tendência preocupante para fábricas de IA que usam as tecnologias MI300 e MI355 da AMD, que devem incorrer em margens de lucro negativas de -28.2 percent
e -64 percent
, respectivamente.
Análise do Custo Total de Propriedade
A análise pressupõe que o estabelecimento de uma 100MW AI data center
infraestrutura inclui custos aproximados de $660 million
, amortizados ao longo de uma década. Os gastos com GPU podem oscilar consideravelmente, variando de $367 million
a $2.273 billion
com um período de depreciação de quatro anos. Além disso, os custos operacionais levam em conta a eficiência energética dos sistemas de refrigeração ajustados às tarifas globais de eletricidade.
Neste contexto, os sistemas GB200 NVL72 da NVIDIA apresentam o maior Custo Total de Propriedade (TCO), calculado em $806.58 million
, seguido de perto pela plataforma MI355X em $774.11 million
.
Deixe um comentário