GPU NVIDIA Blackwell domina com desempenho incomparável de inferência de IA: alcançando margens de lucro de até 78% com chips GB200, superando a AMD graças a otimizações de software superiores

GPU NVIDIA Blackwell domina com desempenho incomparável de inferência de IA: alcançando margens de lucro de até 78% com chips GB200, superando a AMD graças a otimizações de software superiores

As GPUs Blackwell da NVIDIA se posicionaram na vanguarda do desempenho de inferência de IA, gerando margens de lucro significativamente maiores para empresas que aproveitam essa tecnologia em comparação com seus concorrentes.

Software e otimizações abrangentes de IA da NVIDIA: uma vantagem competitiva sobre a AMD

Uma análise recente da Morgan Stanley Research fornece uma comparação completa das margens de lucro e dos custos operacionais associados às cargas de trabalho de inferência de IA entre diversos provedores de tecnologia. Os resultados revelam que as empresas que funcionam como “fábricas” de inferência de IA estão obtendo margens de lucro superiores a 50%, com a NVIDIA emergindo como a clara pioneira.

GPU NVIDIA Blackwell esmaga a concorrência com o mais alto desempenho de inferência de IA do setor: margens de lucro usando chips GB200 de até 78%, quilômetros à frente da AMD devido a otimizações de software 1

O estudo avaliou uma série de fábricas de IA, especificamente aquelas que exigem 100 MW de energia, incorporando racks de servidores de diversos players importantes do setor, incluindo NVIDIA, Google, AMD, AWS e Huawei. Entre elas, destaca-se a plataforma de GPU GB200 NVL72 “Blackwell” da NVIDIA, que alcançou uma impressionante margem de lucro de 77, 6% e um lucro estimado de aproximadamente US$ 3, 5 bilhões.

O pod TPU v6e do Google vem logo em seguida, com uma margem de lucro de 74, 9%, enquanto o Trn2 Ultraserver da AWS garante a terceira posição com uma margem de lucro de 62, 5%.Outras soluções apresentam margens de lucro em torno de 40-50%, mas a AMD tem um longo caminho a percorrer, como indicam suas métricas de desempenho.

Comparação de receita e preço de aluguel de GPU: NVIDIA, Google TPU, AMD, Huawei, AWS. Dados do Morgan Stanley.

Em forte contraste, a transição da AMD para sua mais recente plataforma MI355X resultou em uma preocupante margem de lucro negativa de 28, 2%.O modelo MI300X anterior teve um desempenho ainda pior, com uma impressionante margem de lucro negativa de 64, 0% em termos de desempenho de inferência de IA. O relatório do Morgan Stanley também analisa a geração de receita por chip por hora, que mostra o GB200 da NVIDIA atingindo US$ 7, 5 por hora, seguido pelo HGX H200 com US$ 3, 7. Em comparação, o MI355X da AMD gera apenas US$ 1, 7 por hora, enquanto a maioria dos outros concorrentes varia entre US$ 0, 5 e US$ 2, 0, indicando o domínio da NVIDIA nesse segmento.

Gráfico de barras mostrando estimativas de receita e lucro para processadores de IA da NVIDIA, Google, AMD, AWS e HUAWEI.

A vantagem significativa da NVIDIA em inferência de IA resulta principalmente do seu suporte ao FP4 e dos aprimoramentos contínuos em sua pilha de IA CUDA. A empresa tratou com eficácia vários de seus modelos anteriores de GPU, incluindo Hopper e até mesmo Blackwell, com o que pode ser comparado a um bom vinho — aumentando seu desempenho gradativamente a cada trimestre.

Embora as plataformas MI300 e MI350 da AMD sejam adequadas em termos de recursos de hardware, a empresa ainda enfrenta desafios na otimização de software para inferência de IA, uma área em que melhorias são extremamente necessárias.

Tabela de comparação de custos de fábrica de IA para várias plataformas, destacando GB200 NVL72 como o de maior custo.

Notavelmente, o Morgan Stanley também destacou o Custo Total de Propriedade (TCO) das plataformas MI300X da AMD, que pode chegar a US$ 744 milhões, comparável ao da plataforma GB200 da NVIDIA, que custa aproximadamente US$ 800 milhões. Isso indica que a estrutura de custos da AMD pode não ser favorável no cenário competitivo. O TCO estimado de US$ 588 milhões para o servidor MI355X mais recente se alinha de forma semelhante ao CloudMatrix 384 da Huawei, mas o maior investimento inicial pode desencorajar potenciais usuários de escolher a AMD, especialmente considerando o desempenho superior de inferência de IA da NVIDIA, que deverá dominar 85% do mercado de IA nos próximos anos.

Enquanto a NVIDIA e a AMD se esforçam para acompanhar o ritmo, a NVIDIA está pronta para lançar sua GPU Blackwell Ultra este ano, prometendo um aumento de 50% no desempenho em relação ao modelo GB200 existente. Em seguida, a próxima plataforma Rubin está programada para entrar em produção no primeiro semestre de 2026, acompanhada pela Rubin Ultra e pela Feynman. Enquanto isso, a AMD planeja lançar a MI400 no próximo ano para competir com a Rubin e espera-se que implemente diversas otimizações de inferência de IA para sua linha MI400, o que criará uma competição dinâmica interessante no segmento de IA.

Fontes de notícias: WallStreetCN, Jukanlosreve

Fonte e Imagens

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *