NVIDIA GeForce RTX 5090 supera AMD RX 7900 XTX no benchmark de inferência de modelo de IA DeepSeek R1

NVIDIA GeForce RTX 5090 supera AMD RX 7900 XTX no benchmark de inferência de modelo de IA DeepSeek R1

A NVIDIA revelou recentemente sua mais recente GPU GeForce RTX 5090, que supera significativamente a RX 7900 XTX da AMD em tarefas de inferência no modelo DeepSeek R1. Esse salto impressionante no desempenho é amplamente atribuído aos novos Tensor Cores de quinta geração integrados à arquitetura da NVIDIA.

Acesso simplificado aos modelos de raciocínio do DeepSeek com GPUs RTX

À medida que as GPUs de consumo evoluem, elas se tornaram ferramentas poderosas para executar modelos avançados de grande linguagem (LLMs) em sistemas locais. A NVIDIA e a AMD estão evoluindo seu hardware para melhorar a usabilidade desses modelos. Recentemente, a AMD destacou os recursos de sua GPU principal RDNA 3 usando o DeepSeek R1 LLM. Em resposta, a NVIDIA apresentou resultados de benchmarking de sua mais recente série RTX Blackwell, confirmando que a GeForce RTX 5090 conquistou uma vantagem decisiva sobre seus concorrentes.

Gráfico de desempenho da NVIDIA GeForce RTX 5090

Métricas de desempenho revelam que a GeForce RTX 5090 pode processar até 200 tokens por segundo com modelos como Distill Qwen 7b e Distill Llama 8b. Essa saída quase dobra o desempenho da RX 7900 XTX da AMD, ressaltando o domínio da NVIDIA em desempenho de IA. Com a introdução do suporte abrangente “RTX on AI”, podemos esperar que os recursos de IA de ponta se tornem comuns em PCs de nível de consumidor.

Acessando o DeepSeek R1 em GPUs NVIDIA

A NVIDIA facilitou o acesso para entusiastas que buscam alavancar o DeepSeek R1 em suas GPUs RTX. A empresa lançou um blog detalhado que orienta os usuários na configuração, tornando-a tão simples quanto operar qualquer chatbot online. Aqui está uma lição importante do anúncio recente:

Para ajudar os desenvolvedores a experimentar com segurança esses recursos e criar seus próprios agentes especializados, o modelo DeepSeek-R1 de 671 bilhões de parâmetros agora está disponível como uma prévia do microsserviço NVIDIA NIM em build.nvidia.com. O microsserviço DeepSeek-R1 NIM pode fornecer até 3.872 tokens por segundo em um único sistema NVIDIA HGX H200.

Os desenvolvedores podem testar e experimentar a interface de programação de aplicativos (API), que deverá estar disponível em breve como um microsserviço NIM para download, parte da plataforma de software NVIDIA AI Enterprise.

O microsserviço DeepSeek-R1 NIM simplifica as implantações com suporte para APIs padrão do setor. As empresas podem maximizar a segurança e a privacidade dos dados executando o microsserviço NIM em sua infraestrutura de computação acelerada preferida.

– NVIDIA

Essa abordagem inovadora permite que desenvolvedores e entusiastas experimentem modelos de IA usando builds locais. Executar esses modelos localmente não apenas melhora o desempenho — dependendo dos recursos de hardware do sistema — mas também garante maior segurança de dados, protegendo informações confidenciais durante todo o processo.

Para aqueles interessados ​​em explorar mais sobre as ofertas da NVIDIA, confira mais informações neste link:

ou visite a fonte para obter detalhes e imagens.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *