
A NVIDIA revelou recentemente sua mais recente GPU GeForce RTX 5090, que supera significativamente a RX 7900 XTX da AMD em tarefas de inferência no modelo DeepSeek R1. Esse salto impressionante no desempenho é amplamente atribuído aos novos Tensor Cores de quinta geração integrados à arquitetura da NVIDIA.
Acesso simplificado aos modelos de raciocínio do DeepSeek com GPUs RTX
À medida que as GPUs de consumo evoluem, elas se tornaram ferramentas poderosas para executar modelos avançados de grande linguagem (LLMs) em sistemas locais. A NVIDIA e a AMD estão evoluindo seu hardware para melhorar a usabilidade desses modelos. Recentemente, a AMD destacou os recursos de sua GPU principal RDNA 3 usando o DeepSeek R1 LLM. Em resposta, a NVIDIA apresentou resultados de benchmarking de sua mais recente série RTX Blackwell, confirmando que a GeForce RTX 5090 conquistou uma vantagem decisiva sobre seus concorrentes.

Métricas de desempenho revelam que a GeForce RTX 5090 pode processar até 200 tokens por segundo com modelos como Distill Qwen 7b e Distill Llama 8b. Essa saída quase dobra o desempenho da RX 7900 XTX da AMD, ressaltando o domínio da NVIDIA em desempenho de IA. Com a introdução do suporte abrangente “RTX on AI”, podemos esperar que os recursos de IA de ponta se tornem comuns em PCs de nível de consumidor.
Acessando o DeepSeek R1 em GPUs NVIDIA
A NVIDIA facilitou o acesso para entusiastas que buscam alavancar o DeepSeek R1 em suas GPUs RTX. A empresa lançou um blog detalhado que orienta os usuários na configuração, tornando-a tão simples quanto operar qualquer chatbot online. Aqui está uma lição importante do anúncio recente:
Para ajudar os desenvolvedores a experimentar com segurança esses recursos e criar seus próprios agentes especializados, o modelo DeepSeek-R1 de 671 bilhões de parâmetros agora está disponível como uma prévia do microsserviço NVIDIA NIM em build.nvidia.com. O microsserviço DeepSeek-R1 NIM pode fornecer até 3.872 tokens por segundo em um único sistema NVIDIA HGX H200.
Os desenvolvedores podem testar e experimentar a interface de programação de aplicativos (API), que deverá estar disponível em breve como um microsserviço NIM para download, parte da plataforma de software NVIDIA AI Enterprise.
O microsserviço DeepSeek-R1 NIM simplifica as implantações com suporte para APIs padrão do setor. As empresas podem maximizar a segurança e a privacidade dos dados executando o microsserviço NIM em sua infraestrutura de computação acelerada preferida.
– NVIDIA
Essa abordagem inovadora permite que desenvolvedores e entusiastas experimentem modelos de IA usando builds locais. Executar esses modelos localmente não apenas melhora o desempenho — dependendo dos recursos de hardware do sistema — mas também garante maior segurança de dados, protegendo informações confidenciais durante todo o processo.
Para aqueles interessados em explorar mais sobre as ofertas da NVIDIA, confira mais informações neste link:
ou visite a fonte para obter detalhes e imagens.
Deixe um comentário