A linha de GPUs Blackwell AI da NVIDIA incluirá dois aceleradores principais, o B100 para 2024 e o B200 para 2025, conforme revelado pela Dell.
Dell revela tudo sobre os aceleradores de GPU Blackwell AI de última geração da NVIDIA, B100 em 2024, seguido por B200 em 2025
Durante sua recente teleconferência de resultados, a Dell revelou o fato de que a próxima geração da linha Blackwell da NVIDIA não terá apenas um acelerador B100 AI, mas uma versão atualizada será oferecida posteriormente. Ao que parece, a NVIDIA parece já ter divulgado esta informação aos seus maiores parceiros, como a Dell, que operará servidores e data centers usando a mais recente IA da NVIDIA e hardware pronto para computação.
Sabemos que as GPUs Blackwell da NVIDIA serão lançadas este ano e farão sua estreia formal no GTC 2024 este mês , daqui a apenas algumas semanas. Os roteiros atuais apontam NVIDIA B100, GB200 e GB200NVL sendo B100 o codinome da própria GPU, GB200 sendo a plataforma Superchip e GB200NVL sendo a plataforma interconectada para uso de supercomputação.
Atualmente, há relatos de que as GPUs Blackwell da NVIDIA podem utilizar um design monolítico, embora nada esteja concreto ainda. O que se sabe é que assim como as GPUs Hopper H200, o Blackwell B100 em sua primeira geração aproveitará as tecnologias de memória HBM3e. Portanto, a variante B200 atualizada pode acabar usando uma versão ainda mais rápida da memória HBM, juntamente com capacidades de memória possivelmente mais altas, especificações atualizadas e recursos aprimorados. Diz-se que a Samsung é um importante fornecedor de memória para as GPUs Blackwell .
Obviamente, qualquer visão das mudanças nos deixa entusiasmados com o que está acontecendo com o H200 e sua melhoria de desempenho. Estamos entusiasmados com o que acontece no B100 e no B200 e achamos que é aí que existe outra oportunidade para distinguir a confiança da engenharia. Nossa caracterização no lado térmico, você realmente não precisa de resfriamento líquido direto para chegar à densidade de energia de 1.000 watts por GPU.
Isso acontecerá no próximo ano com o B200 . A oportunidade para realmente mostrarmos nossa engenharia e quão rápido podemos nos mover e o trabalho que fizemos como líderes do setor para trazer nossa experiência para fazer o resfriamento líquido funcionar em escala, seja em química de fluidos e desempenho, nossa interconexão trabalho, a telemetria que estamos fazendo, o trabalho de gerenciamento de energia que estamos fazendo, isso realmente nos permite estar preparados para trazer isso para o mercado em escala para aproveitar essa incrível capacidade computacional ou intensidade ou capacidade que existirá no mercado .
Robert L. Williams – Dell Technologies Inc. – Vice-presidente sênior de RI
Curiosamente, o vice-presidente sênior da Dell também aponta que a densidade de potência dessas GPUs de última geração, como a NVIDIA Blackwell B100 e B200, será de 1.000 W, o que é um número enorme, mas nada que não esperávamos de alguns dos aceleradores de IA mais rápidos do mundo. . O NVIDIA Hopper H200 e o AMD Instinct MI300X já podem consumir até 800 W na potência de pico, portanto, dadas as melhorias de desempenho que a Blackwell deve trazer , um aumento de 200 W na potência será bastante nominal, dado o aumento de eficiência.
Os requisitos de energia para CPUs e GPUs continuarão a aumentar no futuro, conforme apontado há algum tempo no roteiro da Gigabyte . Para superá-los, as empresas aproveitarão tecnologias avançadas de processos e embalagens para garantir que o custo do desenvolvimento de chips permaneça ideal, garantindo ao mesmo tempo maior eficiência energética.
Roteiro de data center NVIDIA / GPU AI
Codinome da GPU | X | Esfregar | Blackwell | Funil | Ampére | Tempo | Pascal |
---|---|---|---|---|---|---|---|
Família de GPUs | GX200 | GR100 | GB200 | GH200/GH100 | GA100 | GV100 | GP100 |
GPU WeU | X100 | R$ 100 | B100/B200 | H100/H200 | A100 | V100 | P100 |
Memória | HBM4e? | HBM4? | HBM3e | HBM2e/HBM3/HBM3e | HBM2e | HBM2 | HBM2 |
Lançar | 202X | 2025 | 2024 | 2022-2024 | 2020-2022 | 2018 | 2016 |
Fonte de notícias: Barron’s
Deixe um comentário