Qualcomm lança solução inovadora de IA em escala de rack com memória móvel LPDDR, visando desafiar NVIDIA e AMD

Qualcomm lança solução inovadora de IA em escala de rack com memória móvel LPDDR, visando desafiar NVIDIA e AMD

A Qualcomm revelou seus chips de IA de última geração, estrategicamente projetados para funcionar como uma solução de inferência de IA em nível de rack. O que diferencia esses chips é a utilização de memória móvel.

Uma mudança ousada: os chips de IA da Qualcomm se afastam do HBM para inferência eficiente

Historicamente reconhecida como líder em tecnologia móvel, a Qualcomm diversificou significativamente seu portfólio nos últimos anos, aventurando-se em computação de consumo e infraestrutura de IA. A empresa lançou recentemente suas soluções de chips AI200 e AI250, desenvolvidas especificamente para aplicações em escala de rack. Isso marca uma entrada notável em um cenário competitivo tipicamente dominado por gigantes do setor como NVIDIA e AMD. A abordagem exclusiva da Qualcomm utiliza a memória LPDDR, amplamente associada a dispositivos móveis, para aprimorar o desempenho desses chips.

Para entender a importância do uso da memória LPDDR, é essencial compará-la com a memória de alta largura de banda (HBM), mais comumente utilizada. Os chips AI200 e AI250 podem aumentar a capacidade de memória em até 768 GB de LPDDR, o que excede a largura de banda típica oferecida pelos sistemas HBM. Essa estratégia reduz tanto o consumo de energia quanto os custos de movimentação de dados, proporcionando o que a Qualcomm chama de arquitetura “near-memory”.As principais vantagens da adoção de LPDDR em vez de HBM são:

  • Eficiência energética: menor consumo de energia por bit.
  • Custo-benefício: Mais acessível em comparação às alternativas avançadas de HBM.
  • Maior densidade de memória: ideal para aplicações de inferência.
  • Eficiência térmica: redução da produção de calor em comparação com as soluções HBM.

Apesar desses recursos promissores, os chips em escala de rack da Qualcomm apresentam limitações em comparação aos produtos consagrados da NVIDIA e da AMD. A ausência de HBM resulta em largura de banda de memória reduzida e latência aumentada devido a uma interface mais estreita. Além disso, a memória LPDDR pode não apresentar desempenho ideal em ambientes de servidores exigentes, 24 horas por dia, 7 dias por semana, caracterizados por altas temperaturas. O objetivo principal da Qualcomm parece ser oferecer uma opção viável para inferência de IA, embora essa ênfase restrinja seu uso a aplicações específicas.

Rack de servidor Qualcomm com logotipo visível em uma sala escura.

Além disso, os chips AI200 e AI250 são equipados com tecnologia de resfriamento líquido direto, suportam protocolos PCIe/Ethernet e mantêm um consumo de energia relativamente baixo em nível de rack, de 160 kW. Notavelmente, esses chips são integrados às NPUs Hexagon da Qualcomm, que têm aprimorado continuamente seus recursos de inferência, incluindo suporte a formatos de dados avançados e recursos otimizados para inferência.

A competição no mercado de hardware de IA está acirrada, com grandes players como a Intel lançando sua solução “Crescent Island” e a NVIDIA lançando o chip de IA Rubin CPX. A Qualcomm reconhece a crescente importância do setor de inferência, tornando o lançamento das soluções AI200 e AI250 um movimento estratégico. No entanto, para tarefas que envolvem treinamento extensivo ou cargas de trabalho em larga escala, essas ofertas podem não ser a escolha preferida.

A crescente rivalidade no cenário da IA ​​é emocionante, e as reações iniciais dos varejistas aos anúncios da Qualcomm foram extremamente positivas.

Fonte e Imagens

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *