
O Google apresentou seu revolucionário acelerador de IA personalizado de “7ª geração” chamado Ironwood, marcando um marco significativo como o primeiro chip interno da empresa projetado explicitamente para cargas de trabalho de inferência.
A inovação do chip de IA Ironwood do Google: definindo novos padrões para cargas de trabalho de inferência
Revelado durante o Google Cloud Next 25, o acelerador Ironwood se destaca como o chip mais poderoso e eficiente do Google até o momento. Com recursos geracionais aprimorados, ele demonstra o compromisso da empresa com o avanço das cargas de trabalho de inferência, que o Google acredita representar a próxima fase crucial da inteligência artificial. Este acelerador de ponta estará disponível em duas configurações para clientes do Google Cloud: uma configuração de 256 chips e uma configuração mais robusta de 9.216 chips, projetada para atender a diversas cargas de trabalho e requisitos de potência de inferência.

O chip de IA Ironwood marca um passo transformador para os mercados de IA contemporâneos. Com a configuração de 9.216 chips, o sistema supostamente atinge 24 vezes o poder de computação do estimado supercomputador El Capitan, atingindo impressionantes 42, 5 Exaflops. Reforçando ainda mais os avanços, o Ironwood também apresenta o dobro do desempenho por watt em comparação com o TPU Trillium da geração anterior, destacando a trajetória ascendente significativa de melhorias de desempenho ao longo das gerações.
- Aumento substancial na capacidade da Memória de Alta Largura de Banda (HBM): cada chip Ironwood possui 192 GB, um aumento de seis vezes em comparação com o Trillium. Essa expansão permite o processamento de modelos e conjuntos de dados maiores, minimizando a frequência das transferências de dados e aprimorando o desempenho geral.
- Largura de banda HBM significativamente melhorada: o Ironwood atinge níveis de largura de banda de 7, 2 TBps por chip, representando uma melhoria de 4, 5 vezes em relação à largura de banda do Trillium. Esse acesso rápido aos dados é essencial para as tarefas que exigem muita memória, predominantes em aplicações modernas de IA.
- Largura de banda aprimorada da Interconexão Inter-Chip (ICI): A largura de banda da ICI teve um aumento significativo para 1, 2 Tbps bidirecional, uma melhoria de 1, 5 vez em comparação com o Trillium. Essa melhoria facilita a comunicação mais rápida entre os chips, permitindo treinamento distribuído eficiente e inferência em escala.
O lançamento do Ironwood destaca o impressionante progresso alcançado em soluções personalizadas de IA interna, posicionando o Google como um concorrente formidável em um mercado tradicionalmente dominado pela NVIDIA. As métricas de desempenho indicam um vasto potencial de crescimento, especialmente porque concorrentes como a Microsoft e seu Maia 100 e a Amazon com seus chips Graviton reconhecem e aproveitam as oportunidades disponíveis por meio de soluções de IA personalizadas.
Deixe um comentário