TPUs Trillium do Google: uma nova era na aceleração da IA
Uma década atrás, o Google embarcou em sua jornada para criar aceleradores de IA personalizados conhecidos como Tensor Processing Units (TPUs). No início de 2023, a gigante da tecnologia revelou sua TPU de sexta geração, chamada Trillium, que define novos padrões em desempenho e eficiência, superando modelos anteriores. Hoje, o Google anunciou que as TPUs Trillium agora são universalmente acessíveis aos clientes do Google Cloud, revelando simultaneamente que essas TPUs poderosas foram fundamentais no treinamento de seu modelo mais recente, Gemini 2.0.
Entrando no ecossistema de desenvolvedores de IA
As GPUs da Nvidia se tornaram uma escolha dominante entre os desenvolvedores de IA, não apenas devido ao seu hardware excepcional, mas também devido ao suporte robusto de software. Para promover um entusiasmo semelhante pelas TPUs Trillium, o Google fez melhorias significativas em sua estrutura de software. Isso inclui otimizações no compilador XLA, bem como estruturas de IA populares, como JAX, PyTorch e TensorFlow, permitindo que os desenvolvedores maximizem a relação custo-benefício no treinamento, ajuste e implantação de IA.
Principais melhorias em TPUs Trillium
Os TPUs Trillium oferecem uma série de melhorias substanciais em relação à geração anterior, incluindo:
- O desempenho do treinamento aumentou em mais de 4x
- Rendimento de inferência aprimorado em até 3x
- Eficiência energética aumentada em 67%
- O desempenho máximo de computação por chip aumentou em impressionantes 4,7x
- Capacidade de memória de alta largura de banda (HBM) dobrada
- A largura de banda do Interchip Interconnect (ICI) também dobrou
- Capacidade de implantar 100.000 chips Trillium em uma rede unificada Jupiter
- O desempenho do treinamento por dólar melhorou em até 2,5x e o desempenho da inferência em até 1,4x
Escalabilidade e disponibilidade
O Google relatou que os TPUs Trillium podem atingir uma eficiência de dimensionamento impressionante de 99% com uma configuração de 12 pods consistindo de 3.072 chips e 94% de eficiência em 24 pods usando 6.144 chips, tornando-os adequados para pré-treinar grandes modelos como os 175 bilhões de parâmetros do GPT-3.
Atualmente, o Trillium está disponível para implantação em regiões-chave, incluindo América do Norte (Leste dos EUA), Europa (Oeste) e Ásia (Nordeste). Para usuários interessados em avaliação, o custo começa em $ 2,7000 por chip-hora. Além disso, compromissos de longo prazo oferecem taxas reduzidas de $ 1,8900 por chip-hora por um ano e $ 1,2200 por chip-hora por um compromisso de três anos.
Conclusão
Com sua escalabilidade e recursos de software aprimorados, o Trillium representa um avanço substancial na estratégia de infraestrutura de IA em nuvem do Google, posicionando-o como um concorrente formidável no mercado em evolução de aceleradores de IA.
Deixe um comentário