Outbyte PC Repair

Google、最新のTrillium TPUでNvidia Blackwell GPUに挑む

Google、最新のTrillium TPUでNvidia Blackwell GPUに挑む

Google の Trillium TPU: AI アクセラレーションの新時代

10年前、GoogleはTensor Processing Unit(TPU)と呼ばれるカスタムAIアクセラレータの開発に乗り出しました。2023年初頭、このテクノロジー大手は、以前のモデルを凌駕し、パフォーマンスと効率の両方で新たなベンチマークを確立した第6世代TPU「Trillium」を発表しました。本日、Googleは、Trillium TPUがGoogle Cloudの顧客にとって普遍的に利用可能になったことを発表し、同時に、これらの強力なTPUが最新モデル「Gemini 2.0」のトレーニングに役立ったことを明らかにしました。

AI開発者エコシステムへの参入

Nvidia の GPU は、その優れたハードウェアだけでなく、堅牢なソフトウェア サポートによって、AI 開発者の間で主流の選択肢となっています。Trillium TPU に対する同様の熱意を育むために、Google はソフトウェア フレームワークを大幅に強化しました。これには、XLA コンパイラーの最適化や、JAX、PyTorch、TensorFlow などの一般的な AI フレームワークの最適化が含まれており、開発者は AI のトレーニング、チューニング、展開におけるコスト効率を最大化できます。

Trillium TPUの主な改良点

Trillium TPU は、前世代に比べて次のような大幅な改善が施されています。

  • トレーニングパフォーマンスが4倍以上向上
  • 推論スループットが最大3倍に向上
  • エネルギー効率が67%向上
  • チップあたりのピークコンピューティング性能が驚異の4.7倍に向上
  • 高帯域幅メモリ(HBM)容量が2倍に
  • インターチップインターコネクト(ICI)の帯域幅も2倍に
  • 統合された Jupiter ネットワーク ファブリックに 100,000 個の Trillium チップを展開する機能
  • 1ドルあたりのトレーニングパフォーマンスは最大2.5倍、推論パフォーマンスは最大1.4倍向上

スケーラビリティと可用性

Google は、Trillium TPU は 3,072 個のチップで構成される 12 個のポッドのセットアップで 99% という驚異的なスケーリング効率を達成でき、6,144 個のチップを使用する 24 個のポッド全体で 94% の効率を達成できるため、GPT-3 の 1750 億個のパラメータのような大規模モデルの事前トレーニングに適していると報告しています。

現在、Trillium は北米 (米国東部)、ヨーロッパ (西部)、アジア (北東部) などの主要地域で導入可能です。評価に関心のあるユーザーの場合、料金は 1 チップ時間あたり 2.7000 ドルからとなります。さらに、長期契約では 1 年間で 1 チップ時間あたり 1.8900 ドル、3 年間で 1 チップ時間あたり 1.2200 ドルの割引料金が適用されます。

結論

Trillium は、そのスケーラビリティと強化されたソフトウェア機能により、Google のクラウド AI インフラストラクチャ戦略の大幅な進歩を意味し、進化する AI アクセラレータ市場における強力な競争相手としての地位を確立しています。

出典と画像

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です