Google、トップクラスのスーパーコンピュータの24倍の速度を誇る第7世代Ironwood AIアクセラレータチップクラスターを発表

Google、トップクラスのスーパーコンピュータの24倍の速度を誇る第7世代Ironwood AIアクセラレータチップクラスターを発表

Google は、革新的な「第 7 世代」カスタム AI アクセラレータ「Ironwood」を発表しました。これは、推論ワークロード専用に設計された同社初の自社製チップとして、重要なマイルストーンとなります。

GoogleのIronwood AIチップのブレークスルー:推論ワークロードの新たな基準を確立

Google Cloud Next 25で発表されたIronwoodアクセラレータは、Google史上最も強力かつ効率的なチップとして際立っています。世代ごとに強化された機能により、推論ワークロードの進化に対するGoogleのコミットメントを示すものであり、Googleは推論ワークロードこそが人工知能の次の重要な段階であると考えています。この最先端のアクセラレータは、Google Cloudのお客様に2つの構成で提供されます。256チップ構成と、より堅牢な9, 216チップ構成で、さまざまなワークロードと推論の電力要件に対応できるよう設計されています。

GoogleのIronwood AIチップ

Ironwood AIチップは、現代のAI市場にとって変革をもたらす一歩となります。9, 216チップ構成のこのシステムは、名高いスーパーコンピュータEl Capitanの24倍の演算能力、つまり42.5エクサフロップスに達すると報告されています。さらに、Ironwoodは前世代のTrillium TPUと比較してワットあたりの性能が2倍に向上しており、世代を経るごとに性能が大きく向上していることが分かります。

  • 高帯域幅メモリ(HBM)容量の大幅な増加: Ironwoodチップ1個あたり192GBの容量を搭載しており、これはTrilliumの6倍に相当します。この拡張により、より大規模なモデルやデータセットの処理が可能になり、データ転送頻度が最小限に抑えられ、全体的なパフォーマンスが向上します。
  • HBM帯域幅の劇的な向上: Ironwoodはチップあたり7.2TBpsの帯域幅を実現し、Trilliumの帯域幅の4.5倍に相当します。この高速データアクセスは、現代のAIアプリケーションに多く見られるメモリを大量に消費するタスクに不可欠です。
  • チップ間相互接続(ICI)帯域幅の強化: ICI帯域幅は双方向で1.2 Tbpsへと大幅に増加し、Trilliumと比較して1.5倍の向上となりました。この強化により、チップ間の通信が高速化され、大規模な分散学習と推論を効率的に実行できるようになります。

Ironwoodの発表は、カスタムメイドの社内AIソリューションにおける目覚ましい進歩を浮き彫りにし、従来NVIDIAが優位に立ってきた市場において、Googleを強力な競合企業へと位置付けています。パフォーマンス指標は、MicrosoftのMaia 100やAmazonのGravitonチップといった競合他社が、カスタマイズされたAIソリューションを通じて得られる機会を認識し、それを捉えていることから、大きな成長の可能性を示しています。

出典と画像

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です