
最近の報告によると、Meta の AI インフラストラクチャへの支出は大幅に増加し、予測ではコストが 650 億ドルに達すると見込まれています。全体として、同社の総支出は 1, 140 億ドルから 1, 190 億ドルの間になると予想されています。この財政難に対応するため、Meta は初の自社製 AI チップの開発に投資しており、最近の発表で述べたように、この取り組みの具体的な進歩を示しています。この戦略的な動きは、AI トレーニングに不可欠な NVIDIA の高価な GPU への依存を減らすことを目的としています。
2026 年までに自社製 AI チップを実現するという Meta のビジョン
当初、プロジェクトは一時中断につながる障害に直面したが、同社の幹部は、新しい AI チップが 2026 年までにトレーニング タスクで運用可能になると楽観視している。段階的な導入により、テスト結果が成功すれば、より幅広いアプリケーションへの道が開かれる可能性がある。ロイターが引用した情報筋によると、Meta の次期 AI チップは、AI 関連の計算に特化することを目的とした専用アクセラレータとして指定されている。この移行により、NVIDIA の高価なグラフィック プロセッサの購入に関連する費用が大幅に削減されるだけでなく、チップが特定の機能に合わせて調整されるため、Meta のインフラストラクチャのエネルギー効率も向上する。
このカスタムシリコンの製造はTSMCが担当すると予想されているが、どのような半導体製造技術が使用されるかの詳細は明らかにされていない。報告によると、MetaはAIチップの最初のテープアウトを無事に完了したという。このプロセスには多額の費用がかかり、数か月かかることもある。ただし、テープアウトが成功してもチップが動作要件を満たすことが保証されるわけではなく、さらなる診断と場合によっては追加のテープアウトの繰り返しが必要となり、開発費が増大する可能性があることに注意する必要がある。
さまざまな課題のため、Meta はカスタム AI チップの開発を断念した時期もありました。しかし、同社はこれらのハードルを乗り越え、現在はチップの機能を社内システムに活用し、最終的にはチャットボットなどの生成 AI アプリケーションに拡大することを目指しています。一方、NVIDIA は GPU 需要の急増により成長を続けており、Meta は同社の最大の顧客の 1 つです。
専門家は、大規模言語モデル (LLM) を強化するために単純に GPU の生のパワーをアップスケールすることの有効性について懸念を表明しています。カスタム AI チップへの移行は、そのようなハードウェアの物理的スペースと冷却の必要性を最小限に抑える可能性があるだけでなく、カスタマイズされたコンピューティング ソリューションに向かう AI 業界の重要なトレンドを浮き彫りにしています。Meta がこの取り組みを進めるにつれて、最初のユニットの導入に対する期待は依然として高まっています。
コメントを残す