
微軟就其 Azure 平台發布了一項重要聲明,推出了首個整合 NVIDIA 尖端 GB300 “Blackwell Ultra” GPU 的大規模生產叢集。這項技術專為處理超大型 AI 模型而設計。
NVIDIA GB300「Blackwell Ultra」:增強微軟 Azure 平台的 AI 訓練
Azure 框架已升級,包含 Blackwell Ultra,其強大的部署涵蓋了超過 4, 600 個基於 NVIDIA 先進 GB300 NVL72 架構的 GPU。此配置採用了最先進的 InfiniBand 互連技術,顯著提升了微軟在其全球資料中心部署數十萬個 Blackwell Ultra GPU 的能力,這些 GPU 均專用於 AI 工作負載。
全球首個用於 AI 工作負載的大規模@nvidia GB300 NVL72 超級運算叢集現已在 Microsoft Azure 上線。該部署使用下一代 InfiniBand 網路連接 4, 600 多個 NVIDIA Blackwell Ultra GPU,旨在以更快的速度訓練和部署高級 AI 模型… pic.twitter.com/CmmDtcrlwn
— Microsoft Azure (@Azure) 2025 年 10 月 9 日
據微軟稱,部署搭載 NVIDIA GB300 NVL72 “Blackwell Ultra” GPU 的 Azure 集群,可將模型訓練時間從數月大幅縮短至數週。這項進步使得包含數百萬億個參數的模型能夠得到訓練。 NVIDIA 在推理指標方面也展現出領先的性能,眾多 MLPerf 基準測試和最近的InferenceMAX AI 測試都證明了這一點。
全新推出的 Azure ND GB300 v6 虛擬機器 (VM) 針對各種進階應用進行了最佳化,包括推理模型、代理 AI 系統和多模態生成 AI 任務。此基礎架構中的每個機架可容納 18 台虛擬機,每台虛擬機配備 72 個 GPU。以下規格突顯了其性能優勢:
- 72 個 NVIDIA Blackwell Ultra GPU 與 36 個 NVIDIA Grace CPU 配對。
- 透過尖端的 NVIDIA Quantum-X800 InfiniBand 實現 800 千兆位元每秒 (Gbps) 的跨機架橫向擴展頻寬。
- 每機架每秒 130 太字節 (TB) 的 NVIDIA NVLink 頻寬。
- 37 TB高速記憶體。
- FP4 Tensor Core 效能高達 1, 440 千萬億次浮點運算 (PFLOPS)。

在機架層面,NVLink 和 NVSwitch 改進了記憶體分配和頻寬,在連接 37 TB 快速記憶體的同時,實現了驚人的每秒 130 TB 機架內資料傳輸。這項架構創新將每個機架轉變為一個整合單元,為更大的模型和擴展的上下文視窗提供更高的推理吞吐量和更低的延遲。這項增強功能支援代理程式和多模態 AI 系統,使其比以往任何時候都更加敏捷和可擴展。
為了將功能擴展到單一機架之外,Azure 採用了由 NVIDIA Quantum-X800 Gbps InfiniBand 支援的高效能胖樹網路架構。這種設計確保了超大型模型訓練能夠高效擴展到數萬個 GPU,同時最大限度地降低通訊開銷。同步開銷的降低進一步實現了 GPU 的最佳利用率,即使在 AI 訓練需要大量運算的情況下,也能加快研究週期並提高成本效益。 Azure 專門設計的堆疊包含自訂協定和網路內運算功能,可確保高可靠性和高效的資源使用率。 NVIDIA SHARP 等技術透過交換器運算提高了集體運算速度並使有效頻寬翻倍,從而促進更有效率的大規模訓練和推理。
此外,Azure 的創新冷卻技術融合了獨立的熱交換單元和先進的設施冷卻系統,旨在減少用水量,同時確保 GB300 NVL72 等高密度高性能群的熱穩定性。持續開發和調整配電模型,也支援 ND GB300 v6 VM 級 GPU 叢集固有的高能耗和動態負載平衡需求。
透過微軟
正如NVIDIA所強調的,微軟Azure與NVIDIA的此次合作標誌著美國在人工智慧領域保持領先地位的關鍵時刻。客戶現在可以存取並利用這些突破性的Azure虛擬機來進行他們的專案。
發佈留言