NVIDIA 尖端的 Blackwell AI 服务器已正式全面投入生产,并得到了超过 15 家主流合作伙伴的支持。此次合作已带来超过 200 种不同的配置,标志着 NVIDIA 在 AI 领域的重要里程碑。
利用 NVIDIA Blackwell 服务器实现 AI 转型
NVIDIA 首席执行官黄仁勋在最近的CES 2025 主题演讲中宣布,在经历各种挑战之后,NVIDIA 的 Blackwell AI 服务器现已在主流 AI 领域站稳脚跟。
在此次活动中,詹森重点介绍了与戴尔和华硕等主要合作伙伴的合作,展示了 Blackwell 服务器的完整配置生态系统。这一战略合作伙伴关系标志着行业采用率的提升,与 NVIDIA 在人工智能开发方面的雄心勃勃的目标相一致。此外,詹森还揭开了 Grace Blackwell 芯片的架构奇迹,进一步巩固了公司的创新努力。
Blackwell AI 服务器的一个显著特点是其模块化。NVIDIA 宣布这些服务器将提供两种不同的设置——NVL36x2 和 NVL72——并提供超过 200 种配置选择。客户可以选择风冷和液冷选项,以及各种 Grace CPU 配置,确保性能能够根据其特定工作负载进行精细调整。
Blackwell 架构具有出色的性能可扩展性,与上一代 Hopper 相比性能提升了 4 倍。这一进步有望大幅提升 NVIDIA 的收入潜力,巩固其在竞争激烈的 AI 领域中的地位。
值得注意的是,Blackwell AI 服务器的推出在 2024 年第四季度遇到了一些障碍。最初,生产问题被归咎于台积电的封装服务,这导致 Blackwell 芯片面临散热挑战。然而,这些问题很快得到解决,NVIDIA 现已成功重新进入主流市场。
随着 Blackwell 的 AI 服务器逐渐面向各种 AI 客户推出,NVIDIA 的收入有望大幅增长,尤其是因为 NVL36 和 NVL72 配置的成本比其前代产品更高。人们热切期待这种巨大计算能力可能带来的潜在应用和进步,有望突破 AI 领域的极限。
发表回复