中國科技巨頭策略主管稱 De​​epSeek 減少了對 NVIDIA AI GPU 的需求

中國科技巨頭策略主管稱 De​​epSeek 減少了對 NVIDIA AI GPU 的需求

以下內容不作為投資建議。作者不持有所提及的任何股票的頭寸。

隨著美國大型企業向 AI GPU 投入數十億美元的資本支出,騰訊首席策略長 James Mitchell 表示,DeepSeek 最近的進步可能表明如此巨額的支出是不必要的。 DeepSeek 聲稱其製作的 AI 模型可與美國領先公司的模型相媲美,但成本卻大幅降低,這一說法深深影響了股市格局。

受影響最嚴重的實體可能是 NVIDIA,自 1 月的拋售以來,該公司一直在努力從近 6, 000 億美元的損失中恢復。儘管在最近由首席執行官黃仁勳主持的 GTC 會議上,NVIDIA 努力強調其產品的潛在萬億美元市場,但投資者情緒仍然謹慎,股價停滯不前。

DeepSeek 的創新對中國科技公司 GPU 支出的影響

在最近的討論中,騰訊首席策略長 James Mitchell 表示,投資 NVIDIA 的 AI GPU 的主要原因之一是需要訓練大型語言模型 (LLM)。今年 1 月,在 DeepSeek 技術獲得關注後不久,騰訊就推出了混元 Turbo S AI 模型,聲稱該模型的響應時間不到一秒,是針對中國市場量身定制的。

在尋求超越DeepSeek開發更優秀的AI模型的同時,騰訊承認DeepSeek的創新訓練技術已大大降低了AI開發費用。據報導,透過利用複雜的軟體工程,DeepSeek 可以提高效率,同時最大限度地降低與 AI 模型訓練相關的成本。傳統上,工程師依靠 NVIDIA 的 CUDA 軟體來有效地利用 GPU,但這往往意味著在其產品的微調控制上做出妥協。

關於資本配置,米切爾指出,在 DeepSeek 發布之前,用於訓練大型語言模型的 GPU 的投資就已經至關重要。他回憶起去年人們普遍認為每一代 LLM 都需要更多的 GPU。然而,他表示 DeepSeek 已經改變了這種說法,尤其是在中國科技公司。正如米切爾所說,“那段時期隨著 DeepSeek 所取得的突破而結束了。”

他透露,隨著這些進步,「業界現在使用現有 GPU 進行 LLM 訓練的生產力已經大大提高,無需按照先前預期的速度購買額外的 GPU。」值得注意的是,由於購買 NVIDIA 最新 AI GPU(包括 Blackwell 和 Hopper 產品)受到限制,中國公司被迫依賴較舊的 GPU 型號或大型叢集來緩解運算資源不足的問題。

騰訊宣稱,與 DeepSeek 的產品相比,其 Turbo S 模型在數學、推理和其他 AI 功能方面更勝一籌。業內人士表示,中國企業在應對持續的晶片禁運的同時,或許可以考慮與華為及其 Ascend AI 晶片建立合作夥伴關係。

雖然與 NVIDIA 一樣,華為也為其晶片用戶提供軟體來管理晶片,但報告顯示,DeepSeek 發現華為的軟體效能與 NVIDIA 的解決方案相比有所不足。同時,由於投資人等待更多確鑿的數據來刺激需求,NVIDIA 的股價持續下跌,今年迄今下跌 14%。騰訊在場外市場交易,其市值高達 6, 010 億美元。

來源和圖片

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *