
AMD 透過最新的驅動程式更新顯著提升了個人電腦的邊緣 AI 功能,為用戶提供了對大型語言模型 (LLM) 的支援。
AMD Strix Halo 平台協助消費者 AI 創新
作為一個產業翹楚,AMD 透過其創新的 XDNA 引擎,在將高效能 AI 運算整合到消費級系統方面取得了顯著進展。該公司的加速處理器 (APU),尤其是 Strix Point 和 Strix Halo 系列,展現出卓越的 AI 效能。最新發布的 Adrenalin Edition 25.8.1 驅動程式引入了對 LLM 模型的支持,這些模型的參數數量高達 1280 億個,為消費級設備利用先進的 AI 模型(包括 Meta 的尖端 Llama 4 Scout)鋪平了道路。

AMD 技術的一大亮點是其可變記憶體 (VGM),它允許消費者為整合 GPU (iGPU) 分配高達 96 GB 的記憶體。此功能支援在本地執行大規模 AI 模型。例如,Llama 模型採用混合專家 (MoE) 設計,運行時僅使用 170 億個參數。因此,使用者可以實現令人印象深刻的每秒事務數 (TPS),使 LLM 能夠高效地充當複雜的 AI 助理。

AMD 的進步不僅限於純粹的運算能力;他們在上下文大小方面也取得了顯著的改進。傳統消費級處理器支援的上下文長度約為 4096 個代幣。然而,AMD 實現了令人印象深刻的 256, 000 個令牌的上下文長度,大大增強了使用者對工作流程的控制,並始終確保了強大的效能。這些進步顯示了個人電腦中「人工智慧運算」技術的蓬勃發展,標誌著產業的顯著轉變。
目前,Strix Halo 平台僅在少數裝置上可用,對於許多消費者來說,取得它仍然是一個挑戰,部分系統售價超過 2, 000 美元。儘管成本較高,但 AMD 致力於普及 AI 能力的決心顯而易見,即便購買這些尖端設備需要大量的資金投入。
發佈留言