上個月,微軟推出了尖端的 Phi-3.5 系列輕量級 AI 車型,該車型具有一系列增強功能。其中最引人注目的是 Phi-3.5-MoE,它是 Phi 系列中首款採用混合專家 (MoE) 技術的型號。
微軟現已宣布,Phi-3.5-MoE 模型可透過無伺服器 API 在 Azure AI Studio 和 GitHub 中輕鬆使用。此功能允許開發人員將 Phi-3.5-MoE 模型無縫整合到他們的工作流程和應用程式中,而無需管理任何底層基礎設施。
Phi-3.5-MoE 模型以及其他 Phi-3.5 模型可以在多個區域訪問,包括美國東部 2、美國東部、美國中北部、美國中南部、美國西部 3、美國西部和瑞典中部。作為無伺服器產品,開發人員受益於按使用付費的定價結構,該結構設置為每 1,000 個輸入代幣 0.00013 美元,每 1,000 個輸出代幣 0.00052 美元。
在各種AI 基準測試中,Phi-3.5-MoE 相對於同類中的幾乎所有其他開放模型(例如Llama-3.1 8B、Gemma-2-9B 和Mistral-Nemo-12B)表現出了卓越的性能,特別是使用更少的活動參數。微軟聲稱其性能即使不是稍微超過Google的Gemini-1.5-Flash,也可以與Google的Gemini-1.5-Flash相媲美,Google的Gemini-1.5-Flash是該領域領先的閉源模型之一。
MoE模型共有420億個參數,其中只有66億個參數被激活,由16位專家支援。微軟研究院的團隊從頭開始設計了這個模型,以提高效能、增加多語言功能並強化安全協議。此外,Microsoft Phi 團隊並沒有依賴傳統的訓練技術,而是開創了一種稱為 GRIN (GRadient INformed) MoE 的新穎訓練方法。與傳統的培訓方式相比,這種方法顯著提高了參數利用率和專家專業化,並取得了明顯更高品質的結果。
憑藉其卓越的性能指標和可訪問性,Phi-3.5-MoE 將賦予開發人員並推動 AI 生態系統內的創新。其無伺服器模型和基於消費的定價進一步消除了進入壁壘,使更多的開發人員能夠比以往任何時候都獲得先進的人工智慧功能。
來源:微軟
發佈留言