蘋果公司正策略性地利用Google的先進技術來增強其重新設計的 Siri 的功能,並在雲端引入了強大的客製化 Gemini AI 模型。
來自馬克古爾曼的見解:蘋果將為 Siri 全面升級實施一個擁有 1.2 兆個參數的客製化 Gemini AI 模型
根據彭博社記者馬克古爾曼的最新報道,蘋果公司計劃整合一款客製化的Gemini人工智慧模型,該模型擁有驚人的1.2兆個參數。這款客製化模式遠超目前Siri在雲端運行的、擁有15億個參數的蘋果專有人工智慧系統。
在最終確定這項獨特方案之前,蘋果評估了其他領先的人工智慧模型,包括 OpenAI 的 ChatGPT 和 Anthropic 的 Claude。最終,蘋果決定採用定製版的Google Gemini,以支援更複雜的用戶交互,所有操作均在蘋果私有雲運算系統的框架內進行。該系統透過使用加密和無狀態資料來保護用戶隱私。
此外,作為協議的一部分,蘋果預計每年將投資約10億美元,以獲取Google的尖端人工智慧技術。這項交易標誌著蘋果和谷歌之間長期商業合作關係的最新進展。根據該協議,Google每年還向蘋果支付200億美元,以獲得Safari和其他蘋果平台的預設搜尋引擎使用權。
蘋果內部將這項旨在改進 Siri 的專案命名為 Glenwood。該項目由包括 Vision Pro 頭戴式顯示器的設計者 Mike Rockwell 和軟體工程主管 Craig Federighi 在內的知名人士領導。
Siri 全面改版:關鍵組成部分
蘋果即將推出的Siri重新設計將包含三個基本組件:
- 查詢規劃器-此部分代表 Siri 的運作層,負責確定處理使用者請求的最佳路徑。這可能包括執行網路搜尋、存取個人資料(例如日曆或照片記錄),或透過應用意圖 (App Intents) 與第三方應用程式互動。應用意圖是一個框架,使 Siri 能夠在無需使用者乾預的情況下提供應用程式內操作。
- 知識搜尋系統-Siri 將整合一個綜合知識庫,旨在獨立處理瑣事查詢,最大限度地減少對第三方人工智慧或線上搜尋結果的依賴。
- 摘要器– 這項 Apple Intelligence 中的一項重要功能使 Siri 能夠利用 ChatGPT 等外部 AI 模型來精簡各種文字或音訊輸入,並提供通知摘要和網頁洞察等功能。
在蘋果不斷發展的技術格局下,客製化的GoogleGemini模型預計將主要負責查詢規劃器和摘要功能,而知識搜尋系統將由蘋果專有的裝置端語言學習模型(LLM)提供支援。重要的是,這種安排旨在保持各自獨立的功能,同時避免將Google的搜尋人工智慧置於蘋果生態系統的核心地位。
儘管此次合作是向前邁出的關鍵一步,但蘋果計劃逐步開發其專屬解決方案。目前,Gemini 機型將在 iOS 26.4 發佈時發揮重要作用,以協助 Siri 體驗的升級。 iOS 26.4 將為語音助理引入更強大的應用程式內操作、情境感知和改進的視覺互動。
發佈留言