蘋果在策略上做出了顯著轉變,似乎已經意識到其內部對 Siri 的改進面臨挑戰,現在正與Google合作,創建一個基於 Gemini 的客製化大型語言模型 (LLM),以支援雲端更新的 Siri。
馬克古爾曼報導:蘋果與Google合作增強Siri的人工智慧
根據知名蘋果分析師馬克古爾曼在其最新一期《Power On》簡報中撰文指出,蘋果似乎已經承認,目前開發出高效的Siri內部人工智慧模型尚不可行。這些經過改進的功能統稱為“Apple Intelligence”,現在將由Google的人工智慧技術提供支援。
據報道,蘋果正在付費給谷歌,委託其開發基於 Gemini 技術的定製版 LLM(生命週期管理),該 LLM 將運行在蘋果自有的私有雲運算框架上。這些 LLM 將為全新的個人化 Siri 和 AI 網路搜尋提供支持,並像最初計劃的那樣保持完全私密。來源 – @markgurman pic.twitter.com/KaRH0n0lof
– AppleLeaker (@LeakerApple) 2025 年 11 月 3 日
根據這項新協議,蘋果計劃利用谷歌的先進技術,設計一個基於Gemini的AI模型,並將其整合到其私有雲運算框架中。這種設計將允許在本地處理較簡單的任務,而更複雜的操作則會使用加密資料卸載到蘋果的安全伺服器上。
即將推出的 Siri 改版的主要功能
預計Siri的更新將包含三個主要部分:
- 查詢規劃器:這一關鍵層管理 Siri 如何透過選擇最有效的路徑來滿足用戶請求,這可能涉及網路搜尋、存取日曆事件等個人數據,或透過 App Intents 使用第三方應用程式——App Intents 是一種允許應用程式與 Siri 無縫整合的介面。
 - 知識搜尋系統: Siri 將包含一個全面的知識庫,使其能夠獨立回答一般瑣事問題,從而消除對 ChatGPT 等外部 AI 資源的依賴。
 -  摘要產生器:作為 Apple Intelligence 的一個基本組成部分,該工具將使 Siri 能夠利用 ChatGPT 等外部 AI 模型來摘要各種類型的內容,包括: 
- 通知摘要
 - 電子郵件和訊息摘要
 - Safari 瀏覽器中的網頁摘要
 - 寫作協助
 - 音訊內容摘要
 
 
在這種未來的架構中,Siri 的裝置端處理將利用蘋果專有的基礎模型,或整合第三方人工智慧,例如 ChatGPT。對於複雜的查詢,資料將發送到蘋果的私人伺服器,由 Gemini 模型接管處理,並透過無狀態加密確保用戶隱私。
今年稍早的報導指出,蘋果的開發團隊在確保 Siri 的有效性方面面臨挑戰,尤其是在應用程式整合和銀行業務等敏感領域的關鍵功能方面。
iOS 26 和 iOS 27 的預期功能
蘋果計劃在 2026 年春季 iOS 更新(很可能是 iOS 26.4)中推出多項重要功能。預計的主要功能包括:
-  應用內操作: 
- Siri 將透過語音命令在支援的應用程式內執行情境感知任務——例如,可以將物品添加到購物清單、發送訊息或播放音樂等操作。
 
 -  個人情境意識: 
- Siri 將更有效地利用個人資料來提供客製化服務,例如尋找簡訊中提到的播客。
 
 -  螢幕意識: 
- Siri 將獲得理解螢幕上顯示內容的能力,從而能夠更流暢地執行相關任務。
 
 
此外, iOS 26中已經包含一些人工智慧功能,儘管其應用範圍有限。這些功能包括:
- 資訊應用和 FaceTime 通話期間的即時翻譯。
 - 使用 Image Playground 為「資訊」應用程式中的對話建立自訂背景。
 - 語音郵件摘要。
 - AirPods 的即時翻譯功能。
 - 專用AI操作快捷方式。
 - 第三方開發者可以利用蘋果的基礎模型來增強功能。
 - 在圖像遊樂場中使用 ChatGPT 建立自訂圖像。
 - 在 Image Playground 應用程式中組合表情符號,建立「Genmoji」。
 - 螢幕截圖的視覺分析。
 - 通知摘要。
 
Gurman 也推測,除了 iOS 26.4 即將推出的全新 AI 功能外,蘋果還將在 2026 年 6 月的全球開發者大會上發布 iOS 27 的「重大更新」。
注意:本文已更新,並添加了有關 iOS 26 中 AI 功能的更多資訊。
		  
		  
		  
		  
發佈留言