蘋果請求谷歌協助為 Siri 創建定制的 Gemini LLM 資料庫

蘋果請求谷歌協助為 Siri 創建定制的 Gemini LLM 資料庫

蘋果在策略上做出了顯著轉變,似乎已經意識到其內部對 Siri 的改進面臨挑戰,現在正與Google合作,創建一個基於 Gemini 的客製化大型語言模型 (LLM),以支援雲端更新的 Siri。

馬克古爾曼報導:蘋果與Google合作增強Siri的人工智慧

根據知名蘋果分析師馬克古爾曼在其最新一期《Power On》簡報中撰文指出,蘋果似乎已經承認,目前開發出高效的Siri內部人工智慧模型尚不可行。這些經過改進的功能統稱為“Apple Intelligence”,現在將由Google的人工智慧技術提供支援。

根據這項新協議,蘋果計劃利用谷歌的先進技術,設計一個基於Gemini的AI模型,並將其整合到其私有雲運算框架中。這種設計將允許在本地處理較簡單的任務,而更複雜的操作則會使用加密資料卸載到蘋果的安全伺服器上。

即將推出的 Siri 改版的主要功能

預計Siri的更新將包含三個主要部分:

  1. 查詢規劃器:這一關鍵層管理 Siri 如何透過選擇最有效的路徑來滿足用戶請求,這可能涉及網路搜尋、存取日曆事件等個人數據,或透過 App Intents 使用第三方應用程式——App Intents 是一種允許應用程式與 Siri 無縫整合的介面。
  2. 知識搜尋系統: Siri 將包含一個全面的知識庫,使其能夠獨立回答一般瑣事問題,從而消除對 ChatGPT 等外部 AI 資源的依賴。
  3. 摘要產生器:作為 Apple Intelligence 的一個基本組成部分,該工具將使 Siri 能夠利用 ChatGPT 等外部 AI 模型來摘要各種類型的內容,包括:
    • 通知摘要
    • 電子郵件和訊息摘要
    • Safari 瀏覽器中的網頁摘要
    • 寫作協助
    • 音訊內容摘要

在這種未來的架構中,Siri 的裝置端處理將利用蘋果專有的基礎模型,或整合第三方人工智慧,例如 ChatGPT。對於複雜的查詢,資料將發送到蘋果的私人伺服器,由 Gemini 模型接管處理,並透過無狀態加密確保用戶隱私。

今年稍早的報導指出,蘋果的開發團隊在確保 Siri 的有效性方面面臨挑戰,尤其是在應用程式整合和銀行業務等敏感領域的關鍵功能方面。

iOS 26 和 iOS 27 的預期功能

蘋果計劃在 2026 年春季 iOS 更新(很可能是 iOS 26.4)中推出多項重要功能。預計的主要功能包括:

  1. 應用內操作:
    • Siri 將透過語音命令在支援的應用程式內執行情境感知任務——例如,可以將物品添加到購物清單、發送訊息或播放音樂等操作。
  2. 個人情境意識:
    • Siri 將更有效地利用個人資料來提供客製化服務,例如尋找簡訊中提到的播客。
  3. 螢幕意識:
    • Siri 將獲得理解螢幕上顯示內容的能力,從而能夠更流暢地執行相關任務。

此外, iOS 26中已經包含一些人工智慧功能,儘管其應用範圍有限。這些功能包括:

  1. 資訊應用和 FaceTime 通話期間的即時翻譯。
  2. 使用 Image Playground 為「資訊」應用程式中的對話建立自訂背景。
  3. 語音郵件摘要。
  4. AirPods 的即時翻譯功能。
  5. 專用AI操作快捷方式。
  6. 第三方開發者可以利用蘋果的基礎模型來增強功能。
  7. 在圖像遊樂場中使用 ChatGPT 建立自訂圖像。
  8. 在 Image Playground 應用程式中組合表情符號,建立「Genmoji」。
  9. 螢幕截圖的視覺分析。
  10. 通知摘要。

Gurman 也推測,除了 iOS 26.4 即將推出的全新 AI 功能外,蘋果還將在 2026 年 6 月的全球開發者大會上發布 iOS 27 的「重大更新」。

注意:本文已更新,並添加了有關 iOS 26 中 AI 功能的更多資訊。

圖片來源及圖片

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *