苹果公司在战略上做出了显著转变,似乎已经意识到其内部对 Siri 的改进面临挑战,现在正与谷歌合作,创建一个基于 Gemini 的定制大型语言模型 (LLM),以支持云端更新的 Siri。
马克·古尔曼报道:苹果与谷歌合作增强Siri的人工智能
据知名苹果分析师马克·古尔曼在其最新一期《Power On》简报中撰文指出,苹果似乎已经承认,目前开发出高效的Siri内部人工智能模型尚不可行。这些经过改进的功能统称为“Apple Intelligence”,现在将由谷歌的人工智能技术提供支持。
据报道,苹果公司正在付费给谷歌,委托其开发基于 Gemini 技术的定制版 LLM(生命周期管理),该 LLM 将运行在苹果自有的私有云计算框架上。这些 LLM 将为全新的个性化 Siri 和 AI 网络搜索提供支持,并像最初计划的那样保持完全私密。来源 – @markgurman pic.twitter.com/KaRH0n0lof
– AppleLeaker (@LeakerApple) 2025 年 11 月 3 日
根据这项新协议,苹果计划利用谷歌的先进技术,设计一个基于Gemini的AI模型,并将其集成到其私有云计算框架中。这种设计将允许在本地处理较为简单的任务,而更复杂的操作则会使用加密数据卸载到苹果的安全服务器上。
即将推出的 Siri 改版的主要功能
预计Siri的更新将包含三个主要部分:
- 查询规划器:这一关键层管理 Siri 如何通过选择最有效的路径来满足用户请求,这可能涉及网络搜索、访问日历事件等个人数据,或通过 App Intents 使用第三方应用程序——App Intents 是一种允许应用程序与 Siri 无缝集成的接口。
 - 知识搜索系统: Siri 将包含一个全面的知识库,使其能够独立回答一般琐事问题,从而消除对 ChatGPT 等外部 AI 资源的依赖。
 -  摘要生成器:作为 Apple Intelligence 的一个基本组成部分,该工具将使 Siri 能够利用 ChatGPT 等外部 AI 模型来摘要各种类型的内容,包括: 
- 通知摘要
 - 电子邮件和消息摘要
 - Safari 浏览器中的网页摘要
 - 写作协助
 - 音频内容摘要
 
 
在这种未来的架构中,Siri 的设备端处理将利用苹果专有的基础模型,或集成第三方人工智能,例如 ChatGPT。对于复杂的查询,数据将被发送到苹果的私有服务器,由 Gemini 模型接管处理,并通过无状态加密确保用户隐私。
今年早些时候的报道指出,苹果公司的开发团队在确保 Siri 的有效性方面面临挑战,尤其是在应用程序集成和银行业务等敏感领域的关键功能方面。
iOS 26 和 iOS 27 的预期功能
苹果公司计划在 2026 年春季 iOS 更新(很可能是 iOS 26.4)中推出多项重要功能。预计的主要功能包括:
-  应用内操作: 
- Siri 将通过语音命令在支持的应用程序内执行情境感知任务——例如,可以将物品添加到购物清单、发送信息或播放音乐等操作。
 
 -  个人情境意识: 
- Siri 将更有效地利用个人数据来提供定制服务,例如查找短信中提到的播客。
 
 -  屏幕意识: 
- Siri 将获得理解屏幕上显示内容的能力,从而能够更流畅地执行相关任务。
 
 
此外, iOS 26中已经包含一些人工智能功能,尽管其应用范围有限。这些功能包括:
- 信息应用和 FaceTime 通话期间的实时翻译。
 - 使用 Image Playground 为“信息”应用中的对话创建自定义背景。
 - 语音邮件摘要。
 - AirPods 的实时翻译功能。
 - 专用AI操作快捷方式。
 - 第三方开发者可以利用苹果的基础模型来增强功能。
 - 在图像游乐场中使用 ChatGPT 创建自定义图像。
 - 在 Image Playground 应用中组合表情符号,创建“Genmoji”。
 - 屏幕截图的视觉分析。
 - 通知摘要。
 
Gurman 还推测,除了 iOS 26.4 即将推出的全新 AI 功能外,苹果还将在 2026 年 6 月的全球开发者大会上发布 iOS 27 的“重大更新”。
注:本文已更新,添加了有关 iOS 26 中 AI 功能的更多信息。
		  
		  
		  
		  
发表回复