苹果请求谷歌协助为 Siri 创建定制的 Gemini LLM 数据库

苹果请求谷歌协助为 Siri 创建定制的 Gemini LLM 数据库

苹果公司在战略上做出了显著转变,似乎已经意识到其内部对 Siri 的改进面临挑战,现在正与谷歌合作,创建一个基于 Gemini 的定制大型语言模型 (LLM),以支持云端更新的 Siri。

马克·古尔曼报道:苹果与谷歌合作增强Siri的人工智能

据知名苹果分析师马克·古尔曼在其最新一期《Power On》简报中撰文指出,苹果似乎已经承认,目前开发出高效的Siri内部人工智能模型尚不可行。这些经过改进的功能统称为“Apple Intelligence”,现在将由谷歌的人工智能技术提供支持。

根据这项新协议,苹果计划利用谷歌的先进技术,设计一个基于Gemini的AI模型,并将其集成到其私有云计算框架中。这种设计将允许在本地处理较为简单的任务,而更复杂的操作则会使用加密数据卸载到苹果的安全服务器上。

即将推出的 Siri 改版的主要功能

预计Siri的更新将包含三个主要部分:

  1. 查询规划器:这一关键层管理 Siri 如何通过选择最有效的路径来满足用户请求,这可能涉及网络搜索、访问日历事件等个人数据,或通过 App Intents 使用第三方应用程序——App Intents 是一种允许应用程序与 Siri 无缝集成的接口。
  2. 知识搜索系统: Siri 将包含一个全面的知识库,使其能够独立回答一般琐事问题,从而消除对 ChatGPT 等外部 AI 资源的依赖。
  3. 摘要生成器:作为 Apple Intelligence 的一个基本组成部分,该工具将使 Siri 能够利用 ChatGPT 等外部 AI 模型来摘要各种类型的内容,包括:
    • 通知摘要
    • 电子邮件和消息摘要
    • Safari 浏览器中的网页摘要
    • 写作协助
    • 音频内容摘要

在这种未来的架构中,Siri 的设备端处理将利用苹果专有的基础模型,或集成第三方人工智能,例如 ChatGPT。对于复杂的查询,数据将被发送到苹果的私有服务器,由 Gemini 模型接管处理,并通过无状态加密确保用户隐私。

今年早些时候的报道指出,苹果公司的开发团队在确保 Siri 的有效性方面面临挑战,尤其是在应用程序集成和银行业务等敏感领域的关键功能方面。

iOS 26 和 iOS 27 的预期功能

苹果公司计划在 2026 年春季 iOS 更新(很可能是 iOS 26.4)中推出多项重要功能。预计的主要功能包括:

  1. 应用内操作:
    • Siri 将通过语音命令在支持的应用程序内执行情境感知任务——例如,可以将物品添加到购物清单、发送信息或播放音乐等操作。
  2. 个人情境意识:
    • Siri 将更有效地利用个人数据来提供定制服务,例如查找短信中提到的播客。
  3. 屏幕意识:
    • Siri 将获得理解屏幕上显示内容的能力,从而能够更流畅地执行相关任务。

此外, iOS 26中已经包含一些人工智能功能,尽管其应用范围有限。这些功能包括:

  1. 信息应用和 FaceTime 通话期间的实时翻译。
  2. 使用 Image Playground 为“信息”应用中的对话创建自定义背景。
  3. 语音邮件摘要。
  4. AirPods 的实时翻译功能。
  5. 专用AI操作快捷方式。
  6. 第三方开发者可以利用苹果的基础模型来增强功能。
  7. 在图像游乐场中使用 ChatGPT 创建自定义图像。
  8. 在 Image Playground 应用中组合表情符号,创建“Genmoji”。
  9. 屏幕截图的视觉分析。
  10. 通知摘要。

Gurman 还推测,除了 iOS 26.4 即将推出的全新 AI 功能外,苹果还将在 2026 年 6 月的全球开发者大会上发布 iOS 27 的“重大更新”。

注:本文已更新,添加了有关 iOS 26 中 AI 功能的更多信息。

图片来源及图片

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注