Apple 的基础模型框架让第三方开发者能够直接访问设备智能,并通过快速、私密且强大的功能增强应用程序中的 AI 集成

Apple 的基础模型框架让第三方开发者能够直接访问设备智能,并通过快速、私密且强大的功能增强应用程序中的 AI 集成

在 WWDC 2025 上,苹果发布了一套适用于所有平台的变革性设计语言,旨在通过创新的 AI 功能,打造更具凝聚力的用户体验。主题演讲强调了人工智能在苹果生态系统中的核心作用,并推出了一个名为 Foundation Models 框架的重要新组件,该框架将彻底改变开发者与苹果 AI 功能连接的方式,同时优先考虑性能和隐私。

苹果的基础模型框架:改变开发者的游戏规则

今天,苹果公司发布了一项值得关注的公告,宣布推出基础模型框架。这一举措对于拓展公司 AI 战略至关重要,它使第三方开发者能够无缝访问 Apple Intelligence 系统,而无需他们创建或管理自己的 AI 模型。该框架强调本地执行,允许 AI 模型直接在设备上运行,这与苹果公司对用户隐私的坚定承诺相一致。

该框架意义重大。它使开发人员能够将图像生成和内容摘要等人工智能功能直接集成到他们的应用程序中,而无需依赖云端基础设施。因此,即使用户离线,开发人员也能提供复杂的功能。这种基于本地的架构确保个人数据的安全,因为它会保留在设备上,而不会传输到外部服务器。

这一进展代表着 Apple 在 AI 集成方法上的显著转变。开发者将首次能够直接访问基础的设备内置模型和 Apple Intelligence 的功能,开启 app 开发的新篇章。Apple 将设备内置 AI 作为基础构建模块,为未来的应用程序增强功能绘制了具有前瞻性的蓝图。

基础模型框架预计将与 iOS 26 及其附带的平台更新一起发布,它凸显了 Apple 致力于在其整个生态系统中嵌入先进的人工智能技术,最终丰富用户体验并增强开发人员的能力。

来源和图片

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注