
Apple 在 WWDC 2025 上发布 Apple Intelligence 激动人心的增强功能
在2025年全球开发者大会(WWDC)上,苹果发布了一系列与其操作系统相关的创新功能,包括iOS 26、iPadOS 26、macOS 26、watchOS 26和tvOS 26,以及Apple Intelligence的进步。此次大会的一大亮点是向开发者开放了设备端基础模型,旨在通过AI驱动的功能丰富应用程序功能。
利用 Apple 的基础模型释放潜力
新的 Foundation Models 框架使开发人员能够将 AI 增强功能直接集成到他们的应用程序中,并支持离线功能。正如苹果公司所强调的,该框架在设计时就原生支持 Swift 语言,允许开发人员以最少的代码(通常只需三行)访问 Apple Intelligence 模型,而且这些代码是免费提供的。
现场翻译:改变沟通方式的利器
一项对用户来说意义重大的新增功能是实时翻译功能,该功能适用于各种平台,例如信息、FaceTime 和电话通话。此功能采用 Apple 自主研发的模型,完全在设备上执行,可将信息和字幕无缝翻译成用户偏好的语言。

此功能可确保在对话过程中轻松翻译信息中的书面文本和 FaceTime 中的实时字幕,同时在通话过程中提供可听见的翻译语音。
视觉智能:交互新时代
苹果的“视觉智能”技术将彻底改变用户与屏幕内容的互动方式。它使用户能够针对屏幕上的特定对象提出问题并获得答案,从而促进更深入的理解和参与。
例如,用户可以利用此功能在 Google 和 Etsy 等平台上搜索类似的图片或产品,以及识别屏幕上显示的事件以便将其快速添加到日历中。

使用 Genmoji 和 Image Playground 进行创意表达
更新后的 Genmoji 功能允许用户将表情符号与文字描述融合,根据好友或家人的表情和个人属性进行调整,从而创建独特的视觉呈现。此外,图像游乐场也得到了改进,现在用户可以创作新风格的艺术作品,包括油画和矢量图,并可选择“任意风格”设置进行个性化创作。

使用快捷方式应用程序提高生产力
此外,Apple Intelligence 正在增强 Shortcuts 应用的功能。通过利用设备内置处理和私有云计算,用户可以生成相关的回复,从而在不损害用户隐私的情况下增强工作流程。例如,学生可以创建快捷方式,根据笔记分析讲座的音频转录,从而找出他们可能忽略的关键点。

整合 Apple 生态系统
随着未来的操作系统更新,苹果将继续将人工智能功能集成到更多应用程序中。例如,钱包应用程序现在提供来自电子邮件的订单跟踪摘要,使用户能够以简化的方式随时了解订单状态。此外,在信息应用中,建议的投票和利用图像游乐场的可自定义聊天背景进一步提升了用户体验。
可用性和未来语言支持
这些创新功能目前可通过 Apple 开发者计划在 iPhone、iPad、Mac、Apple Watch 和 Apple Vision Pro 上进行测试。到年底,Apple 的 AI 套件将扩展其语言支持,包括丹麦语、荷兰语、挪威语、葡萄牙语(葡萄牙)、瑞典语、土耳其语、繁体中文和越南语。
有关 Apple Intelligence 及其功能的更多详细信息,您可以阅读Apple Newsroom 上的官方公告。
发表回复