
蘋果在 2025 年 WWDC 上公佈 AI 領域重大進展
在最近的 WWDC 2025 大會上,蘋果在 AI 能力方面取得了重大進展,推出了一系列兼顧開發者和消費者需求的更新。其中包括推出Foundation Models 框架,該框架允許開發者將 AI 功能整合到他們的應用程式中,同時優先考慮用戶隱私。該框架利用了蘋果專有的 AI 模型,並且免費提供。
下一代語言基礎模型
此外,蘋果還推出了一系列全新的語言基礎模型,據稱比前代模型更快、更有效率。這些模型旨在改進工具使用,增強推理能力,並支援 15 種不同語言的多模態輸入(包括圖像和文字)。
Apple Intelligence 模型概述
Apple Intelligence 包含兩種不同的基礎模型:
- 使用 Apple Silicon 針對裝置效能進行最佳化的 30 億參數模型。
- 專為私有雲運算量身定制的基於伺服器的專家混合模型。
設備端模型專注於執行與文字相關的任務。其功能包括摘要、實體提取、文字理解、內容精煉、短對話和創意生成,而非通用聊天機器人。
性能基準和比較
核心問題在於蘋果模型相對於領先競爭對手的表現。蘋果沒有依賴傳統的人工智慧基準,而是分享了其內部評估的結果,這些評估評估了語言和推理能力。

根據蘋果的評估,設備上的 3B 模型與 Qwen-2.5-3B 競爭良好,並且在英語語言任務中與更大的 Qwen-3-4B 和 Gemma-3-4B 表現出色。雖然其基於伺服器的模型略優於 Llama-4-Scout,但與 Qwen-3-235B 和 OpenAI 的高級 GPT-4o 相比,其表現並不理想。
影像輸入評估
在評估影像輸入能力方面,蘋果的裝置端模型超越了 InternVL 和 Qwen,展現出與 Gemma 相當的效能。其伺服器模型雖然優於 Qwen-2.5-VL,但落後於 Llama-4-Scout 和 GPT-4o。
蘋果在人工智慧領域的未來之路
這些發現表明,蘋果在基礎 AI 技術開發方面仍有相當大的進步空間。與 GPT-4o 的比較似乎是為了展現更樂觀的性能前景。與 OpenAI 最新的 O 系列型號或Google的 Gemini 2.5 Pro 進行比較,可能會發現更大的效能差距。隨著蘋果持續發展其內部能力,未來幾年它在快速發展的 AI 領域中如何定位,將令人拭目以待。
發佈留言 ▼