
模型上下文协议(MCP)的出现
在快速发展的人工智能领域,一个重大的飞跃是 Anthropic 于 2024 年 11 月推出的模型上下文协议 (MCP)。这一创新的开放标准旨在增强大型语言模型 (LLM) 与各种外部数据源和操作工具的集成。
早期采用和集成
OpenAI 率先采用 MCP 标准,并将其应用于其多款产品,包括 ChatGPT 桌面应用程序和 Agents SDK。OpenAI 首席执行官 Sam Altman 对 MCP 的潜力表示兴奋,他表示:
人们喜欢 MCP,我们很高兴在我们的产品中添加支持。今天可在代理 SDK 中使用,并且即将推出对 chatgpt 桌面应用程序 + 响应 api 的支持!
— 萨姆·奥尔特曼 (@sama) 2025 年 3 月 26 日
不断扩展的开发者工具生态系统
许多开发工具,例如Zed、Replit、Windsurf、Cursor和 VSCode,都已集成 MCP 框架,以显著增强其功能和用户体验。
Google 加入 MCP 革命
最近,谷歌宣布了支持 MCP 标准的意图。谷歌 DeepMind 首席执行官 Demis Hassabis 在 X 平台上的一篇文章中强调了这一进展,他表示:
MCP 是一个优秀的协议,它正在迅速成为 AI 代理时代的开放标准。我们很高兴地宣布,我们将在 Gemini 模型和 SDK 中支持 MCP。期待与 MCP 团队以及其他业内人士一起进一步开发 MCP。
了解 MCP 的功能
模型上下文协议 (MCP) 通过创建一个标准化框架来运行,该框架连接两个主要组件:MCP 客户端和 MCP 服务器。MCP 客户端包含 AI 驱动的应用程序,例如聊天机器人和生产力工具,这些应用程序需要访问外部资源或功能。而 MCP 服务器则为数据源、工具或提示模板提供结构化的接口。
MCP 框架的组件
MCP 架构包括三个基本组件:
- 资源:此类别涵盖各种数据对象,包括文档、图像和其他形式的信息。
- 工具:这些是可执行的功能,允许模型检索必要的信息或执行特定的任务。
- 提示:这些结构化模板有助于指导模型针对特定任务或领域的操作。
模型上下文协议的建立,标志着人工智能应用朝着更加协调、高效的方向迈出了重要一步,其日益普及预示着行业协作与创新的美好未来。
发表回复 ▼