Model Context Protocol (MCP) 是一种开放协议,能够实现LLM应用程序与外部数据源和工具之间的无缝集成。无论您是在构建AI驱动的IDE、增强聊天界面,还是创建自定义AI工作流,MCP都提供了一种标准化方式,将LLM与其所需上下文连接起来。 本规范依据schema.ts中的TypeScript模式定义了权威的协议要求。 关于实施指南与示例,请访问 modelcontextprotocol.io 本文档中的关键词“必须”、“禁止”、“必需”、“应”、“不应”、“应该”、“不应”、“推荐”、“不推荐”、“可以”和“可选”,当且仅当它们以全大写形式出现时(如此处所示),应按照BCP 14 [RFC2119] [RFC8174]中的描述进行解释。
概览
MCP为应用程序提供了一种标准化方式,用于:
  • 与语言模型共享上下文信息
  • 向AI系统公开工具与能力
  • 构建可组合的集成与工作流
协议使用 JSON-RPC 2.0 message 来建立以下之间的通信:
  • Hosts: 发起连接的LLM应用
  • 客户端:宿主应用程序中的连接器
  • 服务端: 提供上下文和能力的服务
MCP 从 语言服务器协议 中汲取了一些灵感,该协议 标准化了如何在整个开发工具生态系统中增加对编程语言的支持。类似地,MCP 标准化了 如何将额外的上下文和工具集成到 AI 应用的生态系统中。

关键详情

基础协议

  • JSON-RPC 消息格式
  • 有状态连接
  • 服务端与客户端能力协商

功能特性

服务器向客户端提供以下任何功能:
  • 资源: 为用户或AI模型提供可使用的上下文和数据
  • 提示: 用于用户的可模板化消息和工作流
  • 工具: 供AI模型执行的函数
客户端可向服务器提供以下功能:
  • 抽样: 服务端启动的智能体行为与递归式大语言模型交互
  • 根目录: 服务器发起的对URI或文件系统边界的查询,以便在其中进行操作
  • 收集信息: 服务器主动向用户请求额外信息

附加工具

  • 配置
  • 进度跟踪
  • 取消
  • 错误报告
  • 日志记录

安全与信任安全

Model Context Protocol 通过任意数据访问和代码执行路径实现强大功能。随着这种能力而来的是所有实施者必须认真处理的重要安全和信任考量。

核心原则

  1. 用户同意与控制
    • 用户必须明确同意并理解所有的数据访问和操作
    • 用户必须保留对共享数据和采取行动的控制权
    • 实施者应当为审核和授权活动提供清晰的用户界面
  2. 数据隐私
    • 主机在将用户数据暴露给服务器之前必须获得用户的明确同意
    • 未经用户同意,主机不得将资源数据传输至其他地方
    • 用户数据应当通过适当的访问控制进行保护
  3. 工具安全
    • 工具代表任意代码执行,必须谨慎对待
      • 尤其是,对于工具行为的描述,如注释,应被视为不可信任,除非从可信服务器获取。
    • 主机必须先获得用户的明确同意才能调用任何工具
    • 用户应当在使用前理解每个工具的功能
  4. LLM 采样控制
    • 用户必须明确批准任何LLM采样请求
    • Users should control:
      • 是否进行采样
      • 实际将要发送的提示信息
      • 服务器可以查看哪些结果
    • 该协议特意限制了服务器对提示的可见性

实现指南

While MCP itself cannot enforce these security principles at the protocol level, implementors 应该:
  1. 在他们的应用程序中构建强大的同意和授权流程
  2. 提供明确的安全隐患文档
  3. 实施适当的访问控制和数据保护措施
  4. 在其集成中遵循安全最佳实践
  5. 在功能设计中考虑隐私影响

了解更多

探索各协议组件的详细规范: