概览
- 与语言模型共享上下文信息
- 向AI系统公开工具与能力
- 构建可组合的集成与工作流
- Hosts: 发起连接的LLM应用
- 客户端:宿主应用程序中的连接器
- 服务端: 提供上下文和能力的服务
关键详情
基础协议
- JSON-RPC 消息格式
- 有状态连接
- 服务端与客户端能力协商
功能特性
服务器向客户端提供以下任何功能:- 资源: 为用户或AI模型提供可使用的上下文和数据
- 提示: 用于用户的可模板化消息和工作流
- 工具: 供AI模型执行的函数
- 抽样: 服务端启动的智能体行为与递归式大语言模型交互
- 根目录: 服务器发起的对URI或文件系统边界的查询,以便在其中进行操作
- 收集信息: 服务器主动向用户请求额外信息
附加工具
- 配置
- 进度跟踪
- 取消
- 错误报告
- 日志记录
安全与信任安全
Model Context Protocol 通过任意数据访问和代码执行路径实现强大功能。随着这种能力而来的是所有实施者必须认真处理的重要安全和信任考量。核心原则
-
用户同意与控制
- 用户必须明确同意并理解所有的数据访问和操作
- 用户必须保留对共享数据和采取行动的控制权
- 实施者应当为审核和授权活动提供清晰的用户界面
-
数据隐私
- 主机在将用户数据暴露给服务器之前必须获得用户的明确同意
- 未经用户同意,主机不得将资源数据传输至其他地方
- 用户数据应当通过适当的访问控制进行保护
-
工具安全
- 工具代表任意代码执行,必须谨慎对待
- 尤其是,对于工具行为的描述,如注释,应被视为不可信任,除非从可信服务器获取。
- 主机必须先获得用户的明确同意才能调用任何工具
- 用户应当在使用前理解每个工具的功能
- 工具代表任意代码执行,必须谨慎对待
-
LLM 采样控制
- 用户必须明确批准任何LLM采样请求
- Users should control:
- 是否进行采样
- 实际将要发送的提示信息
- 服务器可以查看哪些结果
- 该协议特意限制了服务器对提示的可见性
实现指南
While MCP itself cannot enforce these security principles at the protocol level, implementors 应该:- 在他们的应用程序中构建强大的同意和授权流程
- 提供明确的安全隐患文档
- 实施适当的访问控制和数据保护措施
- 在其集成中遵循安全最佳实践
- 在功能设计中考虑隐私影响