协议版本: draft
用户交互模型
MCP中的采样功能允许服务器实现智能体行为,通过使LLM调用可以在其他MCP服务器功能中嵌套执行。 实现方式可自由选择任何适合其需求的接口模式来公开采样——协议本身并不强制规定任何特定的用户交互模型。为了确保信任、安全性和防护性,应当始终有人在回路中具备拒绝采样请求的能力。应用程序应当:
- 提供直观易用的用户界面,方便审阅采样请求
- 允许用户在发送前查看和编辑提示
- 在投送之前展示生成的响应以供审阅
能力
支持采样的客户端 必须 在 initialization 过程中声明sampling 能力:
协议消息
创建信息
要请求生成语言模型,服务器发送一个sampling/createMessage请求:
请求:
消息流
数据类型
消息
采样消息可以包含:文本内容
图像内容
音频内容
模型偏好设置
MCP中的模型选择需要谨慎抽象,因为服务器和客户端可能使用不同的AI供应商,它们提供的模型也各不相同。服务器无法简单地通过名称请求特定模型,因为客户端可能无法访问该确切模型,或者可能倾向于使用不同供应商的等效模型。 为解决这个问题,MCP实现了一个偏好系统,将抽象能力优先级与可选的模型提示相结合:能力优先级
服务端通过三个标准化优先级值(0-1)来表达其需求:costPriority: 最小化成本的重要性如何?较高的值更青睐更便宜的模型。speedPriority: 低延迟的重要性如何?较高值更倾向于选择速度更快的模型。intelligencePriority: 高级能力有多重要?越高的值越偏好性能更强的模型。
模型提示
尽管优先级帮助根据特性选择模型,但hints允许服务器推荐特定的模型或模型族:
- 提示被视为可以灵活匹配模型名称的子字符串
- 多个提示根据偏好顺序进行评估。
- 客户端 可以将提示映射到来自不同提供者的等效模型
- 提示仅供参考——客户端拥有最终模型选择权
gemini-1.5-pro。
错误处理
客户端 应当 针对常见失败情况返回错误: 示例错误:安全注意事项
- 客户端应该实现用户批准控制
- 双方应该验证消息内容
- 客户端应遵循模型偏好提示
- 客户端应当实现速率限制
- 双方必须妥善处理敏感数据