协议版本: 2025-03-26
用户交互模型
MCP中的采样允许服务器实现代理行为,通过使LLM调用能够在其他MCP服务器功能内_嵌套_发生。 实现可以通过任何适合其需求的界面模式公开采样—协议本身不强制要求任何特定的用户交互模型。能力
支持采样的客户端必须在初始化期间声明sampling能力:
协议消息
创建消息
要请求语言模型生成,服务器发送sampling/createMessage请求:
请求:
消息流
数据类型
消息
采样消息可以包含:文本内容
图像内容
音频内容
模型偏好
MCP中的模型选择需要仔细抽象,因为服务器和客户端可能使用不同的AI提供商,具有不同的模型产品。服务器不能简单地按名称请求特定模型,因为客户端可能无法访问该确切模型,或者可能更倾向于使用不同提供商的等效模型。 为了解决这个问题,MCP实现了一个偏好系统,结合了抽象能力优先级和可选的模型提示:能力优先级
服务器通过三个归一化的优先级值(0-1)表达其需求:costPriority:降低成本有多重要?较高的值倾向于更便宜的模型。speedPriority:低延迟有多重要?较高的值倾向于更快的模型。intelligencePriority:高级能力有多重要?较高的值倾向于更强大的模型。
模型提示
虽然优先级有助于基于特性选择模型,但hints允许服务器建议特定的模型或模型系列:
- 提示被视为可以灵活匹配模型名称的子字符串
- 多个提示按优先顺序评估
- 客户端可以将提示映射到来自不同提供商的等效模型
- 提示是建议性的—客户端做出最终的模型选择
gemini-1.5-pro。
错误处理
客户端应该为常见失败情况返回错误: 错误示例:安全考虑
- 客户端应该实施用户批准控制
- 双方应该验证消息内容
- 客户端应该尊重模型偏好提示
- 客户端应该实施速率限制
- 双方必须适当处理敏感数据