让你的服务器通过客户端请求LLM的补全
sampling/createMessage
请求messages
数组包含要发送给LLM的对话历史。每条消息包含:
role
:可以是”user”或”assistant”content
:消息内容,可以是:
text
字段data
(base64编码)和mimeType
字段modelPreferences
对象允许服务器指定其模型选择的偏好:
hints
:模型名称建议的数组,客户端可以使用这些建议来选择适当的模型:
name
:字符串,可以匹配完整或部分模型名称(例如”claude-3”,“sonnet”)costPriority
:最小化成本的重要性speedPriority
:低延迟响应的重要性intelligencePriority
:高级模型能力的重要性systemPrompt
字段允许服务器请求特定的系统提示。客户端可以修改或忽略此提示。
includeContext
参数指定要包含的MCP上下文:
"none"
:不包含额外上下文"thisServer"
:包含请求服务器的上下文"allServers"
:包含所有连接的MCP服务器的上下文temperature
:控制随机性(0.0到1.0)maxTokens
:生成的最大token数stopSequences
:停止生成的序列数组metadata
:额外的提供商特定参数includeContext
包含相关上下文