
MCP Chat Adapter

2025.03.27
0
TypeScript聊天接口对话管理交流协作
MCP Chat Adapter 是一个基于 Model Context Protocol (MCP) 的服务,为大型语言模型(LLM)提供与 OpenAI 兼容的聊天完成 API 的标准化接口。它充当 LLM 客户端与 OpenAI 兼容 API 之间的桥梁,专注于聊天模型的交互,不支持文本完成功能。
View on GitHub
Overview
基本能力
产品定位
MCP Chat Adapter 是一个中间件服务,旨在简化大型语言模型与 OpenAI 兼容 API 之间的交互,专注于聊天模型的对话管理。
核心功能
- 标准化接口:通过 MCP 协议提供统一的聊天完成接口。
- 对话管理:支持创建、继续、列出、获取和删除对话。
- 状态持久化:对话数据可本地存储,支持跨会话恢复。
- 配置灵活:可自定义模型参数(如温度、最大令牌数等)和默认设置。
- 兼容性:支持 OpenAI 及兼容 API(如 OpenRouter)。
- 错误处理:内置超时和错误处理机制。
适用场景
- 多模型协作:例如让 Claude 在后台与其他模型维护多个对话。
- 对话持久化:需要长期保存或恢复对话历史的场景。
- 开发测试:快速集成和测试不同聊天模型的响应。
工具列表
- 创建对话:初始化新对话,可指定模型、系统提示和参数。
- 发送消息:向指定对话添加消息并获取响应。
- 列出对话:按标签过滤或分页查询现有对话。
- 获取对话:读取完整对话内容。
- 删除对话:清理指定对话数据。
常见问题
- 对话更新延迟:手动修改本地对话文件后需重启服务生效。
- 环境变量:必须配置
OPENAI_API_KEY
和CONVERSATION_DIR
。
使用教程
依赖安装
git clone https://github.com/aiamblichus/mcp-chat-adapter.git
cd mcp-chat-adapter
yarn install
运行服务
yarn cli # 启动服务
yarn inspect # 调试模式
配置示例
在 mcp.json
中配置环境变量:
{
"env": {
"CONVERSATION_DIR": "/path/to/convos",
"OPENAI_API_KEY": "your-key",
"DEFAULT_MODEL": "gpt-4"
}
}
调试命令
- 检查服务日志:
yarn inspect
- 验证环境变量:
echo $CONVERSATION_DIR