
Coding Conversations MCP Server

2025.04.18
0
JavaScriptAI 模型集成编码辅助开发效率
CodeConversationsMCP 是一个模型上下文协议(MCP)服务器,旨在通过 OpenRouter 使 Claude 能够访问外部 AI 模型以获取编码辅助。它提供了一个 `call_external_model` 工具,允许 Claude 咨询如 GPT-o3-mini、Deepseek-R1 和 Gemini Pro 等外部 AI 模型,并通过 JSON 配置文件进行模型路由配置。
View on GitHub
Overview
基本能力
产品定位
CodeConversationsMCP 是一个专为开发者和 AI 助手 Claude 设计的中间件,用于扩展 Claude 的功能,使其能够调用外部 AI 模型进行编码辅助。
核心功能
- 提供
call_external_model
工具,使 Claude 能够调用外部 AI 模型 - 支持多种外部 AI 模型,包括 GPT-o3-mini、Deepseek-R1 和 Gemini Pro
- 通过 JSON 配置文件灵活配置模型路由
适用场景
- 开发者需要更强大的编码辅助时
- 需要结合多个 AI 模型的优势来解决复杂编码问题时
- 需要特定 AI 模型的专长时
工具列表
call_external_model
:允许 Claude 调用配置的外部 AI 模型进行咨询
常见问题解答
- 如何配置外部模型?通过编辑
src/config/models-config.json
文件并添加 OpenRouter API 密钥 - 如何与 Claude 集成?通过编辑 Claude 的设置文件并添加 MCP 服务器配置
使用教程
使用依赖
- 确保已安装 Node.js 和 npm
安装教程
- 克隆仓库:
git clone https://github.com/your-username/coding-conversations-mcp.git
cd coding-conversations-mcp
- 安装依赖:
npm install
- 创建配置文件:
cp src/config/models-config.template.json src/config/models-config.json
- 编辑
src/config/models-config.json
并添加 OpenRouter API 密钥 - 构建项目:
npm run build
调试方式
- 确保 MCP 服务器已正确配置并运行
- 在 Claude 中尝试使用
call_external_model
工具调用外部模型 - 检查控制台输出以查看任何错误信息