Coding Conversations MCP Server

Coding Conversations MCP Server

site icon
2025.04.18 0
JavaScriptAI 模型集成编码辅助开发效率
CodeConversationsMCP 是一个模型上下文协议(MCP)服务器,旨在通过 OpenRouter 使 Claude 能够访问外部 AI 模型以获取编码辅助。它提供了一个 `call_external_model` 工具,允许 Claude 咨询如 GPT-o3-mini、Deepseek-R1 和 Gemini Pro 等外部 AI 模型,并通过 JSON 配置文件进行模型路由配置。
View on GitHub

Overview

基本能力

产品定位

CodeConversationsMCP 是一个专为开发者和 AI 助手 Claude 设计的中间件,用于扩展 Claude 的功能,使其能够调用外部 AI 模型进行编码辅助。

核心功能

  • 提供 call_external_model 工具,使 Claude 能够调用外部 AI 模型
  • 支持多种外部 AI 模型,包括 GPT-o3-mini、Deepseek-R1 和 Gemini Pro
  • 通过 JSON 配置文件灵活配置模型路由

适用场景

  • 开发者需要更强大的编码辅助时
  • 需要结合多个 AI 模型的优势来解决复杂编码问题时
  • 需要特定 AI 模型的专长时

工具列表

  • call_external_model:允许 Claude 调用配置的外部 AI 模型进行咨询

常见问题解答

  • 如何配置外部模型?通过编辑 src/config/models-config.json 文件并添加 OpenRouter API 密钥
  • 如何与 Claude 集成?通过编辑 Claude 的设置文件并添加 MCP 服务器配置

使用教程

使用依赖

  1. 确保已安装 Node.js 和 npm

安装教程

  1. 克隆仓库:
git clone https://github.com/your-username/coding-conversations-mcp.git
cd coding-conversations-mcp
  1. 安装依赖:
npm install
  1. 创建配置文件:
cp src/config/models-config.template.json src/config/models-config.json
  1. 编辑 src/config/models-config.json 并添加 OpenRouter API 密钥
  2. 构建项目:
npm run build

调试方式

  1. 确保 MCP 服务器已正确配置并运行
  2. 在 Claude 中尝试使用 call_external_model 工具调用外部模型
  3. 检查控制台输出以查看任何错误信息

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。