Multi LLM Cross-Check MCP Server

Multi LLM Cross-Check MCP Server

site icon
2025.04.21 0
PythonLLM 交叉检查多模型查询开发效率
Multi LLM Cross-Check MCP Server 是一个模型控制协议(MCP)服务器,允许同时从多个大型语言模型(LLM)提供商处交叉检查响应。该服务器与 Claude Desktop 集成,作为一个 MCP 服务器,提供统一的接口来查询不同的 LLM API。
View on GitHub

Overview

基本能力

产品定位

Multi LLM Cross-Check MCP Server 是一个用于交叉检查多个大型语言模型(LLM)响应的工具,旨在提供一个统一的接口来查询和比较不同 LLM 提供商的输出。

核心功能

  • 并行查询多个 LLM 提供商
  • 当前支持的 LLM 提供商:
  • OpenAI (ChatGPT)
  • Anthropic (Claude)
  • Perplexity AI
  • Google (Gemini)
  • 异步并行处理以加快响应速度
  • 与 Claude Desktop 轻松集成

适用场景

  • 开发者在需要比较不同 LLM 提供商的响应时
  • 研究人员需要并行获取多个 LLM 的输出
  • 需要快速验证不同 LLM 对同一提示的响应的场景

工具列表

  • cross_check 工具:用于在对话中请求与其他 LLM 交叉检查

常见问题解答

  • 如果未为特定 LLM 提供 API 密钥,则该提供商将被跳过
  • API 错误会被捕获并返回在响应中
  • 每个 LLM 的响应是独立的,因此一个提供商的错误不会影响其他提供商

使用教程

使用依赖

  • Python 3.8 或更高版本
  • 要使用的 LLM 提供商的 API 密钥
  • uv 包管理器(通过 pip install uv 安装)

安装教程

  1. 克隆仓库:
git clone https://github.com/lior-ps/multi-llm-cross-check-mcp-server.git
cd multi-llm-cross-check-mcp-server
  1. 初始化 uv 环境并安装依赖:
uv venv
uv pip install -r requirements.txt
  1. 在 Claude Desktop 中配置: 在 Claude Desktop 配置目录中创建一个名为 claude_desktop_config.json 的文件,内容如下:
{
  "mcp_servers": [
    {
      "command": "uv",
      "args": [
        "--directory",
        "/multi-llm-cross-check-mcp-server",
        "run",
        "main.py"
      ],
      "env": {
        "OPENAI_API_KEY": "your_openai_key",
        "ANTHROPIC_API_KEY": "your_anthropic_key",
        "PERPLEXITY_API_KEY": "your_perplexity_key",
        "GEMINI_API_KEY": "your_gemini_key"
      }
    }
  ]
}

调试方式

  1. 服务器将在打开 Claude Desktop 时自动启动
  2. 在对话中使用 cross_check 工具,请求“与其他 LLM 交叉检查”
  3. 提供提示,它将返回所有配置的 LLM 提供商的响应

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。