Multi LLM Cross-Check MCP Server

Multi LLM Cross-Check MCP Server

site icon
2025.04.15 5
Python多模型交叉验证LLM 集成开发效率
Multi LLM Cross-Check MCP Server 是一个模型控制协议(MCP)服务器,允许同时从多个大型语言模型(LLM)提供商处交叉检查响应。该服务器与 Claude Desktop 集成,提供一个统一的接口来查询不同的 LLM API。
View on GitHub

Overview

基本能力

产品定位

Multi LLM Cross-Check MCP Server 旨在提供一个统一的接口,用于同时查询多个大型语言模型(LLM)提供商的响应,以便进行交叉验证和比较。

核心功能

  • 并行查询多个 LLM 提供商
  • 当前支持的 LLM 提供商:
  • OpenAI (ChatGPT)
  • Anthropic (Claude)
  • Perplexity AI
  • Google (Gemini)
  • 异步并行处理以加快响应速度
  • 与 Claude Desktop 轻松集成

适用场景

  • 需要同时比较多个 LLM 提供商的响应
  • 开发者在开发过程中需要快速验证不同 LLM 的输出
  • 研究人员需要对比不同 LLM 的性能和响应

工具列表

  • cross_check 工具:用于在对话中请求与其他 LLM 进行交叉检查

常见问题解答

  • 如果未提供特定 LLM 的 API 密钥,该提供商将被跳过
  • API 错误会被捕获并在响应中返回
  • 每个 LLM 的响应是独立的,因此一个提供商的错误不会影响其他提供商

使用教程

使用依赖

  • Python 3.8 或更高版本
  • 要使用的 LLM 提供商的 API 密钥
  • uv 包管理器(通过 pip install uv 安装)

安装教程

  1. 克隆仓库:
git clone https://github.com/lior-ps/multi-llm-cross-check-mcp-server.git
cd multi-llm-cross-check-mcp-server
  1. 初始化 uv 环境并安装依赖:
uv venv
uv pip install -r requirements.txt
  1. 在 Claude Desktop 中配置: 在 Claude Desktop 配置目录中创建一个名为 claude_desktop_config.json 的文件,内容如下: json { "mcp_servers": [ { "command": "uv", "args": [ "--directory", "/multi-llm-cross-check-mcp-server", "run", "main.py" ], "env": { "OPENAI_API_KEY": "your_openai_key", "ANTHROPIC_API_KEY": "your_anthropic_key", "PERPLEXITY_API_KEY": "your_perplexity_key", "GEMINI_API_KEY": "your_gemini_key" } } ] }

调试方式

  1. 服务器将在打开 Claude Desktop 时自动启动
  2. 在对话中使用 cross_check 工具,请求“与其他 LLM 进行交叉检查”
  3. 提供提示,服务器将返回所有配置的 LLM 提供商的响应

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。