
Multi LLM Cross-Check MCP Server

2025.04.15
5
Python多模型交叉验证LLM 集成开发效率
Multi LLM Cross-Check MCP Server 是一个模型控制协议(MCP)服务器,允许同时从多个大型语言模型(LLM)提供商处交叉检查响应。该服务器与 Claude Desktop 集成,提供一个统一的接口来查询不同的 LLM API。
View on GitHub
Overview
基本能力
产品定位
Multi LLM Cross-Check MCP Server 旨在提供一个统一的接口,用于同时查询多个大型语言模型(LLM)提供商的响应,以便进行交叉验证和比较。
核心功能
- 并行查询多个 LLM 提供商
- 当前支持的 LLM 提供商:
- OpenAI (ChatGPT)
- Anthropic (Claude)
- Perplexity AI
- Google (Gemini)
- 异步并行处理以加快响应速度
- 与 Claude Desktop 轻松集成
适用场景
- 需要同时比较多个 LLM 提供商的响应
- 开发者在开发过程中需要快速验证不同 LLM 的输出
- 研究人员需要对比不同 LLM 的性能和响应
工具列表
cross_check
工具:用于在对话中请求与其他 LLM 进行交叉检查
常见问题解答
- 如果未提供特定 LLM 的 API 密钥,该提供商将被跳过
- API 错误会被捕获并在响应中返回
- 每个 LLM 的响应是独立的,因此一个提供商的错误不会影响其他提供商
使用教程
使用依赖
- Python 3.8 或更高版本
- 要使用的 LLM 提供商的 API 密钥
- uv 包管理器(通过
pip install uv
安装)
安装教程
- 克隆仓库:
git clone https://github.com/lior-ps/multi-llm-cross-check-mcp-server.git
cd multi-llm-cross-check-mcp-server
- 初始化 uv 环境并安装依赖:
uv venv
uv pip install -r requirements.txt
- 在 Claude Desktop 中配置:
在 Claude Desktop 配置目录中创建一个名为
claude_desktop_config.json
的文件,内容如下:json { "mcp_servers": [ { "command": "uv", "args": [ "--directory", "/multi-llm-cross-check-mcp-server", "run", "main.py" ], "env": { "OPENAI_API_KEY": "your_openai_key", "ANTHROPIC_API_KEY": "your_anthropic_key", "PERPLEXITY_API_KEY": "your_perplexity_key", "GEMINI_API_KEY": "your_gemini_key" } } ] }
调试方式
- 服务器将在打开 Claude Desktop 时自动启动
- 在对话中使用
cross_check
工具,请求“与其他 LLM 进行交叉检查” - 提供提示,服务器将返回所有配置的 LLM 提供商的响应