
Multi LLM Cross-Check MCP Server

2025.04.21
0
PythonLLM 交叉检查多模型查询开发效率
Multi LLM Cross-Check MCP Server 是一个模型控制协议(MCP)服务器,允许同时从多个大型语言模型(LLM)提供商处交叉检查响应。该服务器与 Claude Desktop 集成,作为一个 MCP 服务器,提供统一的接口来查询不同的 LLM API。
View on GitHub
Overview
基本能力
产品定位
Multi LLM Cross-Check MCP Server 是一个用于交叉检查多个大型语言模型(LLM)响应的工具,旨在提供一个统一的接口来查询和比较不同 LLM 提供商的输出。
核心功能
- 并行查询多个 LLM 提供商
- 当前支持的 LLM 提供商:
- OpenAI (ChatGPT)
- Anthropic (Claude)
- Perplexity AI
- Google (Gemini)
- 异步并行处理以加快响应速度
- 与 Claude Desktop 轻松集成
适用场景
- 开发者在需要比较不同 LLM 提供商的响应时
- 研究人员需要并行获取多个 LLM 的输出
- 需要快速验证不同 LLM 对同一提示的响应的场景
工具列表
cross_check
工具:用于在对话中请求与其他 LLM 交叉检查
常见问题解答
- 如果未为特定 LLM 提供 API 密钥,则该提供商将被跳过
- API 错误会被捕获并返回在响应中
- 每个 LLM 的响应是独立的,因此一个提供商的错误不会影响其他提供商
使用教程
使用依赖
- Python 3.8 或更高版本
- 要使用的 LLM 提供商的 API 密钥
- uv 包管理器(通过
pip install uv
安装)
安装教程
- 克隆仓库:
git clone https://github.com/lior-ps/multi-llm-cross-check-mcp-server.git
cd multi-llm-cross-check-mcp-server
- 初始化 uv 环境并安装依赖:
uv venv
uv pip install -r requirements.txt
- 在 Claude Desktop 中配置:
在 Claude Desktop 配置目录中创建一个名为
claude_desktop_config.json
的文件,内容如下:
{
"mcp_servers": [
{
"command": "uv",
"args": [
"--directory",
"/multi-llm-cross-check-mcp-server",
"run",
"main.py"
],
"env": {
"OPENAI_API_KEY": "your_openai_key",
"ANTHROPIC_API_KEY": "your_anthropic_key",
"PERPLEXITY_API_KEY": "your_perplexity_key",
"GEMINI_API_KEY": "your_gemini_key"
}
}
]
}
调试方式
- 服务器将在打开 Claude Desktop 时自动启动
- 在对话中使用
cross_check
工具,请求“与其他 LLM 交叉检查” - 提供提示,它将返回所有配置的 LLM 提供商的响应