
OmniLLM: Universal LLM Bridge for Claude

2025.03.23
1
通用大型语言模型桥接AI服务整合内容生成开发效率
OmniLLM是一个MCP服务器,允许Claude查询并整合其他大型语言模型(如ChatGPT、Azure OpenAI和Google Gemini)的响应,为用户提供一个统一的AI访问点。
View on GitHub
Overview
基本能力
产品定位
OmniLLM是一个通用的大型语言模型桥接服务,旨在为Claude提供访问和整合多种大型语言模型的能力,从而增强其回答的多样性和深度。
核心功能
- 查询OpenAI的ChatGPT模型
- 查询Azure OpenAI服务
- 查询Google的Gemini模型
- 获取所有LLM的响应以进行比较
- 检查哪些LLM服务已配置并可用
适用场景
- 需要比较不同大型语言模型响应的场景
- 需要整合多个AI服务以增强回答的场景
- 开发者在Claude中需要访问其他AI服务的场景
工具列表
query_chatgpt
- 使用自定义提示查询OpenAI的ChatGPTquery_azure_chatgpt
- 使用自定义提示查询Azure OpenAI的ChatGPTquery_gemini
- 使用自定义提示查询Google的Geminiquery_all_llms
- 查询所有可用的LLM并获取所有响应check_available_models
- 检查哪些LLM API已正确配置
常见问题解答
- 确保API密钥在
.env
文件中正确设置 - 确保Claude Desktop正确配置了服务器路径
- 验证所有依赖项是否安装在虚拟环境中
- 检查Claude的日志以查找任何连接或执行错误
使用教程
使用依赖
- Python 3.10+
- Claude Desktop应用程序
- 要使用的LLM的API密钥
安装教程
# 克隆或下载此存储库
git clone https://github.com/yourusername/omnillm-mcp.git
cd omnillm-mcp
# 创建虚拟环境
python -m venv venv
source venv/bin/activate # 在Windows上:venv\Scripts\activate
# 安装依赖
pip install mcp[cli] httpx python-dotenv
调试方式
- 检查
.env
文件中的API密钥是否正确 - 确保Claude Desktop配置正确
- 检查虚拟环境中的依赖项是否安装
- 查看Claude的日志以查找错误