OmniLLM: Universal LLM Bridge for Claude

OmniLLM: Universal LLM Bridge for Claude

site icon
2025.03.23 1
通用大型语言模型桥接AI服务整合内容生成开发效率
OmniLLM是一个MCP服务器,允许Claude查询并整合其他大型语言模型(如ChatGPT、Azure OpenAI和Google Gemini)的响应,为用户提供一个统一的AI访问点。
View on GitHub

Overview

基本能力

产品定位

OmniLLM是一个通用的大型语言模型桥接服务,旨在为Claude提供访问和整合多种大型语言模型的能力,从而增强其回答的多样性和深度。

核心功能

  • 查询OpenAI的ChatGPT模型
  • 查询Azure OpenAI服务
  • 查询Google的Gemini模型
  • 获取所有LLM的响应以进行比较
  • 检查哪些LLM服务已配置并可用

适用场景

  • 需要比较不同大型语言模型响应的场景
  • 需要整合多个AI服务以增强回答的场景
  • 开发者在Claude中需要访问其他AI服务的场景

工具列表

  1. query_chatgpt - 使用自定义提示查询OpenAI的ChatGPT
  2. query_azure_chatgpt - 使用自定义提示查询Azure OpenAI的ChatGPT
  3. query_gemini - 使用自定义提示查询Google的Gemini
  4. query_all_llms - 查询所有可用的LLM并获取所有响应
  5. check_available_models - 检查哪些LLM API已正确配置

常见问题解答

  • 确保API密钥在.env文件中正确设置
  • 确保Claude Desktop正确配置了服务器路径
  • 验证所有依赖项是否安装在虚拟环境中
  • 检查Claude的日志以查找任何连接或执行错误

使用教程

使用依赖

  • Python 3.10+
  • Claude Desktop应用程序
  • 要使用的LLM的API密钥

安装教程

# 克隆或下载此存储库
git clone https://github.com/yourusername/omnillm-mcp.git
cd omnillm-mcp

# 创建虚拟环境
python -m venv venv
source venv/bin/activate  # 在Windows上:venv\Scripts\activate

# 安装依赖
pip install mcp[cli] httpx python-dotenv

调试方式

  1. 检查.env文件中的API密钥是否正确
  2. 确保Claude Desktop配置正确
  3. 检查虚拟环境中的依赖项是否安装
  4. 查看Claude的日志以查找错误

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。