
LLM Bridge MCP

2025.03.28
3
Python大型语言模型接口AI代理支持开发效率
LLM Bridge MCP 是一个为AI代理提供标准化接口的服务,允许通过Message Control Protocol (MCP)无缝访问不同的大型语言模型(LLM)提供商。它简化了在应用中使用多个模型或切换模型的过程,支持包括OpenAI、Anthropic、Google和DeepSeek在内的多种LLM提供商。
View on GitHub
Overview
基本能力
产品定位
LLM Bridge MCP 旨在为开发者提供一个统一的接口,以便于在应用中使用和切换不同的大型语言模型(LLM),提升开发效率和灵活性。
核心功能
- 统一接口访问多个LLM提供商(如OpenAI、Anthropic、Google、DeepSeek等)。
- 使用Pydantic AI确保类型安全和验证。
- 支持自定义参数(如温度、最大令牌数)。
- 提供使用跟踪和指标。
适用场景
- 需要在应用中使用多个LLM模型的场景。
- 需要快速切换不同LLM模型的场景。
- 需要统一管理和跟踪LLM使用的场景。
工具列表
run_llm
:向LLM发送提示并获取响应。- 参数:
prompt
:发送给LLM的文本提示。model_name
:使用的特定模型(默认:"openai:gpt-4o-mini")。temperature
:控制随机性(0.0到1.0)。max_tokens
:生成的最大令牌数。system_prompt
:可选系统提示,指导模型行为。
常见问题解答
- 问题1:"spawn uvx ENOENT"错误。
- 解决方案:使用
uvx
的完整路径。- 查找
uvx
的完整路径: - macOS/Linux:
which uvx
- Windows:
where.exe uvx
- 更新MCP服务器配置以使用完整路径。
- 查找
使用教程
使用依赖
- 安装
uv
: - macOS:
brew install uv
- Linux:
curl -LsSf https://astral.sh/uv/install.sh | sh
- Windows:
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
安装教程
- 通过Smithery自动安装:
bash npx -y @smithery/cli install @sjquant/llm-bridge-mcp --client claude
- 手动安装:
- 克隆仓库:
bash git clone https://github.com/yourusername/llm-bridge-mcp.git cd llm-bridge-mcp
- 创建
.env
文件并配置API密钥:OPENAI_API_KEY=your_openai_api_key ANTHROPIC_API_KEY=your_anthropic_api_key GOOGLE_API_KEY=your_google_api_key DEEPSEEK_API_KEY=your_deepseek_api_key
调试方式
- 在Claude Desktop或Cursor中添加服务器配置:
json "mcpServers": { "llm-bridge": { "command": "uvx", "args": [ "llm-bridge-mcp" ], "env": { "OPENAI_API_KEY": "your_openai_api_key", "ANTHROPIC_API_KEY": "your_anthropic_api_key", "GOOGLE_API_KEY": "your_google_api_key", "DEEPSEEK_API_KEY": "your_deepseek_api_key" } } }
- 确保
uvx
可执行文件在PATH中或使用完整路径。