LLM Bridge MCP

LLM Bridge MCP

site icon
2025.03.28 3
Python大型语言模型接口AI代理支持开发效率
LLM Bridge MCP 是一个为AI代理提供标准化接口的服务,允许通过Message Control Protocol (MCP)无缝访问不同的大型语言模型(LLM)提供商。它简化了在应用中使用多个模型或切换模型的过程,支持包括OpenAI、Anthropic、Google和DeepSeek在内的多种LLM提供商。
View on GitHub

Overview

基本能力

产品定位

LLM Bridge MCP 旨在为开发者提供一个统一的接口,以便于在应用中使用和切换不同的大型语言模型(LLM),提升开发效率和灵活性。

核心功能

  • 统一接口访问多个LLM提供商(如OpenAI、Anthropic、Google、DeepSeek等)。
  • 使用Pydantic AI确保类型安全和验证。
  • 支持自定义参数(如温度、最大令牌数)。
  • 提供使用跟踪和指标。

适用场景

  • 需要在应用中使用多个LLM模型的场景。
  • 需要快速切换不同LLM模型的场景。
  • 需要统一管理和跟踪LLM使用的场景。

工具列表

  • run_llm:向LLM发送提示并获取响应。
  • 参数:
    • prompt:发送给LLM的文本提示。
    • model_name:使用的特定模型(默认:"openai:gpt-4o-mini")。
    • temperature:控制随机性(0.0到1.0)。
    • max_tokens:生成的最大令牌数。
    • system_prompt:可选系统提示,指导模型行为。

常见问题解答

  • 问题1:"spawn uvx ENOENT"错误。
  • 解决方案:使用uvx的完整路径。
    • 查找uvx的完整路径:
    • macOS/Linux:which uvx
    • Windows:where.exe uvx
    • 更新MCP服务器配置以使用完整路径。

使用教程

使用依赖

  1. 安装uv
  2. macOS:brew install uv
  3. Linux:curl -LsSf https://astral.sh/uv/install.sh | sh
  4. Windows:powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

安装教程

  1. 通过Smithery自动安装: bash npx -y @smithery/cli install @sjquant/llm-bridge-mcp --client claude
  2. 手动安装:
  3. 克隆仓库: bash git clone https://github.com/yourusername/llm-bridge-mcp.git cd llm-bridge-mcp
  4. 创建.env文件并配置API密钥: OPENAI_API_KEY=your_openai_api_key ANTHROPIC_API_KEY=your_anthropic_api_key GOOGLE_API_KEY=your_google_api_key DEEPSEEK_API_KEY=your_deepseek_api_key

调试方式

  1. 在Claude Desktop或Cursor中添加服务器配置: json "mcpServers": { "llm-bridge": { "command": "uvx", "args": [ "llm-bridge-mcp" ], "env": { "OPENAI_API_KEY": "your_openai_api_key", "ANTHROPIC_API_KEY": "your_anthropic_api_key", "GOOGLE_API_KEY": "your_google_api_key", "DEEPSEEK_API_KEY": "your_deepseek_api_key" } } }
  2. 确保uvx可执行文件在PATH中或使用完整路径。

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。