MCP LLM Bridge

MCP LLM Bridge

site icon
2025.03.17 1
PythonMCP 桥梁LLM 集成开发效率
simple-mcp-ollama-bridge 是一个连接 Model Context Protocol (MCP) 服务器与 OpenAI 兼容的 LLMs(如 Ollama)的桥梁服务。它允许用户通过 MCP 协议与本地或远程的 LLM 模型进行交互,支持多种配置和自定义参数。
View on GitHub

Overview

基本能力

产品定位

simple-mcp-ollama-bridge 是一个桥梁服务,旨在连接 MCP 服务器与 OpenAI 兼容的 LLM 模型,如 Ollama。它提供了灵活的配置选项,支持本地和远程模型的交互。

核心功能

  1. MCP 与 LLM 桥梁:连接 MCP 服务器与 OpenAI 兼容的 LLM 模型。
  2. 多模型支持:支持多种 LLM 模型,如 Ollama 和其他实现 OpenAI API 规范的模型。
  3. 灵活配置:允许用户自定义 MCP 服务器参数和 LLM 配置。
  4. 本地和远程模型支持:支持本地部署的模型(如 Ollama)和远程模型。

适用场景

  1. 开发与测试:开发者可以使用该桥梁服务测试和调试 MCP 与 LLM 的交互。
  2. 本地模型集成:用户可以将本地部署的 LLM 模型(如 Ollama)集成到 MCP 生态系统中。
  3. 多模型切换:支持快速切换不同的 LLM 模型,便于比较和评估模型性能。

工具列表

  1. MCP 服务器参数配置工具:允许用户自定义 MCP 服务器的启动参数。
  2. LLM 配置工具:支持配置 LLM 模型的 API 密钥、模型名称和基础 URL。

常见问题解答

  1. 如何配置本地模型?:在 main.py 中设置 base_url 为本地模型的端点(如 http://localhost:11434/v1)。
  2. 如何切换模型?:修改 llm_config 中的 model 参数即可切换不同的模型。

使用教程

使用依赖

  1. 安装 uv 工具: bash curl -LsSf https://astral.sh/uv/install.sh | sh
  2. 克隆项目仓库: bash git clone https://github.com/bartolli/mcp-llm-bridge.git cd mcp-llm-bridge
  3. 创建并激活虚拟环境: bash uv venv source .venv/bin/activate
  4. 安装依赖: bash uv pip install -e .

安装教程

  1. 按照上述步骤安装依赖。
  2. 配置 main.py 文件中的 mcp_server_paramsllm_config 参数。
  3. 重新激活虚拟环境以应用配置: bash source .venv/bin/activate

调试方式

  1. 启动服务后,检查日志以确保 MCP 服务器和 LLM 模型连接正常。
  2. 使用调试工具(如 curl 或 Postman)测试 API 端点是否响应正常。
  3. 检查 main.py 中的配置参数是否正确。

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。