
MCP LLM Bridge

2025.03.17
1
PythonMCP 桥梁LLM 集成开发效率
simple-mcp-ollama-bridge 是一个连接 Model Context Protocol (MCP) 服务器与 OpenAI 兼容的 LLMs(如 Ollama)的桥梁服务。它允许用户通过 MCP 协议与本地或远程的 LLM 模型进行交互,支持多种配置和自定义参数。
View on GitHub
Overview
基本能力
产品定位
simple-mcp-ollama-bridge 是一个桥梁服务,旨在连接 MCP 服务器与 OpenAI 兼容的 LLM 模型,如 Ollama。它提供了灵活的配置选项,支持本地和远程模型的交互。
核心功能
- MCP 与 LLM 桥梁:连接 MCP 服务器与 OpenAI 兼容的 LLM 模型。
- 多模型支持:支持多种 LLM 模型,如 Ollama 和其他实现 OpenAI API 规范的模型。
- 灵活配置:允许用户自定义 MCP 服务器参数和 LLM 配置。
- 本地和远程模型支持:支持本地部署的模型(如 Ollama)和远程模型。
适用场景
- 开发与测试:开发者可以使用该桥梁服务测试和调试 MCP 与 LLM 的交互。
- 本地模型集成:用户可以将本地部署的 LLM 模型(如 Ollama)集成到 MCP 生态系统中。
- 多模型切换:支持快速切换不同的 LLM 模型,便于比较和评估模型性能。
工具列表
- MCP 服务器参数配置工具:允许用户自定义 MCP 服务器的启动参数。
- LLM 配置工具:支持配置 LLM 模型的 API 密钥、模型名称和基础 URL。
常见问题解答
- 如何配置本地模型?:在
main.py
中设置base_url
为本地模型的端点(如http://localhost:11434/v1
)。 - 如何切换模型?:修改
llm_config
中的model
参数即可切换不同的模型。
使用教程
使用依赖
- 安装
uv
工具:bash curl -LsSf https://astral.sh/uv/install.sh | sh
- 克隆项目仓库:
bash git clone https://github.com/bartolli/mcp-llm-bridge.git cd mcp-llm-bridge
- 创建并激活虚拟环境:
bash uv venv source .venv/bin/activate
- 安装依赖:
bash uv pip install -e .
安装教程
- 按照上述步骤安装依赖。
- 配置
main.py
文件中的mcp_server_params
和llm_config
参数。 - 重新激活虚拟环境以应用配置:
bash source .venv/bin/activate
调试方式
- 启动服务后,检查日志以确保 MCP 服务器和 LLM 模型连接正常。
- 使用调试工具(如
curl
或 Postman)测试 API 端点是否响应正常。 - 检查
main.py
中的配置参数是否正确。