
Ollama-MCP Bridge WebUI

2025.03.31
3
TypeScript本地 AI 助手开源模型扩展开发效率
Ollama-MCP Bridge WebUI 是一个 TypeScript 实现的项目,用于将本地大型语言模型(通过 Ollama)连接到 Model Context Protocol (MCP) 服务器,并提供 Web 界面。该桥接器允许开源模型使用与 Claude 相同的工具和能力,从而在本地硬件上运行强大的 AI 助手。
View on GitHub
Overview
基本能力
产品定位
Ollama-MCP Bridge WebUI 是一个连接本地 LLM 和 MCP 服务器的桥接工具,提供 Web 界面,使开源模型能够使用与 Claude 相同的工具和能力。
核心功能
- 多 MCP 集成:同时连接多个 MCP 服务器
- 工具检测:根据查询自动识别要使用的工具
- Web 界面:简洁的 UI,带有可折叠的工具描述
- 全面的工具集:文件系统、网络搜索和推理能力
适用场景
- 本地 AI 助手的开发和测试
- 开源模型的功能扩展
- 需要文件系统操作、网络搜索和复杂问题解决的场景
工具列表
- 文件系统工具:用于文件和目录操作
- Brave 搜索工具:用于网络信息搜索
- 顺序思考工具:用于复杂问题解决
常见问题解答
- 安装过程中需要配置 API 密钥
- 需要手动创建 workspace 目录
- 配置文件中使用环境变量引用敏感信息
使用教程
使用依赖
- 安装 Node.js
- 安装 Ollama
安装教程
自动安装
./install.bat
手动安装
- 安装 Ollama: ollama.com/download
- 拉取 Qwen 模型:
ollama pull qwen2.5-coder:7b-instruct-q4_K_M
- 安装依赖:
npm install
- 创建 workspace 目录:
mkdir ../workspace
- 配置 API 密钥: 编辑
.env
文件 - 构建项目:
npm run build
调试方式
- 启动桥接器:
./start.bat
- 访问 Web 界面: http://localhost:8080
- 检查控制台输出以确认服务正常运行