Ollama-MCP Bridge WebUI

Ollama-MCP Bridge WebUI

site icon
2025.03.31 3
TypeScript本地 AI 助手开源模型扩展开发效率
Ollama-MCP Bridge WebUI 是一个 TypeScript 实现的项目,用于将本地大型语言模型(通过 Ollama)连接到 Model Context Protocol (MCP) 服务器,并提供 Web 界面。该桥接器允许开源模型使用与 Claude 相同的工具和能力,从而在本地硬件上运行强大的 AI 助手。
View on GitHub

Overview

基本能力

产品定位

Ollama-MCP Bridge WebUI 是一个连接本地 LLM 和 MCP 服务器的桥接工具,提供 Web 界面,使开源模型能够使用与 Claude 相同的工具和能力。

核心功能

  • 多 MCP 集成:同时连接多个 MCP 服务器
  • 工具检测:根据查询自动识别要使用的工具
  • Web 界面:简洁的 UI,带有可折叠的工具描述
  • 全面的工具集:文件系统、网络搜索和推理能力

适用场景

  • 本地 AI 助手的开发和测试
  • 开源模型的功能扩展
  • 需要文件系统操作、网络搜索和复杂问题解决的场景

工具列表

  • 文件系统工具:用于文件和目录操作
  • Brave 搜索工具:用于网络信息搜索
  • 顺序思考工具:用于复杂问题解决

常见问题解答

  • 安装过程中需要配置 API 密钥
  • 需要手动创建 workspace 目录
  • 配置文件中使用环境变量引用敏感信息

使用教程

使用依赖

  1. 安装 Node.js
  2. 安装 Ollama

安装教程

自动安装

./install.bat

手动安装

  1. 安装 Ollama: ollama.com/download
  2. 拉取 Qwen 模型: ollama pull qwen2.5-coder:7b-instruct-q4_K_M
  3. 安装依赖: npm install
  4. 创建 workspace 目录: mkdir ../workspace
  5. 配置 API 密钥: 编辑 .env 文件
  6. 构建项目: npm run build

调试方式

  1. 启动桥接器: ./start.bat
  2. 访问 Web 界面: http://localhost:8080
  3. 检查控制台输出以确认服务正常运行

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。