Ollama MCP Chat

Ollama MCP Chat

site icon
2025.05.06 1
Python桌面聊天机器人AI 应用程序开发效率
Ollama MCP Chat 是一个桌面聊天机器人应用程序,集成了 Ollama 的本地 LLM 模型和 MCP(Model Context Protocol)服务器,支持多种工具调用和可扩展功能。它提供了一个基于 Python 和 PySide6 的 GUI,并允许通过 MCP 服务器自由扩展其能力。该项目非常适合希望使用 Python 创建带有 GUI 的 AI 应用程序的开发者作为基础代码。
View on GitHub

Overview

基本能力

产品定位

Ollama MCP Chat 是一个桌面聊天机器人应用程序,集成了本地 LLM 模型和 MCP 服务器,支持工具调用和扩展功能。

核心功能

  • 免费本地运行 Ollama LLM 模型
  • 通过 MCP 服务器集成和调用各种工具
  • 管理和保存聊天历史
  • 实时流式响应和工具调用结果
  • 直观的桌面 GUI(基于 PySide6)
  • 支持添加、编辑和删除 MCP 服务器的 GUI

适用场景

  • 开发者创建带有 GUI 的 AI 应用程序
  • 需要本地运行 LLM 模型的用户
  • 需要集成多种工具调用的聊天机器人应用

工具列表

  • ui/chat_window.py: 主 GUI 窗口,处理聊天/历史/设置/服务器管理
  • agent/chat_history.py: 管理和保存/加载聊天历史
  • worker.py: 处理与 LLM 和 MCP 服务器的异步通信
  • agent/llm_ollama.py: 集成 Ollama LLM 和 MCP 工具,处理流式响应
  • mcp_server/mcp_manager.py: 管理和验证 MCP 服务器配置文件

常见问题解答

  • 基本 LLM 聊天即使没有 MCP 服务器配置也能工作
  • 注意 PC 的性能和内存使用情况,尤其是使用大型 LLM 模型时
  • MCP 服务器可以用 Python、Node.js 或其他语言实现,也支持外部 MCP 服务器

使用教程

使用依赖

  1. 安装 Python 3.12 或更高版本
  2. 安装 Ollama(用于本地 LLM 执行)
  3. 安装 uv(推荐用于包管理)
  4. 准备 MCP 服务器(可以自己实现或使用外部 MCP 服务器)

安装教程

  1. 克隆仓库
git clone https://github.com/your-repo/ollama-mcp-chat.git
cd ollama-mcp-chat
  1. 安装 uv(如果未安装)
# 使用 pip
pip install uv

# 或使用 curl(类 Unix 系统)
curl -LsSf https://astral.sh/uv/install.sh | sh

# 或使用 PowerShell(Windows)
powershell -c "irm https://astral.sh/uv/install.ps1 | iex"
  1. 安装依赖
uv sync
  1. 安装 Ollama 并下载模型
ollama pull <model-name>
  1. MCP 服务器配置(可选)
  2. 将 MCP 服务器信息添加到 mcp_config.json 文件

调试方式

uv run main.py
  • GUI 将启动,可以开始聊天和使用 MCP 工具。

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。