
Ollama MCP Chat

2025.05.06
1
Python桌面聊天机器人AI 应用程序开发效率
Ollama MCP Chat 是一个桌面聊天机器人应用程序,集成了 Ollama 的本地 LLM 模型和 MCP(Model Context Protocol)服务器,支持多种工具调用和可扩展功能。它提供了一个基于 Python 和 PySide6 的 GUI,并允许通过 MCP 服务器自由扩展其能力。该项目非常适合希望使用 Python 创建带有 GUI 的 AI 应用程序的开发者作为基础代码。
View on GitHub
Overview
基本能力
产品定位
Ollama MCP Chat 是一个桌面聊天机器人应用程序,集成了本地 LLM 模型和 MCP 服务器,支持工具调用和扩展功能。
核心功能
- 免费本地运行 Ollama LLM 模型
- 通过 MCP 服务器集成和调用各种工具
- 管理和保存聊天历史
- 实时流式响应和工具调用结果
- 直观的桌面 GUI(基于 PySide6)
- 支持添加、编辑和删除 MCP 服务器的 GUI
适用场景
- 开发者创建带有 GUI 的 AI 应用程序
- 需要本地运行 LLM 模型的用户
- 需要集成多种工具调用的聊天机器人应用
工具列表
ui/chat_window.py
: 主 GUI 窗口,处理聊天/历史/设置/服务器管理agent/chat_history.py
: 管理和保存/加载聊天历史worker.py
: 处理与 LLM 和 MCP 服务器的异步通信agent/llm_ollama.py
: 集成 Ollama LLM 和 MCP 工具,处理流式响应mcp_server/mcp_manager.py
: 管理和验证 MCP 服务器配置文件
常见问题解答
- 基本 LLM 聊天即使没有 MCP 服务器配置也能工作
- 注意 PC 的性能和内存使用情况,尤其是使用大型 LLM 模型时
- MCP 服务器可以用 Python、Node.js 或其他语言实现,也支持外部 MCP 服务器
使用教程
使用依赖
- 安装 Python 3.12 或更高版本
- 安装 Ollama(用于本地 LLM 执行)
- 安装 uv(推荐用于包管理)
- 准备 MCP 服务器(可以自己实现或使用外部 MCP 服务器)
安装教程
- 克隆仓库
git clone https://github.com/your-repo/ollama-mcp-chat.git
cd ollama-mcp-chat
- 安装 uv(如果未安装)
# 使用 pip
pip install uv
# 或使用 curl(类 Unix 系统)
curl -LsSf https://astral.sh/uv/install.sh | sh
# 或使用 PowerShell(Windows)
powershell -c "irm https://astral.sh/uv/install.ps1 | iex"
- 安装依赖
uv sync
- 安装 Ollama 并下载模型
ollama pull <model-name>
- MCP 服务器配置(可选)
- 将 MCP 服务器信息添加到
mcp_config.json
文件
调试方式
uv run main.py
- GUI 将启动,可以开始聊天和使用 MCP 工具。