
🚀 MCP-Ollama Server

2025.04.30
0
Python本地 AI 集成数据隐私模块化服务开发效率内容生成
MCP-Ollama Server 是一个将 Anthropic 的 Model Context Protocol (MCP) 与本地 LLMs 通过 Ollama 连接起来的服务。它使得本地 AI 模型具备类似 Claude 的工具能力,包括文件系统访问、日历集成、网页浏览、电子邮件通信、GitHub 交互和 AI 图像生成等功能,同时保持数据的完全隐私。
View on GitHub
Overview
基本能力
产品定位
MCP-Ollama Server 旨在为本地 LLMs 提供类似云 AI 服务的功能,同时确保数据隐私和安全性。
核心功能
- 🔒 完全数据隐私:所有计算都在本地通过 Ollama 完成
- 🔧 本地 LLMs 的工具使用:扩展 Ollama 模型的文件、日历等功能
- 🧩 模块化架构:独立的 Python 服务模块,可选择性部署
- 🔌 易于集成:简单的 API 与现有应用连接
- 🚀 性能优化:最小化开销以保持响应速度
- 📦 容器化部署:支持 Docker(即将推出)
- 🧪 全面测试:高覆盖率的测试确保可靠性
适用场景
- 企业安全与合规:处理敏感数据的组织,如法律、医疗和金融行业
- 开发者生产力:代码生成、自动化文档和本地 git 集成
- 个人知识管理:处理个人文档、日历管理和内容生成
工具列表
- 📅 日历模块:提供 Google Calendar API 集成,支持创建、修改和删除日历事件
- 🔄 客户端 MCP 模块:统一接口管理对话历史、上下文处理和工具选择
- 📁 文件系统模块:支持文件读写、目录列表和文件格式解析
常见问题解答
- Q: 与云 AI 助手有何不同? A: 完全在本地运行,确保数据隐私,不依赖外部 API
- Q: 支持哪些模型? A: 任何与 Ollama 兼容的模型,推荐 Llama 3 或 Mistral
- Q: 如何扩展新功能? A: 遵循模块化架构创建新服务模块
- Q: 系统要求? A: 至少 16GB RAM 和现代多核 CPU
使用教程
使用依赖
- 安装 Python 3.8+
- 安装 Ollama
- 安装 Git
安装教程
# 1. 安装 uv
curl -LsSf https://astral.sh/uv/install.sh | sh
# 2. 克隆仓库
git clone https://github.com/sethuram2003/mcp-ollama_server.git
cd mcp-ollama_server
# 3. 验证 Ollama 模型(替换 'llama3' 为你的模型)
ollama pull llama3
模块配置
- 日历模块
cd calendar
uv add pyproject.toml
- 客户端 MCP 模块
cd client_mcp
uv add pyproject.toml
- 文件系统模块
cd file_system
uv add pyproject.toml
调试方式
cd client_mcp
uv run client.py ../file_system/file_system.py