🚀 MCP-Ollama Server

🚀 MCP-Ollama Server

site icon
2025.04.30 0
Python本地 AI 集成数据隐私模块化服务开发效率内容生成
MCP-Ollama Server 是一个将 Anthropic 的 Model Context Protocol (MCP) 与本地 LLMs 通过 Ollama 连接起来的服务。它使得本地 AI 模型具备类似 Claude 的工具能力,包括文件系统访问、日历集成、网页浏览、电子邮件通信、GitHub 交互和 AI 图像生成等功能,同时保持数据的完全隐私。
View on GitHub

Overview

基本能力

产品定位

MCP-Ollama Server 旨在为本地 LLMs 提供类似云 AI 服务的功能,同时确保数据隐私和安全性。

核心功能

  • 🔒 完全数据隐私:所有计算都在本地通过 Ollama 完成
  • 🔧 本地 LLMs 的工具使用:扩展 Ollama 模型的文件、日历等功能
  • 🧩 模块化架构:独立的 Python 服务模块,可选择性部署
  • 🔌 易于集成:简单的 API 与现有应用连接
  • 🚀 性能优化:最小化开销以保持响应速度
  • 📦 容器化部署:支持 Docker(即将推出)
  • 🧪 全面测试:高覆盖率的测试确保可靠性

适用场景

  • 企业安全与合规:处理敏感数据的组织,如法律、医疗和金融行业
  • 开发者生产力:代码生成、自动化文档和本地 git 集成
  • 个人知识管理:处理个人文档、日历管理和内容生成

工具列表

  1. 📅 日历模块:提供 Google Calendar API 集成,支持创建、修改和删除日历事件
  2. 🔄 客户端 MCP 模块:统一接口管理对话历史、上下文处理和工具选择
  3. 📁 文件系统模块:支持文件读写、目录列表和文件格式解析

常见问题解答

  • Q: 与云 AI 助手有何不同? A: 完全在本地运行,确保数据隐私,不依赖外部 API
  • Q: 支持哪些模型? A: 任何与 Ollama 兼容的模型,推荐 Llama 3 或 Mistral
  • Q: 如何扩展新功能? A: 遵循模块化架构创建新服务模块
  • Q: 系统要求? A: 至少 16GB RAM 和现代多核 CPU

使用教程

使用依赖

  1. 安装 Python 3.8+
  2. 安装 Ollama
  3. 安装 Git

安装教程

# 1. 安装 uv
curl -LsSf https://astral.sh/uv/install.sh | sh

# 2. 克隆仓库
git clone https://github.com/sethuram2003/mcp-ollama_server.git
cd mcp-ollama_server

# 3. 验证 Ollama 模型(替换 'llama3' 为你的模型)
ollama pull llama3

模块配置

  1. 日历模块
cd calendar
uv add pyproject.toml
  1. 客户端 MCP 模块
cd client_mcp
uv add pyproject.toml
  1. 文件系统模块
cd file_system
uv add pyproject.toml

调试方式

cd client_mcp
uv run client.py ../file_system/file_system.py

许可证

该项目遵循 Apache-2.0 开源许可条款,请参阅 Apache-2.0 了解完整条款。