
Anthropic Model Context Protocol (MCP) Server with Ollama Integration

2025.05.07
0
Python模型推理对话管理开发效率
simple-mcp-server 是一个结合了 Anthropic 兼容的 Model Context Protocol (MCP) 服务器与 Ollama/Gemma LLMs 的混合架构实现。它遵循官方的 MCP 规范,同时使用开源模型进行推理。该服务器提供了工具调用、资源管理、提示模板等核心功能,适用于需要与 Claude 模型或其他支持 MCP 协议的客户端进行交互的场景。
View on GitHub
Overview
基本能力
产品定位
simple-mcp-server 是一个结合了 Anthropic 兼容的 Model Context Protocol (MCP) 服务器与 Ollama/Gemma LLMs 的混合架构实现。它旨在提供一个遵循官方 MCP 规范的服务器,同时利用开源模型进行推理。
核心功能
- MCP 协议特性:
- 工具: 用于上下文管理
- 资源: 暴露对话历史
-
提示: 标准提示模板
-
模型支持:
- 通过 Claude Desktop 或其他 MCP 客户端与 Claude 模型一起使用
- 兼容任何支持 Model Context Protocol 的客户端
适用场景
- 需要与 Claude 模型或其他支持 MCP 协议的客户端进行交互的场景
- 使用开源模型进行推理的应用
- 需要管理对话上下文的聊天应用
工具列表
- MCP Server: 实现 Anthropic MCP 协议,端口 3000
- Middleware: 处理客户端与 Ollama 之间的通信
- Ollama: 运行 Gemma3:4b 模型进行推理
- Database: SQLite 数据库用于存储对话上下文
常见问题解答
无明确常见问题解答部分。
使用教程
使用依赖
- Python 3.10+
- Docker 和 Docker Compose
- Ollama 并安装 Gemma3:4b 模型
安装教程
使用 setup 脚本
chmod +x setup.sh
./setup.sh
手动设置
# 克隆仓库
git clone <repository-url>
cd simple-mcp-server
# 确保 Ollama 正在运行并安装了 Gemma 模型
ollama pull gemma3:4b
# 使用 Docker 构建和运行
docker-compose build
docker-compose up -d
调试方式
# 运行包含的测试脚本
python test_system.py
# 或使用 shell 脚本
./test.sh