Anthropic Model Context Protocol (MCP) Server with Ollama Integration

Anthropic Model Context Protocol (MCP) Server with Ollama Integration

site icon
2025.05.07 0
Python模型推理对话管理开发效率
simple-mcp-server 是一个结合了 Anthropic 兼容的 Model Context Protocol (MCP) 服务器与 Ollama/Gemma LLMs 的混合架构实现。它遵循官方的 MCP 规范,同时使用开源模型进行推理。该服务器提供了工具调用、资源管理、提示模板等核心功能,适用于需要与 Claude 模型或其他支持 MCP 协议的客户端进行交互的场景。
View on GitHub

Overview

基本能力

产品定位

simple-mcp-server 是一个结合了 Anthropic 兼容的 Model Context Protocol (MCP) 服务器与 Ollama/Gemma LLMs 的混合架构实现。它旨在提供一个遵循官方 MCP 规范的服务器,同时利用开源模型进行推理。

核心功能

  • MCP 协议特性:
  • 工具: 用于上下文管理
  • 资源: 暴露对话历史
  • 提示: 标准提示模板

  • 模型支持:

  • 通过 Claude Desktop 或其他 MCP 客户端与 Claude 模型一起使用
  • 兼容任何支持 Model Context Protocol 的客户端

适用场景

  • 需要与 Claude 模型或其他支持 MCP 协议的客户端进行交互的场景
  • 使用开源模型进行推理的应用
  • 需要管理对话上下文的聊天应用

工具列表

  • MCP Server: 实现 Anthropic MCP 协议,端口 3000
  • Middleware: 处理客户端与 Ollama 之间的通信
  • Ollama: 运行 Gemma3:4b 模型进行推理
  • Database: SQLite 数据库用于存储对话上下文

常见问题解答

无明确常见问题解答部分。

使用教程

使用依赖

  • Python 3.10+
  • Docker 和 Docker Compose
  • Ollama 并安装 Gemma3:4b 模型

安装教程

使用 setup 脚本

chmod +x setup.sh
./setup.sh

手动设置

# 克隆仓库
git clone <repository-url>
cd simple-mcp-server

# 确保 Ollama 正在运行并安装了 Gemma 模型
ollama pull gemma3:4b

# 使用 Docker 构建和运行
docker-compose build
docker-compose up -d

调试方式

# 运行包含的测试脚本
python test_system.py

# 或使用 shell 脚本
./test.sh

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。