
ollama-MCP-server

2025.04.04
0
PythonLLM集成任务管理模型执行开发效率
ollama-MCP-server 是一个与本地 Ollama LLM 实例通信的 Model Context Protocol (MCP) 服务器,旨在实现 MCP 兼容应用程序与本地 LLM 之间的无缝集成。它提供高级任务分解、结果评估、工作流管理等功能,并通过标准化的 MCP 协议进行通信。
View on GitHub
Overview
基本能力
产品定位
ollama-MCP-server 是一个中间件服务器,用于在本地 Ollama LLM 实例和 MCP 兼容应用程序之间建立桥梁,提供任务分解、结果评估和模型执行等功能。
核心功能
- 任务分解:将复杂任务分解为可管理的子任务
- 结果评估:根据指定标准评估任务结果并提供反馈
- 模型管理:与本地 Ollama 模型交互并执行查询
- 标准化通信:通过 MCP 协议实现标准化通信
- 错误处理:提供结构化错误消息和详细错误处理
- 性能优化:包括连接池和 LRU 缓存等优化
适用场景
- 需要将复杂任务分解为更小子任务的场景
- 需要对任务结果进行自动评估和反馈的场景
- 需要与本地 LLM 模型交互的场景
- 需要标准化协议与不同应用程序集成的场景
工具列表
- add-task:创建新任务
- decompose-task:分解复杂任务
- evaluate-result:评估任务结果
- run-model:执行 Ollama 模型查询
常见问题解答
- 模型指定:可以通过工具参数、MCP 配置文件或环境变量指定模型
- 错误处理:提供详细的错误消息,包括可用模型列表
- 性能优化:可通过配置文件调整缓存大小和连接数
使用教程
使用依赖
- 安装 Ollama:
curl -fsSL https://ollama.com/install.sh | sh
- 下载推荐模型:
ollama pull llama3
ollama pull mistral
ollama pull qwen2
安装教程
pip install ollama-mcp-server
调试方式
- 运行测试:
python -m unittest discover
- 使用 MCP Inspector 进行调试:
npx @modelcontextprotocol/inspector uv --directory /path/to/ollama-MCP-server run ollama-mcp-server