
ollama-MCP-server

2025.03.03
1
Python任务管理模型集成工作流自动化开发效率
ollama-MCP-server 是一个与 Ollama 通信的 Model Context Protocol (MCP) 服务器,旨在实现本地 Ollama LLM 实例与 MCP 兼容应用程序之间的无缝集成。它提供高级任务分解、评估和工作流管理功能,支持复杂的任务处理和结果验证。
View on GitHub
Overview
核心功能
- 任务分解:将复杂任务分解为可管理的子任务。
- 结果评估:根据指定标准对任务结果进行分析和评分。
- Ollama 模型管理:支持多种 Ollama 模型的运行和管理。
- 标准化通信:通过 MCP 协议实现标准化通信。
- 高级错误处理:提供详细的错误消息和结构化错误响应。
- 性能优化:包括连接池和 LRU 缓存,以提高响应速度和减少资源使用。
适用场景
- 复杂任务管理:适用于需要分解和管理的复杂任务场景。
- 结果评估与优化:用于对任务结果进行评分和改进建议。
- 本地 LLM 集成:适合需要与本地 Ollama 模型集成的应用程序。
工具列表
- add-task:创建新任务并返回标识符。
- decompose-task:将复杂任务分解为子任务。
- evaluate-result:根据标准评估结果并提供反馈。
- run-model:运行指定的 Ollama 模型并返回结果。
常见问题解答
- 模型未找到:检查模型是否已下载并正确配置。
- 连接错误:确保 Ollama 服务正在运行且可访问。
- 性能问题:调整缓存大小和连接池设置以优化性能。
使用教程
使用依赖
确保已安装 Ollama 并下载推荐模型:
curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3
ollama pull mistral
ollama pull qwen2
安装教程
安装 ollama-MCP-server:
pip install ollama-mcp-server
调试方式
运行测试以确保安装正确:
python -m unittest discover
使用 MCP Inspector 进行高级调试:
npx @modelcontextprotocol/inspector uv --directory /path/to/ollama-MCP-server run ollama-mcp-server