ollama-MCP-server

ollama-MCP-server

site icon
2025.03.03 1
Python任务管理模型集成工作流自动化开发效率
ollama-MCP-server 是一个与 Ollama 通信的 Model Context Protocol (MCP) 服务器,旨在实现本地 Ollama LLM 实例与 MCP 兼容应用程序之间的无缝集成。它提供高级任务分解、评估和工作流管理功能,支持复杂的任务处理和结果验证。
View on GitHub

Overview

核心功能

  • 任务分解:将复杂任务分解为可管理的子任务。
  • 结果评估:根据指定标准对任务结果进行分析和评分。
  • Ollama 模型管理:支持多种 Ollama 模型的运行和管理。
  • 标准化通信:通过 MCP 协议实现标准化通信。
  • 高级错误处理:提供详细的错误消息和结构化错误响应。
  • 性能优化:包括连接池和 LRU 缓存,以提高响应速度和减少资源使用。

适用场景

  • 复杂任务管理:适用于需要分解和管理的复杂任务场景。
  • 结果评估与优化:用于对任务结果进行评分和改进建议。
  • 本地 LLM 集成:适合需要与本地 Ollama 模型集成的应用程序。

工具列表

  • add-task:创建新任务并返回标识符。
  • decompose-task:将复杂任务分解为子任务。
  • evaluate-result:根据标准评估结果并提供反馈。
  • run-model:运行指定的 Ollama 模型并返回结果。

常见问题解答

  • 模型未找到:检查模型是否已下载并正确配置。
  • 连接错误:确保 Ollama 服务正在运行且可访问。
  • 性能问题:调整缓存大小和连接池设置以优化性能。

使用教程

使用依赖

确保已安装 Ollama 并下载推荐模型:

curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3
ollama pull mistral
ollama pull qwen2

安装教程

安装 ollama-MCP-server:

pip install ollama-mcp-server

调试方式

运行测试以确保安装正确:

python -m unittest discover

使用 MCP Inspector 进行高级调试:

npx @modelcontextprotocol/inspector uv --directory /path/to/ollama-MCP-server run ollama-mcp-server

许可证

该项目遵循 MIT 开源许可条款。