ollama-MCP-server

ollama-MCP-server

site icon
2025.04.04 0
PythonLLM集成任务管理模型执行开发效率
ollama-MCP-server 是一个与本地 Ollama LLM 实例通信的 Model Context Protocol (MCP) 服务器,旨在实现 MCP 兼容应用程序与本地 LLM 之间的无缝集成。它提供高级任务分解、结果评估、工作流管理等功能,并通过标准化的 MCP 协议进行通信。
View on GitHub

Overview

基本能力

产品定位

ollama-MCP-server 是一个中间件服务器,用于在本地 Ollama LLM 实例和 MCP 兼容应用程序之间建立桥梁,提供任务分解、结果评估和模型执行等功能。

核心功能

  • 任务分解:将复杂任务分解为可管理的子任务
  • 结果评估:根据指定标准评估任务结果并提供反馈
  • 模型管理:与本地 Ollama 模型交互并执行查询
  • 标准化通信:通过 MCP 协议实现标准化通信
  • 错误处理:提供结构化错误消息和详细错误处理
  • 性能优化:包括连接池和 LRU 缓存等优化

适用场景

  • 需要将复杂任务分解为更小子任务的场景
  • 需要对任务结果进行自动评估和反馈的场景
  • 需要与本地 LLM 模型交互的场景
  • 需要标准化协议与不同应用程序集成的场景

工具列表

  • add-task:创建新任务
  • decompose-task:分解复杂任务
  • evaluate-result:评估任务结果
  • run-model:执行 Ollama 模型查询

常见问题解答

  • 模型指定:可以通过工具参数、MCP 配置文件或环境变量指定模型
  • 错误处理:提供详细的错误消息,包括可用模型列表
  • 性能优化:可通过配置文件调整缓存大小和连接数

使用教程

使用依赖

  1. 安装 Ollama:
curl -fsSL https://ollama.com/install.sh | sh
  1. 下载推荐模型:
ollama pull llama3
ollama pull mistral
ollama pull qwen2

安装教程

pip install ollama-mcp-server

调试方式

  1. 运行测试:
python -m unittest discover
  1. 使用 MCP Inspector 进行调试:
npx @modelcontextprotocol/inspector uv --directory /path/to/ollama-MCP-server run ollama-mcp-server

许可证

该项目遵循 MIT 开源许可条款。