Ollama_MCP_Guidance

Ollama_MCP_Guidance

site icon
2025.03.10 0
PythonAPI 交互LLM 指导开发效率
Ollama_MCP_Guidance 是一个基于 MCP (Model Context Protocol) 的 Ollama API 交互服务,旨在为 LLM 提供智能化的 API 调用指导。该项目提供了一个标准化的接口,用于与 Ollama 服务进行交互,并支持详细的性能指标统计和错误处理。
View on GitHub

Overview

基本能力

产品定位

Ollama_MCP_Guidance 是一个为 Cursor IDE 设计的 MCP 服务,主要用于与 Ollama 服务进行交互,并为 LLM 提供智能化的 API 调用指导。

核心功能

  • 标准化的 JSON 响应格式
  • 完整的错误处理和状态反馈
  • 详细的性能指标统计
  • 简单的配置管理
  • 内置的 API 文档导航

适用场景

  • 在 Cursor IDE 中通过 MCP 协议调用 Ollama 服务
  • 为 LLM 提供智能化的 API 调用指导
  • 需要标准化接口与 Ollama 交互的场景

工具列表

  1. get_started_guide:项目入门指南,帮助 LLM 全面了解项目
  2. get_ollama_version:获取 Ollama 服务器版本
  3. get_ollama_list:获取已安装模型列表
  4. get_running_models:查看运行中的模型
  5. post_show_model:获取模型详细信息
  6. simple_chat:对话式交互功能
  7. simple_generate:基础文本生成
  8. post_generate_embeddings:生成文本向量表示

常见问题解答

  1. 项目状态:目前仅支持在 Cursor 中使用,处于开发阶段,尚未实现所有 Ollama API 端点。
  2. 功能限制:不支持流式响应、多轮对话历史、系统提示词、上下文管理等高级功能。
  3. 管理功能限制:出于安全考虑,不支持模型复制、下载、删除等管理员级别操作。

使用教程

使用依赖

  1. 确保已安装 Python 3.10 或更高版本
  2. 安装 Ollama

安装教程

# 安装 uv(推荐)
curl -LsSf https://astral.sh/uv/install.sh | sh

# 创建并激活虚拟环境
uv venv
source .venv/bin/activate  # Linux/macOS
# 或
.venv\Scripts\activate  # Windows

# 安装依赖
uv pip install .

调试方式

  1. 创建运行脚本 ollama-mcp-cli 并设置权限:
chmod +x ollama-mcp-cli
  1. 在 Cursor 的 MCP 配置中使用以下命令:
/完整路径/ollama-mcp-cli
  1. 基本功能示例:
result = await get_ollama_list()
response = await simple_chat(
    model="llama2",
    prompt="你好,请介绍一下自己"
)
embeddings = await post_generate_embeddings(
    model="nomic-embed-text",
    text=["这是一段示例文本"]
)

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。