
Ollama_MCP_Guidance

2025.03.10
0
PythonAPI 交互LLM 指导开发效率
Ollama_MCP_Guidance 是一个基于 MCP (Model Context Protocol) 的 Ollama API 交互服务,旨在为 LLM 提供智能化的 API 调用指导。该项目提供了一个标准化的接口,用于与 Ollama 服务进行交互,并支持详细的性能指标统计和错误处理。
View on GitHub
Overview
基本能力
产品定位
Ollama_MCP_Guidance 是一个为 Cursor IDE 设计的 MCP 服务,主要用于与 Ollama 服务进行交互,并为 LLM 提供智能化的 API 调用指导。
核心功能
- 标准化的 JSON 响应格式
- 完整的错误处理和状态反馈
- 详细的性能指标统计
- 简单的配置管理
- 内置的 API 文档导航
适用场景
- 在 Cursor IDE 中通过 MCP 协议调用 Ollama 服务
- 为 LLM 提供智能化的 API 调用指导
- 需要标准化接口与 Ollama 交互的场景
工具列表
get_started_guide
:项目入门指南,帮助 LLM 全面了解项目get_ollama_version
:获取 Ollama 服务器版本get_ollama_list
:获取已安装模型列表get_running_models
:查看运行中的模型post_show_model
:获取模型详细信息simple_chat
:对话式交互功能simple_generate
:基础文本生成post_generate_embeddings
:生成文本向量表示
常见问题解答
- 项目状态:目前仅支持在 Cursor 中使用,处于开发阶段,尚未实现所有 Ollama API 端点。
- 功能限制:不支持流式响应、多轮对话历史、系统提示词、上下文管理等高级功能。
- 管理功能限制:出于安全考虑,不支持模型复制、下载、删除等管理员级别操作。
使用教程
使用依赖
- 确保已安装 Python 3.10 或更高版本
- 安装 Ollama
安装教程
# 安装 uv(推荐)
curl -LsSf https://astral.sh/uv/install.sh | sh
# 创建并激活虚拟环境
uv venv
source .venv/bin/activate # Linux/macOS
# 或
.venv\Scripts\activate # Windows
# 安装依赖
uv pip install .
调试方式
- 创建运行脚本
ollama-mcp-cli
并设置权限:
chmod +x ollama-mcp-cli
- 在 Cursor 的 MCP 配置中使用以下命令:
/完整路径/ollama-mcp-cli
- 基本功能示例:
result = await get_ollama_list()
response = await simple_chat(
model="llama2",
prompt="你好,请介绍一下自己"
)
embeddings = await post_generate_embeddings(
model="nomic-embed-text",
text=["这是一段示例文本"]
)