1、前言

1、前言

site icon
2025.04.13 0
PythonMCP 开发本地大模型开发效率
mcp_playground 是一个基于 Python 的 MCP(Model Control Protocol)开发环境,旨在帮助开发者快速开发和调试本地大模型调用的工具。通过集成 Ollama 和 CherryStudio,用户可以方便地部署和测试本地大模型,并通过 MCP 协议进行交互。
View on GitHub

Overview

基本能力

产品定位

mcp_playground 是一个用于开发和调试 MCP 工具的开发环境,特别适合需要本地大模型调用的开发者。

核心功能

  1. 本地大模型集成:支持通过 Ollama 部署和管理本地大模型。
  2. MCP 工具开发:提供 Python 开发环境,支持快速开发和调试 MCP 工具。
  3. 调试工具:内置调试服务器,方便开发者实时测试和验证工具功能。
  4. CherryStudio 集成:支持与 CherryStudio 客户端集成,方便在对话中启用 MCP 服务器。

适用场景

  1. 本地大模型开发:适合需要在本地开发和测试大模型调用的开发者。
  2. MCP 工具开发:适合开发基于 MCP 协议的工具,如自动化任务、数据处理等。
  3. 调试和验证:适合需要实时调试和验证工具功能的开发者。

工具列表

  1. Ollama:用于部署和管理本地大模型。
  2. CherryStudio:本地大模型的客户端,支持与 MCP 服务器集成。
  3. uv:Python 包管理工具,用于管理项目依赖。
  4. FastMCP:Python 库,用于快速开发 MCP 工具。

常见问题解答

  1. 如何安装 Ollama?
  2. 访问 Ollama 官网下载并安装:https://ollama.com/download

  3. 如何安装 CherryStudio?

  4. 访问 CherryStudio 官网下载并安装:https://docs.cherry-ai.com/cherry-studio/download

  5. 如何调试 MCP 工具?

  6. 使用 mcp dev 命令启动调试服务器,访问 http://127.0.0.1:6274 进行调试。

使用教程

使用依赖

  1. 安装 Ollama shell # 访问 Ollama 官网下载并安装 https://ollama.com/download

  2. 安装 CherryStudio shell # 访问 CherryStudio 官网下载并安装 https://docs.cherry-ai.com/cherry-studio/download

安装教程

  1. 安装 uv shell $ wget -qO- https://astral.sh/uv/install.sh | sh

  2. 创建和初始化 MCP 项目 ```shell # 初始化项目 $ uv init hello_mcp_server

# 进入项目目录 $ cd hello_mcp_server

# 创建环境 $ uv venv

# 激活环境 $ source .venv/bin/activate

# 安装依赖 $ uv add "mcp[cli]" ```

调试方式

  1. 启动调试服务器 shell $ mcp dev hello_mcp_server.py

  2. 访问调试地址

  3. 在浏览器中访问 http://127.0.0.1:6274,点击 Connect 进行调试。

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。