MLflow MCP Server: Natural Language Interface for MLflow

MLflow MCP Server: Natural Language Interface for MLflow

site icon
2025.03.23 7
Python自然语言接口机器学习管理开发效率
MLflow MCP Server 是一个通过模型上下文协议(MCP)为 MLflow 提供自然语言接口的项目。它允许用户使用简单的英语查询 MLflow 跟踪服务器,从而更轻松地管理和探索机器学习实验和模型。
View on GitHub

Overview

基本能力

产品定位

MLflow MCP Server 是一个为 MLflow 提供自然语言接口的工具,旨在简化机器学习实验和模型的管理与探索。

核心功能

  • 自然语言查询:使用简单的英语查询 MLflow 跟踪服务器。
  • 模型注册表探索:获取已注册模型的信息。
  • 实验跟踪:列出和探索实验和运行。
  • 系统信息:获取 MLflow 环境和状态的元数据。

适用场景

  • 需要快速查询 MLflow 跟踪服务器的用户。
  • 希望通过自然语言交互管理机器学习实验和模型的团队。
  • 需要获取 MLflow 系统状态和元数据的开发者。

工具列表

  • list_models:列出 MLflow 模型注册表中的所有注册模型。
  • list_experiments:列出 MLflow 跟踪服务器中的所有实验。
  • get_model_details:获取特定注册模型的详细信息。
  • get_system_info:获取 MLflow 跟踪服务器和系统的信息。

常见问题解答

  • 当前功能限制:仅支持部分 MLflow 功能。
  • 客户端要求:需要互联网访问以使用 OpenAI 模型。
  • 错误处理:对于复杂的 MLflow 操作,错误处理可能有限。

使用教程

使用依赖

  • Python 3.8+
  • 运行的 MLflow 服务器(默认:http://localhost:8080
  • OpenAI API 密钥

安装教程

  1. 克隆仓库: bash git clone https://github.com/iRahulPandey/mlflowMCPServer.git cd mlflowMCPServer
  2. 创建虚拟环境: bash python -m venv venv source venv/bin/activate # Windows: venv\Scripts\activate
  3. 安装依赖包: bash pip install mcp[cli] langchain-mcp-adapters langchain-openai langgraph mlflow
  4. 设置 OpenAI API 密钥: bash export OPENAI_API_KEY=your_key_here
  5. (可选)配置 MLflow 跟踪服务器 URI: bash export MLFLOW_TRACKING_URI=http://localhost:8080

调试方式

  1. 启动 MCP 服务器: bash python mlflow_server.py
  2. 使用客户端进行查询: bash python mlflow_client.py "What models do I have registered in MLflow?" 示例查询:
  3. "Show me all registered models in MLflow"
  4. "List all my experiments"
  5. "Get details for the model named 'iris-classifier'"
  6. "What's the status of my MLflow server?"

许可证

None