
MLflow MCP Server: Natural Language Interface for MLflow

2025.03.23
7
Python自然语言接口机器学习管理开发效率
MLflow MCP Server 是一个通过模型上下文协议(MCP)为 MLflow 提供自然语言接口的项目。它允许用户使用简单的英语查询 MLflow 跟踪服务器,从而更轻松地管理和探索机器学习实验和模型。
View on GitHub
Overview
基本能力
产品定位
MLflow MCP Server 是一个为 MLflow 提供自然语言接口的工具,旨在简化机器学习实验和模型的管理与探索。
核心功能
- 自然语言查询:使用简单的英语查询 MLflow 跟踪服务器。
- 模型注册表探索:获取已注册模型的信息。
- 实验跟踪:列出和探索实验和运行。
- 系统信息:获取 MLflow 环境和状态的元数据。
适用场景
- 需要快速查询 MLflow 跟踪服务器的用户。
- 希望通过自然语言交互管理机器学习实验和模型的团队。
- 需要获取 MLflow 系统状态和元数据的开发者。
工具列表
list_models
:列出 MLflow 模型注册表中的所有注册模型。list_experiments
:列出 MLflow 跟踪服务器中的所有实验。get_model_details
:获取特定注册模型的详细信息。get_system_info
:获取 MLflow 跟踪服务器和系统的信息。
常见问题解答
- 当前功能限制:仅支持部分 MLflow 功能。
- 客户端要求:需要互联网访问以使用 OpenAI 模型。
- 错误处理:对于复杂的 MLflow 操作,错误处理可能有限。
使用教程
使用依赖
- Python 3.8+
- 运行的 MLflow 服务器(默认:
http://localhost:8080
) - OpenAI API 密钥
安装教程
- 克隆仓库:
bash git clone https://github.com/iRahulPandey/mlflowMCPServer.git cd mlflowMCPServer
- 创建虚拟环境:
bash python -m venv venv source venv/bin/activate # Windows: venv\Scripts\activate
- 安装依赖包:
bash pip install mcp[cli] langchain-mcp-adapters langchain-openai langgraph mlflow
- 设置 OpenAI API 密钥:
bash export OPENAI_API_KEY=your_key_here
- (可选)配置 MLflow 跟踪服务器 URI:
bash export MLFLOW_TRACKING_URI=http://localhost:8080
调试方式
- 启动 MCP 服务器:
bash python mlflow_server.py
- 使用客户端进行查询:
bash python mlflow_client.py "What models do I have registered in MLflow?"
示例查询: - "Show me all registered models in MLflow"
- "List all my experiments"
- "Get details for the model named 'iris-classifier'"
- "What's the status of my MLflow server?"
许可证
None