
Workflow Orchestrator MCP Server

2025.04.27
0
Python工作流编排AI 决策任务管理开发效率
orchestrator-mcp-server 是一个基于 AI 的工作流编排 MCP 服务器,旨在通过大型语言模型(LLM)进行智能决策和动态调整,管理和执行复杂的工作流。它支持非线性的工作流定义、模块化步骤、持久化状态管理以及工作流恢复等功能,适用于需要动态任务编排和智能决策的场景。
View on GitHub
Overview
基本能力
产品定位
orchestrator-mcp-server 是一个 AI 驱动的工作流编排服务器,专注于通过智能决策和动态调整来管理和执行复杂任务。
核心功能
- AI 驱动决策:动态分支、错误处理和基于上下文的调整。
- Markdown 定义工作流:工作流和步骤以 Markdown 文件定义,易于阅读和编辑。
- 持久化状态管理:使用 SQLite 数据库存储工作流状态,支持长时间运行的任务。
- 工作流恢复:中断的工作流可以恢复,AI 帮助协调客户端状态和持久化状态。
- 模块化步骤:步骤定义可重用,提升维护性。
适用场景
- 复杂任务的动态编排。
- 需要 AI 辅助决策的工作流。
- 长时间运行的任务管理。
- 中断后需要恢复的工作流。
工具列表
list_workflows
:列出可用的工作流定义。start_workflow
:按名称启动工作流,可选初始上下文。get_workflow_status
:获取运行中工作流实例的当前状态。advance_workflow
:报告上一步结果并请求下一步。resume_workflow
:重新连接到现有工作流实例,提供客户端状态以协调。
常见问题解答
- 如何定义工作流:在
workflows/
目录下创建 Markdown 文件,定义工作流目标和步骤。 - 如何恢复中断的工作流:使用
resume_workflow
工具,提供实例 ID 和客户端状态。 - 如何配置 AI 服务:通过环境变量
AI_SERVICE_ENDPOINT
和AI_SERVICE_API_KEY
配置外部 LLM 服务。
使用教程
使用依赖
- 确保已安装 Python 环境,并由
uv
管理。 - 设置必要的环境变量(见配置部分)。
- 确保
WORKFLOW_DEFINITIONS_DIR
和WORKFLOW_DB_PATH
目录存在且可写。
安装教程
- 安装依赖:
bash uv sync
- 运行服务器:
bash uv run python -m orchestrator_mcp_server
调试方式
- 检查日志级别:通过
LOG_LEVEL
环境变量设置(默认info
)。 - 验证工作流定义:确保
workflows/
目录下的 Markdown 文件格式正确。 - 测试 API 调用:使用 MCP 工具(如
list_workflows
)验证服务器响应。