Workflow Orchestrator MCP Server

Workflow Orchestrator MCP Server

site icon
2025.04.27 0
Python工作流编排AI 决策任务管理开发效率
orchestrator-mcp-server 是一个基于 AI 的工作流编排 MCP 服务器,旨在通过大型语言模型(LLM)进行智能决策和动态调整,管理和执行复杂的工作流。它支持非线性的工作流定义、模块化步骤、持久化状态管理以及工作流恢复等功能,适用于需要动态任务编排和智能决策的场景。
View on GitHub

Overview

基本能力

产品定位

orchestrator-mcp-server 是一个 AI 驱动的工作流编排服务器,专注于通过智能决策和动态调整来管理和执行复杂任务。

核心功能

  • AI 驱动决策:动态分支、错误处理和基于上下文的调整。
  • Markdown 定义工作流:工作流和步骤以 Markdown 文件定义,易于阅读和编辑。
  • 持久化状态管理:使用 SQLite 数据库存储工作流状态,支持长时间运行的任务。
  • 工作流恢复:中断的工作流可以恢复,AI 帮助协调客户端状态和持久化状态。
  • 模块化步骤:步骤定义可重用,提升维护性。

适用场景

  • 复杂任务的动态编排。
  • 需要 AI 辅助决策的工作流。
  • 长时间运行的任务管理。
  • 中断后需要恢复的工作流。

工具列表

  • list_workflows:列出可用的工作流定义。
  • start_workflow:按名称启动工作流,可选初始上下文。
  • get_workflow_status:获取运行中工作流实例的当前状态。
  • advance_workflow:报告上一步结果并请求下一步。
  • resume_workflow:重新连接到现有工作流实例,提供客户端状态以协调。

常见问题解答

  • 如何定义工作流:在 workflows/ 目录下创建 Markdown 文件,定义工作流目标和步骤。
  • 如何恢复中断的工作流:使用 resume_workflow 工具,提供实例 ID 和客户端状态。
  • 如何配置 AI 服务:通过环境变量 AI_SERVICE_ENDPOINTAI_SERVICE_API_KEY 配置外部 LLM 服务。

使用教程

使用依赖

  1. 确保已安装 Python 环境,并由 uv 管理。
  2. 设置必要的环境变量(见配置部分)。
  3. 确保 WORKFLOW_DEFINITIONS_DIRWORKFLOW_DB_PATH 目录存在且可写。

安装教程

  1. 安装依赖: bash uv sync
  2. 运行服务器: bash uv run python -m orchestrator_mcp_server

调试方式

  1. 检查日志级别:通过 LOG_LEVEL 环境变量设置(默认 info)。
  2. 验证工作流定义:确保 workflows/ 目录下的 Markdown 文件格式正确。
  3. 测试 API 调用:使用 MCP 工具(如 list_workflows)验证服务器响应。

许可证

该项目遵循 Unlicense 开源许可条款。