🚀 ⚡️ locust-mcp-server

🚀 ⚡️ locust-mcp-server

site icon
2025.04.04 0
Python负载测试性能测试开发效率
QAInsights_locust-mcp-server 是一个基于 Model Context Protocol (MCP) 的服务器实现,专门用于运行 Locust 负载测试。该服务器使得 Locust 负载测试能力能够无缝集成到 AI 驱动的开发环境中。 核心功能包括: - 与 Model Context Protocol 框架的简单集成 - 支持无头(headless)和 UI 模式 - 可配置的测试参数(用户数、生成速率、运行时间) - 易于使用的 API 来运行 Locust 负载测试 - 实时测试执行输出 - 默认支持 HTTP/HTTPS 协议 - 支持自定义任务场景 适用场景: - 在 AI 开发环境中进行负载测试 - 自动化性能测试流程 - 集成到持续集成/持续部署 (CI/CD) 流水线中 - 开发阶段的性能基准测试
View on GitHub

Overview

✨ 基本能力

核心功能

  • 与 Model Context Protocol 框架的简单集成
  • 支持无头(headless)和 UI 模式
  • 可配置的测试参数(用户数、生成速率、运行时间)
  • 易于使用的 API 来运行 Locust 负载测试
  • 实时测试执行输出
  • 默认支持 HTTP/HTTPS 协议
  • 支持自定义任务场景

工具列表

  • run_locust: 运行测试,可配置无头模式、主机、运行时间、用户数和生成速率

常见问题解答

  • 无特定常见问题解答部分

🚀 使用教程

使用依赖

  1. 安装 Python 3.13 或更高版本
  2. 安装 uv 包管理器
# uv 安装指南参考 https://github.com/astral-sh/uv

安装教程

  1. 克隆仓库
git clone https://github.com/yourusername/locust-mcp-server.git
  1. 安装依赖
uv pip install -r requirements.txt
  1. 设置环境变量(可选) 在项目根目录创建 .env 文件
LOCUST_HOST=http://localhost:8089  # 测试默认主机
LOCUST_USERS=3                     # 默认用户数
LOCUST_SPAWN_RATE=1               # 默认用户生成速率
LOCUST_RUN_TIME=10s               # 默认测试持续时间

调试方式

  1. 创建 Locust 测试脚本(如 hello.py
  2. 配置 MCP 服务器
  3. 通过 LLM 运行测试,例如:run locust test for hello.py

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。