
🚀 ⚡️ locust-mcp-server

2025.04.04
0
Python负载测试性能测试开发效率
QAInsights_locust-mcp-server 是一个基于 Model Context Protocol (MCP) 的服务器实现,专门用于运行 Locust 负载测试。该服务器使得 Locust 负载测试能力能够无缝集成到 AI 驱动的开发环境中。
核心功能包括:
- 与 Model Context Protocol 框架的简单集成
- 支持无头(headless)和 UI 模式
- 可配置的测试参数(用户数、生成速率、运行时间)
- 易于使用的 API 来运行 Locust 负载测试
- 实时测试执行输出
- 默认支持 HTTP/HTTPS 协议
- 支持自定义任务场景
适用场景:
- 在 AI 开发环境中进行负载测试
- 自动化性能测试流程
- 集成到持续集成/持续部署 (CI/CD) 流水线中
- 开发阶段的性能基准测试
View on GitHub
Overview
✨ 基本能力
核心功能
- 与 Model Context Protocol 框架的简单集成
- 支持无头(headless)和 UI 模式
- 可配置的测试参数(用户数、生成速率、运行时间)
- 易于使用的 API 来运行 Locust 负载测试
- 实时测试执行输出
- 默认支持 HTTP/HTTPS 协议
- 支持自定义任务场景
工具列表
run_locust
: 运行测试,可配置无头模式、主机、运行时间、用户数和生成速率
常见问题解答
- 无特定常见问题解答部分
🚀 使用教程
使用依赖
- 安装 Python 3.13 或更高版本
- 安装 uv 包管理器
# uv 安装指南参考 https://github.com/astral-sh/uv
安装教程
- 克隆仓库
git clone https://github.com/yourusername/locust-mcp-server.git
- 安装依赖
uv pip install -r requirements.txt
- 设置环境变量(可选)
在项目根目录创建
.env
文件
LOCUST_HOST=http://localhost:8089 # 测试默认主机
LOCUST_USERS=3 # 默认用户数
LOCUST_SPAWN_RATE=1 # 默认用户生成速率
LOCUST_RUN_TIME=10s # 默认测试持续时间
调试方式
- 创建 Locust 测试脚本(如
hello.py
) - 配置 MCP 服务器
- 通过 LLM 运行测试,例如:
run locust test for hello.py