
MCP Client-Server with LLM Command Execution

2025.02.18
0
Python命令生成命令执行自然语言处理开发效率
MCP Client-Server with LLM Command Execution 是一个基于 FastAPI 的客户端-服务器系统,集成了大型语言模型(LLM)如 Groq 或 Ollama,用于动态生成和执行系统命令。该系统具有高度的安全性和跨平台兼容性,能够将自然语言查询转换为适当的系统命令并安全执行。
View on GitHub
Overview
基本能力
产品定位
MCP Client-Server with LLM Command Execution 是一个用于动态生成和执行系统命令的工具,通过集成大型语言模型(LLM)将自然语言查询转换为系统命令,并提供安全的执行环境。
核心功能
- FastAPI-based Server: 安全处理命令生成和执行。
- LLM Integration: 使用 Ollama 从自然语言查询生成适当的系统命令。
- Client Application: 允许用户发送查询并接收执行结果。
- Security Measures: 阻止危险命令的执行以防止意外操作。
- Cross-Platform Compatibility: 在必要时将 Linux 命令转换为 Windows 等效命令。
- Logging: 记录查询、生成的命令和执行结果。
适用场景
- 开发者在开发过程中需要快速生成和执行系统命令。
- 需要将自然语言查询转换为系统命令的场景。
- 跨平台开发环境中需要兼容不同操作系统的命令。
工具列表
- mcp_server.py: FastAPI 服务器,处理命令生成和执行。
- mcp_client.py: 客户端脚本,用于与服务器交互。
- mcp_app.py: Streamlit 前端应用,提供用户友好的界面。
常见问题解答
问题 | 解决方案 |
---|---|
服务器无法启动 | 确保 FastAPI 和依赖项已正确安装。尝试 pip install -r requirements.txt 。 |
LLM 无法生成命令 | 检查 Ollama 是否正常运行并可访问。 |
Windows/Linux 命令不匹配 | 系统会自动转换命令(例如 ls → dir )。 |
连接被拒绝 | 确保在启动客户端之前服务器已运行。 |
使用教程
使用依赖
确保已安装 Python(3.8+),然后运行以下命令安装依赖项:
pip install fastapi uvicorn requests langchain_ollama
安装教程
- 启动 FastAPI 服务器:
python mcp_server.py
服务器将在 http://127.0.0.1:8000
启动。
- 运行客户端脚本与服务器交互:
python mcp_client.py
或使用 Streamlit 前端应用:
streamlit run mcp_app.py
调试方式
- 启动 FastAPI 服务器。
- 打开客户端(CLI 或 Streamlit UI)。
- 输入命令请求(例如 列出目录中的所有文件)。
- LLM 生成命令后,安全执行。
- 查看执行结果。
许可证
None