MCP Client-Server with LLM Command Execution

MCP Client-Server with LLM Command Execution

site icon
2025.02.18 0
Python命令生成命令执行自然语言处理开发效率
MCP Client-Server with LLM Command Execution 是一个基于 FastAPI 的客户端-服务器系统,集成了大型语言模型(LLM)如 Groq 或 Ollama,用于动态生成和执行系统命令。该系统具有高度的安全性和跨平台兼容性,能够将自然语言查询转换为适当的系统命令并安全执行。
View on GitHub

Overview

基本能力

产品定位

MCP Client-Server with LLM Command Execution 是一个用于动态生成和执行系统命令的工具,通过集成大型语言模型(LLM)将自然语言查询转换为系统命令,并提供安全的执行环境。

核心功能

  • FastAPI-based Server: 安全处理命令生成和执行。
  • LLM Integration: 使用 Ollama 从自然语言查询生成适当的系统命令。
  • Client Application: 允许用户发送查询并接收执行结果。
  • Security Measures: 阻止危险命令的执行以防止意外操作。
  • Cross-Platform Compatibility: 在必要时将 Linux 命令转换为 Windows 等效命令。
  • Logging: 记录查询、生成的命令和执行结果。

适用场景

  • 开发者在开发过程中需要快速生成和执行系统命令。
  • 需要将自然语言查询转换为系统命令的场景。
  • 跨平台开发环境中需要兼容不同操作系统的命令。

工具列表

  • mcp_server.py: FastAPI 服务器,处理命令生成和执行。
  • mcp_client.py: 客户端脚本,用于与服务器交互。
  • mcp_app.py: Streamlit 前端应用,提供用户友好的界面。

常见问题解答

问题 解决方案
服务器无法启动 确保 FastAPI 和依赖项已正确安装。尝试 pip install -r requirements.txt
LLM 无法生成命令 检查 Ollama 是否正常运行并可访问。
Windows/Linux 命令不匹配 系统会自动转换命令(例如 lsdir)。
连接被拒绝 确保在启动客户端之前服务器已运行。

使用教程

使用依赖

确保已安装 Python(3.8+),然后运行以下命令安装依赖项:

pip install fastapi uvicorn requests langchain_ollama

安装教程

  1. 启动 FastAPI 服务器:
python mcp_server.py

服务器将在 http://127.0.0.1:8000 启动。

  1. 运行客户端脚本与服务器交互:
python mcp_client.py

或使用 Streamlit 前端应用:

streamlit run mcp_app.py

调试方式

  1. 启动 FastAPI 服务器。
  2. 打开客户端(CLI 或 Streamlit UI)。
  3. 输入命令请求(例如 列出目录中的所有文件)。
  4. LLM 生成命令后,安全执行。
  5. 查看执行结果。

许可证

None