
Local MCP Client

2025.04.24
0
Python自然语言交互跨平台工具开发效率
Local MCP Client 是一个跨平台的 Web 和 API 接口,用于通过自然语言与可配置的 MCP 服务器进行交互。它由 Ollama 和任何本地选择的 LLM 提供支持,支持结构化工具执行和动态代理行为。
View on GitHub
Overview
基本能力
产品定位
Local MCP Client 是一个用于与 MCP 服务器交互的工具,支持通过自然语言进行操作,适用于开发者和研究人员。
核心功能
- 跨平台支持(Mac/Linux/Windows)。
- 通过自然语言与 MCP 服务器交互。
- 支持结构化工具执行和动态代理行为。
- 集成 Ollama 和本地 LLM 模型。
适用场景
- 开发者需要与 MCP 服务器进行交互的场景。
- 研究人员需要使用自然语言操作 MCP 服务器的场景。
- 需要动态代理行为的自动化任务。
工具列表
- Ollama:用于运行本地 LLM 模型。
- uv:用于虚拟环境管理和依赖安装。
- git:用于克隆 MCP 服务器代码。
常见问题解答
- 如何安装 Ollama?
- 根据操作系统选择对应的安装命令(Mac/Linux/Windows)。
- 如何运行 MCP Client?
- 设置环境变量后运行
uv run local_mcp_client.py
。
使用教程
使用依赖
- 安装虚拟环境工具
uv
。bash curl -LsSf https://astral.sh/uv/install.sh | sh
- 创建虚拟环境并激活。
bash uv venv source .venv/bin/activate
- 安装依赖。
bash uv pip install -r requirements.txt
安装教程
- 安装 Ollama 并拉取 LLM 模型。
bash brew install ollama ollama serve ollama pull llama3:8b
- 克隆 MCP 服务器代码。
bash git clone https://github.com/mytechnotalent/MalwareBazaar_MCP.git git clone https://github.com/Invoke-RE/binja-lattice-mcp
调试方式
- 运行测试。
bash python -m unittest discover -s tests
- 生成测试覆盖率报告。
bash coverage run --branch -m unittest discover -s tests coverage report -m coverage html open htmlcov/index.html # MAC