Local MCP Client

Local MCP Client

site icon
2025.04.24 0
Python自然语言交互跨平台工具开发效率
Local MCP Client 是一个跨平台的 Web 和 API 接口,用于通过自然语言与可配置的 MCP 服务器进行交互。它由 Ollama 和任何本地选择的 LLM 提供支持,支持结构化工具执行和动态代理行为。
View on GitHub

Overview

基本能力

产品定位

Local MCP Client 是一个用于与 MCP 服务器交互的工具,支持通过自然语言进行操作,适用于开发者和研究人员。

核心功能

  1. 跨平台支持(Mac/Linux/Windows)。
  2. 通过自然语言与 MCP 服务器交互。
  3. 支持结构化工具执行和动态代理行为。
  4. 集成 Ollama 和本地 LLM 模型。

适用场景

  1. 开发者需要与 MCP 服务器进行交互的场景。
  2. 研究人员需要使用自然语言操作 MCP 服务器的场景。
  3. 需要动态代理行为的自动化任务。

工具列表

  1. Ollama:用于运行本地 LLM 模型。
  2. uv:用于虚拟环境管理和依赖安装。
  3. git:用于克隆 MCP 服务器代码。

常见问题解答

  1. 如何安装 Ollama?
  2. 根据操作系统选择对应的安装命令(Mac/Linux/Windows)。
  3. 如何运行 MCP Client?
  4. 设置环境变量后运行 uv run local_mcp_client.py

使用教程

使用依赖

  1. 安装虚拟环境工具 uvbash curl -LsSf https://astral.sh/uv/install.sh | sh
  2. 创建虚拟环境并激活。 bash uv venv source .venv/bin/activate
  3. 安装依赖。 bash uv pip install -r requirements.txt

安装教程

  1. 安装 Ollama 并拉取 LLM 模型。 bash brew install ollama ollama serve ollama pull llama3:8b
  2. 克隆 MCP 服务器代码。 bash git clone https://github.com/mytechnotalent/MalwareBazaar_MCP.git git clone https://github.com/Invoke-RE/binja-lattice-mcp

调试方式

  1. 运行测试。 bash python -m unittest discover -s tests
  2. 生成测试覆盖率报告。 bash coverage run --branch -m unittest discover -s tests coverage report -m coverage html open htmlcov/index.html # MAC

许可证

该项目遵循 Apache-2.0 开源许可条款,请参阅 Apache-2.0 了解完整条款。