MCPHost with LLMs and Tool Servers 🚀

MCPHost with LLMs and Tool Servers 🚀

site icon
2025.02.16 2
AI工具集成开发者工具开发效率
MCPHost是一个CLI主机应用程序,通过**模型上下文协议(MCP)**使大型语言模型(LLMs)能够与外部工具交互。该服务允许LLMs访问系统资源、执行命令并与GitHub等第三方服务集成。 ### 核心功能 - 支持与Ollama和OpenAI模型(如`gpt-4o-mini`)交互 - 连接多个MCP服务器,包括: - **文件系统服务器**:允许LLMs与本地文件系统交互 - **GitHub服务器**:使LLMs能够创建仓库并管理GitHub上的文件 - 通过LLM命令创建本地文件和GitHub仓库 ### 适用场景 - 自动化工作流程 - 开发者辅助工具 - AI驱动的系统管理
View on GitHub

Overview

基本能力

产品定位

MCPHost是一个CLI主机应用程序,通过模型上下文协议(MCP)使大型语言模型(LLMs)能够与外部工具交互。

核心功能

  • 支持与Ollama和OpenAI模型(如gpt-4o-mini)交互
  • 连接多个MCP服务器,包括:
  • 文件系统服务器:允许LLMs与本地文件系统交互
  • GitHub服务器:使LLMs能够创建仓库并管理GitHub上的文件
  • 通过LLM命令创建本地文件和GitHub仓库

适用场景

  • 自动化工作流程
  • 开发者辅助工具
  • AI驱动的系统管理

工具列表

  • Filesystem Server:允许LLMs与本地文件系统交互
  • GitHub Server:使LLMs能够创建仓库并管理GitHub上的文件

常见问题解答

无具体常见问题解答内容。

使用教程

使用依赖

  • Go 需要安装在系统上
rm -rf /usr/local/go && tar -C /usr/local -xzf go1.24.0.linux-amd64.tar.gz
export PATH=$PATH:/usr/local/go/bin
go version

安装教程

  1. 克隆MCPHost仓库并安装
go install github.com/mark3labs/mcphost@latest
  1. 配置MCP服务器 创建配置文件 ~/.mcp.json
{
  "mcpServers": {
      "github": {
      "command": "npx",
      "args": [
        "-y",
        "@modelcontextprotocol/server-github"
      ],
      "env": {
        "GITHUB_PERSONAL_ACCESS_TOKEN": ""
      }
    },
    "filesystem": {
      "command": "npx",
      "args": [
        "-y",
        "@modelcontextprotocol/server-filesystem",
        "/home/username/path/your/filesystem"
      ]
    }
  }
}
  1. 启动MCPHost 使用OpenAI GPT-4o-mini:
mcphost -m openai:gpt-4o-mini

使用Ollama Qwen Model:

mcphost -m ollama:qwen2.5:3b

调试方式

  • 使用交互式命令与LLM交互:
  • /help – 显示可用命令
  • /tools – 列出启用的工具服务器
  • /servers – 显示连接的MCP服务器
  • /history – 显示最近的消息
  • /quit – 退出

许可证

该项目遵循 MIT 开源许可条款。