
MCPHost with LLMs and Tool Servers 🚀

2025.02.16
2
AI工具集成开发者工具开发效率
MCPHost是一个CLI主机应用程序,通过**模型上下文协议(MCP)**使大型语言模型(LLMs)能够与外部工具交互。该服务允许LLMs访问系统资源、执行命令并与GitHub等第三方服务集成。
### 核心功能
- 支持与Ollama和OpenAI模型(如`gpt-4o-mini`)交互
- 连接多个MCP服务器,包括:
- **文件系统服务器**:允许LLMs与本地文件系统交互
- **GitHub服务器**:使LLMs能够创建仓库并管理GitHub上的文件
- 通过LLM命令创建本地文件和GitHub仓库
### 适用场景
- 自动化工作流程
- 开发者辅助工具
- AI驱动的系统管理
View on GitHub
Overview
基本能力
产品定位
MCPHost是一个CLI主机应用程序,通过模型上下文协议(MCP)使大型语言模型(LLMs)能够与外部工具交互。
核心功能
- 支持与Ollama和OpenAI模型(如
gpt-4o-mini
)交互 - 连接多个MCP服务器,包括:
- 文件系统服务器:允许LLMs与本地文件系统交互
- GitHub服务器:使LLMs能够创建仓库并管理GitHub上的文件
- 通过LLM命令创建本地文件和GitHub仓库
适用场景
- 自动化工作流程
- 开发者辅助工具
- AI驱动的系统管理
工具列表
- Filesystem Server:允许LLMs与本地文件系统交互
- GitHub Server:使LLMs能够创建仓库并管理GitHub上的文件
常见问题解答
无具体常见问题解答内容。
使用教程
使用依赖
- Go 需要安装在系统上
rm -rf /usr/local/go && tar -C /usr/local -xzf go1.24.0.linux-amd64.tar.gz
export PATH=$PATH:/usr/local/go/bin
go version
安装教程
- 克隆MCPHost仓库并安装
go install github.com/mark3labs/mcphost@latest
- 配置MCP服务器
创建配置文件
~/.mcp.json
{
"mcpServers": {
"github": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-github"
],
"env": {
"GITHUB_PERSONAL_ACCESS_TOKEN": ""
}
},
"filesystem": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-filesystem",
"/home/username/path/your/filesystem"
]
}
}
}
- 启动MCPHost 使用OpenAI GPT-4o-mini:
mcphost -m openai:gpt-4o-mini
使用Ollama Qwen Model:
mcphost -m ollama:qwen2.5:3b
调试方式
- 使用交互式命令与LLM交互:
/help
– 显示可用命令/tools
– 列出启用的工具服务器/servers
– 显示连接的MCP服务器/history
– 显示最近的消息/quit
– 退出