
TypeScript MCP Agent with Ollama Integration

2025.01.01
19
TypeScriptAI 模型交互工具集成开发效率开发效率
mcp-ollama-agent 是一个基于 TypeScript 的 MCP 代理,集成了 Ollama,允许 AI 模型通过统一的接口与各种工具交互。它支持多种 MCP 服务器,内置文件系统操作和网络研究功能,通过配置文件轻松配置,并提供交互式聊天界面。
View on GitHub
Overview
✨ 核心功能
- 支持多种 MCP 服务器(包括 uvx 和 npx)
- 内置文件系统操作和网络研究功能
- 通过
mcp-config.json
轻松配置 - 提供交互式聊天界面,支持 Ollama 集成
- 独立演示模式,可在没有 LLM 的情况下测试工具
🚀 适用场景
- AI 模型与工具的统一接口交互
- 文件系统操作和网络研究自动化
- 开发效率提升工具
🛠️ 工具列表
@modelcontextprotocol/server-filesystem
:文件系统操作工具@mzxrai/mcp-webresearch
:网络研究工具
❓ 常见问题解答
- 如何配置 MCP 服务器?:在
mcp-config.json
中配置mcpServers
部分 - 如何配置 Ollama?:在
mcp-config.json
中配置ollama
部分,包括主机和模型 - 如何测试工具?:运行
npx tsx ./src/demo.ts
进行独立演示
📦 使用教程
使用依赖
- 安装 Node.js(版本 18 或更高)
- 安装并运行 Ollama
- 安装全局 MCP 工具:
```bash # 文件系统操作 npm install -g @modelcontextprotocol/server-filesystem
# 网络研究 npm install -g @mzxrai/mcp-webresearch ```
安装教程
- 克隆并安装:
bash
git clone https://github.com/ausboss/mcp-ollama-agent.git
cd mcp-ollama-agent
npm install
- 配置
mcp-config.json
:
json
{
"mcpServers": {
"filesystem": {
"command": "npx",
"args": ["@modelcontextprotocol/server-filesystem", "./"]
},
"webresearch": {
"command": "npx",
"args": ["-y", "@mzxrai/mcp-webresearch"]
}
},
"ollama": {
"host": "http://localhost:11434",
"model": "qwen2.5:latest"
}
}
调试方式
- 运行演示模式:
bash
npx tsx ./src/demo.ts
- 启动聊天界面:
bash
npm start
许可证
None