TypeScript MCP Agent with Ollama Integration

TypeScript MCP Agent with Ollama Integration

site icon
2025.01.01 19
TypeScriptAI 模型交互工具集成开发效率开发效率
mcp-ollama-agent 是一个基于 TypeScript 的 MCP 代理,集成了 Ollama,允许 AI 模型通过统一的接口与各种工具交互。它支持多种 MCP 服务器,内置文件系统操作和网络研究功能,通过配置文件轻松配置,并提供交互式聊天界面。
View on GitHub

Overview

✨ 核心功能

  • 支持多种 MCP 服务器(包括 uvx 和 npx)
  • 内置文件系统操作和网络研究功能
  • 通过 mcp-config.json 轻松配置
  • 提供交互式聊天界面,支持 Ollama 集成
  • 独立演示模式,可在没有 LLM 的情况下测试工具

🚀 适用场景

  • AI 模型与工具的统一接口交互
  • 文件系统操作和网络研究自动化
  • 开发效率提升工具

🛠️ 工具列表

  • @modelcontextprotocol/server-filesystem:文件系统操作工具
  • @mzxrai/mcp-webresearch:网络研究工具

❓ 常见问题解答

  • 如何配置 MCP 服务器?:在 mcp-config.json 中配置 mcpServers 部分
  • 如何配置 Ollama?:在 mcp-config.json 中配置 ollama 部分,包括主机和模型
  • 如何测试工具?:运行 npx tsx ./src/demo.ts 进行独立演示

📦 使用教程

使用依赖

  1. 安装 Node.js(版本 18 或更高)
  2. 安装并运行 Ollama
  3. 安装全局 MCP 工具:

```bash # 文件系统操作 npm install -g @modelcontextprotocol/server-filesystem

# 网络研究 npm install -g @mzxrai/mcp-webresearch ```

安装教程

  1. 克隆并安装:

bash git clone https://github.com/ausboss/mcp-ollama-agent.git cd mcp-ollama-agent npm install

  1. 配置 mcp-config.json

json { "mcpServers": { "filesystem": { "command": "npx", "args": ["@modelcontextprotocol/server-filesystem", "./"] }, "webresearch": { "command": "npx", "args": ["-y", "@mzxrai/mcp-webresearch"] } }, "ollama": { "host": "http://localhost:11434", "model": "qwen2.5:latest" } }

调试方式

  1. 运行演示模式:

bash npx tsx ./src/demo.ts

  1. 启动聊天界面:

bash npm start

许可证

None