
nest-llm-aigent

2025.03.20
0
TypeScriptAI agentMCP server 转发开发效率
nest-llm-aigent 是一个基于 MCP(Model Context Protocol)协议的转发方案,旨在解决 MCP 协议在现有业务中的集成问题。它可以将多个 MCP server 配置为一个 AI agent,统一对外提供大模型的 HTTP 服务。该项目的主要目标是轻松集成、无缝扩展、便捷部署,并支持几乎所有大模型的调用。
View on GitHub
Overview
基本能力
产品定位
nest-llm-aigent 是一个 AI agent 转发方案,用于将多个 MCP server 统一管理并提供 HTTP 服务,方便集成到现有业务中。
核心功能
- 轻松集成:快速对接现有的 Web 服务(如基于 NestJS 构建的服务)。
- 无缝扩展:通过私有 NPM 包的形式,实现 MCP Server 的快速集成与统一管理。
- 便捷部署:通过私有 NPM 包,实现 MCP Server 的集中管理和版本控制。
- 大模型支持:几乎支持所有大模型的调用。
适用场景
- 需要将多个 MCP server 统一管理的场景。
- 需要将 MCP server 集成到现有 Web 服务的场景。
- 需要快速部署和管理 MCP server 的场景。
工具列表
- 获取所有工具:
POST /api/mcp/tools
- 获取所有工具列表。 - 获取 function calls 工具:
POST /api/mcp/functools
- 获取 OpenAI function call 定义。 - 调用 MCP 工具:
POST /api/mcp/tools/call
- 调用 MCP 工具。 - 获取资源列表:
POST /api/mcp/resources
- 获取所有资源。 - 获取所有提示:
POST /api/mcp/prompts
- 获取所有提示。 - 获取所有工具、资源、提示词:
POST /api/mcp/all
- 返回格式:{tools:[],resources:[],prompts:[]}
。 - 调用 LLM 接口:
POST /api/mcp/agent
- 输入格式:messages:["role":"user","content":"你的问题"]
,返回 messages。
常见问题解答
- 如何集成到现有 Web 服务?
- 通过私有 NPM 包的形式,快速集成 MCP Server。
- 如何部署 MCP Server?
- 推荐将 MCP Server 打包为 NPM 包,通过私有 NPM 仓库进行分发管理。
- 支持哪些大模型?
- 几乎支持所有大模型的调用。
使用教程
使用依赖
- 确保已安装 Node.js 和 npm。
- 确保已配置企业私有 NPM 仓库(如果需要)。
安装教程
- 通过
npm install
安装 MCP Server 包。bash npm install <mcp-server-package-name>
- 创建配置文件
mcp.config.json
,示例内容如下:json { "mcpServers": { "server1": { "name": "example-server", "args": ["server.js"], "path": "./servers/server1/" } }, "mcpClient": { "name": "mcp-client", "version": "1.0.0" } }
调试方式
- 启动 MCP Server:
bash node server.js
- 调用 HTTP 接口进行测试,例如:
bash curl -X POST http://localhost:3000/api/mcp/tools
许可证
None