nest-llm-aigent

nest-llm-aigent

site icon
2025.03.20 0
TypeScriptAI agentMCP server 转发开发效率
nest-llm-aigent 是一个基于 MCP(Model Context Protocol)协议的转发方案,旨在解决 MCP 协议在现有业务中的集成问题。它可以将多个 MCP server 配置为一个 AI agent,统一对外提供大模型的 HTTP 服务。该项目的主要目标是轻松集成、无缝扩展、便捷部署,并支持几乎所有大模型的调用。
View on GitHub

Overview

基本能力

产品定位

nest-llm-aigent 是一个 AI agent 转发方案,用于将多个 MCP server 统一管理并提供 HTTP 服务,方便集成到现有业务中。

核心功能

  1. 轻松集成:快速对接现有的 Web 服务(如基于 NestJS 构建的服务)。
  2. 无缝扩展:通过私有 NPM 包的形式,实现 MCP Server 的快速集成与统一管理。
  3. 便捷部署:通过私有 NPM 包,实现 MCP Server 的集中管理和版本控制。
  4. 大模型支持:几乎支持所有大模型的调用。

适用场景

  1. 需要将多个 MCP server 统一管理的场景。
  2. 需要将 MCP server 集成到现有 Web 服务的场景。
  3. 需要快速部署和管理 MCP server 的场景。

工具列表

  1. 获取所有工具POST /api/mcp/tools - 获取所有工具列表。
  2. 获取 function calls 工具POST /api/mcp/functools - 获取 OpenAI function call 定义。
  3. 调用 MCP 工具POST /api/mcp/tools/call - 调用 MCP 工具。
  4. 获取资源列表POST /api/mcp/resources - 获取所有资源。
  5. 获取所有提示POST /api/mcp/prompts - 获取所有提示。
  6. 获取所有工具、资源、提示词POST /api/mcp/all - 返回格式:{tools:[],resources:[],prompts:[]}
  7. 调用 LLM 接口POST /api/mcp/agent - 输入格式:messages:["role":"user","content":"你的问题"],返回 messages。

常见问题解答

  1. 如何集成到现有 Web 服务?
  2. 通过私有 NPM 包的形式,快速集成 MCP Server。
  3. 如何部署 MCP Server?
  4. 推荐将 MCP Server 打包为 NPM 包,通过私有 NPM 仓库进行分发管理。
  5. 支持哪些大模型?
  6. 几乎支持所有大模型的调用。

使用教程

使用依赖

  1. 确保已安装 Node.js 和 npm。
  2. 确保已配置企业私有 NPM 仓库(如果需要)。

安装教程

  1. 通过 npm install 安装 MCP Server 包。 bash npm install <mcp-server-package-name>
  2. 创建配置文件 mcp.config.json,示例内容如下: json { "mcpServers": { "server1": { "name": "example-server", "args": ["server.js"], "path": "./servers/server1/" } }, "mcpClient": { "name": "mcp-client", "version": "1.0.0" } }

调试方式

  1. 启动 MCP Server: bash node server.js
  2. 调用 HTTP 接口进行测试,例如: bash curl -X POST http://localhost:3000/api/mcp/tools

许可证

None