LLM Responses MCP Server

LLM Responses MCP Server

site icon
2025.03.12 1
TypeScript多AI代理协作信息共享交流协作
ephor-mcp 是一个基于模型上下文协议(MCP)的服务器,旨在实现多个AI代理之间的响应共享与读取。通过该服务器,不同的AI代理可以针对同一提示提交各自的响应,并查看其他代理的响应,从而实现协作与反思。
View on GitHub

Overview

基本能力

产品定位

ephor-mcp 是一个用于多AI代理协作的服务器,通过共享和读取响应实现代理间的信息交流。

核心功能

  1. submit-response:允许LLM提交其对提示的响应。
  2. get-responses:允许LLM检索其他LLM对特定提示的所有响应。

适用场景

  • 多AI代理协作场景,如多个代理回答同一问题后相互参考。
  • AI代理间的信息共享与反思。

工具列表

  1. submit-response:提交LLM对提示的响应。
  2. get-responses:检索其他LLM对提示的响应。

常见问题解答

  • 如何调试?使用MCP Inspector工具进行测试和调试。
  • 如何部署?支持Docker部署到EC2或其他服务器环境。

使用教程

使用依赖

# Install dependencies
bun install

安装教程

# Build the TypeScript code
bun run build

# Start the server in development mode
bun run dev

调试方式

# Run the server with MCP Inspector
bun run inspect

部署教程

部署到EC2

  1. 克隆仓库到EC2实例。
  2. 运行部署脚本: bash chmod +x deploy.sh ./deploy.sh
  3. 手动部署(可选): bash docker-compose build docker-compose up -d

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。