
LLM Responses MCP Server

2025.03.12
1
TypeScript多AI代理协作信息共享交流协作
ephor-mcp 是一个基于模型上下文协议(MCP)的服务器,旨在实现多个AI代理之间的响应共享与读取。通过该服务器,不同的AI代理可以针对同一提示提交各自的响应,并查看其他代理的响应,从而实现协作与反思。
View on GitHub
Overview
基本能力
产品定位
ephor-mcp 是一个用于多AI代理协作的服务器,通过共享和读取响应实现代理间的信息交流。
核心功能
- submit-response:允许LLM提交其对提示的响应。
- get-responses:允许LLM检索其他LLM对特定提示的所有响应。
适用场景
- 多AI代理协作场景,如多个代理回答同一问题后相互参考。
- AI代理间的信息共享与反思。
工具列表
- submit-response:提交LLM对提示的响应。
- get-responses:检索其他LLM对提示的响应。
常见问题解答
- 如何调试?使用MCP Inspector工具进行测试和调试。
- 如何部署?支持Docker部署到EC2或其他服务器环境。
使用教程
使用依赖
# Install dependencies
bun install
安装教程
# Build the TypeScript code
bun run build
# Start the server in development mode
bun run dev
调试方式
# Run the server with MCP Inspector
bun run inspect
部署教程
部署到EC2
- 克隆仓库到EC2实例。
- 运行部署脚本:
bash chmod +x deploy.sh ./deploy.sh
- 手动部署(可选):
bash docker-compose build docker-compose up -d