AI Customer Support Bot - MCP Server

AI Customer Support Bot - MCP Server

site icon
2025.04.02 1
Python客户支持AI自动化交流协作
AI Customer Support Bot - MCP Server 是一个基于 Model Context Protocol (MCP) 的服务,通过集成 Cursor AI 和 Glama.ai 提供 AI 驱动的客户支持功能。该服务具备实时上下文获取、AI 响应生成、批量处理、优先级队列、速率限制、用户交互跟踪和健康监控等核心功能。适用于需要自动化客户支持的企业或组织。
View on GitHub

Overview

基本能力

产品定位

AI Customer Support Bot - MCP Server 是一个基于 Model Context Protocol (MCP) 的服务,通过集成 Cursor AI 和 Glama.ai 提供 AI 驱动的客户支持功能。

核心功能

  • 实时上下文获取(Glama.ai)
  • AI 响应生成(Cursor AI)
  • 批量处理支持
  • 优先级队列
  • 速率限制
  • 用户交互跟踪
  • 健康监控
  • MCP 协议兼容

适用场景

  • 企业客户支持自动化
  • 在线客服系统
  • 批量查询处理
  • 高优先级请求处理

工具列表

  • Glama.ai API:用于实时上下文获取
  • Cursor AI API:用于 AI 响应生成
  • PostgreSQL:用于数据存储

常见问题解答

  • RATE_LIMIT_EXCEEDED:速率限制超出
  • UNSUPPORTED_MCP_VERSION:不支持的 MCP 版本
  • PROCESSING_ERROR:处理请求时出错
  • CONTEXT_FETCH_ERROR:从 Glama.ai 获取上下文时出错
  • BATCH_PROCESSING_ERROR:批量处理请求时出错

使用教程

使用依赖

  • Python 3.8+
  • PostgreSQL 数据库
  • Glama.ai API 密钥
  • Cursor AI API 密钥

安装教程

  1. 克隆仓库:
git clone <repository-url>
cd <repository-name>
  1. 创建并激活虚拟环境:
python -m venv venv
source venv/bin/activate  # Windows: venv\Scripts\activate
  1. 安装依赖:
pip install -r requirements.txt
  1. 创建 .env 文件:
cp .env.example .env
  1. 配置 .env 文件:
GLAMA_API_KEY=your_glama_api_key_here
CURSOR_API_KEY=your_cursor_api_key_here
DATABASE_URL=postgresql://user:password@localhost/customer_support_bot
GLAMA_API_URL=https://api.glama.ai/v1
SECRET_KEY=your_secret_key_here
SERVER_NAME="AI Customer Support Bot"
SERVER_VERSION="1.0.0"
API_PREFIX="/mcp"
MAX_CONTEXT_RESULTS=5
RATE_LIMIT_REQUESTS=100
RATE_LIMIT_PERIOD=60
LOG_LEVEL=INFO
  1. 设置数据库:
createdb customer_support_bot
alembic upgrade head

调试方式

启动服务器:

python app.py

服务器将在 http://localhost:8000 上运行。

测试 API 端点:

curl -X POST http://localhost:8000/mcp/process \
  -H "Content-Type: application/json" \
  -H "X-MCP-Auth: your-auth-token" \
  -H "X-MCP-Version: 1.0" \
  -d '{
    "query": "How do I reset my password?",
    "priority": "high",
    "mcp_version": "1.0"
  }'

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。