MCP (Model Context Protocol) Server: Intelligent Conversational Platform

MCP (Model Context Protocol) Server: Intelligent Conversational Platform

site icon
2025.03.24 0
Python智能对话平台AI顾问系统多模态处理开发效率交流协作
MCP (Model Context Protocol) Server 是一个智能对话平台,专为提供上下文感知的智能对话能力而设计。它支持多种LLM提供商(如OpenAI、Anthropic和Google Gemini),并结合FastAPI和Pyppeteer实现网页浏览功能,适用于多种业务场景。
View on GitHub

Overview

产品定位

MCP-Server-Python 是一个基于AI的智能对话平台,旨在通过角色化的AI顾问系统,为小型企业提供执行级别的咨询服务。它支持多模态内容处理、实时流式响应和动态上下文切换,适用于需要专业咨询和智能对话的场景。

核心功能

  • 角色化AI顾问系统:支持自定义指令和语调,模拟不同领域的专家顾问。
  • 语义记忆管理:通过向量相似性搜索实现上下文记忆。
  • 实时流式响应:提升用户体验,支持动态内容生成。
  • 集成网页浏览能力:AI辅助研究,支持多模态内容处理(如文本和图像)。
  • 动态上下文切换:根据对话触发器自动切换角色。
  • 多LLM提供商支持:包括OpenAI、Anthropic和Google Gemini。
  • 高级记忆功能:支持记忆标签、共享和继承。

适用场景

  • 小型企业咨询:提供虚拟C-suite执行顾问服务(如CEO、CFO、CMO等)。
  • 技术支持和文档生成:通过角色化AI生成技术文档或提供技术支持。
  • 市场研究和财务规划:利用网页浏览功能获取实时数据并生成分析报告。
  • 多领域对话系统:动态切换角色以应对不同领域的用户查询。

工具列表

  • Pyppeteer:用于网页浏览和自动化测试。
  • FastAPI:提供RESTful API接口和Swagger UI文档。
  • OpenAI/Anthropic/Gemini API:支持多种LLM模型的集成。

常见问题解答

  • 服务器无法启动:检查端口占用或依赖安装。
  • 客户端连接失败:验证CORS配置和API基础URL。
  • OpenAI API错误:确保API密钥有效且模型可用。

使用教程

依赖安装

# 前置依赖
python -m venv venv
source venv/bin/activate  # Windows: venv\Scripts\activate
pip install -r requirements.txt

安装步骤

  1. 克隆仓库:git clone https://github.com/Chris-June/MCP-GPT-Builder.git
  2. 配置环境变量(复制.env.example.env并填写API密钥)。
  3. 启动服务器:uvicorn server:app --reload --host 0.0.0.0 --port 8000

调试方式

  • 访问API文档:http://localhost:8000/docs
  • 测试角色创建:
curl -X 'POST' 'http://localhost:8000/api/v1/roles' -H 'Content-Type: application/json' -d '{"id":"test-role", "name":"Test Role"}'

许可证

该项目遵循 MIT 开源许可条款。