
MCP (Model Context Protocol) Server: Intelligent Conversational Platform

2025.03.24
0
Python智能对话平台AI顾问系统多模态处理开发效率交流协作
MCP (Model Context Protocol) Server 是一个智能对话平台,专为提供上下文感知的智能对话能力而设计。它支持多种LLM提供商(如OpenAI、Anthropic和Google Gemini),并结合FastAPI和Pyppeteer实现网页浏览功能,适用于多种业务场景。
View on GitHub
Overview
产品定位
MCP-Server-Python 是一个基于AI的智能对话平台,旨在通过角色化的AI顾问系统,为小型企业提供执行级别的咨询服务。它支持多模态内容处理、实时流式响应和动态上下文切换,适用于需要专业咨询和智能对话的场景。
核心功能
- 角色化AI顾问系统:支持自定义指令和语调,模拟不同领域的专家顾问。
- 语义记忆管理:通过向量相似性搜索实现上下文记忆。
- 实时流式响应:提升用户体验,支持动态内容生成。
- 集成网页浏览能力:AI辅助研究,支持多模态内容处理(如文本和图像)。
- 动态上下文切换:根据对话触发器自动切换角色。
- 多LLM提供商支持:包括OpenAI、Anthropic和Google Gemini。
- 高级记忆功能:支持记忆标签、共享和继承。
适用场景
- 小型企业咨询:提供虚拟C-suite执行顾问服务(如CEO、CFO、CMO等)。
- 技术支持和文档生成:通过角色化AI生成技术文档或提供技术支持。
- 市场研究和财务规划:利用网页浏览功能获取实时数据并生成分析报告。
- 多领域对话系统:动态切换角色以应对不同领域的用户查询。
工具列表
- Pyppeteer:用于网页浏览和自动化测试。
- FastAPI:提供RESTful API接口和Swagger UI文档。
- OpenAI/Anthropic/Gemini API:支持多种LLM模型的集成。
常见问题解答
- 服务器无法启动:检查端口占用或依赖安装。
- 客户端连接失败:验证CORS配置和API基础URL。
- OpenAI API错误:确保API密钥有效且模型可用。
使用教程
依赖安装
# 前置依赖
python -m venv venv
source venv/bin/activate # Windows: venv\Scripts\activate
pip install -r requirements.txt
安装步骤
- 克隆仓库:
git clone https://github.com/Chris-June/MCP-GPT-Builder.git
- 配置环境变量(复制
.env.example
为.env
并填写API密钥)。 - 启动服务器:
uvicorn server:app --reload --host 0.0.0.0 --port 8000
调试方式
- 访问API文档:
http://localhost:8000/docs
- 测试角色创建:
curl -X 'POST' 'http://localhost:8000/api/v1/roles' -H 'Content-Type: application/json' -d '{"id":"test-role", "name":"Test Role"}'