MCP DeepSeek 演示项目

MCP DeepSeek 演示项目

site icon
2025.04.17 1
TypeScriptAI助手实时通信工具调用开发效率交流协作
MCP DeepSeek 演示项目是一个基于 Model Context Protocol (MCP) 的客户端应用,用于与 DeepSeek AI 模型进行交互。该项目展示了如何将 MCP 协议与 DeepSeek API 集成,实现工具调用和实时通信。项目包含前端应用和后端服务器,支持多种工具调用和实时通信。
View on GitHub

Overview

基本能力

产品定位

MCP DeepSeek 演示项目是一个基于 MCP 协议的客户端应用,用于与 DeepSeek AI 模型进行交互,实现工具调用和实时通信。

核心功能

  • 现代化的中文用户界面
  • 实时聊天与 AI 助手交互
  • 支持多种工具调用,如产品查询、库存管理等
  • 基于 SSE 的实时通信
  • 自动重连机制
  • 响应式设计,适配不同设备

适用场景

  • 与 AI 助手进行实时聊天交互
  • 使用工具进行产品查询、库存管理等操作
  • 开发基于 MCP 协议的客户端应用

工具列表

  • getProducts: 获取所有产品信息[mock]
  • getInventory: 获取库存信息[mock]
  • getOrders: 获取订单信息[mock]
  • purchase: 创建购买订单[mock]
  • getFiles: 获取指定文件夹下的文件列表

常见问题解答

  • 如何连接到服务器?启动应用后,客户端会自动尝试连接到 MCP 服务器,连接状态会在页面顶部显示。
  • 如何使用工具?左侧面板显示可用的工具,您可以在聊天中直接要求 AI 使用特定工具。

使用教程

使用依赖

  • Node.js 16+ 和 npm/yarn/pnpm
  • DeepSeek API 密钥

安装教程

  1. 克隆仓库
git clone https://github.com/yourusername/mcp-deepseek-demo.git
cd mcp-deepseek-demo
  1. 安装依赖
pnpm install
  1. 配置环境变量 在 mcp-client 目录下创建 .env 文件,并添加以下配置:
# MCP服务器配置
MCP_SERVER_URL=http://localhost:8083/sse

# AI提供商配置
DEEPSEEK_API_KEY=sk-...
DEEPSEEK_API_URL=https://api.deepseek.com/v1/chat/completions

# 默认使用的AI模型
DEFAULT_MODEL=deepseek-chat

在 mcp-sse-server 目录下创建 .env 文件,并添加以下配置:

# 服务器配置
PORT=8083
ALLOWED_ORIGINS=http://localhost:3000,https://yourdomain.com
LOG_LEVEL=info
HEARTBEAT_INTERVAL=30000

启动服务

  1. 启动 MCP SSE 服务器 和 客户端应用
pnpm run dev
  1. 打开浏览器访问 http://localhost:3000

调试方式

  1. 检查连接状态:页面顶部会显示连接状态
  2. 查看日志:服务器和客户端都会输出日志信息
  3. 使用工具:在聊天中输入工具名称或功能,查看 AI 助手的响应

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。