
Deepseek Thinker MCP Server

2025.03.25
40
JavaScript推理服务AI增强开发效率
Deepseek Thinker MCP Server 是一个基于模型上下文协议(MCP)的服务,旨在为支持MCP的AI客户端(如Claude Desktop)提供Deepseek的推理内容。该服务支持通过Deepseek API服务或本地Ollama服务器访问Deepseek的思考过程,具备双模式支持和专注推理的核心功能。
View on GitHub
Overview
基本能力
产品定位
Deepseek Thinker MCP Server 是一个为AI客户端提供Deepseek模型推理内容的服务,旨在增强AI客户端的推理和思考能力。
核心功能
- 双模式支持:支持OpenAI API模式和Ollama本地模式。
- 专注推理:捕获Deepseek的思考过程并提供推理输出。
适用场景
- 需要增强AI客户端推理能力的场景。
- 需要本地化运行Deepseek模型的场景。
工具列表
- get-deepseek-thinker:
- 描述:使用Deepseek模型进行推理。
- 输入参数:
originPrompt
(字符串,用户的原始提示)。 - 返回:包含推理过程的结构化文本响应。
常见问题解答
- 错误提示:"MCP error -32001: Request timed out"
- 原因:Deepseek API响应过慢或推理内容输出过长导致MCP服务器超时。
使用教程
使用依赖
- OpenAI API模式:
bash API_KEY=<Your OpenAI API Key> BASE_URL=<API Base URL>
- Ollama模式:
bash USE_OLLAMA=true
安装教程
- 安装依赖:
bash npm install
- 构建项目:
bash npm run build
- 运行服务:
bash node build/index.js
调试方式
- 检查环境变量是否正确设置。
- 确保API密钥和基础URL有效。
- 检查服务日志以排查错误。