
Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP

2025.02.02
104
JavaScriptAI推理响应生成开发效率
Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP 是一个基于模型上下文协议(MCP)的服务,结合了 DeepSeek R1 的推理能力和 Claude 3.5 Sonnet 的响应生成能力。该服务通过 OpenRouter 的 API 实现两阶段处理,首先由 DeepSeek 提供结构化推理,然后将其整合到 Claude 的响应生成中。
View on GitHub
Overview
基本能力
产品定位
Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP 是一个 AI 推理和响应生成服务,旨在通过结合不同模型的优势提供更高质量的 AI 交互体验。
核心功能
- 两阶段处理:
- 使用 DeepSeek R1 进行初始推理(50k 字符上下文)
- 使用 Claude 3.5 Sonnet 生成最终响应(600k 字符上下文)
- 通过 OpenRouter 的统一 API 访问两个模型
-
将 DeepSeek 的推理标记注入 Claude 的上下文
-
智能对话管理:
- 检测活动对话
- 处理多个并发对话
- 自动过滤已结束的对话
-
支持上下文清除
-
优化参数:
- 模型特定的上下文限制
- 推荐设置:temperature=0.7, top_p=1.0, repetition_penalty=1.0
适用场景
- 需要高质量 AI 响应的应用
- 需要结合不同模型优势的场景
- 需要处理长上下文的对话系统
工具列表
- generate_response:
- 主工具,用于生成响应
-
参数:prompt(必需)、showReasoning、clearContext、includeHistory
-
check_response_status:
- 检查响应生成任务的状态
- 参数:taskId(必需)
常见问题解答
- 响应可能需要最多 60 秒完成
- 状态流程:pending → reasoning → responding → complete
使用教程
使用依赖
- Node.js 环境
- OpenRouter API 密钥
安装教程
- 通过 Smithery 安装:
npx -y @smithery/cli install @newideas99/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP --client claude
- 手动安装:
git clone https://github.com/yourusername/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP.git
cd Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP
npm install
创建 .env
文件:
OPENROUTER_API_KEY=your_openrouter_api_key_here
DEEPSEEK_MODEL=deepseek/deepseek-r1
CLAUDE_MODEL=anthropic/claude-3.5-sonnet:beta
构建服务器:
npm run build
调试方式
开发模式(自动重建):
npm run watch
使用 Cline 进行测试:
// 初始请求
const result = await use_mcp_tool({
server_name: "deepseek-claude",
tool_name: "generate_response",
arguments: {
prompt: "What is quantum computing?",
showReasoning: true
}
});
// 获取 taskId
const taskId = JSON.parse(result.content[0].text).taskId;
// 轮询状态
const status = await use_mcp_tool({
server_name: "deepseek-claude",
tool_name: "check_response_status",
arguments: { taskId }
});