
Deepseek r1 reasoning extension for locally running models

2025.02.03
1
JavaScriptAI推理扩展本地模型服务开发效率
Deepseek r1 reasoning extension是一个本地运行的技术代理系统,旨在通过结合多个模型(无需远程模型)提供本地化的推理能力。它使用Deepseek r1作为核心推理模型,并可与其他工具调用模型(如"project goose"代理)结合使用,以弥补单一模型在工具调用能力上的不足。该系统完全基于本地运行,依赖Ollama框架,适用于任何支持Ollama的代理系统。
View on GitHub
Overview
基本能力
产品定位
本地化运行的AI推理扩展服务,用于增强技术代理系统的多模型协作能力。
核心功能
- 本地推理引擎:基于Deepseek r1模型实现本地化推理
- 多模型协作:可与工具调用模型(如Project Goose代理)无缝集成
- Ollama兼容:完全兼容Ollama框架的本地运行环境
- 通用接口:提供标准化MCP服务接口,适配各类代理系统
适用场景
- 需要本地化AI推理的技术代理开发
- 多模型协作的复杂任务处理
- 隐私敏感的本地AI应用部署
工具列表
- Deepseek r1:核心推理模型,负责复杂逻辑处理
- Project Goose代理:示例工具调用模型,展示多模型协作能力
- Ollama框架:本地模型运行环境支持
常见问题
- 需确保Ollama服务已正确安装并运行
- 模型组合需要兼容性测试
- 完全本地运行需要足够的计算资源
使用教程
使用依赖
- 安装Node.js环境
- 确保Ollama服务已安装并运行
安装教程
npx -y deepseek-reasoner-mcp
调试方式
- 检查Ollama服务状态
- 验证模型加载情况
- 测试代理系统接口连通性
许可证
None