Deepseek r1 reasoning extension for locally running models

Deepseek r1 reasoning extension for locally running models

site icon
2025.02.03 1
JavaScriptAI推理扩展本地模型服务开发效率
Deepseek r1 reasoning extension是一个本地运行的技术代理系统,旨在通过结合多个模型(无需远程模型)提供本地化的推理能力。它使用Deepseek r1作为核心推理模型,并可与其他工具调用模型(如"project goose"代理)结合使用,以弥补单一模型在工具调用能力上的不足。该系统完全基于本地运行,依赖Ollama框架,适用于任何支持Ollama的代理系统。
View on GitHub

Overview

基本能力

产品定位

本地化运行的AI推理扩展服务,用于增强技术代理系统的多模型协作能力。

核心功能

  1. 本地推理引擎:基于Deepseek r1模型实现本地化推理
  2. 多模型协作:可与工具调用模型(如Project Goose代理)无缝集成
  3. Ollama兼容:完全兼容Ollama框架的本地运行环境
  4. 通用接口:提供标准化MCP服务接口,适配各类代理系统

适用场景

  • 需要本地化AI推理的技术代理开发
  • 多模型协作的复杂任务处理
  • 隐私敏感的本地AI应用部署

工具列表

  • Deepseek r1:核心推理模型,负责复杂逻辑处理
  • Project Goose代理:示例工具调用模型,展示多模型协作能力
  • Ollama框架:本地模型运行环境支持

常见问题

  • 需确保Ollama服务已正确安装并运行
  • 模型组合需要兼容性测试
  • 完全本地运行需要足够的计算资源

使用教程

使用依赖

  1. 安装Node.js环境
  2. 确保Ollama服务已安装并运行

安装教程

npx -y deepseek-reasoner-mcp

调试方式

  1. 检查Ollama服务状态
  2. 验证模型加载情况
  3. 测试代理系统接口连通性

许可证

None