Open Deep Research MCP Server

Open Deep Research MCP Server

site icon
2025.02.24 69
TypeScript研究助手AI工具内容生成开发效率内容生成
Open Deep Research MCP Server 是一个基于AI的研究助手,能够对任何主题进行深度、迭代式的研究。它结合了搜索引擎、网络爬虫和AI技术,深入探索主题并生成全面的研究报告。该服务可作为Model Context Protocol (MCP)工具或独立的CLI使用。
View on GitHub

Overview

基本能力

产品定位

Open Deep Research MCP Server 是一个AI驱动的研究助手,旨在通过深度、迭代式的研究方法,为用户提供全面、可靠的研究报告。

核心功能

  • 通过生成目标搜索查询进行深度、迭代式研究
  • 通过深度(depth)和广度(breadth)参数控制研究范围
  • 评估来源可靠性,提供详细评分(0-1)和推理
  • 优先考虑高可靠性来源(≥0.7)并验证不太可靠的信息
  • 生成后续问题以更好地理解研究需求
  • 生成详细的Markdown报告,包含发现、来源和可靠性评估
  • 可作为Model Context Protocol (MCP)工具供AI代理使用

适用场景

  • 学术研究
  • 市场调研
  • 内容创作
  • 数据分析
  • 信息验证

工具列表

  • CLI版本:可通过命令行直接运行研究查询
  • MCP版本:可作为MCP工具集成到AI代理中

常见问题解答

  • MCP版本目前不会询问后续问题
  • 可选择使用本地Firecrawl实例(免费选项)
  • 可选择添加观察性功能(Langfuse)

使用教程

使用依赖

  1. 确保已安装Node.js和npm
  2. 确保已安装Git

安装教程

  1. 克隆并安装:
git clone https://github.com/Ozamatash/deep-research
cd deep-research
npm install
  1. 设置环境变量:
# 复制示例环境文件
cp .env.example .env.local
  1. 构建:
# 构建服务器
npm run build
  1. 运行CLI版本:
npm run start "您的研究查询"
  1. 测试MCP Server与Claude Desktop: 按照服务器快速入门指南底部的说明将服务器添加到Claude Desktop: https://modelcontextprotocol.io/quickstart/server

调试方式

  1. 检查环境变量是否正确设置
  2. 确保所有依赖已正确安装
  3. 检查构建过程是否有错误
  4. 运行CLI版本并检查输出

高级设置

使用本地Firecrawl(免费选项)

  1. 设置本地Firecrawl:
git clone https://github.com/Ozamatash/localfirecrawl
cd localfirecrawl
# 按照localfirecrawl README中的说明进行设置
  1. 更新.env.local:
FIRECRAWL_BASE_URL="http://localhost:3002"

可选:观察性

添加观察性以跟踪研究流程、查询和结果(使用Langfuse):

# 添加到.env.local
LANGFUSE_PUBLIC_KEY="您的langfuse公钥"
LANGFUSE_SECRET_KEY="您的langfuse私钥"

如果没有提供Langfuse密钥,应用程序仍可正常工作。

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。