
Open Deep Research MCP Server

2025.02.24
69
TypeScript研究助手AI工具内容生成开发效率内容生成
Open Deep Research MCP Server 是一个基于AI的研究助手,能够对任何主题进行深度、迭代式的研究。它结合了搜索引擎、网络爬虫和AI技术,深入探索主题并生成全面的研究报告。该服务可作为Model Context Protocol (MCP)工具或独立的CLI使用。
View on GitHub
Overview
基本能力
产品定位
Open Deep Research MCP Server 是一个AI驱动的研究助手,旨在通过深度、迭代式的研究方法,为用户提供全面、可靠的研究报告。
核心功能
- 通过生成目标搜索查询进行深度、迭代式研究
- 通过深度(depth)和广度(breadth)参数控制研究范围
- 评估来源可靠性,提供详细评分(0-1)和推理
- 优先考虑高可靠性来源(≥0.7)并验证不太可靠的信息
- 生成后续问题以更好地理解研究需求
- 生成详细的Markdown报告,包含发现、来源和可靠性评估
- 可作为Model Context Protocol (MCP)工具供AI代理使用
适用场景
- 学术研究
- 市场调研
- 内容创作
- 数据分析
- 信息验证
工具列表
- CLI版本:可通过命令行直接运行研究查询
- MCP版本:可作为MCP工具集成到AI代理中
常见问题解答
- MCP版本目前不会询问后续问题
- 可选择使用本地Firecrawl实例(免费选项)
- 可选择添加观察性功能(Langfuse)
使用教程
使用依赖
- 确保已安装Node.js和npm
- 确保已安装Git
安装教程
- 克隆并安装:
git clone https://github.com/Ozamatash/deep-research
cd deep-research
npm install
- 设置环境变量:
# 复制示例环境文件
cp .env.example .env.local
- 构建:
# 构建服务器
npm run build
- 运行CLI版本:
npm run start "您的研究查询"
- 测试MCP Server与Claude Desktop: 按照服务器快速入门指南底部的说明将服务器添加到Claude Desktop: https://modelcontextprotocol.io/quickstart/server
调试方式
- 检查环境变量是否正确设置
- 确保所有依赖已正确安装
- 检查构建过程是否有错误
- 运行CLI版本并检查输出
高级设置
使用本地Firecrawl(免费选项)
- 设置本地Firecrawl:
git clone https://github.com/Ozamatash/localfirecrawl
cd localfirecrawl
# 按照localfirecrawl README中的说明进行设置
- 更新.env.local:
FIRECRAWL_BASE_URL="http://localhost:3002"
可选:观察性
添加观察性以跟踪研究流程、查询和结果(使用Langfuse):
# 添加到.env.local
LANGFUSE_PUBLIC_KEY="您的langfuse公钥"
LANGFUSE_SECRET_KEY="您的langfuse私钥"
如果没有提供Langfuse密钥,应用程序仍可正常工作。