
MCP Server: Ollama Deep Researcher

2025.03.11
8
PythonAI 研究内容生成开发效率开发效率内容生成
mcp-server-ollama-deep-researcher 是一个基于 Model Context Protocol (MCP) 的服务,它提供了深度研究能力,允许 AI 助手通过 Ollama 使用本地 LLM 对主题进行深入研究。该服务集成了 LangChain Ollama Deep Researcher 的功能,并通过 MCP 工具在模型上下文协议生态系统中使用。
View on GitHub
Overview
基本能力
产品定位
mcp-server-ollama-deep-researcher 是一个提供深度研究能力的 MCP 服务器,专为 AI 助手设计,用于通过本地 LLM 进行主题研究。
核心功能
- 生成网络搜索查询:根据主题生成搜索查询。
- 收集搜索结果:通过 Tavily 或 Perplexity API 收集搜索结果。
- 总结搜索结果:使用 LLM 总结搜索结果。
- 反思总结:检查知识差距并生成新的搜索查询。
- 迭代改进:通过多次研究循环改进总结。
- 提供最终总结:生成带有所有使用来源的最终 Markdown 总结。
适用场景
- 学术研究:对特定主题进行深入研究和总结。
- 市场调研:收集和分析市场数据。
- 内容生成:基于研究生成高质量的内容。
工具列表
- Configure:配置研究参数,如最大循环次数、LLM 模型和搜索 API。
- Research:对任何主题进行网络搜索和 LLM 合成。
- Get status:获取当前研究的状态。
常见问题解答
- Ollama 连接问题:确保 Ollama 正在运行,并检查是否可以通过
localhost:11434
访问。 - API 密钥问题:验证 API 密钥是否正确设置,并确保没有额外的空格或引号。
- MCP 服务器问题:使用 MCP Inspector 进行调试。
- Docker 问题:检查容器是否正在运行,并查看容器日志。
- 构建问题:确保 Node.js 已正确安装并添加到系统 PATH。
- Python 问题:确保 Python 已正确安装,并检查 pip 是否可用。
使用教程
使用依赖
- Node.js:下载并安装 Node.js,确保添加到系统 PATH。
- Python 3.10 或更高版本:确保 Python 已安装。
- Ollama:下载并安装 Ollama,确保可以运行所选 LLM 模型。
- API 密钥:获取 Tavily API 密钥、Perplexity API 密钥和 LangSmith API 密钥。
验证安装:
node --version
npm --version
python --version
安装教程
标准安装
- 克隆仓库并安装依赖:
git clone https://github.com/Cam10001110101/mcp-server-ollama-deep-researcher
cd mcp-server-ollama-deep-researcher
npm install
- 安装 Python 依赖:
pip install uv
uv pip install .
- 构建 TypeScript 代码:
npm run build
- 拉取本地 LLM:
ollama pull deepseek-r1:8b
Docker 安装
- 克隆仓库:
git clone https://github.com/Cam10001110101/mcp-server-ollama-deep-researcher
cd mcp-server-ollama-deep-researcher
- 创建
.env
文件:
cp .env.example .env
- 运行 Docker 容器:
./run-docker.sh start
调试方式
- Ollama 连接:
ollama list
ollama serve
- MCP Inspector:
npx @modelcontextprotocol/inspector node path/to/server/index.js --model llama3.2 --max-loops 3 --search-api tavily
- Docker 日志:
docker logs ollama-deep-researcher-mcp