
MCP Server: Ollama Deep Researcher

2025.05.08
0
Python深度研究内容生成开发效率内容生成开发效率
该MCP服务器是基于LangChain Ollama Deep Researcher的适配版本,提供深度研究能力,允许AI助手通过本地LLMs(通过Ollama托管)对主题进行深入研究。核心功能包括生成网络搜索查询、收集搜索结果、总结搜索结果、反思总结以检查知识缺口、生成新的搜索查询以填补缺口、通过多次研究循环迭代改进总结,并最终提供包含所有使用来源的Markdown总结。适用于需要深度研究、内容生成和开发效率的场景。
View on GitHub
Overview
基本能力
产品定位
该MCP服务器提供深度研究能力,允许AI助手通过本地LLMs对主题进行深入研究。
核心功能
- 生成网络搜索查询
- 收集网络搜索结果
- 总结搜索结果
- 反思总结以检查知识缺口
- 生成新的搜索查询以填补缺口
- 通过多次研究循环迭代改进总结
- 提供包含所有使用来源的Markdown总结
适用场景
- 深度研究主题
- 内容生成
- 开发效率提升
工具列表
- Configure: 配置研究参数,如最大循环次数、LLM模型和搜索API。
- Research: 使用网络搜索和LLM合成研究任何主题。
- Get status: 获取当前正在进行的研究的状态。
常见问题解答
- Ollama连接问题: 确保Ollama正在运行,并检查其可访问性。
- API密钥问题: 验证API密钥是否正确设置。
- MCP服务器问题: 使用MCP Inspector进行调试。
- Docker问题: 检查容器是否正在运行,并查看日志。
- 构建问题: 确保Node.js正确安装并添加到系统PATH。
- Python问题: 确保Python和pip正确安装。
使用教程
使用依赖
- 安装Node.js: 从https://nodejs.org/下载并安装。
- 安装Python 3.10或更高版本。
- 确保系统具有足够的计算资源(CPU/GPU)和至少8GB RAM。
- 获取必要的API密钥(Tavily、Perplexity、LangSmith)。
验证安装:
node --version
npm --version
python --version
安装教程
标准安装
- 下载并安装Ollama: https://ollama.com/download
- 克隆仓库并安装依赖:
git clone https://github.com/Cam10001110101/mcp-server-ollama-deep-researcher
cd mcp-server-ollama-deep-researcher
npm install
- 安装Python依赖:
pip install uv
uv pip install .
- 构建TypeScript代码:
npm run build
- 拉取本地LLM模型:
ollama pull deepseek-r1:8b
Docker安装
- 下载并安装Docker: https://www.docker.com/products/docker-desktop/
- 克隆仓库:
git clone https://github.com/Cam10001110101/mcp-server-ollama-deep-researcher
cd mcp-server-ollama-deep-researcher
- 创建.env文件并设置API密钥:
cp .env.example .env
- 使帮助脚本可执行:
chmod +x run-docker.sh
- 构建并运行Docker容器:
./run-docker.sh start
- 确保Ollama正在运行:
ollama pull deepseek-r1:8b
ollama serve
调试方式
- 使用MCP Inspector调试:
npx @modelcontextprotocol/inspector node path/to/server/index.js --model llama3.2 --max-loops 3 --search-api tavily
- 查看Docker容器日志:
./run-docker.sh logs
- 检查Ollama连接:
ollama list
ollama serve