
Docs MCP Server

2025.04.20
0
Python文档搜索AI 集成开发效率
MCP-Server-for-Documentation 是一个基于 Model Context Protocol (MCP) 的服务器实现,主要用于为大型语言模型(LLM)提供标准化的上下文接入方式。该服务器支持搜索最新文档,适用于 langchain、openai 和 llama-index 等库。MCP 协议类似于 AI 应用的 USB-C 接口,提供了一种标准化的方式将 AI 模型连接到不同的数据源和工具。
View on GitHub
Overview
基本能力
产品定位
MCP-Server-for-Documentation 是一个为大型语言模型(LLM)提供标准化上下文接入的服务器,主要用于文档搜索和集成。
核心功能
- 支持搜索最新文档,适用于 langchain、openai 和 llama-index 等库。
- 提供标准化的 Model Context Protocol (MCP) 接口,方便 AI 模型接入不同的数据源和工具。
- 支持三种主要能力:资源(Resource)、工具(Tools)和提示(Prompts)。
适用场景
- 开发者在开发 AI 应用时需要接入多种数据源和工具。
- 需要为 LLM 提供标准化上下文接入的场景。
- 文档搜索和集成的场景。
工具列表
- 资源(Resource):文件类数据,可以被客户端读取(如 API 响应或文件内容)。
- 工具(Tools):可以被 LLM 调用的函数(需要用户批准)。
- 提示(Prompts):预编写的模板,帮助用户完成特定任务。
常见问题解答
- 服务器未被 Claude Desktop 识别:检查配置文件路径和权限,确保绝对路径正确,确认 uv 已正确安装并可访问,查看 Claude Desktop 日志以获取错误信息。
使用教程
使用依赖
- Python 3.10 或更高版本
- MCP SDK 1.2.0 或更高版本
uv
包管理器
安装教程
- 安装 uv 包管理器(MacOS/Linux):
curl -LsSf https://astral.sh/uv/install.sh | sh
安装完成后重启终端。
- 项目设置:
# 创建项目目录
uv init mcp-server
cd mcp-server
# 创建并激活虚拟环境
uv venv
source .venv/bin/activate # Windows 使用: .venv\Scripts\activate
# 安装依赖
uv add "mcp[cli]" httpx
# 创建服务器实现文件
touch main.py
调试方式
- 启动 MCP 服务器:
uv run main.py
-
服务器启动后,可以接受连接。
-
连接到 Claude Desktop:
- 安装 Claude Desktop。
- 编辑配置文件
~/Library/Application Support/Claude/claude_desktop_config.json
,添加服务器配置。 - 重启 Claude Desktop。