
🤗 Hugging Face MCP Server 🤗

2025.03.28
0
Python模型服务AI研究数据访问开发效率内容生成
Hugging Face MCP Server 是一个基于模型上下文协议(MCP)的服务,提供对Hugging Face Hub API的只读访问。该服务器允许像Claude这样的LLM与Hugging Face的模型、数据集、空间、论文和集合进行交互。
View on GitHub
Overview
基本能力
产品定位
Hugging Face MCP Server 是一个中间件服务,旨在为大型语言模型(如Claude)提供便捷的Hugging Face资源访问能力。
核心功能
- 提供自定义
hf://
URI 方案访问Hugging Face资源 - 模型:
hf://model/{model_id}
- 数据集:
hf://dataset/{dataset_id}
- 空间:
hf://space/{space_id}
- 提供两种提示模板:
compare-models
:比较多个Hugging Face模型summarize-paper
:总结研究论文- 实现多种工具类别:
- 模型工具:搜索模型、获取模型信息
- 数据集工具:搜索数据集、获取数据集信息
- 空间工具:搜索空间、获取空间信息
- 论文工具:获取论文信息、获取每日精选论文
- 集合工具:搜索集合、获取集合信息
适用场景
- 需要比较不同Hugging Face模型的场景
- 需要快速获取和总结AI研究论文的场景
- 需要搜索和筛选Hugging Face资源的场景
- 需要集成Hugging Face资源到LLM工作流的场景
工具列表
- Model Tools
search-models
:按查询、作者、标签和限制条件搜索模型get-model-info
:获取特定模型的详细信息- Dataset Tools
search-datasets
:按条件搜索数据集get-dataset-info
:获取特定数据集的详细信息- Space Tools
search-spaces
:按条件搜索空间(包括SDK类型)get-space-info
:获取特定空间的详细信息- Paper Tools
get-paper-info
:获取论文及其实现信息get-daily-papers
:获取每日精选论文列表- Collection Tools
search-collections
:按各种条件搜索集合get-collection-info
:获取特定集合的详细信息
常见问题解答
- 遇到API速率限制错误时,考虑添加Hugging Face API token
- 确保机器有互联网连接可以访问Hugging Face API
- 如果特定工具失败,尝试通过Hugging Face网站访问相同数据以验证其存在
使用教程
使用依赖
无特殊依赖要求,但可选设置Hugging Face认证:
- 设置HF_TOKEN
环境变量以获取更高API速率限制和访问私有仓库
安装教程
通过Smithery安装
npx -y @smithery/cli install @shreyaskarnik/huggingface-mcp-server --client claude
开发/未发布服务器配置
"mcpServers": {
"huggingface": {
"command": "uv",
"args": [
"--directory",
"/absolute/path/to/huggingface-mcp-server",
"run",
"huggingface_mcp_server.py"
],
"env": {
"HF_TOKEN": "your_token_here" // 可选
}
}
}
调试方式
推荐使用MCP Inspector进行调试:
npx @modelcontextprotocol/inspector uv --directory /path/to/huggingface-mcp-server run huggingface_mcp_server.py