🤗 Hugging Face MCP Server 🤗

🤗 Hugging Face MCP Server 🤗

site icon
2025.03.28 0
Python模型服务AI研究数据访问开发效率内容生成
Hugging Face MCP Server 是一个基于模型上下文协议(MCP)的服务,提供对Hugging Face Hub API的只读访问。该服务器允许像Claude这样的LLM与Hugging Face的模型、数据集、空间、论文和集合进行交互。
View on GitHub

Overview

基本能力

产品定位

Hugging Face MCP Server 是一个中间件服务,旨在为大型语言模型(如Claude)提供便捷的Hugging Face资源访问能力。

核心功能

  • 提供自定义 hf:// URI 方案访问Hugging Face资源
  • 模型:hf://model/{model_id}
  • 数据集:hf://dataset/{dataset_id}
  • 空间:hf://space/{space_id}
  • 提供两种提示模板:
  • compare-models:比较多个Hugging Face模型
  • summarize-paper:总结研究论文
  • 实现多种工具类别:
  • 模型工具:搜索模型、获取模型信息
  • 数据集工具:搜索数据集、获取数据集信息
  • 空间工具:搜索空间、获取空间信息
  • 论文工具:获取论文信息、获取每日精选论文
  • 集合工具:搜索集合、获取集合信息

适用场景

  • 需要比较不同Hugging Face模型的场景
  • 需要快速获取和总结AI研究论文的场景
  • 需要搜索和筛选Hugging Face资源的场景
  • 需要集成Hugging Face资源到LLM工作流的场景

工具列表

  • Model Tools
  • search-models:按查询、作者、标签和限制条件搜索模型
  • get-model-info:获取特定模型的详细信息
  • Dataset Tools
  • search-datasets:按条件搜索数据集
  • get-dataset-info:获取特定数据集的详细信息
  • Space Tools
  • search-spaces:按条件搜索空间(包括SDK类型)
  • get-space-info:获取特定空间的详细信息
  • Paper Tools
  • get-paper-info:获取论文及其实现信息
  • get-daily-papers:获取每日精选论文列表
  • Collection Tools
  • search-collections:按各种条件搜索集合
  • get-collection-info:获取特定集合的详细信息

常见问题解答

  1. 遇到API速率限制错误时,考虑添加Hugging Face API token
  2. 确保机器有互联网连接可以访问Hugging Face API
  3. 如果特定工具失败,尝试通过Hugging Face网站访问相同数据以验证其存在

使用教程

使用依赖

无特殊依赖要求,但可选设置Hugging Face认证: - 设置HF_TOKEN环境变量以获取更高API速率限制和访问私有仓库

安装教程

通过Smithery安装

npx -y @smithery/cli install @shreyaskarnik/huggingface-mcp-server --client claude

开发/未发布服务器配置

"mcpServers": {
  "huggingface": {
    "command": "uv",
    "args": [
      "--directory",
      "/absolute/path/to/huggingface-mcp-server",
      "run",
      "huggingface_mcp_server.py"
    ],
    "env": {
      "HF_TOKEN": "your_token_here"  // 可选
    }
  }
}

调试方式

推荐使用MCP Inspector进行调试:

npx @modelcontextprotocol/inspector uv --directory /path/to/huggingface-mcp-server run huggingface_mcp_server.py

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。