Storm MCP Server with Sionic AI serverless RAG

Storm MCP Server with Sionic AI serverless RAG

site icon
2025.03.11 36
PythonLLM 集成RAG 解决方案文件管理API 集成开发效率内容生成
Storm MCP (Model Context Protocol) Server 是一个开放协议,旨在实现 LLM 应用程序与 RAG 数据源及工具之间的无缝集成。它基于 Anthropic 的 Model Context Protocol 实现,允许用户通过 Claude Desktop 直接使用 Storm Platform。通过集成 Sionic AI 的 Storm Platform,用户可以连接自己的强大嵌入模型和向量数据库产品系列,快速构建 RAG 解决方案。
View on GitHub

Overview

基本能力

产品定位

Storm MCP Server 是一个用于连接 LLM 应用程序与 RAG 数据源及工具的开放协议服务器,旨在提供标准化的交互方式和工具调用机制。

核心功能

  • 上下文共享: 提供 LLM 与数据源之间交互的标准协议。
  • 工具系统: 提供定义和调用工具的标准方法(如 send_nonstream_chat, list_agents, list_buckets, upload_document_by_file 等)。
  • 文件管理: 实现文件上传、读取和管理的文件系统操作。
  • API 集成: 连接 Storm 的 API 端点,提供多种功能。

适用场景

  • 构建 RAG 解决方案。
  • 在 LLM 应用程序中集成自定义嵌入模型和向量数据库。
  • 需要标准化工具调用和文件管理的场景。

工具列表

  • send_nonstream_chat: 非流式聊天工具。
  • list_agents: 列出可用代理。
  • list_buckets: 列出存储桶。
  • upload_document_by_file: 通过文件上传文档。

常见问题解答

  • 如何获取 API Key: 在 scripts/run.sh 文件中设置 export STORM_API_KEY=''
  • 如何连接 Claude Desktop: 修改配置文件 claude_desktop_config.json,添加 MCP 服务器设置。

使用教程

使用依赖

  1. 确保已安装 Python 3.x。
  2. 确保已安装 Claude Desktop。

安装教程

  1. 克隆项目仓库。
  2. scripts/run.sh 中设置 STORM_API_KEY
  3. 运行以下命令启动服务器: bash sh scripts/run.sh

调试方式

  1. 检查 scripts/run.sh 中的 API Key 是否正确。
  2. 确保配置文件 claude_desktop_config.json 中的 MCP 服务器设置正确。
  3. 查看日志文件以排查错误。

许可证

None