
Storm MCP Server with Sionic AI serverless RAG

2025.03.11
36
PythonLLM 集成RAG 解决方案文件管理API 集成开发效率内容生成
Storm MCP (Model Context Protocol) Server 是一个开放协议,旨在实现 LLM 应用程序与 RAG 数据源及工具之间的无缝集成。它基于 Anthropic 的 Model Context Protocol 实现,允许用户通过 Claude Desktop 直接使用 Storm Platform。通过集成 Sionic AI 的 Storm Platform,用户可以连接自己的强大嵌入模型和向量数据库产品系列,快速构建 RAG 解决方案。
View on GitHub
Overview
基本能力
产品定位
Storm MCP Server 是一个用于连接 LLM 应用程序与 RAG 数据源及工具的开放协议服务器,旨在提供标准化的交互方式和工具调用机制。
核心功能
- 上下文共享: 提供 LLM 与数据源之间交互的标准协议。
- 工具系统: 提供定义和调用工具的标准方法(如
send_nonstream_chat
,list_agents
,list_buckets
,upload_document_by_file
等)。 - 文件管理: 实现文件上传、读取和管理的文件系统操作。
- API 集成: 连接 Storm 的 API 端点,提供多种功能。
适用场景
- 构建 RAG 解决方案。
- 在 LLM 应用程序中集成自定义嵌入模型和向量数据库。
- 需要标准化工具调用和文件管理的场景。
工具列表
send_nonstream_chat
: 非流式聊天工具。list_agents
: 列出可用代理。list_buckets
: 列出存储桶。upload_document_by_file
: 通过文件上传文档。
常见问题解答
- 如何获取 API Key: 在
scripts/run.sh
文件中设置export STORM_API_KEY=''
。 - 如何连接 Claude Desktop: 修改配置文件
claude_desktop_config.json
,添加 MCP 服务器设置。
使用教程
使用依赖
- 确保已安装 Python 3.x。
- 确保已安装 Claude Desktop。
安装教程
- 克隆项目仓库。
- 在
scripts/run.sh
中设置STORM_API_KEY
。 - 运行以下命令启动服务器:
bash sh scripts/run.sh
调试方式
- 检查
scripts/run.sh
中的 API Key 是否正确。 - 确保配置文件
claude_desktop_config.json
中的 MCP 服务器设置正确。 - 查看日志文件以排查错误。
许可证
None