
LlamaIndex MCP demos

2025.03.29
83
Python检索增强生成问答系统开发效率
LlamaIndex MCP demos 是一个展示如何使用LlamaCloud创建MCP服务器以及如何使用LlamaIndex作为MCP客户端的项目。它允许用户通过RAG(检索增强生成)技术为Claude Desktop等客户端提供最新的私有信息,以回答用户的问题。
View on GitHub
Overview
基本能力
产品定位
LlamaIndex MCP demos 主要用于通过LlamaCloud和LlamaIndex实现MCP服务器和客户端的交互,提供基于RAG的私有信息检索和问答功能。
核心功能
- 创建本地MCP服务器,支持通过RAG提供私有信息检索。
- 支持多种数据源(如Google Drive)创建索引。
- 提供MCP客户端集成,可将MCP服务器工具用于LlamaIndex代理。
- 支持多种传输方式(如stdio和SSE)。
适用场景
- 为Claude Desktop等客户端提供私有信息检索工具。
- 在LlamaIndex代理中使用MCP服务器工具进行问答。
- 快速测试和演示RAG技术的应用。
工具列表
mcp-server.py
:用于创建本地MCP服务器。mcp-client.py
:用于将MCP服务器工具集成到LlamaIndex代理中。mcp-http-server.py
:用于创建支持HTTP的MCP服务器。
常见问题解答
- 如何获取LlamaCloud API密钥?
- 通过LlamaCloud UI获取。
- 如何配置Claude Desktop以使用MCP服务器?
- 编辑Claude Desktop的配置文件,指定MCP服务器的路径和参数。
- 如何修改MCP服务器以支持HTTP客户端?
- 使用
run_sse_async
方法替代run
方法。
使用教程
使用依赖
- 获取LlamaCloud账户并创建索引。
- 获取LlamaCloud API密钥和OpenAI API密钥。
安装教程
- 克隆仓库:
bash git clone <repository_url>
- 创建
.env
文件并添加环境变量:bash LLAMA_CLOUD_API_KEY=<your_api_key> OPENAI_API_KEY=<your_openai_api_key>
- 安装依赖:
bash poetry install
调试方式
- 运行MCP服务器:
bash poetry run python mcp-server.py
- 测试MCP客户端:
bash poetry run python mcp-client.py
- 检查Claude Desktop配置是否正确并重启。