LlamaIndex MCP demos

LlamaIndex MCP demos

site icon
2025.03.29 83
Python检索增强生成问答系统开发效率
LlamaIndex MCP demos 是一个展示如何使用LlamaCloud创建MCP服务器以及如何使用LlamaIndex作为MCP客户端的项目。它允许用户通过RAG(检索增强生成)技术为Claude Desktop等客户端提供最新的私有信息,以回答用户的问题。
View on GitHub

Overview

基本能力

产品定位

LlamaIndex MCP demos 主要用于通过LlamaCloud和LlamaIndex实现MCP服务器和客户端的交互,提供基于RAG的私有信息检索和问答功能。

核心功能

  1. 创建本地MCP服务器,支持通过RAG提供私有信息检索。
  2. 支持多种数据源(如Google Drive)创建索引。
  3. 提供MCP客户端集成,可将MCP服务器工具用于LlamaIndex代理。
  4. 支持多种传输方式(如stdio和SSE)。

适用场景

  1. 为Claude Desktop等客户端提供私有信息检索工具。
  2. 在LlamaIndex代理中使用MCP服务器工具进行问答。
  3. 快速测试和演示RAG技术的应用。

工具列表

  1. mcp-server.py:用于创建本地MCP服务器。
  2. mcp-client.py:用于将MCP服务器工具集成到LlamaIndex代理中。
  3. mcp-http-server.py:用于创建支持HTTP的MCP服务器。

常见问题解答

  1. 如何获取LlamaCloud API密钥?
  2. 通过LlamaCloud UI获取。
  3. 如何配置Claude Desktop以使用MCP服务器?
  4. 编辑Claude Desktop的配置文件,指定MCP服务器的路径和参数。
  5. 如何修改MCP服务器以支持HTTP客户端?
  6. 使用run_sse_async方法替代run方法。

使用教程

使用依赖

  1. 获取LlamaCloud账户并创建索引。
  2. 获取LlamaCloud API密钥和OpenAI API密钥。

安装教程

  1. 克隆仓库: bash git clone <repository_url>
  2. 创建.env文件并添加环境变量: bash LLAMA_CLOUD_API_KEY=<your_api_key> OPENAI_API_KEY=<your_openai_api_key>
  3. 安装依赖: bash poetry install

调试方式

  1. 运行MCP服务器: bash poetry run python mcp-server.py
  2. 测试MCP客户端: bash poetry run python mcp-client.py
  3. 检查Claude Desktop配置是否正确并重启。

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。