MCP-Mem0: Long-Term Memory for AI Agents

MCP-Mem0: Long-Term Memory for AI Agents

site icon
2025.04.13 114
Python长期记忆语义搜索开发效率
MCP-Mem0 是一个基于 Model Context Protocol (MCP) 的服务,集成了 Mem0,为 AI 代理提供长期记忆能力。它允许 AI 代理存储、检索和搜索记忆,通过语义搜索功能增强 AI 的上下文理解能力。该服务可作为构建自定义 MCP 服务器的模板,遵循 Anthropic 的最佳实践,确保与任何 MCP 兼容客户端的无缝集成。
View on GitHub

Overview

基本能力

产品定位

MCP-Mem0 是一个为 AI 代理提供长期记忆能力的服务,通过语义搜索增强 AI 的上下文理解能力。

核心功能

  1. save_memory: 存储信息到长期记忆,并进行语义索引。
  2. get_all_memories: 检索所有存储的记忆,提供全面的上下文。
  3. search_memories: 使用语义搜索查找相关记忆。

适用场景

  • AI 代理需要长期记忆能力的场景。
  • 需要增强 AI 上下文理解的应用程序。
  • 构建自定义 MCP 服务器的开发场景。

工具列表

  1. save_memory: 存储信息到长期记忆。
  2. get_all_memories: 检索所有记忆。
  3. search_memories: 语义搜索记忆。

常见问题解答

  • 如何配置环境变量?.env 文件中配置相关变量,如 TRANSPORT, LLM_PROVIDER, DATABASE_URL 等。
  • 如何运行服务器? 可以通过 uvDocker 运行,具体命令见安装教程。

使用教程

使用依赖

  • Python 3.12+
  • Supabase 或 PostgreSQL 数据库
  • LLM 提供商的 API 密钥(OpenAI, OpenRouter, 或 Ollama)
  • Docker(推荐)

安装教程

使用 uv

  1. 安装 uv: bash pip install uv
  2. 克隆仓库: bash git clone https://github.com/coleam00/mcp-mem0.git cd mcp-mem0
  3. 安装依赖: bash uv pip install -e .
  4. 创建 .env 文件: bash cp .env.example .env
  5. 配置 .env 文件。

使用 Docker

  1. 构建 Docker 镜像: bash docker build -t mcp/mem0 --build-arg PORT=8050 .
  2. 创建并配置 .env 文件。

调试方式

SSE Transport

uv run src/main.py

docker run --env-file .env -p:8050:8050 mcp/mem0

Stdio Transport

无需额外命令,MCP 客户端会自动启动服务器。

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。