
MCP-Mem0: Long-Term Memory for AI Agents

2025.04.13
114
Python长期记忆语义搜索开发效率
MCP-Mem0 是一个基于 Model Context Protocol (MCP) 的服务,集成了 Mem0,为 AI 代理提供长期记忆能力。它允许 AI 代理存储、检索和搜索记忆,通过语义搜索功能增强 AI 的上下文理解能力。该服务可作为构建自定义 MCP 服务器的模板,遵循 Anthropic 的最佳实践,确保与任何 MCP 兼容客户端的无缝集成。
View on GitHub
Overview
基本能力
产品定位
MCP-Mem0 是一个为 AI 代理提供长期记忆能力的服务,通过语义搜索增强 AI 的上下文理解能力。
核心功能
save_memory
: 存储信息到长期记忆,并进行语义索引。get_all_memories
: 检索所有存储的记忆,提供全面的上下文。search_memories
: 使用语义搜索查找相关记忆。
适用场景
- AI 代理需要长期记忆能力的场景。
- 需要增强 AI 上下文理解的应用程序。
- 构建自定义 MCP 服务器的开发场景。
工具列表
save_memory
: 存储信息到长期记忆。get_all_memories
: 检索所有记忆。search_memories
: 语义搜索记忆。
常见问题解答
- 如何配置环境变量? 在
.env
文件中配置相关变量,如TRANSPORT
,LLM_PROVIDER
,DATABASE_URL
等。 - 如何运行服务器? 可以通过
uv
或Docker
运行,具体命令见安装教程。
使用教程
使用依赖
- Python 3.12+
- Supabase 或 PostgreSQL 数据库
- LLM 提供商的 API 密钥(OpenAI, OpenRouter, 或 Ollama)
- Docker(推荐)
安装教程
使用 uv
- 安装 uv:
bash pip install uv
- 克隆仓库:
bash git clone https://github.com/coleam00/mcp-mem0.git cd mcp-mem0
- 安装依赖:
bash uv pip install -e .
- 创建
.env
文件:bash cp .env.example .env
- 配置
.env
文件。
使用 Docker
- 构建 Docker 镜像:
bash docker build -t mcp/mem0 --build-arg PORT=8050 .
- 创建并配置
.env
文件。
调试方式
SSE Transport
uv run src/main.py
或
docker run --env-file .env -p:8050:8050 mcp/mem0
Stdio Transport
无需额外命令,MCP 客户端会自动启动服务器。