simplemem_logo
## 高效的 LLM 智能体终身记忆系统 — Text & Multimodal 通过语义无损压缩实现长期记忆的存储、压缩和检索。支持 Claude、Cursor、LM Studio 等多种平台。

兼容任何支持 MCP 或 Python 集成的 AI 平台

Claude Desktop
Claude Desktop
Cursor
Cursor
LM Studio
LM Studio
Cherry Studio
Cherry Studio
PyPI
PyPI 包
+ 任何 MCP
客户端

[🇨🇳 **中文**](./README.zh-CN.md) • [🇯🇵 日本語](./README.ja.md) • [🇰🇷 한국어](./README.ko.md) • [🇪🇸 Español](./README.es.md) • [🇫🇷 Français](./README.fr.md) • [🇩🇪 Deutsch](./README.de.md) • [🇧🇷 Português](./README.pt-br.md)
[🇷🇺 Русский](./README.ru.md) • [🇸🇦 العربية](./README.ar.md) • [🇮🇹 Italiano](./README.it.md) • [🇻🇳 Tiếng Việt](./README.vi.md) • [🇹🇷 Türkçe](./README.tr.md)
[![Project Page](https://img.shields.io/badge/🎬_互动演示-访问官网-FF6B6B?style=for-the-badge&labelColor=FF6B6B&color=4ECDC4&logoColor=white)](https://aiming-lab.github.io/SimpleMem-Page)

arXiv GitHub License PRs Welcome
PyPI Python MCP Server Claude Skills
Discord WeChat


[概述](#-概述) • [快速开始](#-快速开始) • [MCP 服务器](#-mcp-服务器) • [评测](#-评测) • [引用](#-引用)


🔥 最新动态

  • [02/09/2026] 🚀 跨对话记忆功能上线 - 性能超越 Claude-Mem 64%! SimpleMem 现已支持跨对话的持久化记忆。在 LoCoMo 基准测试中,SimpleMem 相比 Claude-Mem 实现了 64% 的性能提升。您的 Agent 现在可以自动回忆之前对话中的上下文、决策和学习成果。查看跨对话记忆文档 →
  • [01/20/2026] SimpleMem 已上线 PyPI! 📦 可直接通过 pip install simplemem 安装。查看包使用指南 →
  • [01/19/2026] SimpleMem Skill 新增本地记忆存储功能! 💾 现已支持在 Claude Skills 中进行本地记忆存储与管理。
  • [01/18/2026] SimpleMem 现已支持 Claude Skills! 🚀 在 claude.ai 中使用 SimpleMem 实现跨会话长期记忆。前往 mcp.simplemem.cloud 注册,配置令牌后导入技能即可使用!
  • [01/14/2026] SimpleMem MCP 服务器正式上线并开源! 🎉 云端记忆服务已部署至 mcp.simplemem.cloud。支持 LM Studio、Cherry Studio、Cursor、Claude Desktop,通过 Streamable HTTP MCP 协议集成。查看 MCP 文档 →
  • [01/08/2026] 🔥 欢迎加入我们的 Discord微信交流群,一起协作交流!
  • [01/05/2026] SimpleMem 论文已在 arXiv 发布!

📑 目录


🌟 概述

性能与效率权衡 *SimpleMem 以最少的 token 开销(约 550)实现了最优的 F1 分数(43.24%),占据理想的左上方位置。*

SimpleMem 是一个基于语义无损压缩的高效记忆框架,旨在解决 LLM 智能体高效长期记忆这一核心挑战。与现有系统被动积累冗余上下文或依赖昂贵迭代推理循环不同,SimpleMem 通过三阶段流水线最大化信息密度token 利用率

### 🔍 阶段 1 **语义结构化压缩** 将非结构化交互蒸馏为紧凑的多视角索引记忆单元 ### 🗂️ 阶段 2 **在线语义合成** 会话内过程,即时整合相关上下文为统一的抽象表示,消除冗余 ### 🎯 阶段 3 **意图感知检索规划** 推断搜索意图,动态确定检索范围,高效构建精确上下文
SimpleMem 框架 *SimpleMem 架构:(1) 语义结构化压缩过滤低效对话,将信息窗口转换为紧凑、上下文无关的记忆单元。(2) 在线语义合成在写入阶段整合相关片段,维护紧凑连贯的记忆拓扑。(3) 意图感知检索规划推断搜索意图以调整检索范围和查询形式,实现并行多视角检索和高效 token 上下文构建。*

🏆 性能对比

**速度对比演示** *SimpleMem 与基线方法:实时速度对比演示*
**LoCoMo-10 基准测试结果(GPT-4.1-mini)** | 模型 | ⏱️ 构建时间 | 🔎 检索时间 | ⚡ 总时间 | 🎯 平均 F1 | |:------|:--------------------:|:-----------------:|:-------------:|:-------------:| | A-Mem | 5140.5s | 796.7s | 5937.2s | 32.58% | | LightMem | 97.8s | 577.1s | 675.9s | 24.63% | | Mem0 | 1350.9s | 583.4s | 1934.3s | 34.20% | | **SimpleMem** ⭐ | **92.6s** | **388.3s** | **480.9s** | **43.24%** |

💡 核心优势:

  • 🏆 最高 F1 分数:43.24%(比 Mem0 高 26.4%,比 LightMem 高 75.6%)
  • 最快检索速度:388.3s(比 LightMem 快 32.7%,比 Mem0 快 51.3%)
  • 🚀 最快端到端处理:总处理时间 480.9s(比 A-Mem 快 12.5 倍)

🎯 主要贡献

1️⃣ 语义结构化压缩

SimpleMem 在 LLM 生成过程中集成了隐式语义密度门控机制,过滤冗余交互内容。系统将原始对话流重新组织为紧凑的记忆单元——带有已消解指代和绝对时间戳的独立事实。每个单元通过三种互补表示进行索引,支持灵活检索:

| 🔍 层级 | 📊 类型 | 🎯 用途 | 🛠️ 实现 | |---------|---------|------------|-------------------| | **语义** | 稠密 | 概念相似性 | 向量嵌入(1024 维) | | **词汇** | 稀疏 | 精确词项匹配 | BM25 风格关键词索引 | | **符号** | 元数据 | 结构化过滤 | 时间戳、实体、人物 |

✨ 转换示例:

- 输入:  "他明天下午2点和Bob见面"  [❌ 相对的、模糊的]
+ 输出: "Alice将于2025-11-16T14:00:00在星巴克与Bob见面"  [✅ 绝对的、原子的]

2️⃣ 在线语义合成

与依赖异步后台维护的传统系统不同,SimpleMem 在写入阶段即时执行合成。在当前会话范围内,相关记忆单元被合成为更高级的抽象表示,使重复或结构相似的经验能够立即被去噪和压缩

✨ 合成示例:

- 片段 1: "用户想喝咖啡"
- 片段 2: "用户偏好燕麦奶"
- 片段 3: "用户喜欢热饮"
+ 整合后: "用户偏好加燕麦奶的热咖啡"

这种主动合成确保记忆拓扑保持紧凑,避免冗余碎片化。


3️⃣ 意图感知检索规划

与固定深度检索不同,SimpleMem 利用 LLM 的推理能力生成全面的检索计划。给定查询后,规划模块推断潜在搜索意图,动态确定检索范围和深度:

\[\{ q_{\text{sem}}, q_{\text{lex}}, q_{\text{sym}}, d \} \sim \mathcal{P}(q, H)\]

系统随后在语义、词汇和符号索引上执行并行多视角检索,并通过基于 ID 的去重合并结果:

**🔹 简单查询** - 通过单个记忆单元直接查找事实 - 最小检索深度 - 快速响应 **🔸 复杂查询** - 跨多个事件聚合 - 扩展检索深度 - 全面覆盖

📈 结果:以比全上下文方法少 30 倍的 token 达到 43.24% 的 F1 分数。


🚀 性能亮点

📊 基准测试结果(LoCoMo)

🔬 高性能模型(GPT-4.1-mini) | 任务类型 | SimpleMem F1 | Mem0 F1 | 提升 | |:----------|:------------:|:-------:|:-----------:| | **多跳** | 43.46% | 30.14% | **+43.8%** | | **时序** | 58.62% | 48.91% | **+19.9%** | | **单跳** | 51.12% | 41.3% | **+23.8%** |
⚙️ 高效模型(Qwen2.5-1.5B) | 指标 | SimpleMem | Mem0 | 备注 | |:-------|:---------:|:----:|:------| | **平均 F1** | 25.23% | 23.77% | 使用小 99 倍的模型仍具竞争力 |

📦 安装

📝 初次使用须知

  • 确保活动环境中使用的是 Python 3.10,而非仅全局安装。
  • 运行任何记忆构建或检索之前,必须先配置 OpenAI 兼容的 API 密钥,否则初始化可能失败。
  • 使用非 OpenAI 提供商(如 Qwen 或 Azure OpenAI)时,请验证 config.py 中的模型名称和 OPENAI_BASE_URL
  • 对于大型对话数据集,启用并行处理可显著减少记忆构建时间。

📋 环境要求

  • 🐍 Python 3.10
  • 🔑 OpenAI 兼容 API(OpenAI、Qwen、Azure OpenAI 等)

🛠️ 安装步骤

# 📥 克隆仓库
git clone https://github.com/aiming-lab/SimpleMem.git
cd SimpleMem

# 📦 安装依赖
pip install -r requirements.txt

# ⚙️ 配置 API 设置
cp config.py.example config.py
# 编辑 config.py,填入你的 API 密钥和偏好设置

⚙️ 配置示例

# config.py
OPENAI_API_KEY = "your-api-key"
OPENAI_BASE_URL = None  # 或 Qwen/Azure 的自定义端点

LLM_MODEL = "gpt-4.1-mini"
EMBEDDING_MODEL = "Qwen/Qwen3-Embedding-0.6B"  # 最先进的检索模型

⚡ 快速开始

🧠 理解基本工作流

从宏观层面来看,SimpleMem 是 LLM 智能体的长期记忆系统。工作流程包含三个简单步骤:

  1. 存储信息 – 对话或事实经处理后转换为结构化的原子记忆。
  2. 索引记忆 – 使用语义嵌入和结构化元数据组织已存储的记忆。
  3. 检索相关记忆 – 查询时,SimpleMem 基于语义(而非关键词)检索最相关的存储信息。

这种设计使 LLM 智能体能够维护上下文、高效回忆过往信息,并避免重复处理冗余历史。

🎓 基本用法

from main import SimpleMemSystem

# 🚀 初始化系统
system = SimpleMemSystem(clear_db=True)

# 💬 添加对话(阶段 1:语义结构化压缩)
system.add_dialogue("Alice", "Bob,我们明天下午2点在星巴克见面吧", "2025-11-15T14:30:00")
system.add_dialogue("Bob", "好的,我会带上市场分析报告", "2025-11-15T14:31:00")

# ✅ 完成原子编码
system.finalize()

# 🔎 意图感知检索查询(阶段 3:意图感知检索规划)
answer = system.ask("Alice 和 Bob 什么时候在哪里见面?")
print(answer)
# 输出: "2025年11月16日下午2:00在星巴克"

🚄 进阶:并行处理

对于大规模对话处理,启用并行模式:

system = SimpleMemSystem(
    clear_db=True,
    enable_parallel_processing=True,  # ⚡ 并行记忆构建
    max_parallel_workers=8,
    enable_parallel_retrieval=True,   # 🔍 并行查询执行
    max_retrieval_workers=4
)

💡 小贴士:并行处理可显著降低批量操作的延迟!


❓ 常见问题与故障排查

在首次安装或运行 SimpleMem 时遇到问题,请检查以下常见情况:

1️⃣ API 密钥未检测到

  • 确保 config.py 中正确设置了 API 密钥
  • 使用 OpenAI 兼容提供商(Qwen、Azure 等)时,验证 OPENAI_BASE_URL 配置是否正确
  • 更新密钥后重启 Python 环境

2️⃣ Python 版本不匹配

  • SimpleMem 需要 Python 3.10
  • 检查版本:
    python --version
    


# 🧠 Omni-SimpleMem: Multimodal Memory **NEW** — SimpleMem now handles text, image, audio & video.
📈 +411%
LoCoMo F1
📈 +214%
Mem-Gallery F1
5.81 q/s
3.5x faster
🧠 4 modalities
Text · Image · Audio · Video

📖 Full documentation: Omni-SimpleMem →


🔌 MCP 服务器 (text memory)

SimpleMem 作为云端记忆服务,通过模型上下文协议(MCP)提供,支持与 Claude Desktop、Cursor 等 AI 助手无缝集成。

🌐 云服务mcp.simplemem.cloud

核心特性

特性 描述
Streamable HTTP MCP 2025-03-26 协议,JSON-RPC 2.0
多租户隔离 基于令牌认证的用户级数据表
混合检索 语义搜索 + 关键词匹配 + 元数据过滤
生产级优化 集成 OpenRouter,响应更快

快速配置

{
  "mcpServers": {
    "simplemem": {
      "url": "https://mcp.simplemem.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_TOKEN"
      }
    }
  }
}

📖 详细的安装说明和自部署指南,请参阅 MCP 文档



🗺️ 路线图

  • Omni cross-session memory
  • Omni MCP server
  • Omni Docker support
  • Omni PyPI package
  • Streaming ingestion
  • Multi-agent memory sharing

📊 评测

🧪 运行基准测试

# 🎯 完整 LoCoMo 基准测试
python test_locomo10.py

# 📉 子集评测(5 个样本)
python test_locomo10.py --num-samples 5

# 💾 自定义输出文件
python test_locomo10.py --result-file my_results.json

🔬 复现论文结果

使用 config.py 中的精确配置:

  • 🚀 高性能:GPT-4.1-mini、Qwen3-Plus
  • ⚙️ 高效率:Qwen2.5-1.5B、Qwen2.5-3B
  • 🔍 嵌入模型:Qwen3-Embedding-0.6B(1024 维)

📝 引用

如果您在研究中使用了 SimpleMem,请引用:

@article{simplemem2025,
  title={SimpleMem: Efficient Lifelong Memory for LLM Agents},
  author={Liu, Jiaqi and Su, Yaofeng and Xia, Peng and Zhou, Yiyang and Han, Siwei and  Zheng, Zeyu and Xie, Cihang and Ding, Mingyu and Yao, Huaxiu},
  journal={arXiv preprint arXiv:2601.02553},
  year={2025},
  url={https://github.com/aiming-lab/SimpleMem}
}

📄 许可证

本项目采用 MIT 许可证 - 详见 LICENSE 文件。


🙏 致谢

感谢以下项目和团队的贡献:

  • 🔍 嵌入模型Qwen3-Embedding - 最先进的检索性能
  • 🗄️ 向量数据库LanceDB - 高性能列式存储
  • 📊 基准测试LoCoMo - 长上下文记忆评测框架

参考资料