OpenClaw 类脑记忆算法 Dreaming:机器开始做梦,人类却在失眠

OpenClaw 推出 Dreaming 记忆整理机制,用浅睡、深睡和 REM 模拟人类睡眠巩固记忆,让智能体更会记重点、也更会遗忘噪音。

大模型的长期记忆一直是个老问题。上下文越积越多,信息越容易混乱。智能体看似什么都记得,实际上却越来越难判断什么重要、什么该忘。

4 月 5 日,OpenClaw 在新版本里上线了一项实验功能:Dreaming。它不是一个花哨名字,而是一套模仿人类睡眠过程的后台记忆整理机制,目标很直接,就是让智能体醒来后记得更准。

01 睡眠算法:把记忆整理拆成三个阶段

Dreaming 并不是简单做索引,而是把记忆整理拆成三个逻辑阶段,对应人类睡眠中的不同功能。

浅睡阶段(Light Sleep):系统先扫描近期对话和召回记录,做去重和初步筛选,生成候选内容。这个阶段只做暂存,不会直接改动核心记忆文件 MEMORY.md

深睡阶段(Deep Sleep):系统开始按规则筛选高价值信息。只有同时达到最低评分、最低召回次数和最低独特查询次数的信息,才会进入下一步。写入前还会重新比对最新日志,剔除过时内容,最后把结果追加到 MEMORY.md,并在 DREAMS.md 中留下深睡摘要。

快速眼动阶段(REM):在记忆固化之后,系统进一步分析短期行为痕迹,寻找不同信息之间的潜在联系,生成模式总结和反思内容。这部分会写入专门的 REM 区块,帮助智能体在处理复杂任务时更容易抓住全局。

除了给机器自己用的记忆整理机制,Dreaming 还会顺手生成一份更适合人类阅读的“梦境日记”。当素材积累到一定程度,后台子智能体会调用默认模型,在 DREAMS.md 中追加一段简洁说明。

02 评分机制:决定什么该留下,什么该被忘掉

Dreaming 的关键不只是“整理”,更是“筛选”。OpenClaw 没有继续沿用粗放式的全量保存,而是用一套加权评分机制判断哪些信息值得进入长期记忆。

这套机制主要看六个维度:

  • 相关性权重(30%):衡量信息在被检索时到底有没有用。
  • 频率权重(24%):统计某条信息被反复提及的次数。
  • 查询多样性(15%):看它是否在不同问题和场景中都出现过。
  • 时效性权重(15%):让新近信息拥有更高优先级。
  • 整合度权重(10%):看信息是否能跨多天稳定出现。
  • 概念丰富度(6%):判断它背后的关联概念是否足够丰富。

这意味着系统不是把所有内容一股脑塞进长期记忆,而是优先保留那些反复出现、能解决问题、又不过时的信息。

03 它为什么让人联想到 Claude 的“做梦”思路

有开发者认为,OpenClaw 这次 Dreaming 升级的思路,很像 Claude Code 泄露代码中出现过的 KAIROS 自动做梦机制。过去那种反复读写整个 MEMORY.md 的方式,到了后期很容易让记忆系统越来越臃肿;而 Dreaming 把过程拆成浅睡整合、深睡固化、REM 关联,逻辑明显更清晰,也更接近“先整理、再沉淀、再提炼”的思路。

也有人从神经科学角度肯定这套设计。因为 Dreaming、浅睡、深睡和 REM 这些概念并不是随便取的名字,而是明确借用了人类睡眠巩固记忆的模型。

OpenClaw 现有的 IDENTITY.mdUSER.mdHEARTBEAT.md 已经给了智能体人设、用户上下文和运行连续性,而 DREAMS.md 补上的,正是“哪些记忆该留下”的能力。

04 最讽刺的一幕:机器学会做梦,人却睡不着

Dreaming 的真正价值,不是让 AI 什么都记住,而是让它学会复盘短期记忆、提取底层模式、过滤噪音。一个真正好用的智能体,不应该像移动硬盘一样死记硬背,而应该越来越懂用户的偏好、目标和背景。

从工程角度看,这套机制最值得注意的地方在于它并不神秘。它不是黑盒魔法,而是一套有阶段、有阈值、有反思、也有遗忘规则的后台流程。这种设计让 AI 的记忆机制第一次显得更像“可控的系统”,而不只是“无限堆上下文”。

但也正因为如此,整件事才显得有点讽刺:我们正在投入大量资源,教机器如何像人一样做梦;与此同时,许多人却因为担心被这些越来越聪明的系统取代而失眠。

记录并分享
使用 Hugo 构建
主题 StackJimmy 设计