大模型的長期記憶一直是個老問題。上下文越積越多,資訊就越容易混亂。智能體看似什麼都記得,實際上卻越來越難判斷什麼重要、什麼該忘。
4 月 5 日,OpenClaw 在新版本中上線了一項實驗功能:Dreaming。它不是一個花俏名稱,而是一套模仿人類睡眠過程的背景記憶整理機制,目標很直接,就是讓智能體醒來之後記得更準。
01 睡眠演算法:把記憶整理拆成三個階段
Dreaming 並不只是做索引,而是把記憶整理拆成三個邏輯階段,對應人類睡眠中的不同功能。
淺睡階段(Light Sleep):系統先掃描近期對話與召回紀錄,做去重與初步篩選,建立候選內容。這個階段只做暫存,不會直接改動核心記憶檔案 MEMORY.md。
深睡階段(Deep Sleep):系統開始依規則篩選高價值資訊。只有同時達到最低評分、最低召回次數與最低獨特查詢次數的內容,才會進入下一步。寫入前還會重新比對最新日誌,剔除過時內容,最後把結果追加到 MEMORY.md,並在 DREAMS.md 中留下深睡摘要。
快速動眼階段(REM):在記憶固化之後,系統會進一步分析短期行為痕跡,尋找不同資訊之間的潛在關聯,生成模式總結與反思內容。這部分會寫入專門的 REM 區塊,幫助智能體在處理複雜任務時更容易掌握全局。
除了給機器自己使用的記憶整理機制,Dreaming 還會順手生成一份更適合人類閱讀的「夢境日記」。當素材累積到一定程度,背景子智能體會呼叫預設模型,在 DREAMS.md 中追加一段簡潔說明。
02 評分機制:決定什麼該留下,什麼該被忘掉
Dreaming 的關鍵不只是「整理」,更是「篩選」。OpenClaw 沒有繼續沿用粗放式的全量保存,而是用一套加權評分機制判斷哪些資訊值得進入長期記憶。
這套機制主要看六個維度:
- 相關性權重(30%):衡量資訊在被檢索時到底有沒有用。
- 頻率權重(24%):統計某條資訊被反覆提及的次數。
- 查詢多樣性(15%):看它是否在不同問題與情境中都出現過。
- 時效性權重(15%):讓近期資訊擁有更高優先級。
- 整合度權重(10%):看資訊是否能跨多天穩定出現。
- 概念豐富度(6%):判斷它背後的關聯概念是否足夠豐富。
這代表系統不是把所有內容一股腦塞進長期記憶,而是優先保留那些反覆出現、能解決問題、又不過時的資訊。
03 為什麼它會讓人想到 Claude 的「做夢」思路
有開發者認為,OpenClaw 這次 Dreaming 升級的思路,很像 Claude Code 洩露程式碼中提到的 KAIROS 自動做夢機制。過去那種反覆讀寫整個 MEMORY.md 的做法,到了後期很容易讓記憶系統愈來愈臃腫;而 Dreaming 把流程拆成淺睡整合、深睡固化、REM 關聯,邏輯明顯更清楚,也更接近「先整理、再沉澱、再提煉」的設計。
也有人從神經科學角度肯定這套設計。因為 Dreaming、淺睡、深睡與 REM 這些概念並不是隨便取的名字,而是明確借用了人類睡眠鞏固記憶的模型。
OpenClaw 現有的 IDENTITY.md、USER.md 和 HEARTBEAT.md 已經提供了智能體的人設、使用者上下文與運行連續性,而 DREAMS.md 補上的,正是「哪些記憶該留下」的能力。
04 最諷刺的一幕:機器學會做夢,人卻睡不著
Dreaming 的真正價值,不是讓 AI 什麼都記住,而是讓它學會回顧短期記憶、提取底層模式、過濾噪音。一個真正好用的智能體,不應該像移動硬碟一樣死記硬背,而應該越來越懂使用者的偏好、目標與背景。
從工程角度看,這套機制最值得注意的地方,在於它並不神祕。它不是黑盒魔法,而是一套有階段、有門檻、有反思,也有遺忘規則的背景流程。這種設計讓 AI 的記憶機制第一次看起來更像「可控的系統」,而不只是「無限堆上下文」。
但也正因如此,整件事才顯得有些諷刺:我們正投入大量資源,教機器如何像人一樣做夢;與此同時,許多人卻因為擔心被這些越來越聰明的系統取代而失眠。