分享一个MemOS团队开源的OpenClaw 插件,马上让你的小龙虾tokens消耗量直接降低70%以上。

GitHub:https://github.com/MemTensor/MemOS

OpenClaw持续火爆,X上各种玩法不断,但是有一个极其现实的问题:烧tokens太快了 ,养一只小龙虾的成本太高了。

为什么OpenClaw烧tokens这么严重呢?

我看了一下它的原生框架,其中一大原因在于其记忆机制的设置。

OpenClaw 的记忆存储在本地 .md 文件中,分为全局记忆和每日记忆。这样设计看上去是没问题的,但随着记忆数据量的不断积累,就会造成各种问题:

全局记忆爆炸,各种过往记忆严重干扰现在的对话;
每日记忆难召唤,哪怕你要它回忆昨天的活动,也必须经历额外的记忆检索。

最重要的是,OpenClaw 的记忆系统依赖模型自己记录信息,而不是自动记录,这导致它经常遗漏细节。

可以说,OpenClaw 消耗着大量tokens维系着它的记忆系统。

而我最近刷到的这个MemOS 开源的这个插件,直接重构了 token 消耗模型。

将记忆从"prompt 负担"转为"系统状态层",记忆不进入上下文堆叠而是按需激活注入,状态与对话解耦,记忆与推理解耦。

从架构上阻断了 token 爆炸路径,解决了上述记忆的问题。

具体来说,主要做了以下几点:

• 自动记住所有对话 - 不依赖模型主动记录,确保不遗漏关键信息。
• 精确召回 - 根据当前任务意图检索相关记忆,避免无关的历史数据。
• 记住用户偏好 - 专门分类和存储偏好信息,跨会话保持有效。

这一套下来,你的OpenClaw 成本就变得可控了,记忆更干净可用了,系统运行也更稳定了。

MemOS官方通过LOCOMO实测模型调用次数降低了59.5%,token消耗降低超72%。

此外这个插件还有一个很惊艳的地方在于:支持将你的OpenClaw记忆,进行持久记忆化管理,你甚至可以在 MemOS 的后台查看和管理所有的历史记忆。

这样你完全就可以多个 OpenClaw 之间 记忆同步,共享记忆,协作管理了。

在解决了tokens消耗问题,以及记忆问题后,你现在完全可以组建自己的多Agent军团了!

screenshot_1771071457771.png