分享一个MemOS团队开源的OpenClaw 插件,马上让你的小龙虾tokens消耗量直接降低70%以上。
GitHub:https://github.com/MemTensor/MemOS
OpenClaw持续火爆,X上各种玩法不断,但是有一个极其现实的问题:烧tokens太快了 ,养一只小龙虾的成本太高了。
为什么OpenClaw烧tokens这么严重呢?
我看了一下它的原生框架,其中一大原因在于其记忆机制的设置。
OpenClaw 的记忆存储在本地 .md 文件中,分为全局记忆和每日记忆。这样设计看上去是没问题的,但随着记忆数据量的不断积累,就会造成各种问题:
全局记忆爆炸,各种过往记忆严重干扰现在的对话;
每日记忆难召唤,哪怕你要它回忆昨天的活动,也必须经历额外的记忆检索。
最重要的是,OpenClaw 的记忆系统依赖模型自己记录信息,而不是自动记录,这导致它经常遗漏细节。
可以说,OpenClaw 消耗着大量tokens维系着它的记忆系统。
而我最近刷到的这个MemOS 开源的这个插件,直接重构了 token 消耗模型。
将记忆从"prompt 负担"转为"系统状态层",记忆不进入上下文堆叠而是按需激活注入,状态与对话解耦,记忆与推理解耦。
从架构上阻断了 token 爆炸路径,解决了上述记忆的问题。
具体来说,主要做了以下几点:
• 自动记住所有对话 - 不依赖模型主动记录,确保不遗漏关键信息。
• 精确召回 - 根据当前任务意图检索相关记忆,避免无关的历史数据。
• 记住用户偏好 - 专门分类和存储偏好信息,跨会话保持有效。
这一套下来,你的OpenClaw 成本就变得可控了,记忆更干净可用了,系统运行也更稳定了。
MemOS官方通过LOCOMO实测模型调用次数降低了59.5%,token消耗降低超72%。
此外这个插件还有一个很惊艳的地方在于:支持将你的OpenClaw记忆,进行持久记忆化管理,你甚至可以在 MemOS 的后台查看和管理所有的历史记忆。
这样你完全就可以多个 OpenClaw 之间 记忆同步,共享记忆,协作管理了。
在解决了tokens消耗问题,以及记忆问题后,你现在完全可以组建自己的多Agent军团了!
Source: here
Quck comment:
sbkm_twitter
Quck tags:
__sbkm_twitter, -, link, image