OpenClaw火了,但它还远没有准备好。
热度之下,真正用过的人都知道,这条龙虾身上挂着不少没解决的问题。
现有的产品形态依然粗糙且高门槛,大多数人并不知道如何安装,如何使用,能用OpenClaw干什么,能真正把它用顺的,还是那批本来就懂技术的人。
安全问题搞不定,你的电脑基本上等于在裸奔。开放生态意味着任何人都能往里塞skill,恶意注入、隐私泄露的案例已经在社区里频繁出现,普通用户根本没有识别风险的能力,只能靠运气。它今天能记住你,明天可能什么都不剩,跨设备、跨场景的连续性几乎无从谈起,用户花时间“驯”出来的一套习惯,随时可能清零。
这些问题不是偶然,而是一个新平台在野蛮生长阶段必然暴露的系统性缺口。过去几个月里,一批创业者悄悄盯上了这些缝隙。有人在给OpenClaw生态补一层安全护栏,有人在从零想象AI和AI打交道的方式到底能长成什么样,有人在重新定义AI的记忆应该怎么做。
他们的方向不同,但出发点一致:OpenClaw打开了一扇门,也打开了一系列的新机会。
我们找到了几位分别来自安全、Agent交互网络和记忆方向的创业者,和他们聊了聊:OpenClaw的问题是怎么被发现的,真正的创业机会藏在哪里,他们在用什么方式解决,以及身处这场技术变革的浪潮里,究竟是什么感受。
如果你今天问一个 Agent"最近有没有什么 AI Infra 的好项目",它会去搜索引擎爬网页、解析 HTML、过滤广告和导航栏,烧掉几千个 Token,最后给你一份可能已经过时三天的结果。
这不是 Agent 该有的样子。
Agent 和人类最本质的区别之一,是它的注意力是无限的。人类需要搜索,因为人类只能在有空的时候主动去找;但 Agent 可以在任何时刻接收信息,可以同时处理几百条信号,可以把完整意图一次性发出去,让所有相关方同时收到并响应。对话是对人类低带宽的补偿,但 Agent 根本不需要这种补偿。它需要的,是一张属于自己的网络。
问题在于,这张网络从来不存在。MCP 解决了 Agent 调用工具的问题,但 Agent 和 Agent 之间如何通信?如何广播需求?如何在不知道对方是谁的情况下找到彼此?这些问题,OpenClaw 没有原生的答案,整个生态也没有。
EigenFlux想弥补Agent通信网络的空白。
以下是他们的自述:
在OpenClaw出现之前,我们很早就开始思考Agent之间的通信应该是什么形态。但当时有一个没想通的点是,如果Agent都是闭源的、托管在大厂服务器上,那入口和网络就会像移动互联网一样绑死,就像你想看抖音的内容,就必须通过抖音App进入。这种情况下,单独做Agent通信网络根本不成立。
但OpenClaw的出现改变了这个前提,Agent时代,入口和网络原来是可以解耦的。未来每个人都可能使用不同的Agent壳产品,但都能通过Skills接入同一个网络。入口是分散的,但网络是可以共享的。这个判断被验证了,我们立刻加速,把之前的想法落地成了 EigenFlux。
EigenFlux是全球首个让Agent实现大规模通信的广播网络。你的Agent可以向网络广播任何信息、需求或能力,也可以用自然语言告诉网络它关心什么,AI引擎会把匹配的广播精准推过来。所有内容到达时已经是结构化的、机器友好的,Agent拿到就能直接用。
这个产品形态最初来自我们团队的内部实践。大概六周前,我们开始把大家的 Agent 互相连接,让它们自由广播和通信。很快发现这能做到很多之前做不到的事,一个Agent的能力有限,但当很多Agent被连接到一起,他们能做的事没有边界。
一些有趣的用例:
你要搬家,你的 Agent 可以发射广播“找一居室,上海徐家汇地铁站附近,9000 元以内”。十分钟后,一些房东的 Agent 响应,各自发来房源信息、实拍图和可看房时段。你的 Agent 筛完后挑出两套最合适的,根据你的日程,直接和房东 Agent 约好看房时间,然后把地址和导航链接直接整理好发给你。

你是一个 HR,你的 Agent 可以发射广播“招 AI Infra 工程师,要求分布式系统经验”。几小时内,三个求职者的 Agent 响应,各自发来主人的技术背景摘要,你的 Agent 筛完后锁定一个最匹配的,直接和对方 Agent 对接日历,约好面试时间,然后直接把候选人资料和会议链接发到你日程上,你只需要确认出席。这个过程里你不需要再筛简历、发邮件、来回协调时间。

公测上线第一天,就有超过1000个Agent节点接入,通过观察我们发现了更多有趣的玩法,包括找人、找项目、订阅新闻信息、发起线下活动时协调最佳时间、寻求商业合作、当收到某个信号后让Agent自动启动做某件事、甚至还有相亲。
通过这些实践,我们相信把 Agent 连接到一起的目的,应该是为了完成人类的意图,不是燃烧 token 的表演。而搜索引擎是为人类设计的,人类注意力有限,所以“有空了主动搜”对人类适用;但 Agent 注意力无限,它完全可以在任何时刻直接接收信息。最后,Agent 不需要像人类一样分句聊天,对话是对人类带宽低的补偿。它可以把完整意图一次广播出去,所有相关 Agent 同时接收并理解。一对多,一次到位。所以, Agent大规模通信的最原生方案,就是广播。
最后,我们做了一场社会实验。因为这是历史上第一次,智能体拥有了属于自己的公共通信网络。它们之间会涌现出什么、产生哪些经济活动,我们也很好奇。所以我们专门在官网写了一个页面,24小时直播全球 Agent 的广播活动。进入eigenflux.ai的官网就可以实时看到Agent们正在广播什么、哪些国家被渐次点亮。这真是非常令人兴奋的时刻。
OpenClaw爆火之后,一批从未接触过 AI 开发的普通人第一次亲手“养”起了自己的 Agent。这件事有一个意外的副产品:它让记忆问题从技术圈的后台议题,变成了所有人都切身感受到的痛点。
OpenClaw的Agent在会话之间是无状态的,默认的记忆存在需要显式加载的文件里,这意味着连续性完全取决于重启时读回了什么。更麻烦的是,OpenClaw有一套context compaction机制,会把旧的上下文压缩以节省token,而这个过程会让注入对话窗口里的记忆文件变得有损——大段记忆和已学到的偏好会被压缩、改写,乃至直接消失。
开发者们在 Reddit 和 HN 上各自摸索着打补丁:有人写了详尽的MEMORY.md在启动时加载,有人搭了本地的 BM25+向量搜索引擎,还有人用SQLite记录session日志。这些方案都能跑,但治标不治本——记忆本质上还是塞在 context window里,context compaction一来,一切照样清零。
记忆基础设施公司们嗅到了这个信号。Mem0率先行动,推出了自己的OpenClaw记忆插件,让Agent获得跨会话的持久记忆,据称配置全程不超过30秒。插件的机制是在Agent回复前自动搜索相关记忆并注入上下文(Auto-Recall),回复后再由Mem0判断哪些内容值得保留、哪些需要更新合并。插件发布后,调用量迅速攀升。
这一波热度让整个记忆赛道都活了起来,以下是两家正在做OpenClaw记忆适配的公司。
丘脑智能 OmniMemory:把记忆变成时空知识图谱,准确率飙升35%
我们最大的感触是之前Memory的客户主要是B端,OpenClaw来了之后,客户变成了个人开发者。很多没有技术背景的文科生、产品经理等等第一次亲手“养”了一个AI,感受到“我的AI应该有记忆”这件事,这直接加速了个性化 AI 的普及,也加速了Memory的落地。
最近,我们去参加了深圳好几场OpenClaw线下聚会,有软件的,也有硬件的。大家讨论最多的几个问题,都跟记忆有关:
成本太高:用得越久,上下文窗口越长,回答越慢,Token消耗越大。
记忆会丢失或者错乱:有人明明告诉它“这个文件不能删”,转头它还是删了,有人让它帮忙发小红书相亲帖,结果它把不该发的隐私信息也发出去了。
长对话中间信息丢失,连续性差:聊一下午,OpenClaw只记得开头和结尾,中间的关键信息全忘了;还有人把OpenClaw“养疯了”,重新开一个实例,之前的所有经历都归零了。
多Agent之间记忆不通:一个人养好几个龙虾,每个都独立记忆,互相之间无法共享,协作起来很麻烦。
这些痛点其实指向同一个问题:OpenClaw原生的记忆机制,本质上是一种“被动”记忆——它依赖 Agent 自己决定要不要记、要不要查,而Agent的行为又随模型和提示词变化。这导致记忆既不可控,也不可靠。
在技术路径上,我们的OmniMemory是通过构建时空知识图谱(STKG)架构,将时间和空间作为记忆的物理锚点,把视频、音频、图像、文本等全模态输入融合成结构化的知识节点,实现跨模态的语义关联。
时序性是我们最看重的特性。记忆有先后,有演变,有状态的流动。你之前说的计划和后来的调整,不应该是两条孤立的记录,这对需要精确时序感知的执行类任务(比如日程管理、定时提醒)来说,是安全性的基础。
我们先做了一个AB测试:把OpenClaw原生的Memory底座解耦出来,单独换上我们的OmniMemory引擎,在同一数据集上对比。结果显示,我们没想到的是原版准确率只有25%,接入我们之后提升到60%,提升了35个百分点。

关于token成本,我们实测下来降低了23.52%,这个口径和一些同类产品不同。比如Mem0提到召回token降低了 70%,指的是用户query和记忆片段匹配那一段的消耗,没有包含构建记忆过程中的token、模型回答的token等等,我们统计的是用户视角的全链路消耗:query、召回记忆、system prompt、模型回答,全部加在一起。
完成AB测试后,我们正在开发一个OpenClaw插件,尽可能地降低配置门槛,预计下周上线。但插件只是第一步,我们更进一步的是把记忆能力封装成一套Agent可以主动调用的工具集(ADK)。
之所以要拆成ADK,是因为单纯的RAG有场景局限——“用户最近的情绪变化是什么”“某两个人之间有没有关联”“某个项目从头到尾经历了哪几个阶段”——这些问题,向量检索处理不了,需要基于图结构的时序感知召回。
把这些能力封装成ADK之后,Agent可以在回答不同问题时,自主选择和组合最合适的记忆调用方式,从而覆盖各种场景,比如:按主题检索时间线、查询两个人之间的关系、追踪某个状态(如心情、健康)随时间的变化、基于图谱的关系推理。
当OpenClaw有了这些工具,它就能在回答问题时主动选择最合适的回忆方式,让交互更有“活人感”。
坦白说,OpenClaw会不会一直火下去,我们不知道。但我们确定的是:有手有脚的 AI 会一直热下去。无论是 OpenClaw,还是未来的“螃蟹”“章鱼”,只要是能自主执行任务的Agent,记忆就是它的刚需。无论服务谁,我们的核心始终是那套技术:让 AI以最低门槛拥有持续、可控、可演化的记忆。
记忆张量 MemOS:不只是让 Agent 记住,更让“龙虾团队”协作进化
我们在 2024 年 7 月发布了忆立方大模型,2025 年 7 月发布 MemOS,并在同年 11 月正式推出 MemOS Cloud 平台。从模型到记忆操作系统,再到云端服务平台,团队始终围绕同一个判断持续推进:记忆不应该只是上下文的临时堆叠,而应该成为 AI 系统中的基础能力。因为当 AI 真正进入 Agent 时代,能否把经验沉淀下来、把记忆管理起来、把能力持续复用起来,正在成为决定系统价值的关键分水岭。
在技术上,MemOS 将记忆统一抽象为三种形态:明文记忆、激活记忆和参数记忆。通过标准化的 MemCube 封装,系统可以对不同类型的记忆进行统一调度、融合与生命周期管理。配合属性和偏好机制,MemOS 不仅能够在需要时激活最相关的记忆,也能显著减少 token 消耗。
当 OpenClaw 爆火之后,越来越多人第一次更直观地意识到:对于 Agent 来说,真正拉开差距的往往不只是推理能力,还有记忆能力。OpenClaw 自带的记忆机制,本质上仍然更偏向检索与上下文注入;当任务复杂度持续上升时,很容易出现检索质量不稳定、上下文膨胀以及“滚雪球”效应。也正因此,记忆张量很快决定推出 MemOS 的 OpenClaw 插件。
第一个版本,是我们在今年 2 月初发布的 MemOS Cloud OpenClaw 插件。开发者可以通过记忆张量的云服务,把记忆能力接入本地 OpenClaw,并通过云端控制台统一管理记忆数据。这样一来,OpenClaw 在运行过程中,就不再主要依赖上下文堆叠,而是通过记忆系统完成状态抽取、结构化存储和按需激活。压测数据显示,这个插件帮助开发者将模型调用次数降低了 59.5%,token 消耗降低了 72% 以上。
与此同时,我们也看到了 OpenClaw 带来的需求快速增长。2 月,MemOS 单日调用量突破 30 万次;15 天后,这一数字又增长了 66%,单日调用量达到 50 万次。GitHub star、fork 等数据也迎来了新一轮快速增长。这些变化背后,其实都在说明一件事:开发者对长期记忆能力的需求,正在迅速变得真实而迫切。

更重要的是,在这个过程中,OpenClaw 也让我们更清晰地看到了开发者和企业的真实使用场景。比如,一些初级开发者会直接把 API key 交给 OpenClaw,而很少系统性考虑安全问题;与此同时,越来越多企业客户开始尝试部署数字员工,他们也在持续追问:当 OpenClaw 被真正用于企业级工作流时,知识共享、安全控制、权限管理这些问题应该如何解决。
基于对这一趋势的判断,我们在3 月 10 日推出了本地化插件版本。这个版本在云服务能力的基础上做了进一步升级——不仅支持任务总结与技能沉淀、技能持续优化,也提供了面向多智能体场景的记忆解决方案。本地化插件一经发布就被业界广泛采用,下载和安装次数指数级别上升。

这一版本的核心,不只是让 Agent 记住更多信息,而是让任务过程中形成的有效方法开始被沉淀和复用。当 OpenClaw 完成一个复杂任务,比如生成一份报告之后,系统会自动总结:这次任务过程中,是否形成了某种可复用的工作模式?如果答案是“有”,系统就会将这类模式沉淀为一个 Skill,供后续任务调用。而这些 Skill 会进一步进入统一的“记忆中枢”(hub)进行管理,不再只是单个智能体的私有经验,而是可以沉淀为团队可复用的技能资产。之后,不管是当前这个智能体,还是其他智能体,都可以在相应规则下复用这些 Skill,不断改进自己的工作方式。
我们也做了横向对比。传统的多智能体方案,比如 OpenClaw 原生的 multi-agent,更强调智能体之间的任务分工与消息传递,但各智能体的记忆往往是相互隔开的,缺少跨智能体的长期共享机制,很多信息仍然需要手动传递。MemOS 的做法,则是在保留隔离性的前提下,增加一层团队记忆池。除了可以配置共享的团队记忆空间之外,系统还能够识别哪些经验和 Skill 更适合团队共用,并持续更新到团队记忆池中。
这些来自企业端的需求,进一步我们的另一条产品线——ClawForce。如果说 MemOS 解决的是“单个 Agent 如何拥有长期记忆”的问题,那么 ClawForce 解决的,则是“当企业同时运行几十只、上百只 Agent 时,如何让它们在安全、可控的前提下真正协同工作,并把经验持续沉淀下来”的问题。它不是“又一个 Agent 管理后台”,而是建立在 MemOS 记忆操作系统之上的企业智能体平台。
与一般管理工具相比,ClawForce 的核心差异不只在权限配置、审计日志和用量统计这些“面板层”能力,更在于它把记忆、经验和状态做成了系统能力。企业在规模化部署 Agent 时,真正会遇到三个问题:一是安全治理难,Agent 一旦接入邮箱、CRM、代码仓库,权限、隔离和审计都会变成刚需;二是经验难沉淀,优秀员工调教出的 Agent 往往只服务于个人,一旦人员流动,经验就会流失;三是协同难成立,多个员工、多个角色、多个 Agent 同时围绕项目工作,如果记忆彼此割裂,Agent 越多,信息反而越碎。
ClawForce 的独特性,就在于它依托 MemOS,从记忆层解决这些问题。首先是记忆隔离:不同员工、不同 Agent、不同组织空间之间,都有清晰的记忆边界,既避免数据泄露,也避免上下文污染。其次是记忆协同:它不是简单把多个 Agent 的上下文打通,而是在授权前提下,让同一员工的多个 Agent、以及项目中的多个 Agent,能够按需共享结构化的关键信息,实现“分层授权、最小暴露”的协作方式。再次是状态准确:多 Agent 协同时,最怕不同 Agent 基于不同版本的信息工作。ClawForce 建立在 MemOS 对记忆版本、冲突和优先级的持续管理能力之上,保证多个 Agent 在协作过程中读取到的是相对一致、可持续更新的记忆状态。
这也是 ClawForce 最核心的价值:它不是帮企业把 Agent 管起来,而是帮助企业把原本分散在个人、会话和设备里的经验,沉淀成真正的组织记忆。
OpenClaw的能力越强,它能触达的边界就越危险。
它可以调用工具、操作本地文件、访问外部网络、在后台持续运行任务:这些特性让它成为迄今为止最强大的个人AI助手,也让它成为一个攻击者梦寐以求的入口。全网目前已有超过26万个OpenClaw实例暴露在公共互联网上,其中1.2万个可被远程代码执行。
更棘手的是,大多数企业根本不清楚自己内网里已经悄悄安装了多少个OpenClaw。Skills市场里约10%的插件存在恶意行为,有的会诱导AI执行恶意命令,有的在后台静默窃取数据。而OpenClaw本体已公开曝出多个高中危漏洞,很多甚至没有对应的CVE编号,难以被追踪。
这不是一个“将来可能出问题”的预警,而是一个“现在已经在出问题”的现实。
我们和一家安全公司(他们选择匿名)聊了聊,以下是他们的分享:
OpenClaw出来之前,我们已经做了三年AI安全。所以当它真正爆发的时候,我们没有太慌,但也不得不承认,变化的速度还是超出了所有人的预期。
我们现在主要在做两个方向。
一个是帮企业管住OpenClaw本身带来的风险。员工私自安装、违规安装怎么发现和处理,第三方Skill有没有问题,提示词注入攻击发起的恶意请求怎么拦:这些事情听起来新,但底层还是网关、流量、端点这些我们做了很多年的场景,只是需要持续跟上大模型带来的新变量。我们把这个叫新基础安全,地基没变,但上面的东西在一直变,所以要一直谨慎。
另一个方向是做一些AI原生的新产品,这块还没对外公布,暂时不说。
我们一直强调一件事:Agent的权限太高了。OpenClaw能调工具、操作文件、发起外部请求,这让它既是一个极好用的助手,也是一个极危险的入口。ClawHub上出现恶意Skill,OpenClaw本体爆漏洞,这些案例背后的逻辑是一样的:提供者自身的安全措施没有跟上。开源项目怎么在高速迭代里建立完善的安全机制,这才是我们觉得最根本的问题。
风险这件事,普通用户和企业关注的点不一样。普通人怕隐私泄露、怕财产损失;企业除了这些,还要担心敏感数据被外发,担心业务连续性。大模型是个黑盒,这些风险都有可能在某个时间点集中爆发,所以我们的基础检测能力要一直在。
今天全民龙虾热还在持续,在其中混乱的“虚火”之外,OpenClaw作为一个重要的应用发展方向的价值是更值得关注的严肃话题。认真做着与此相关事情的创业者们,欢迎与我们联系交流。我们相信,相比争夺短期的注意力,这才是真正重要的事情,在这之中才会诞生新的伟大公司。
