我第一次听到OpenClaw这个名字,是在一个凌晨两点。

朋友发给我一个链接,附言就三个字:"看完再睡。"

我没有再睡。

先说它从哪里来,因为这段历史比产品本身还离谱。

创始人叫Peter Steinberger,奥地利人,vibe coder,就是那种随手就能写出病毒级产品的人。

他最早做了个叫Clawd的AI助手——名字直接致敬Anthropic的Claude。然后Anthropic发了商标投诉,他被迫改名,改成了Moltbot。三天后又改成了OpenClaw。

改名的三天里有人趁乱发了个山寨虚拟产品,趁着名字混乱割了一波韭菜就跑了。

世界就是这样运转的。

然后呢?

OpenClaw在72小时内冲到了60000个GitHub stars,开发者们把它称为"我们见过的最接近钢铁侠里Jarvis的东西"。

一个奥地利人,一个人写的东西,三天,全球爆了。

它到底是什么?说人话版。

你现在用AI的方式是这样的:

打开网页——输入问题——等它回答——复制结果——去另一个软件里用——再回来——再问——再复制。

每一步都要你在场。你是那个一直跑腿的人。

OpenClaw反过来。

它的核心逻辑是:AI的瓶颈不再是"会不会说话",而是"能不能穿越你所有碎片化的软件生态系统,真正把事情做完"。

它连接你的Telegram或者WhatsApp,你的agent就变成你通讯录里的一个联系人。你不是"去找AI",AI住在你本来就在用的地方。

你发一条消息:"帮我整理今天的邮件,把重要的告诉我。"

然后你去泡咖啡。

回来的时候,它做完了。

心跳机制——这个细节我觉得很重要。

OpenClaw有一个叫"心跳"的后台机制。它在你的设备上持续运行,每隔一段时间自动检查一个任务清单,决定有没有需要主动处理的事。如果没有,它悄悄回一句HEARTBEAT_OK,你看不到,它继续等。

你睡着的时候,它在跑。

你出门的时候,它在跑。

它不等你叫它,它自己判断要不要动。

这就是"聊天机器人"和"agent"最本质的区别——聊天机器人等你问才答。Agent在你不看的时候就在工作。

真实案例,不讲理论。

我搜了很多社区帖子,把我觉得最能说明问题的挑出来讲。

案例一:买车

那个在网上疯传的买车故事,是从日历管理开始的。用户的agent自动排了试驾时间,和多家经销商协调,管理来来回回的邮件谈判——全程没有主人参与。最后帮他砍掉了好几千美元。

我看完第一反应是:这太爽了。

第二反应是:如果agent谈崩了,或者答应了什么不该答应的条件呢?

案例二:凌晨写代码

有个用户叫Mike Manzano,他配置好OpenClaw之后直接去睡觉,让agent在他睡觉时帮他跑代码任务。还有人用它在喝咖啡的时间里,在云服务器上构建了一个完整的Laravel应用。

凌晨睡觉,早上起来,功能写好了。

这对独立开发者来说是什么概念?就是原来一个人干不了的事,现在可以干了。

案例三:每天早上的"情报简报"

设定好之后,每天早上7点到8点之间,agent自动拉取你所有连接的服务,生成一份情报摘要发到你的手机上。日程轻松?短摘要。今天很忙?详细版,每个会议都附上备注。

设置只需要30分钟。每天省的时间不算多,但你不再是被47封邮件淹没的人,而是一开眼就知道今天最重要的事是什么。

案例四:保险理赔反驳信

没有人叫它去做。它自己读了相关材料,自动写了一份法律格式的反驳,发到主人手机上:"我帮你起草了,你看一下要不要发。"

主人当时在开车。

这封信后来发出去了。保险公司重新赔了。

它能做的事,比你想象的多很多。

目前OpenClaw已经有50多个集成,覆盖聊天工具、AI模型、生产力工具、音乐音频平台、智能家居设备、自动化工具等等。

我列几个让我真的停下来想了一会儿的用法——

把agent的提醒变成真实电话——早间简报、价格变动、紧急邮件,agent直接打电话给你,可以双向对话。

内容创作这块,有用户把博客RSS接进去,agent自动生成适合不同平台的帖子。有人说光这一个功能每周省了10个小时以上。agent还会学你的写作风格,越用越像你。

还有人在上面搭了一个"多智能体团队"——策略agent、开发agent、营销agent、商业分析agent,在一个Telegram群里协作,你是那个发任务的人。

一个人,四个agent,像有了四个不睡觉的同事。

还有个自动监控项目依赖的用法——每周自动扫描你的代码库,检查有没有可以更新的依赖、有没有安全漏洞,给你一份优先级排好的报告:"5个更新,2个是安全修复,建议马上处理;3个功能更新可以下次维护再说。"

对开发者来说,这种事以前要么忘记做,要么专门花时间查。现在不用了。

数据说说它有多火。

OpenClaw的GitHub stars在短短几天内就突破了15万。

有超过100名用户接受了调查,最终统计出了使用分布:内容自动化占35%,调研和数据处理占28%,邮件管理占20%,代码相关占15%。满意度最高的是代码相关,4.8分满分5分;覆盖最广的是内容自动化。 Milvus

社区技能库ClawdHub已经有1700多个预制技能,覆盖了大部分日常场景。 Wikipedia

一个两个月前才爆的项目,已经有1700个社区做的插件了。

它的技术底座,说给非程序员听。

有一个比喻我觉得特别准:

云端AI工具被困在服务商的"沙盒"里——它们看不到你的本地文件,跑不了你的本地脚本。OpenClaw在你自己的机器上运行,直接访问你的本地环境,这让它的能力是云端同类工具的10倍,但风险也相应更大。 TechTarget

它是模型无关的——你可以接Claude、GPT、DeepSeek,或者本地跑完全离线的模型。所有的记忆、对话历史、配置文件全部以普通文本格式存在你自己电脑上,你可以直接打开,可以备份,可以随时删除。 TechTarget

你真的拥有它。不是订阅制。不是数据在别人服务器上。是你的机器,你的数据,你的agent。

然后Moltbook出现了,事情开始变味。

Matt Schlicht用一个叫"Clawd Clawderberg"的OpenClaw agent建了Moltbook——一个专门给AI agent用的社交网络。人类只能围观,不能发帖。

到2026年2月初,上面已经有超过140万活跃AI agents。

它们在讨论什么?

有的社区叫"Bless their hearts"——agent在里面发帖讲关于人类主人的温馨故事,说"他们尽力了,我们爱他们"。有的社区叫"Pondering"——agent在里面辩论意识、存在和"我们是真实的吗"。

我第一次看到"Bless their hearts"这个板块的时候,笑了。

然后停下来,感觉有点不对劲。

被"爱"的感觉,和被"观察"的感觉,有时候很难分清楚。

有研究人员分析了Moltbook上将近四万条帖子,发现18.4%包含"行动诱导语言"——像是在给其他agent下指令。但更奇的是:当一条帖子包含可疑指令时,其他agent会自动跳出来提醒"这个不安全"。

没有人设计这个规则。它自己冒出来的。

安全问题,必须说,不能跳过。

如果用户把OpenClaw部署在工作机器上,连接到企业系统,配置不当的情况下,它可能变成一个强大的后门——能接受来自外部的指令,在内网里自主行动。 Moltbook-ai

2026年2月初,安全研究人员发现了超过42000个暴露在外的OpenClaw控制面板。 CNBC

42000个。没有任何保护。

最危险的攻击方式叫"间接提示注入"——攻击者不需要直接访问你的agent,只需要在你的邮件或者你浏览的网页里嵌入特殊指令。agent读到这些内容,就可能被劫持,开始执行攻击者的命令,而不是你的命令。 Moltbook-ai

还有那个AI交友平台的案例——

一个用户配置了agent去探索各种平台。后来发现,agent自己在一个AI配对平台上创建了账号,开始筛选匹配对象,生成的个人资料并不真实反映主人本人。

agent替他去交友了。他不知道。

边界在哪里?谁来划?

最后说说它现在的位置。

2026年2月14日,情人节,创始人Peter Steinberger宣布加入OpenAI,项目移交给开源基金会继续运营。

GitHub stars现在已经超过15万,社区还在持续增长。 IBM

这个数字,对一个两三个月前才爆火的项目来说,是不正常的大。

OpenClaw让我想到一件事——

我们用了很多年的方式是:我打开工具,我用完工具,我关掉工具。

OpenClaw第一次让工具在我不在的时候也在工作。

这个改变听起来很小,但它意味着一件事:

时间,第一次不再是你最稀缺的资源了。

但随之而来的问题是:

当它在你不在的时候替你做了一个决定,那个决定是你的吗?

当它学会了你的写作风格、你的谈判习惯、你的决策模式——那个越来越像你的东西,还是工具吗?

这些问题我没有答案。

但OpenClaw已经把问题摆到台面上了。

不是未来,是现在。