目录

OpenClaw 爆火,我体验了一下

最近,OpenClaw 非常火。各种“AI自动操作电脑”、“AI自己干活”的视频和文章刷屏,看得人热血沸腾。作为一个长期喜欢折腾的人,我也认真体验了一番。下面讲讲我的真实感受。

一、安装超丝滑

安装非常方便。我从 GitHub 找到项目主页,一行命令直接装好,然后按步骤选择配置即可。模型我用的是阿里的 Qwen 系列,前期白嫖了 100 万 token 的 qwen-plus。玩着玩着用完了,后来直接买了阿里的 coding plan 套餐,首月 7.9 元。

整体模型接入体验是顺畅的。

我还安装了:

  • 浏览器控制插件

  • 飞书插件

并成功跑通了飞书机器人链路。


二、Bug有点多

目前版本确实不稳定,我遇到的问题包括:

  • 经常提示连不上浏览器

  • 有时候启动不起来

  • 点击 update 没反应

  • 刷新页面后历史对话展示异常

不过没关系,本来就是不稳定版本,未来会好的。


三、第一句话

我对它说的第一句话是:

给自己起个名字,并设定一个人格。

它完成得很好,并自主自动把设定写进了 IDENTITY.md。值得一提的是,openclaw的配置里有AGENT.md、USER.md、IDENTITY.md、SOUL.md等文件,我没有阅读源码,但猜测应该是会作为提示词一起给到大模型的,它这样的分类还挺有巧思,也能够做到“记忆”这一点。

对于使用者来说,感受上它不是一次性对话工具,而是一个持续存在的 Agent。


四、开始干活

1.整理 Obsidian 笔记

我先备份了自己的 Obsidian 笔记(大家体验时候也注意哈,别玩意让它搞坏了),然后让它阅读并重新整理结构和内容。

完成度还不错,我东西放得挺乱的,它分出来了哪些是obsidian模板、哪些是账号信息、哪些是工作灵感等等,帮我规划得还挺好。


2.让它操作浏览器去问 ChatGPT

我让它:

打开浏览器,去 ChatGPT 问一个问题,然后把回答告诉我。

它成功切换到了 ChatGPT 页面,然后卡住了,没能成功把文字输入到输入框里。看它的回复说是连接浏览器一直超时,我后面又试了几次还是没跑通,但是有同事跑通了。有点搞笑的是它建议我手动去问一下问题,再把chatgpt的答案粘贴给他,反客为主了哈哈。


3.执行本地命令

我让它ping一下www.baidu.com并给个结论,看看执行本地命令行不行,结果是ok的。


4.获取企业微信聊天记录

我尝试了一个更难的任务:

获取企业微信某个聊天窗口的聊天记录。

没成功。

但日志里发生的事情很有意思:它成功定位到了聊天窗口,发现无法继续,于是决定尝试下载窗口控制工具,又尝试引入 OCR 工具。

它会自己“想办法”。我想这和作者给的基础提示词有关。

虽然最终失败,但我看到了一个 Agent 在主动探索路径。这种“自我尝试”的过程,是我体验中最有价值的部分。


五、OpenClaw 到底改变了什么?

很多人会觉得:“这不就是 MCP 能做的事情吗?”确实。Function Call、MCP、工作流、状态机循环,都能做到类似能力。

所以我个人的判断是:

OpenClaw 并没有拓宽 AI 的能力边界。

它做的事情,传统体系完全可以实现。但我认为它最大的价值有两个,一个是让模型自己决定怎么完成任务,另一个是是本地化标准化 + 开箱即用。

此外,还有个有意思的,但我没试,也是看的文章,就是openclaw有heartbeat机制,过一段时间可以主动执行,这就可以做到主动去干活,不需要人给出对话指令,比如发现有重要邮件后立即提醒你。


六、AI 使用模式的演进

回顾一下这两年的变化:

  1. 最初:简单对话

    在网页上问问题,它回答

  2. 后来:工作流

    让 AI 按规则一步步执行

  3. 再后来:状态机循环

    让 AI 持续理解与执行

  4. 然后:Function Call / MCP

让 AI 主动调用外部系统

现在:Skills

OpenClaw 的价值,在于把这些能力整合到一个统一框架里。

使用者:

  • 不需要写工作流

  • 不需要拼状态机

  • 不需要懂技术

可以快速实现直接用“人类语言”去驱动一个可执行的 Agent。我认为这是它火的核心原因。


七、Token 烧得飞快

各位体验时候一定要注意 token 消耗。我第一天玩了两三个小时,大概问了 10 个左右的问题,100 万 token 直接清零,然后收到了阿里的欠费短信(真的!虽然只欠了几毛钱)。

长上下文、自动探索、自动组合工具,token 消耗远超你的想象。如果打算长期玩,一定要提前算好成本。


八、我的结论

OpenClaw 目前问题有点多,但我们干测试的知道,这些都是很快能解决的问题,它代表的方向是对的。现在的大模型上下文可以超级长,以后把操作手册给AI,AI就可以自己在那边测试了,连执行都不用人了。不过可能目前还是人更便宜一些,AI来做点工的测试执行的话,又要解析网页、又要看请求、又要查库、也许还要视觉识别,目前还是比较慢的,token消耗也爆炸高,而且暂时也缺少方法论来支持我们信任AI的测试结果。


我说的有什么不对的,以及大家有什么比较好的使用方式,欢迎一起讨论~