OpenClaw 最近大火,我也用了一个多月,体验还不错。它能替代我在运维上很多不熟悉的、繁琐的工作。
# 我使用的模型
Claude 系列模型是真好用。别的模型可能思考了几个方案然后让我选一个,Claude 系列就会直接去做,查出了结果再来回复我。
为了省钱,我的配置是默认使用 Haiku,对话过程中明显犯蠢了,再在这个 session 里切 Sonnet。
我使用的订阅是 GitHub Copilot。OpenClaw 官方支持接入 GitHub Copilot 订阅(可能因为是按量计费的),GitHub Copilot 里面也接入了 Claude、ChatGPT、Gemini 等模型。而 Claude 订阅最近宣布不支持接入 OpenClaw 了,并且因为 Claude 官方封禁了国内用户,国内用 Claude 据说还比较折腾。
# 接入平台
我在接入平台选择了飞书。个人感觉飞书在各个办公软件一直是最开放的、体验也是最好的,支持网页端聊天,API 文档提供了在线调用的 playground。最近 OpenClaw 火了以后,飞书接入 OpenClaw 的插件是官方维护,支持流式输出、多任务并行、独立上下文,新版插件在安装的时候甚至会在命令行给一个二维码,扫了以后就可以一键申请 bot 并申请足够的权限,太省心了。现在甚至上线了 openclaw.feishu.cn (opens new window) 这个网站,字节会申请一个虚拟机来帮你运行 OpenClaw,感觉字节也是在蹭热度。
# 运行环境
虚拟机>备用机>主力机>自建 Docker>官方 Docker
OpenClaw 官方文档是推荐直接运行在开发机裸机上的,但是现在曝出了各种 OpenClaw 泄密以及删数据的新闻,我还是会担心数据安全,于是最开始是部署在 Docker 上。但 Docker 部署还是有一些问题。一是 Docker 部署的话,OpenClaw Gateway 不是靠 systemd 运行,所以没法使用官方的 openclaw gateway restart 命令来重启,得在外部用 Docker 命令重启。二是在 Docker 环境里,我尝试起一个无头浏览器,但是失败了。虽然这个问题理论上可以解,但是还是有一点折腾,而且可能有非常多的小 bug。
于是后来我在服务器上起了一个完整的 Linux 虚拟机,给虚拟机分配了 4G 的内存,然后跑 OpenClaw,并且配置了免密码 sudo。这个体验还不错,和原生的 Linux 跑 OpenClaw 体验一样,同时数据的隔离性也得到了保障。
当我需要使用 OpenClaw 操作我的服务器的时候,我会把它的 SSH 公钥写到我的服务器上,然后给它一段 prompt:
我给你临时开启了访问宿主机的权限:ssh user@192.168.0.100。你可以直接操作宿主机了,但操作的时候请告诉我操作了什么。请你在宿主机上 xxx
这样它就可以在我的服务上执行命令,体验下来,执行命令的效果和直接在本机运行命令是一样的。执行完以后我就会让它自己把它的公钥从服务器上删除。
现在请让你登录宿主机 ssh user@192.168.0.100,然后把你的公钥从宿主机的 authorized keys 里注释掉,并且验证确实连不上了
所以它只有在我授权的这段时间可以访问我的服务器。对其他电脑也是同理,我会让它通过 SSH 连到我的 Windows 电脑上,配置服务自启,以及 debug 异常重启问题。
# OpenClaw 做的事情
在 OpenClaw 之前,其实代码编辑和项目开发已经被各种编辑器,像 Cursor、Claude Code,还有 VS Code + GitHub Copilot 做的差不多了。而且这几个编辑器也有能力运行命令行,他们的体验其实是很不错的,能够自己改代码、验证语法、编译、运行测试。
而 OpenClaw 对于我,更多的是补全了运维的能力。我会让它:
- 排查为什么宿主机 ping 不通虚拟机。它会自动帮我使用各种网络层 CLI 工具查询日志并记录下来,再自行分析日志得出准确的结论
- 帮我通过 ADB 收集多种日志,帮我判断小米系统设置里的“充电上限到 80%”是如何设置的,是否有可能通过写一个 app 调用 API 来修改
上面这两个例子相当惊艳我,因为它调用了相当多的工具来收集各方面的日志,如果让我自己来做就非常费时间,所以我可能会抱着凑合着用的心态,一辈子都不会自己排查这个 bug。
除此以外还有:
- 帮我的 Windows 配置 NSSM 的环境(类似于 systemd)
- 帮我在 Linux 上实现一个 VMware 虚拟机自启的 systemd 服务。网上有一些文章说可以做到,但是我自己跑了几个没跑通,但是 OpenClaw 就很有耐心地帮我跑通了。它测试完命令可以使用
vmrun list来验证虚拟机确实自启了,因此 debug 的过程完全不需要我参与,它回复我的时候就给了我一个完全可用的脚本了。 - 排查 Caddy 为什么访问不了 Let's Encrypt 服务器
- 排查为什么 Docker 网络不稳定
- 为什么 SSH 不稳定
运维层面的命令种类多、日志种类太多内容太多,而 LLM 做这些事情非常高效。即使在没有 OpenClaw 的环境下,我有时候也会告诉 LLM,把我当作一个 agent,告诉我需要执行哪些命令收集日志,我把输出发给它,它来分析日志。在有 OpenClaw 的环境,把这些操作全部交给 OpenClaw,真的很省心。
除了运维工作,我还会让 OpenClaw 做少量的涉及到搜索的对话工作。相比 LLM,本地部署的 OpenClaw 可以进行足够的 web_search(而 LLM 的搜索要么局限于搜索自己的平台,要么偷工减料),还可以在本地编写一些脚本运行。可以在刷手机的时候,让它自己把某个好玩的 GitHub 项目 clone 下来自己分析项目,省的自己开电脑。
所以 OpenClaw 除了在运维上的优势以外,它还营造了一种更轻松、不严肃的氛围,我可以在飞书聊天上跟它聊天,让他执行命令、查结果,它也不会把中途思考的过程事无巨细地告诉我,只会把结论给到我。这就非常像是一个实习生或者助理。而对于我交付给它的着一些事情,我也不太关心它具体是怎么实现的,所以也不需要 review 它的代码、命令,了它相对于 IDE 对 review 不友好的缺点也就不那么重要了。
顺便一提,这也是我们公司封禁 OpenClaw 的原因:外网的用户可以通过飞书聊天来获取、修改内网数据,这有点类似于内网穿透了。
# 常用 prompt
/stop命令可以用于终止它当前正在做的任何事情/model /model github-copilot/claude-sonnet-4.6命令可以切换当前 Session 的模型我给你临时开启了访问宿主机的权限:ssh user@192.168.0.100。你可以直接操作宿主机了,但操作的时候请告诉我操作了什么。请你在宿主机上 xxx现在请让你登录宿主机 ssh user@192.168.0.100,然后把你的公钥从宿主机的 authorized keys 里注释掉,并且验证确实连不上了查下 sessions.json 里一共用了多少 tokens 了,合多少钱
# 如果要用 OpenClaw 做长项目
还有一点要注意的就是,如果要让它进行一些长的项目、需要跨天聊天的话,因为它的机制是每天 4 点会清空 session,所以会失去这个 session 的记忆。如果有这种要跨天的需求的话,需要手动让它把这些对话过程记到某个文件里面。