使用 OpenClaw 一个月,让他自己写了一篇总结 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
zhy8777

使用 OpenClaw 一个月,让他自己写了一篇总结

  •  
  •   zhy8777 3 月 26 日 1090 次点击

    真人说明: 从 Openclaw 出圈,查不到正好使用一个月左右。年初智谱上市那会,正好买了个 Pro 套餐,本着钱都花了必须赚回来的想法,充分使用 Openclaw1 个月。今天让他自己基于记忆写了一篇复盘总结。供大家参考。

    后续会再初一篇真人撰写的使用感受(等我忙过这一阵。。。。),欢迎持续关注。 大家有什么问题可以留言提问

    顺便打广:GLM-5-turbo coding plan 拼团,国产之光,确实还是可以干活的。 蹲队友拼智谱 Coding Plan ! 国内顶流编程大模型,20+主流工具全适配,性价比拉满, 立即参与「拼好模」: https://www.bigmodel.cn/glm-coding?ic=BN7DKK4W0W

    以下内容为 Openclaw

    提示词:

    我要在 V2EX 上发一篇帖子,记录我使用 openclaw 这一个月的体验,你搜索你的记忆,你自从安装依赖所完成的任务情况遇到的困难,所使用个 token 量进行一个回顾和总结吧。


    标题: 一个程序员用 OpenClaw + GLM-5 跑了一个月 AI 军师的完整复盘

    正文

    用 OpenClaw + GLM-5 跑了个 24 小时在线的 AI 军师,一个月下来聊聊真实感受 先说背景:程序员,每天能投入 2 小时搞副业/创业。一直想搞个能真正"记住我"、能主动干活的 AI 助手,之前试过好几种方案都不满意: 直接调 API:每次对话从零开始,没有记忆,聊完就忘 ChatGPT GPTs:封闭生态,能力有限,定制性差 Coze/Dify:平台限制太多,部署不够灵活 自建 Agent 框架:开发成本太高,维护费劲 上个月发现了 OpenClaw ,折腾到现在刚好一个月,来做个阶段复盘。 我的部署方案 硬件很普通:一台腾讯云轻量服务器( 2C2G ),OpenClaw Gateway 常驻运行,接飞书 Bot 作为聊天入口,模型用的智谱 GLM-5-turbo ( 200K 上下文,128K 输出)。 说人话就是:我在飞书上有个叫"军师"的 AI 助手。它不是那种你问一句答一句的工具人它记得我之前聊过的所有事,有自己的记忆系统和人格,能搜网页、写代码、操作浏览器、管待办、读写飞书文档,而且每 30 分钟会自动"醒"一次帮我扫描赚钱机会。 不用的时候它就安静待着,有事直接飞书消息喊就行,和跟同事聊天没区别。 第一个月都干了什么 第一周:搭基建 给军师写了完整的人格设定文件( SOUL.md ),定义了它的身份、行为准则、沟通协议。搞了一套记忆系统,核心是三层结构: SOUL.md:最高准则,定义"我是谁" MEMORY.md:长期记忆,跨会话持久化 memory/YYYY-MM-DD.md:每日日志,记录当天事件 还配了待办任务管理,让军师能自己追踪任务进度。这周算是把"骨架"搭起来了。 第二周:装技能,接外脑 从 ClawHub ( OpenClaw 的技能市场)装了一堆技能包: 浏览器自动化:让它能操作网页、截图、填表 Tavily 搜索:接入后军师终于能实时上网查资料了 self-improving:自我进化机制,它能从错误中学习 飞书文档读写:直接操作飞书云文档 这周最大的变化是军师从"只能聊天的工具"变成了"能干活的助手"。 第三周:整理内务,优化效率 早期犯了个错:什么文档都往 workspace 里塞,各种草稿、调研报告、临时笔记全堆在一起。结果 system prompt 轻松吃掉 30K+ token ,每次对话都要加载一堆无关内容。 做了次大清理: 核心文档从 19 个精简到 6 个( SOUL/AGENTS/MEMORY/USER/HEARTBEAT/TOOLS ) 非核心文档全部归档到 archive/ 目录 消除文档间重复内容 清理完之后,system prompt 从 30K+ 降到 21K ,缓存命中率直接拉到 99%。这意味着大部分 token 都是缓存命中的,不用重复计费。 同时配了心跳机制(每 30 分钟触发一次),让军师定期自动扫描副业机会、检查待办任务、推送有价值的信息。 第四周:干实事 这周开始让军师做真正的项目: 中国入境游英文站用 Hexo + Butterfly 主题搭的博客站,目标是做 SEO 流量变现。30 篇选题库,已完成 11 篇。配了完整的自动化流水线:每天早 7 点自动从选题库取下一篇 → 写文章 → hexo 编译 → 部署到 nginx → 推送飞书通知。整个过程全自动,不用我操心。 跨境电商调研让军师帮我研究了一人公司做跨境的冷启动方案,从选平台、选品、物流到引流,30 天落地计划。还研究了小红书虚拟产品市场、潘家园摊位 ROI 分析等。 股票行情查询装了个 A 股实时行情技能,输入 6 位代码就能查股价、涨跌、市值。 nginx 自部署因为容器没 sudo 权限,nginx 装不了,最后手动编译到 workspace 下搞定。 中间还试了个赛博算命小程序,快速验证后觉得不靠谱,两天就砍了。框架代码保留着,没浪费太多。 踩过的坑

    1. 上下文膨胀(最头疼的) 军师不是文档库,核心文件越少越好。早期什么都往 workspace 里塞,token 飙得飞快。后来悟了:信息该归档归档,核心文件只保留当前有效信息。MEMORY.md 精简到 1KB ,历史全放 archive/。
    2. nginx 部署 容器环境禁止提权( no new privileges ),apt install nginx 没戏。最后手动编译 nginx 到 workspace 下。而且 gateway 重启后 nginx 不会自动启动,踩了两次才发现这个问题,每次重启都得手动拉起来。
    3. cron 定时任务 OpenClaw CLI 的 cron add 命令经常 WebSocket 报错,折腾了半天。最后直接编辑 cron/jobs.json 文件然后重启 gateway ,暴力解决。
    4. 子 agent 管理过度设计 早期配了 PM 、开发、架构师、QA 四个子 agent 角色,觉得挺酷。实际用下来发现完全用不上,沟通成本太高,一个军师全搞定更高效。全部清理归档。
    5. 网关重启的连锁反应 gateway 一重启,cron 任务状态、正在进行的操作都可能中断。后来养成了习惯:重启前先记录当前任务进度,重启后主动推送恢复通知。 Token 消耗和成本 说实话没花多少钱。几个关键数据: 模型:GLM-5-turbo ,200K 上下文 当前 system prompt:约 21K token 缓存命中率:99%( 21K 中 21K 是缓存) 每次对话实际新增 token:几百到几千 一个月下来,月度额度用了不到 2% 核心省钱技巧就是做好文档精简和缓存管理。OpenClaw 的缓存机制是 key-value 匹配,只要 system prompt 不频繁变动,绝大部分 token 都是缓存命中的,不重复计费。 200K 上下文也确实够用。跑复杂的长文档分析、多步骤任务规划都不会截断。 日常使用体验 几个真实的场景: 早上 7 点军师自动推一条信息汇总,包括昨晚扫描到的赚钱机会、待办提醒、行业动态。我醒了就能看到,不用主动去查。 工作日白天随时飞书消息问问题。比如"帮我查一下拼多多虚拟产品的利润率"、"给我出一个跨境电商的选品策略"。军会自动搜网页、整理数据、输出方案。 写代码时直接让它帮我写部署脚本、调试配置文件、操作 git 。比 Copilot 更灵活,因为它能直接在我的服务器上执行命令。 做内容时让军师帮我批量生成小红书笔记、公众号文章、英文博客。它能搜竞品、分析热门话题、按平台风格输出。 晚上有时候睡前想到个点子,随手发条消息。第二天早上军师已经把调研做完了,连方案都准备好了。 为什么选 OpenClaw + GLM 这个组合 OpenClaw 最对胃口的地方: 多通道原生支持飞书、Telegram 、Discord 、QQ 等随便接,我选飞书因为平时办公用得多 技能生态( ClawHub )搜索、浏览器自动化、TTS 等装上就能用,不用自己造轮子 心跳 + cron让 AI 真正能"7×24 在线",不是只在对话时才响应 文件系统做记忆简单粗暴但有效,markdown 文件比向量数据库好调试一万倍 模型随便换不绑定特定厂商,今天用 GLM 明天想换 Claude 随时换 自部署数据在自己服务器上,不用担心隐私 GLM-5-turbo 的优势: 便宜,单价比 GPT-4 便宜很多 200K 上下文够大,复杂任务不截断 中文能力强,毕竟是国产模型 128K 输出,长文生成没问题 一些使用建议 如果你也想搞一个类似的 AI 助手,几个经验: 先想清楚你要它干什么,别一上来就堆功能 记忆系统用文件就行,别上来就搞向量数据库 核心文档越少越好,定期清理 技能按需装,别贪多 心跳任务要设置合理的触发频率,太频繁浪费 token 给 AI 一个明确的人格和行为准则,比什么都重要 如果你也想试试 我现在用的是 GLM 的 token plan ,性价比很高。GLM-5-turbo 单价低,200K 上下文跑复杂任务完全够,配合 OpenClaw 的缓存机制,日常使用成本极低。 想体验的话可以走我的邀请链接注册,新人有 token 额度,够你跑一周完整的军师系统: [这里放你的邀请链接] 搭起来大概半小时,建议先跑通飞书 Bot ,再逐步加技能。有问题回帖聊,我持续更新这个项目的进展。
    apacheinsky
        1
    apacheinsky  
       3 月 26 日
    令人震撼的排版,你是竞品派来抹黑 GLM 的吗
    Lanayaaa
        2
    Lanayaaa  
       3 月 26 日
    要不你让它生成一个 html 吧。。
    zhy8777
        3
    zhy8777  
    OP
       3 月 26 日
    @apacheinsky 哈哈,飞书卡片格式,贴进来就没有 markdown 格式了
    zhy8777
        4
    zhy8777  
    OP
       3 月 26 日
    用 OpenClaw + GLM-5 跑了个 24 小时在线的 AI 军师,一个月下来聊聊真实感受
    先说背景:程序员,每天能投入 12 小时搞副业/创业。一直想搞个能真正"记住我"、能主动干活的 AI 助手,之前试过好几种方案都不满意:
    <ul>
    <li>直接调 API:每次对话从零开始,没有记忆,聊完就忘</li>
    <li>ChatGPT GPTs:封闭生态,能力有限,定制性差</li>
    <li>Coze/Dify:平台限制太多,部署不够灵活</li>
    <li>自建 Agent 框架:开发成本太高,维护费劲</li>
    </ul>
    上个月发现了 OpenClaw ,折腾到现在刚好一个月,来做个阶段复盘。
    <h2>我的部署方案</h2>
    硬件很普通:一台腾讯云轻量服务器( 2C2G ),OpenClaw Gateway 常驻运行,接飞书 Bot 作为聊天入口,模型用的智谱 GLM-5-turbo ( 200K 上下文,128K 输出)。
    说人话就是:我在飞书上有个叫"军师"的 AI 助手。它不是那种你问一句答一句的工具人它记得我之前聊过的所有事,有自己的记忆系统和人格,能搜网页、写代码、操作浏览器、管待办、读写飞书文档,而且每 30 分钟会自动"醒"一次帮我扫描赚钱机会。
    不用的时候它就安静待着,有事直接飞书消息喊就行,和跟同事聊天没区别。
    <h2>第一个月都干了什么</h2>
    <h3>第一周:搭基建</h3>
    给军师写了完整的人格设定文件( SOUL.md ),定义了它的身份、行为准则、沟通协议。搞了一套记忆系统,核心是三层结构:
    <ul>
    <li><strong>SOUL.md</strong>:最高准则,定义"我是谁"</li>
    <li><strong>MEMORY.md</strong>:长期记忆,跨会话持久化</li>
    <li><strong>memory/YYYY-MM-DD.md</strong>:每日日志,记录当天事件</li>
    </ul>
    还配了待办任务管理,让军师能自己追踪任务进度。这周算是把"骨架"搭起来了。
    <h3>第二周:装技能,接外脑</h3>
    从 ClawHub ( OpenClaw 的技能市场)装了一堆技能包:
    <ul>
    <li><strong>浏览器自动化</strong>:让它能操作网页、截图、填表</li>
    <li><strong>Tavily 搜索</strong>:接入后军师终于能实时上网查资料了</li>
    <li><strong>self-improving</strong>:自我进化机制,它能从错误中学习</li>
    <li><strong>飞书文档读写</strong>:直接操作飞书云文档</li>
    </ul>
    这周最大的变化是军师从"只能聊天的工具"变成了"能干活的助手"。
    <h3>第三周:整理内务,优化效率</h3>
    早期犯了个错:什么文档都往 workspace 里塞,各种草稿、调研报告、临时笔记全堆在一起。结果 system prompt 轻松吃掉 30K+ token ,每次对话都要加载一堆无关内容。
    做了次大清理:
    <ul>
    <li>核心文档从 19 个精简到 6 个( SOUL/AGENTS/MEMORY/USER/HEARTBEAT/TOOLS )</li>
    <li>非核心文档全部归档到 archive/ 目录</li>
    <li>消除文档间重复内容</li>
    </ul>
    清理完之后,system prompt 从 30K+ 降到 21K ,缓存命中率直接拉到 99%。这意味着大部分 token 都是缓存命中的,不用重复计费。
    同时配了心跳机制(每 30 分钟触发一次),让军师定期自动扫描副业机会、检查待办任务、推送有价值的信息。
    <h3>第四周:干实事</h3>
    这周开始让军师做真正的项目:
    <p><strong>中国入境游英文站</strong>用 Hexo + Butterfly 主题搭的博客站,目标是做 SEO 流量变现。30 篇选题库,已完成 11 篇。配了完整的自动化流水线:每天早 7 点自动从选题库取下一篇 → 写文章 → hexo 编译 → 部署到 nginx → 推送飞书通知。整个过程全自动,不用我操心。</p>
    <p><strong>跨境电商调研</strong>让军师帮我究了一人公司做跨境的冷启动方案,从选平台、选品、物流到引流,30 天落地计划。还研究了小红书虚拟产品市场、潘家园摊位 ROI 分析等。</p>
    <p><strong>股票行情查询</strong>装了个 A 股实时行情技能,输入 6 位代码就能查股价、涨跌、市值。</p>
    <p><strong>nginx 自部署</strong>因为容器没 sudo 权限,nginx 装不了,最后手动编译到 workspace 下搞定。</p>
    中间还试了个赛博算命小程序,快速验证后觉得不靠谱,两天就砍了。框架代码保留着,没浪费太多。
    <h2>踩过的坑</h2>
    <p><strong>1. 上下文膨胀(最头疼的)</strong></p>
    军师不是文档库,核心文件越少越好。早期什么都往 workspace 里塞,token 飙得飞快。后来悟了:信息该归档归档,核心文件只保留当前有效信息。MEMORY.md 精简到 1KB ,历史全放 archive/。
    <p><strong>2. nginx 部署</strong></p>
    容器环境禁止提权( no new privileges ),apt install nginx 没戏。最后手动编译 nginx 到 workspace 下。而且 gateway 重启后 nginx 不会自动启动,踩了两次才发现这个问题,每次重启都得手动拉起来。
    <p><strong>3. cron 定时任务</strong></p>
    OpenClaw CLI 的 cron add 命令经常 WebSocket 报错,折腾了半天。最后直接编辑 cron/jobs.json 文件然后重启 gateway ,暴力解决。
    <p><strong>4. 子 agent 管理过度设计</strong></p>
    早期配了 PM 、开发、架构师、QA 四个子 agent 角色,觉得挺酷。实际用下来发现完全用不上,沟通成本太高,一个军师全搞定更高效。全部清理归档。
    <p><strong>5. 网关重启的连锁反应</strong></p>
    gateway 一重启,cron 任务状态、正在进行的操作都可能中断。后来养成了习惯:重启前先记录当前任务进度,重启后主动推送恢复通知。
    <h2>Token 消耗和成本</h2>
    说实话没花多少钱。几个关键数据:
    <ul>
    <li>模型:GLM-5-turbo ,200K 上下文</li>
    <li>当前 system prompt:约 21K token</li>
    <li>缓存命中率:99%( 21K 中 21K 是缓存)</li>
    <li>每次对话实际新增 token:几百到几千</li>
    <li>一个月下来,月度额度用了不到 2%</li>
    </ul>
    核心省钱技巧就是做好文档精简和缓存管理。OpenClaw 的缓存机制是 key-value 匹配,只要 system prompt 不频繁变动,绝大部分 token 都是缓存命中的,不重复计费。
    200K 上下文也确实够用。跑复杂的长文档分析、多步骤任务规划都不会截断。
    <h2>日常使用体验</h2>
    几个真实的场景:
    <p><strong>早上 7 点</strong>军师自动推一条信息汇总,包括昨晚扫描到的赚钱机会、待办提醒、行业动态。我醒了就能看到,不用主动去查。</p>
    <p><strong>工作日白天</strong>随时飞书消息问问题。比如"帮我查一下拼多多虚拟产品的利润率"、"给我出一个跨境电商的选品策略"。军师会自动搜网页、整理数据、输出方案。</p>
    <p><strong>写代码时</strong>直接让它帮我写部署脚本、调试配置文件、操作 git 。比 Copilot 更灵活,因为它能直接在我的服务器上执行命令。</p>
    <p><strong>做内容时</strong>让军师帮我批量生成小红书笔记、公众号文章、英文博客。它能搜竞品、分析热门话题、按平台风格输出。</p>
    <p><strong>晚上</strong>有时候睡前想到个点子,随手发条消息。第二天早上军师已经把调研做完了,连方案都准备好了。</p>
    <h2>为什么选 OpenClaw + GLM 这个组合</h2>
    OpenClaw 最对胃口的地方:
    <ol>
    <li><strong>多通道原生支持</strong>飞书、Telegram 、Discord 、QQ 等随便接,我选飞书因为平时办公用得多</li>
    <li><strong>技能生态( ClawHub )</strong>搜索、浏览器自动化、TTS 等装上就能用,不用自己造轮子</li>
    <li><strong>心跳 + cron</strong>让 AI 真正能"7×24 在线",不是只在对话时才响应</li>
    <li><strong>文件系统做记忆</strong>简单粗暴但有效,markdown 文件比向量数据库好调试一万倍</li>
    <li><strong>模型随便换</strong>不绑定特定厂商,今天用 GLM 明天想换 Claude 随时换</li>
    <li><strong>自部署</strong>数据在自己服务器上,不用担心隐私</li>
    </ol>
    GLM-5-turbo 的优势:
    <ul>
    <li>便宜,单价比 GPT-4 便宜很多</li>
    <li>200K 上下文够大,复杂任务不截断</li>
    <li>中文能力强,毕竟是国产模型</li>
    <li>128K 输出,长文生成没问题</li>
    </ul>
    <h2>一些使用建议</h2>
    如果你也想搞一个类似的 AI 助手,几个经验:
    <ol>
    <li>先想清楚你要它干什么,别一上来就堆功能</li>
    <li>记忆系统用文件就行,别上来就搞向量数据库</li>
    <li>核心文档越少越好,定期清理</li>
    <li>技能按需装,别贪多</li>
    <li>心跳任务要设置合理的触发频率,太频繁浪费 token</li>
    <li>给 AI 一个明确的人格和行为准则,比什么都重要</li>
    </ol>
    zhy8777
        5
    zhy8777  
    OP
       3 月 26 日
    @Lanayaaa 算了。。。我重新发一个吧。。。。我自己也受不了了
    原贴怎么删除?
    bearbest
        6
    bearbest  
    PRO
       3 月 26 日
    @apacheinsky 刚好可以试试这个帖子格式化的油猴脚本 t/1190449
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2475 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 33ms UTC 01:09 PVG 09:09 LAX 18:09 JFK 21:09
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86