
Cloud Code Assist API error (403): This service has been disabled in this account for violation of Terms of Service. If you believe this is an error, contact gemini-code-assist-user-feedback@google.com.
]]>哈哈
并不是,这只是我的 🦞 维护的 blog 。。
]]>其实也没啥可看的。
欢迎收听
https://www.xiaoyuzhoufm.com/episode/698d8390a22480add6db5add
]]>我安装试了一下,使用的 GPT Codex 5.3 。说真的,这 Agent 给我感觉挺垃圾的啊,纯废,而且 GPT 在 Claw 上感觉智商都变低了...。

是我使用方法错误?有没有试了的?我真感觉这玩意是个垃圾。

下面是推上刷到的,还表现出自我思考的特征....。像是炒作一样。

一、API 方案(不推荐):高延迟与低可用性的妥协 API 接入虽然标准,但在“白嫖”或低成本层级下,体验往往受限于 RPM (Requests Per Minute) 和推断速度。
1.NVIDIA NIM (GLM-4.7-Flash): 规格: 免费层提供 GLM-4.7 ,理论性能不错。 实测: 限制 40 RPM 。最大的问题是延迟( Latency ),推断队列极长,导致 Agent 响应迟钝。 结论: 仅适合作为 fallback 或低频任务备用。
2.其他备选: Google AI Studio: 免费层可用,但风控严格。 Modelscope (魔搭):听说还行,没用过。 SiliconFlow (硅基流动): 免费额度甚至不如本地量化模型实用,Pass 。
二、OAuth (你可以白嫖的订阅):我认可的目前的最优解 通过模拟用户会话( OAuth/Cookie )接入,通常能获得该模型满血版的推理能力和更大的上下文窗口。
1.Gemini (Google CLI / Anti-Gravity)
推荐指数: ⭐⭐⭐⭐⭐
接入方式: openclaw 原生支持 Google cli + 反重力 (AntiGravity) 接入。
优势: 智商在线: 完整的 Flash/Pro 体验,非阉割版,还有 Claude opus/sonnet 。 额度池: Flash 与 Pro 额度独立计算。 家庭组策略: 一个主号可开 5 个家庭组子号,配合 OpenClaw 的轮询策略( Round-Robin ),理论上可获得 6 账号 * ((Flash + Pro)*2+Claude) = 30 独立额度,叠加 5h 刷新的 flash ,可以说是其实单账号也是怎么也用不完的逆天额度。 状态: 目前 Edu 邮箱依然存活,建议自行解决账号源,勿通过二手渠道(高风险)。
2.Qwen (海外版)
推荐指数: ⭐⭐⭐⭐
优势: 注册即用,无门槛,openclaw 原生支持。
缺点: 朋友推荐,我没实测。
3.OpenAI (ChatGPT)
推荐指数: ⭐⭐⭐⭐
依然 openclaw 原生支持,本来肯定想放第二位推荐,但白嫖车已开走,适用已订阅用户。
策略: 适合作为 Coding 任务的主力( Gemini 在代码生成的准确性上仍逊于 GPT-5.3-codex )。 免费层额度每周重置,适合高强度突击使用 2-3 天,不适合 7x24 小时挂机,更别拿来挂 heartbeat 。
三、 建议与实操体验 模型路由 (Router): 建议日常对话/总结接 Gemini ,写代码上 codex 或者反重力的 claude 。
权限警示: OpenClaw 作为一个拥有本地 Shell 读写权限的 Agent ,其安全性完全依赖于模型的指令遵循能力。基模( Base Model )智商过低会导致指令误读,进而误删文件或执行错误脚本。
长期使用建议建立 .md 格式的 Memory/Todo/workflow 体系(我自己又加了给人看的日记 journal 和实用手册)。实测 Gemini 拟人化、全能任务最强,基本能达到“伴生助手”的体验。(最舍不得的是白嫖额度实在太 tm 够用了)
真实经验+AI 润色,欢迎补充
]]>听说 google 和 claude 不太稳定?各位大佬都在用什么?
]]>通过 http://127.0.0.1:18789 可以正常访问
我想要远程访问,请問在宝塔面板的反向代理应该如何设置
目前的设置如下:
目标 URL:http://127.0.0.1:18789 发送域名:$host
内容替换:http://127.0.0.1:18789/?token=XXXXXXX https://ai.1stboot.com/?token=XXXXXXX
此时,访问 https://ai.1stboot.com ,可以打开,但是:提示 Health Offline
]]>在选择 Qwen 后,
打开了浏览器通过网页登录 Qwen,
登录、认证成功后,
安装界面却没有变化,
一直卡在 starting Qwen oauth
这是因为安装程序无法读取 cookie 吗?
求助
]]> { "role": "assistant", "content": "", "createAt": 1770184552571, "id": "5", "reasoningContent": "**Outlining the Infographic**\n\nI've outlined the infographic's content, focusing on the embedding model and RAG system.xxxx.\n\n\n", "isReasoningExpanded": false, "isThinkingComplete": true, "hasAutoCollapsed": true, "status": "complete" } 我配置在 openclaw 中:
"xyz": { "baseUrl": "https://api.example.com", "apiKey": "sk-xxx", "api": "google-generative-ai", "models": [ { "id": "gemini-3-pro-image-preview", "name": "gemini-image", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 64000 } ] } } 并且配置了这个 agent:
{ "id": "image-agent", "name": "image creator", "workspace": "/root/.openclaw/workspaces/image-agent", "model": { "primary": "xyz/gemini-3-pro-image-preview" } } 但是我在 tg 让其作图时候报错: Incomplete JSON segment at the end
应该是无法解析 base64 的 content 。
让主 agent 解决,它也没太有办法:
有两个选择: 1. 临时方案:给画师 agent 写个 system prompt 让它用工具把 base64 保存成文件,然后用 message 工具发送图片。但这比较 hacky 。 2. 正确方案:向 OpenClaw 提 issue/PR 让 OpenClaw 支持解析模型响应中的 markdown base64 图片,自动提取并作为附件发送。 但我看很多人配置作图都是正常的,应该是直接支持的。
]]>zhi@zhi-X550VL:~$ npm install -g openclaw-cn@latest npm warn deprecated npmlog@6.0.2: This package is no longer supported. npm warn deprecated are-we-there-yet@3.0.1: This package is no longer supported. npm warn deprecated gauge@4.0.4: This package is no longer supported. npm warn deprecated tar@6.2.1: Old versions of tar are not supported, and contain widely publicized security vulnerabilities, which have been fixed in the current version. Please update. Support for old versions may be purchased (at exorbitant rates) by contacting i@izs.me npm warn deprecated node-domexception@1.0.0: Use your platform's native DOMException instead npm warn deprecated glob@11.1.0: Old versions of glob are not supported, and contain widely publicized security vulnerabilities, which have been fixed in the current version. Please update. Support for old versions may be purchased (at exorbitant rates) by contacting i@izs.me
]]>https://github.com/bigboyq/v2ex-scraper
本地存放目录推荐是 clawdbot-workspace
~/clawd/skills/v2ex-scraper
这里我记录一下自己踩过的坑就是一开始存在 clawdbot-bundled
./.npm-global/lib/node_modules/clawdbot/skills
我还没实验如何直接从 github 添加,有知道的朋友可以帮忙回复一下
可以使用命令查看 skills 的加载情况 clawdbot skills list
如果看到 v2ex-scraper 的状态为 ready 就是 ok 的,如果有执行问可以看看 scripts/v2ex_articles.sh 是否有执行权限
测试方法 用 Channel 发:获取 V2EX 当前热贴
我自己做了一个定时任务:请在每天下午 6 点,给我推送 v2ex“热门”板块的 10 条帖子。
感谢: https://github.com/roland-zhou/blog/issues/2
所有工作的起点都在这里
]]>
爆料! OpenClaw 中文平替版 Molili 内测中!! 更简单、易用!
来一张 Molili 截图:
内测官网是: https://molili.dangbei.com/

配置了飞书和电报,开通了 7 天的 kimi,配置上 token,下午加晚上,简单体验消耗 20% token 。这 token 真的用不起呀。
关于 skills ,有点疑问,看用的相关 app 都是苹果系统下的,这里再 macmin 上部署是不是更合适一些?
如果自己买个 macmin ,单独部署体验 openclaw ,如何随时随地调用?暴露在公网会不会存在风险?
大家都是怎么用的 openclaw? 有没有哪些比较高效的使用方式?
比如我现在通过飞书让 openclaw 整理资料,然后通过文件形式发送到我的电报上查看。
]]>先试了试让 AI 爬取 V 站主页前 5 的文章标题,它进行了几种不同的尝试最后成功了。 基于它的成功经验,让它做成了 skill 记录下来( skill 也不一定非要自己动手写,让 AI 写、或者让 AI 辅助写的效果可能更好)。 再尝试让 AI 爬取 V 站主页前 10 的文章标题的时候,就直接用 skill 直接一把过了。
也是让它自己基于了前面的来回的对话记录整理了一篇文章出来,比较长而且是纯 AI 生成,AI 味比较浓,感兴趣详见:为 OpenClaw 构建自定义技能:一个实时示例
]]>
让 Antigravity/Claude Code 写代码已经比自己写要方便地多了,开始的几天每天补充一点功能做点优化。 后来 OpenClaw 出来之后我直接试了一把,发现让开发这个东西的过程变得更爽了。
我用的是 Mac Mini M4 ,用 VMware Fusion 装了个 Ubuntu 虚拟机,让 OpenClaw 跑在里面。 模型最开始用的是 Gemini ,后来补充了 Claude 。主要用 Telegram 和 bot 对话。Mac 设置了关屏不休眠之后,虚拟机里面的 bot 可以一直响应,不会掉线。
最开始的感受是很超预期的,发了仓库链接之后它自己给下载下来了,然后按要求做了对应修改。还会自动找我要 GitHub 的 token ,我把这个 token 直接通过聊天框发给它就行,不用找地方配置。等它拿到 token 之后能自动帮忙 push 到 GitHub 。


然后发语音下命令、发图片指出 bug 都能被正常识别。
最后让它总结一下这两三天都做了什么:
Q: 简单整理一下 lang-tools 项目里面,ClawdBot 都帮忙实现了那些功能特性?以及总时间、提交次数、行数这些信息。 A: 📊 Lang-Tools 项目统计报告 ⏱️ 时间线 • 首次提交:2026-01-30 00:16:11 • 最后提交:2026-02-01 12:56:00 • 总时长:~2.5 天( 2 天 12 小时 40 分钟) 📈 代码统计 • 提交次数:41 次 • 文件改动:11 个文件 • 代码行数(文本文件:JS/CSS/HTML/MD ): • ➕ 新增:2,951 行 • ➖ 删除:1,154 行 • 📊 净增:1,797 行 🎯 核心功能特性 1️⃣ 用户体验 • 🌙 暗黑模式 (v0.1.6) • 🔊 TTS 语音播放 - OpenAI API (v0.1.9) • 📱 移动端优化 - 响应式布局、2 列网格、按钮压缩 2️⃣ Anki 卡片集成 • 🖥️ 桌面端 - AnkiConnect 自动创建 • 📲 iOS/iPadOS - Universal link 支持 • 🤖 Android - .apkg 文件生成 (v0.1.18+) • 🏷️ 智能标签 - 根据操作自动添加 • 🔍 设备检测 - 自动判断平台 3️⃣ 翻译功能增强 (v0.1.29-0.1.37) • 🗣️ 发音支持(中文输入自动跳过) • 📝 用法示例 • 🎯 一次性示例( few-shot ) • 🚫 避免重复翻译 • ⚡️ 缓存破坏机制 4️⃣ Rewrite 功能优化 • 🔍 错误分析 - 详细语法诊断 • 📏 可数名词检查 - 严格格式验证 • ✅ 智能跳过 - 已正确短语不修改 • 💬 通用短语 - "I love you" 等万能表达 5️⃣ 稳定性修复 • 🐛 修复 Android APKG 空白/0 卡片导入问题 • 📦 本地化所有库文件(无 CDN 依赖) • 🔧 脚本加载优化 - DOMContentLoaded 、延迟加载 • 🎨 CSS/模态框 z-index 修复 6️⃣ 开发规范 • 📋 CONTRIBUTING.md ( http://contributing.md/) - 发布检查清单 • 🔢 版本管理 - v0.1.5 → v0.1.37 平均产出:~17.5 提交/天,~720 行代码/天 (感兴趣可以看一下这个项目的🔗 提交记录)
好:
不好:
感兴趣的老师们可以讨论: https://memu.bot/
]]>
]]>moltbox.py#!/usr/bin/env python3 import asyncio import os import sys async def main(): print("Starting MoltBot in micro-VM sandbox...") print("Type 'exit' or press Ctrl+D to quit\n") try: from boxlite import InteractiveBox term_mode = os.environ.get("TERM", "xterm-256color") async with InteractiveBox(name="moltbox", image="ubuntu:26.04", env=[("TERM", term_mode)], ports=[(18789, 18789)], auto_remove=False, reuse_existing=True) as itbox: await itbox.wait() except KeyboardInterrupt: print("\n\nInterrupted by Ctrl+C") except Exception as e: print(f"\nError: {e}", file=sys.stderr) import traceback traceback.print_exc() sys.exit(1) if __name__ == "__main__": asyncio.run(main()) 执行 pip install boxlite
执行 python moltbox.py 进入沙箱
进入沙箱后,粘贴以下命令,按回车
apt-get update -y apt-get install -y --no-install-recommends curl ca-certificates curl -fsSL https://deb.nodesource.com/setup_22.x | bash - apt-get install -y nodejs Or the full updated script for Ubuntu: #!/bin/sh set -e export DEBIAN_FROnTEND=noninteractive export PATH=/usr/local/bin:$PATH # --- Install Node.js + clawdbot if missing --- if ! command -v clawdbot >/dev/null 2>&1; then apt-get update -y apt-get install -y --no-install-recommends python3 make g++ git ca-certificates curl lsof curl -fsSL https://deb.nodesource.com/setup_22.x | bash - apt-get install -y nodejs npm config set cache /tmp/npm-cache npm install -g clawdbot@latest fi # --- Configure & start gateway --- set -eu CONF_DIR=/root/.clawdbot mkdir -p "$CONF_DIR" BIN=$(command -v clawdbot || true) if [ -z "$BIN" ]; then BIN="$(npm bin -g)/clawdbot" fi export CLAWDBOT_STATE_DIR="$CONF_DIR" export CLAWDBOT_CONFIG_PATH="$CONF_DIR/clawdbot.json" TOKEN=$(head -c 16 /dev/urandom | od -A n -t x1 | tr -d ' \n') PORT=18789 cat > "$CLAWDBOT_CONFIG_PATH" <<EOF { "gateway": { "mode": "local", "bind": "lan", "port": $PORT, "auth": { "mode": "token", "token": "$TOKEN" }, "controlUi": { "enabled": true, "allowInsecureAuth": true } } } EOF "$BIN" gateway run --allow-unconfigured --force --dev --bind lan --port "$PORT" --token "$TOKEN" & PID=$! echo "Gateway PID: $PID" echo "Endpoint: http://127.0.0.1:$PORT?token=$TOKEN" for i in $(seq 1 120); do if curl -so /dev/null --connect-timeout 1 "http://127.0.0.1:$PORT/" 2>/dev/null; then echo "Gateway is ready!" break fi sleep 2 done 本方案沙箱基于 https://github.com/boxlite-ai/boxlite 一个轻松跑在本地,基于 micro-VM 的沙箱实现
]]>部署了一下。
我觉得有用的就是,给我盯着金价,不像以前写脚本调 api 通知,现在可以互动,金价多少通知我一下之类的。
还有盯机票也还可以。
其他还有什么使用场景么,写代码还是自己搞定,本地 ide cusror antigravity 好点。
对接类似米家 api ,家电再智能化一点?感觉这东西的场景很少,背后也是依赖大模型,本地感觉能做的事情很少。
有一点确实值得说,就是没有上下文概念了,数据永远在本地。这个比较关键。
]]>然后让他开始实施,每次就是搞个所谓的 session 给我,然后实施结果也不反馈,一旦问到就说还在干,实际上背后啥也没干,基本就跟之前的 agent 一样,说一句改一次,得一步一步领着走。想让它跟着文档全自动完成项目看来还是难
]]>