
今天刷 Twitter 的时候,发现时间线被一个叫 ClawdBot 的东西刷屏了。
点进去一看,是个开源的 AI 助手框架。能干的事情挺多:通过 Telegram/WhatsApp 远程控制电脑、自动处理邮件、定时跑任务、甚至能帮你和 4S 店砍价(有个老外说靠它省了 4200 美元,虽然我觉得有点玄学)。
手上正好有台吃灰的 VPS ,干嘛不试试?
结果这一试,踩了一晚上的坑。官方文档写得比较散,很多细节要自己摸索。顺手把过程记下来,给想折腾的朋友省点时间。

简单说,ClawdBot 是一个本地运行的 AI 助手网关。
它的核心是一个 Gateway 进程,负责:
你可以把它理解成一个7x24 小时在线的 AI 员工。它有记忆(知道你之前聊过什么),有手脚(能操作你的电脑),还会主动干活(定时任务、邮件监控)。
根据 Mashable 的报道,这东西火到 Mac mini 都卖断货了——很多人专门买一台小主机放家里,就为了跑这个。
不过我觉得没必要这么激进。一台便宜的云服务器就够了,一个月几十块钱,玩坏了也不心疼。
搭完之后我自己用了一下,体验确实不错:
htop 或者看 Docker 容器,截图发过来网上还有人玩得更花:
邮件自动化:每 15 分钟检查一次收件箱,垃圾邮件自动归档,重要邮件立刻推送摘要到手机,还能用你的口吻起草回复。
笔记整理:连接 Obsidian ,自动更新每日笔记,从会议记录里提取待办事项,生成每周回顾。
睡觉时写代码:睡前把一个 Bug 丢给它,它会持续调试、提交、测试,早上起来 PR 就准备好了。
智能家居控制:有人在沙发上看电视,用手机让它帮忙调灯光、查天气、设闹钟。
当然,这些高级玩法需要配置额外的 Skills 和集成。本文先讲基础安装,能聊天、能执行命令就算成功。



你需要:
| 项目 | 说明 |
|---|---|
| 一台服务器 | 云服务器(我用的 Ubuntu 24.04 )、Mac mini 、旧电脑、树莓派都行,最好是国外的,不然网络环境都有的折腾了! |
| Telegram 账号 | 用来创建 Bot |
| Claude/GPT API | 官方的或者中转站都行,后面会细说 |
云服务器(推荐新手)
优点:便宜(最低几十块/月)、玩坏了不心疼、7x24 在线 缺点:需要一点 Linux 基础
Mac mini
优点:性能好、功耗低、能跑 macOS 专属功能( iMessage 等) 缺点:贵( 4000+ 起步)、权限太高有安全风险
我的建议:
新手先用 VPS 试水。等熟悉了再考虑要不要买专门的设备。如果真要用 Mac mini ,别用日常工作的那台——万一配置出问题,或者 Key 泄露了,后果可能很严重。
ClawdBot 支持多种安装方式,我按推荐程度排序:
官方提供的快速安装命令,会自动处理依赖和权限问题:
# Linux / macOS curl -fsSL https://get.clawd.bot | bash # 安装完成后运行引导向导 clawdbot onboard --install-daemon 这个脚本会自动检测系统、安装 Node.js 22+、处理 npm 权限、全局安装 clawdbot 。
如果你已经有 Node.js 22+:
npm install -g clawdbot@latest 下面用手动方式演示。虽然一键脚本更方便,但手动装能让你更清楚每一步在干嘛,出问题也好排查。
ClawdBot 要求 Node.js 22 以上。Ubuntu 自带的版本太老,得手动装。
# 添加 NodeSource 仓库 curl -fsSL https://deb.nodesource.com/setup_22.x | bash - # 安装 apt-get install -y nodejs # 验证 node -v # 输出 v22.x.x 就对了 
踩坑 1:别直接
apt install nodejs,那样装的是老版本(通常 v12 或 v18 ),后面会报各种兼容性错误。
npm install -g clawdbot@latest 装完验证:
clawdbot --version 
踩坑 2:如果报
EACCES权限错误,说明 npm 全局目录权限有问题。解决方法:mkdir -p ~/.npm-global npm config set prefix '~/.npm-global' echo 'export PATH=~/.npm-global/bin:$PATH' >> ~/.bashrc source ~/.bashrc
打开 Telegram ,搜索 @BotFather,发送 /newbot。这里好像必须新建!
按提示设置:
bot 结尾,比如 my_clawd_bot)最后会给你一串 Token:
1234567890:ABCdefGHIjklMNOpqrSTUvwxYZ1234567890 存好这个 Token,后面要用。

这一步最容易踩坑。
用官方 API
sk-ant- 开头)用中转站 API
如果用中转站,注意三点:
踩坑 3:这里我是直接用的 CLI Proxy API 这个开源项目中转的 API,选的 gemini-3-flash 模型,感觉非常舒畅!
创建配置目录:
mkdir -p ~/.clawdbot nano ~/.clawdbot/clawdbot.json 根据你的 API 类型选配置模板:
{ "gateway": { "mode": "local", "bind": "loopback", "port": 18789 }, "env": { "ANTHROPIC_API_KEY": "sk-ant-你的密钥" }, "agents": { "defaults": { "model": { "primary": "anthropic/claude-sonnet-4-5-20261022" } } }, "channels": { "telegram": { "enabled": true, "botToken": "你的 Bot Token", "dmPolicy": "pairing" } } } { "gateway": { "mode": "local", "bind": "loopback", "port": 18789 }, "agents": { "defaults": { "model": { "primary": "gemini/gemini-3-flash" }, "elevatedDefault": "full" , "workspace": "/wangwang", "compaction": { "mode": "safeguard" }, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } }, "models": { "mode": "merge", "providers": { "gemini": { "baseUrl": "https://你的中转站 API/v1", "apiKey": "test", "api": "openai-completions", "models": [ { "id": "gemini-3-flash", "name": "gemini-3-flash" } ] } } }, "channels": { "telegram": { "botToken": "你的 TG Token" } }, "plugins": { "entries": { "telegram": { "enabled": true } } } } 踩坑 4:
api字段必须填openai-completions。我一开始填的openai-chat,死活启动不了。
踩坑 5:
models数组不能省,不然报错说缺少必填项。注意 agents 中也有配置模型名,别忘了改!
clawdbot gateway --verbose 看到这两行就成功了:
[gateway] listening on ws://127.0.0.1:18789 [telegram] [default] starting provider (@你的 Bot 名字) 
第一次给 Bot 发消息,它会回复配对码:
Pairing code: X9MKTQ2P Your Telegram user id: 123456789 在服务器上执行:
clawdbot pairing approve telegram X9MKTQ2P 配对完成后,只有你的账号能和 Bot 对话,别人发消息它不会理。
记下你的 Telegram User ID,后面设置权限白名单要用。
后续有啥需求就直接 tg 对话,让 AI 自行配置就行了!比如我让它帮我集成了 exa 的搜索功能!

用 nohup 跑的话,SSH 一断就挂了。上 systemd:
cat > /etc/systemd/system/clawdbot.service << 'EOF' [Unit] Description=ClawdBot Gateway After=network.target [Service] Type=simple User=root ExecStart=/usr/bin/clawdbot gateway --verbose Restart=always RestartSec=5 EnvirOnment=HOME=/root [Install] WantedBy=multi-user.target EOF systemctl daemon-reload systemctl enable clawdbot systemctl start clawdbot 这样就完事了。开机自动启动,挂了 5 秒后自动重启。
几个常用命令:
# 看运行状态 systemctl status clawdbot # 看实时日志 journalctl -u clawdbot -f # 重启 systemctl restart clawdbot # 健康检查 clawdbot doctor # 全面状态 clawdbot status --all 如果想让某些命令自动执行,不用每次批准:
# 允许 docker 命令 clawdbot approvals allowlist add --agent "*" "docker *" # 允许 systemctl clawdbot approvals allowlist add --agent "*" "systemctl *" # 允许 /usr/bin 下的程序 clawdbot approvals allowlist add --agent "*" "/usr/bin/*" # 查看当前白名单 clawdbot approvals allowlist list ClawdBot 内置 Cron 功能。比如每天早上 7 点发送服务器状态:
clawdbot cron add --schedule "0 7 * * *" \ --timezone "Asia/Shanghai" \ --message "检查服务器状态,给我发个简报" \ --deliver telegram \ --to "你的 TG 用户 ID" 或者写进配置文件:
{ "cron": { "jobs": [ { "id": "daily-report", "schedule": { "cron": "0 7 * * *", "timezone": "Asia/Shanghai" }, "sessionTarget": "isolated", "payload": { "agentTurn": { "message": "检查服务器状态,生成简报" } }, "deliver": { "channel": "telegram", "to": "你的 TG 用户 ID" } } ] } } clawdbot: command not foundnpm PATH 问题。确认全局目录在 PATH 里:
npm config get prefix echo 'export PATH=$(npm config get prefix)/bin:$PATH' >> ~/.bashrc source ~/.bashrc 默认端口 18789 冲突了:
lsof -i :18789 # 看谁在用 clawdbot gateway --port 18790 --verbose # 换个端口 按顺序检查:
clawdbot statusclawdbot pairing list telegramjournalctl -u clawdbot -fall models failedAPI 配置问题:
/v1)clawdbot doctor你的 API 不支持 function calling 。这种情况 Bot 能聊天,但执行命令用不了。换一个支持工具调用的 API 。
一个功能完整的配置,开箱即用:
{ "gateway": { "mode": "local", "bind": "loopback", "port": 18789 }, "agents": { "defaults": { "model": { "primary": "openai-compat/claude-sonnet-4-5-20261022", "fallback": ["openai-compat/claude-haiku-3-5-20241022"] }, "elevatedDefault": "full", "thinking": "medium" } }, "models": { "mode": "merge", "providers": { "openai-compat": { "baseUrl": "https://你的 API 地址/v1", "apiKey": "你的密钥", "api": "openai-completions", "models": [ { "id": "claude-sonnet-4-5-20261022", "name": "Claude Sonnet 4.5" }, { "id": "claude-haiku-3-5-20241022", "name": "Claude Haiku 3.5" } ] } } }, "tools": { "exec": { "backgroundMs": 10000, "timeoutSec": 1800, "cleanupMs": 1800000, "notifyOnExit": true }, "elevated": { "enabled": true, "allowFrom": { "telegram": ["你的 TG 用户 ID"] } }, "allow": ["exec", "process", "read", "write", "edit", "web_search", "web_fetch", "cron"] }, "channels": { "telegram": { "enabled": true, "botToken": "你的 Bot Token", "dmPolicy": "pairing", "allowFrom": ["你的 TG 用户 ID"], "groupPolicy": "disabled" } }, "cron": { "jobs": [] } } 配置亮点:
fallback:主模型挂了自动切备用thinking: medium:启用中等深度思考groupPolicy: disabled:只响应私聊,不进群整个过程折腾了大半天,大部分时间花在排查配置格式上。
几个关键点:
api 字段、models 数组这些容易出错搭完之后确实方便。出门在外随时能跟服务器交互,定时任务也不用自己写脚本了。
但说实话,这东西更适合有一定技术基础的人。如果只是想聊天,直接用 Claude 官网就够了。折腾 ClawdBot ,图的是「可控」和「自动化」。
]]>当中可能有我没意识到的冲突点或未说清除的信息,让大家见笑了 再次恳请大佬们给予我指导,小弟感激不尽! ]]>如果普通的日常开发的话,选择最新的 m5 处理器的 MacBook pro 32G+1T 版本足够我用了。 但是最近两年本地大模型越来越多,范围也越来越广,如果考虑到大模型本地运行,最少可能需要一台 m4 max 处理器的 mac studio 128G+2T 的配置,两者价格直接差了快一倍。
目前有没有在做本地大模型微调等,距离比如用本地大模型写代码以及做一些图片生成、大规模内容处理等事情还有多远,是否值得为后面的四五年准备上一台高配的 mac ?
]]>根据他们官方文档,NPU 支持需要高通骁龙 8 Gen 4 以上。
我这边从 HyperOS 的多任务界面看加载大模型以后内存减少了 5G 左右。

最近看到 AMD AIMAX 395 什么的,我在想是否自己组一个,本地搭建一个蒸馏模型。
但除了隐私数据安全相关问题,像我这样普通人,也想不出本地应用场景的优势。
]]>本地跑文生图听说也有别人二开封装好的,就是不知道目前哪个方案好玩一些。
]]>
我的疑问是,构建上千条甚至上万条这种对话数据,一般使用的工具是什么?传统的数据标注,是用一些数据标注工具为每一条数据添加标记(这里面一般不能修改原始数据),这些对话数据,显然是需要能自己构建和修改的(或者让模型生成回答,人工审核和编辑),直接编辑 json 或 jsonl 文件看起来不太现实,因为它们不会对"\n"这种转义符进行转义,所以如果文本很长,看起来就是一行很长很长的文本,直接在 VSCode 里查看和编辑很吃力也不够直观(你们可以尝试下载一些公开的数据集然后在 VSCode 或其他文本编辑器打开就知道了)
我看到很多说明如何使用这些数据集进行训练的文章或教程,但很少有讨论关于如何从零开始构建这些数据集的方法,甚至似乎没有一个很好的编辑工具可以随时查看和修改对话数据。还可以延伸到多人协作的问题,仅靠一个人完全审核和修改上千至上万条对话数据,这工作量也是很大的,一般需要多人协作,那这个工具还得能支持多人协作才可以。
我之前尝试了 Doccano 和 Label Studio ,不知道是我设置有问题还是操作有问题,我发现这些标注工具都是为 NLP 任务设计的,而不是为 LLM 对话数据设计的,并不能很好满足这种场景。
]]>然后傻眼了,这玩意不整理,只能一首一首人肉加❤️ 标记喜欢,听一会儿就厌烦了只能不停的 下一首。。
有没有本地化的智能歌曲推荐引擎?
根据曲子风格,语言,流派等区分过滤?
还是去“刮削” 根据歌手、词曲作者,创作背景 年代 等进一步综合推荐?
偶尔听一点古典,对于一些熟悉的 OP 还需要精确到哪个乐团哪个场次才过瘾。
btw 去重也是个麻烦事, .mp3 文件 ID3 参差不齐,不能直接根据 MD5 去重。得看歌曲本身是否重复
这些问题有没有一揽子媒体管理方案?
]]>
花费了 8w 个 token, 110$的 gpu 服务器成本(一般时间花在 debug 上,一半时间训练)
感受是 gpu 价格及其贵,代码出现 1 个 bug = 10min debug -> 至少 1.2$花销
bug 出现频率高: python 容易写出语法/变量名错误,超参数填的的不对会导致 gpu 计算错误,cuda 和 pytorch 版本问题也会导致出错
总结就是:
1. 犯错的代价是严重的,务必用小批量数据测试代码是否写的正确
2. ai 基建大概率不是泡沫
以上 gpu 是租的便宜的小厂商的,主流云服务价格翻倍

我的机场好像不行.下不动.下了一会儿就断了.
所以我想要有什么镜像什么的.
根据 deepseek 搜到的设置 $env:OLLAMA_HOST="mirror.ollama.ai:11434" 也不行.
你们是怎么下载的呢?
]]>现在挖掘机接入了最强的 Gemini 3.0 测试版本模型。 大家可以试试效果,很震撼。👇 https://mastersgo.cc
挖掘词,来自 x 的帖子。
是的,稀土比的是制造业基础设施 比稀土更夸张的是钨,这张牌还没打,垄断般的存在,全球 56% 稀土是工业制造的维生素,特朗普芯片把中国整急了,中国就长臂管辖美国的军工制造 关键中国现在被美国制裁麻了,死猪不怕开水烫了 😂
然后把这个观点放到挖掘机里面执行,效果如下:
[
我对这方面不是很了解, 希望各位给出指导意见
]]>选项 A:魔改版 RTX 4090 48GB
优点: 显存巨大 (48GB) 多卡兼容性:wsl2 下似乎可以多卡?只需要消费级主板? 顾虑: 散热/噪音:涡扇版据说噪音巨大,不适合家用。可能要三风扇或水冷版。水冷长期可靠性(漏液风险)没底。 质保风险:没有官方质保,完全依赖店铺。看到有人炸缸,店铺进行了更换,但需要提供温度记录之类。
选项 B:RTX 5090 32GB
优点: 性能更强:下一代架构,核心性能肯定提升巨大。 家用友好:散热和噪音控制肯定比魔改方案好,适合家庭环境。 顾虑: 显存稍小 (32GB) 兼容性:看到有说法是“老模型可能用不了” 多卡兼容性:wsl2 下好像完全无法兼容多卡。且需要服务器级主板
我想问的问题:
想问的问题:
感谢各位的宝贵时间和建议!
]]>比如:
我发给它一个 URL ,让它用 MCP 打开,它却完全当普通问题回答。
我明确告诉它“请用 MCP 调用”,它依然不执行。
只有当我把所有 MCP 工具列表打印出来,再复制贴给它,它才会勉强调用一下。
所以就有点疑惑:LLM 调用 MCP 的“标准”到底是什么?是单纯靠 prompt 吗?还是 CLI/IDE 会把工具列表注入到上下文里?为什么有的任务明明 MCP 能做,它就是不用?是 prompt 不够明确,还是模型的工具调用策略比较保守?在 Claude Code / Gemini CLI 里,是否有配置能让 MCP 工具列表自动注入上下文?不然感觉每次都要手动提醒它“你有这些工具”。
]]>希望可以有一个本地部署提供 sse 的 MCP
如果有提供 server 的话,希望是免费的。
在 github 上找了一个,但是部署之后搜索结果全是不相关的,找了一些 server 都要付费。
]]>想问问老哥们的方式有哪些,我都想试试对比一下
]]>全书:
也可以订阅 substack ,这样每一章发布的时候都会发到你的邮箱,方便习惯 newsletter 的人阅读:
https://ifuryst.substack.com/p/3
或者通过公众号接收阅读:
]]>以 https://huggingface.co/unsloth/Qwen3-Coder-30B-A3B-Instruct-GGUF 中的 4bit 模型为例:
整体趋势上确实是规模越大,模型大小越大,但比如 Q4_K_XL 就比 Q4_K_M 更小,这是什么原因导致的?
这个所谓的模型规模,他代表的是什么含义呢?
]]>目前预算是够运行满血版 deepseek-r1, 但是瓶颈出现在 RAG 的召回阶段, 并且本身这些文档对于向量化来说质量不算太好, 有很多图表. 所以是否需要专门雇人来将这些文档制作成大模型可用的数据集并微调模型, 然后再使用工作流的形式处理问答会比较好呢 ?
]]>https://github.com/argosopentech/argos-translate
https://github.com/winstxnhdw/nllb-api
求一个好用的!先谢谢了!
]]>