
openclaw 调用本地 ollama 大模型,千问 7B 的模型,感觉就是个智障。
有没有大神可以讲讲自己的体验
1 root71370 3 月 6 日 via Android 参数决定智商 无解 |
2 Censhuang 3 月 6 日 今天刚研究,差两代出来。qwen 7b 应该是 qwen2.5 。中间跨越了 qwen3 ,qwen3.5 |
3 default996 3 月 6 日 在 macmini 上将了 qwen8b ,然后那个输出速度太慢了 …… |
4 iv8d 3 月 7 日 可以是可以,要么慢,要么傻,你愿意等大半天出结果吗 |
5 tthem 3 月 7 日 m2max 部署 qwen35B q4 模型,问一个问题,要等 6 分钟出结果。。放弃了 |
7 zz177060 3 月 7 日 via iPhone 还没有实践,但是我理想的也是吊用本地 app 应该自动本地模型优先,因为就只打开 app ,这个跟模拟鼠标一样,不应该全部让云端实现但是我不懂代码 |
8 hiccup00 3 月 7 日 via Android 同样觉得这个比较有需求 |