
1 zsj1029 OP |
2 Seanfuck 3h 31m ago 上下文设置小一点会快些 |
4 Orangeee 3h 16m ago 看着效果还凑合,一般任务应该够用 |
5 pedclub 2h 43m ago   3.6 进步挺大的 |
6 sentinelK 2h 15m ago qwen3.6 35B A3B 的跑分还是挺好看的,智力和满血 DeepseekV3.2 不相上下,但 Agent 能力比 DeepseekV3.2 强很多。和我在 hermes agent 上的体感一致。 从这个角度看,最近这一年,localLLM 的进步,比大模型大很多。 我用家里的 8GVRAM ,64GBRAM 的老爷机用 llama.cpp 跑了一下 Q4 量化,驱动 hermes agent 的普通业务没什么问题,就是有点慢。在--on fit 配置下,大概是 20 多 token 每秒。 等 M5 MAX 的 mac studio 上线,我也打算买一台。 |
7 sentinelK 2h 15m ago 主要是 localLLM 强大之后,Agent 玩法才真正的被盘活。 隐私/便利的鱼熊悖论也就被打破了。 |
9 wumoumou 1h 9m ago 好厉害,能不能做成 API 卖钱 |
10 mgsv2047 53 mins ago 为啥我用 windows 的 lm studio 跑这个模型,又慢又蠢? 4090D + 32g 内存 |
12 evan1 PRO a100……门槛还是太高了。 |
14 furlxy 46 mins ago 为啥都在用钟表、天气来测试? |
16 darrh00 43 mins ago vscode 上有没有好用的连接本地模型的插件? |