
很久没本地跑小模型了,之前用的 QWen3-30B-A3B 2507 效果最佳,现在想咨询下哪个模型效果会更好些
1 xtreme1 1 月 29 日 卡死 32G 显存么, 还得留点给上下文吧. |
2 summerLast OP @xtreme1 用量化后的,32G 还有 10G 左右给上下文 |
3 slowgen 1 月 29 日 GLM-4.7-Flash |
4 summerLast OP @slowgen 思维链模型吗 |
5 h4ckm310n 2 月 3 日 试试 nemotron 3 nano |
6 summerLast OP @h4ckm310n 好的,我下载下来跑一下 |
7 kennylam777 2 月 7 日 via Android 你用哪 Coding agent 的?我用 Qwen3 30B A3B coder ,配 Roo coder 基本不行,大部份的 prompt 都的,用 Devstral 24B 好一但不快,而且 32GB 配 MoE 的 context 才能比大 |
8 summerLast OP GLM-4.7-Flash QWen3-30B-A3B 都有在用,但是效果不佳,打算试试 Nemotron-3-Nano-30B-A3B |
9 mewking 2 月 7 日 前几天阿里刚发布了个 Qwen3-Coder-Next-80B-A3B GLM-4.7-Flash 哪些方面不行?看来是刷分刷出来的呀 |
10 summerLast OP @mewking 指令跟随上效果不佳 |
11 summerLast OP @mewking 对了,还有一个,就是会陷入 token 输出循环,这个就很不友好 |