
1 gotoschool 7 小时 56 分钟前 一般吧 代码还得吃 claude glm k2 在 claude 写好的项目上改 还说得过去 |
2 hnliuzesen 7 小时 56 分钟前 一般,但是现在 minimax-m2 免费,在用这个,感觉不错,而且吐字比较快 |
3 aweim 6 小时 39 分钟前 我试了几家,国内还是 qwen 效果好 |
4 spritecn 6 小时 23 分钟前 gpt5-codex 还行,就是慢 gemini 2.5Pro 也算能用 |
5 stdout 6 小时 20 分钟前 我用了 99 一个月的, 真不经用, 很快就能用完额度, 问题如果清晰明了不复杂,还是能很快搞定. 如果是做新项目不做大的修改,还行,要是单独改某些点, 有删除的, 很容易搞错. |
6 iwdmb 6 小时 7 分钟前 GLM 堪用 米国很多拿 GLM 来节省 Token 消耗的 |
7 quqivo 6 小时 5 分钟前 @hnliuzesen 怎么调用啊这个 |
9 Mocus 4 小时 44 分钟前 用 Kimi K2 接入 Claude Code 写 LLVM(C++),效果还能接受 |
10 lscho 4 小时 23 分钟前 GLM4.6 写代码感觉还可以,测试了一周感觉勉强够用了,提示词稍微写详细一点 |
11 humanbait 4 小时 14 分钟前 Claude code 中 使用 GLM4.6 挺久了,提示词写好,非常可用。 |
12 crocoBaby 4 小时 1 分钟前 trae cn 版可以免费使用 GLM4.6 |
13 foryou2023 3 小时 49 分钟前 用 api 的都烧不起,目前用 glm 4.6 的 lite ,日常够用,配合 openspec ,写好文档,写 nodejs 和前端还行 |
14 ARAAR 3 小时 25 分钟前 用了一圈下来,国产模型还是 GLM4.6 ,minimax 别看跑分高,实测一塌糊涂,光快是没用的。gpt5codex 慢,但是最终效果好。所以快就是慢,慢就是快 |
15 jixule 3 小时 23 分钟前 Roocode+魔搭 GLM4.6 差不多 |
16 pnczk2019 3 小时 15 分钟前 GLM 4.6 上线问太少吧..扔了一个小东西进去..就一个对话他没回答就开始压缩了 |
18 Hyxiao 2 小时 24 分钟前 Kimi 烧的也挺快的,走 API 可以试下 GLM |