
主要的问题是这些厂商,它的后台的模型并不总是用了它的主力的模型,会在后台降智。
智谱的这个 GLM 4.6 ,新出的 Minimax M2 ,一开始挺好的,服务一有压力就乱来。 只要这些模型出 token 的速度一提升,就知道开始降智了,用了次一档的东西。 造成的结果就是写出来非常烂的代码,写出来一个文件,每个函数都是错误的,然后我要给他擦屁股几个小时。 这太可怕了,浪费我的大量的时间,去给他他们的模型提供优化数据。 还不如老老实实消费 token 去。
1 zzutmebwd 12 小时 29 分钟前 牛马们如果都有活一多就降低工作质量的觉悟就好了。 |
2 CC11001100 10 小时 23 分钟前 @zzutmebwd 实际上人的负载一旦高了之后出错率就会不由自主的升高,领导们有时候也会靠这个来辅助判断压榨牛马的性能极限。。。 ![]() |
3 musi 8 小时 52 分钟前 via iPhone |
4 Seck 7 小时 47 分钟前 听了楼上的 3 层楼,醍醐灌顶,摸鱼摸鱼 |
5 YanSeven 7 小时 14 分钟前 什么意思,没看懂,是在说同一个厂商推出的“包月服务”里面的模型会出现降智以次充好的现象,而该厂商的以 api 充值的方式则不会吗。 |
6 mightofcode 7 小时 0 分钟前 自己掌握生产力是多麽重要 |
7 dbow OP @YanSeven 包月服务里,厂商有明显的动态调度,节省资源的情况,用次一等规模较小的模型,临时取代规模大的那个,以获得得快的 token 输出,以及服务量,但是输出的代码就差了很多, 小模型不仅 token 成本低,并发服务能力也好的多。 |
8 kneo 6 小时 10 分钟前 via Android 按 token 付费不降智吗? |
10 bobohu 4 小时 39 分钟前 GLM 4.6 两天我用了 100 万 token ,太可怕了 |
12 bbbblue 2 小时 18 分钟前 minimax m2 套餐不是才刚上吗。。。这么快就试出来降智了? |