
1 codehz 15h 3m ago via Android 5.5 没有 codex 变种吧 烧的快正常,毕竟模型参数量接近 10T ,比 5.4 大了不少,成本高 |
2 iorilu 14h 55m ago 官方说了阿, 是 5.4 两倍 |
3 joye1230 OP |
4 joye1230 OP 那不是高很多,上又明多少。 |
5 licoycn 14h 35m ago 没有 5.5 codex 吧,但是消耗是 2 倍 5.4 的,如果开启了 fast ,又是 5.5 的 1.5 倍,反正一个 pro 5x 完全不够用,低价的 pro 20x 也没了,准备正价开 pro 20x 了 |
6 joye1230 OP |
9 EJW 14h 27m ago 我也感觉消耗高了不少,体感上也没有很强,不过我的活儿不是很难的那种,不好说 |
10 joye1230 OP 有心成 claude ,很好用但是 usage limit 用不 |
12 iorilu 13h 49m ago 5.5 主要是上下文限制再 258k 了 5.4 可以 1M 看需求使用了 |
14 oopus 13h 32m ago via iPhone 把 effort 拉到 high 或者 medium 试试看 |
15 teaguexiao 13h 17m ago 5.5 对我这种做工程的用量确实翻倍了,但复杂任务质量升幅还行,相当于少加一些回轮。就看你的流量题还是质量题吧。 |
16 chenluo0429 12h 59m ago via Android @licoycn fast 的说明是 2x 用量,1.5x 速度吧 |
17 licoycn &nbp;12h 12m ago 我的意思是 gpt-5.5-codex 模型,而不是 codex 中的 gpt-5.5 |
18 AEDaydreamer 10h 53m ago 5.5 的 token efficiency 更高了,但是相对于它的定价,算下来还是更贵 智力确实有提升,我平时只用 medium 和 high ,很少用 X-high ,都能满足任务要求 |
19 SingeeKing PRO |