
试用了一下 1m 上下文的 opus 4.6 ,写个计划改了两三次,但之前用 200k 的 opus 4.6 基本是一次过。
是我的错觉吗?
1 laikicka 3 月 15 日 大模型长上下文会非常容易出现幻觉. |
2 Zy143L 3 月 15 日 不是幻觉..越往后性能越差 1M 版本的你还是当 200K 的用吧 拆分小任务给多个会话 |
3 SingeeKing PRO 长上下文确实有性能衰减;不过 Opus 4.6 衰减的程度其实不高,相比之下 GPT 5.4 长上下文情况下甚至不配称为 SOTA 了 |
4 dockerhub 3 月 15 日 必然的,目前不建议用 1M 上下文有几个原因 1. 上下文过长,出现幻觉(所谓的降智) 2. 上下文过长费用很高,即使缓存 0.1 倍,反复对话价格也奇高 3. 有什么任务是 200k 内不能解决的?那说明任务拆分得不够清晰 |
5 jiaduobao 3 月 15 日 感觉最近 opus 4.6 降智了,但 gpt-5.3-codex(high) 反而变聪明了。顺便推广中转注册送 10 美元,可以对接 cc switch 测试看看官网地址: https://ai.17nas.com/ |
6 iomect 3 月 15 日 via iPhone 长上下文后面一定会出现注意力问题 无解的 |
7 beyondstars 3 月 15 日 不要真把 AI 当作一个你的副驾驶或者知心朋友,每次对话的上下文不应该看作是“记忆”,而是一次和之前没有任何关系的全新的输入,就着这个思路,每个定义明确的子任务单开一个对话是合适的,用完即弃。 一般来说,在某次回复中,你觉得模型给你的回复已经有点离谱了,不要试图去就正它,因为上下文已经过大了,只会越纠正越差,这时就要果断新开一个对话。 |
8 layxy 3 月 16 日 长上下文会导致注意力分散,目前来看暂时无解,只能使用小上下文聚焦某个问题 |
9 mingl0280 3 月 16 日 200k context 都有性能衰减了,更别提 1M 了 |
10 memcache 3 月 16 日 我只是感觉 1M 的上下文很贵 |
11 sampeng 3 月 16 日 升级完 claude code 。。只有 1m 选项就无语了。。 |
12 milkleeeeee OP @sampeng 不对吧,我的 claude code 版本是最新的 2.1.76 ,用 /model 是可以选择 Opus 或 Opus (1M context) 的 |
13 TArysiyehua 3 月 16 日 上下文不是越长越好,并不是说上下文足够长 AI 就会非常智能 |
14 sampeng 3 月 17 日 @milkleeeeee 最新是 2.1.77 |
15 milkleeeeee OP @sampeng 2.1.77 是 3 个小时前发布的,昨天我回复的时候最新版确实是 2.1.76 ,并且我能正常用 /model 选择。我用的是第三方中转站,不知道是不是跟这个有关 |
16 sampeng 3 月 17 日 via iPhone @milkleeeeee 第三方中转站的问题,我昨天早上更新的 |
18 milkleeeeee OP @qiqw 我靠还真是,难顶啊我刚发现 1m 的好像没那么聪明 |