我咋感觉 1m 上下文的 opus 4.6 比 200k 上下文的 opus 4.6 要笨一点 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
milkleeeeee

我咋感觉 1m 上下文的 opus 4.6 比 200k 上下文的 opus 4.6 要笨一点

  •  
  •   milkleeeeee 3 月 15 日 2871 次点击
    这是一个创建于 40 天前的主题,其中的信息可能已经有所发展或是发生改变。

    试用了一下 1m 上下文的 opus 4.6 ,写个计划改了两三次,但之前用 200k 的 opus 4.6 基本是一次过。

    是我的错觉吗?

    18 条回复    2026-03-18 13:08:10 +08:00
    laikicka
        1
    laikicka  
       3 月 15 日
    大模型长上下文会非常容易出现幻觉.
    Zy143L
        2
    Zy143L  
       3 月 15 日
    不是幻觉..越往后性能越差 1M 版本的你还是当 200K 的用吧 拆分小任务给多个会话
    SingeeKing
        3
    SingeeKing  
    PRO
       3 月 15 日
    长上下文确实有性能衰减;不过 Opus 4.6 衰减的程度其实不高,相比之下 GPT 5.4 长上下文情况下甚至不配称为 SOTA 了
    dockerhub
        4
    dockerhub  
       3 月 15 日
    必然的,目前不建议用 1M 上下文有几个原因

    1. 上下文过长,出现幻觉(所谓的降智)
    2. 上下文过长费用很高,即使缓存 0.1 倍,反复对话价格也奇高
    3. 有什么任务是 200k 内不能解决的?那说明任务拆分得不够清晰
    jiaduobao
        5
    jiaduobao  
       3 月 15 日
    感觉最近 opus 4.6 降智了,但 gpt-5.3-codex(high) 反而变聪明了。顺便推广中转注册送 10 美元,可以对接 cc switch 测试看看官网地址: https://ai.17nas.com/
    iomect
        6
    iomect  
       3 月 15 日 via iPhone
    长上下文后面一定会出现注意力问题 无解的
    beyondstars
        7
    beyondstars  
       3 月 15 日
    不要真把 AI 当作一个你的副驾驶或者知心朋友,每次对话的上下文不应该看作是“记忆”,而是一次和之前没有任何关系的全新的输入,就着这个思路,每个定义明确的子任务单开一个对话是合适的,用完即弃。

    一般来说,在某次回复中,你觉得模型给你的回复已经有点离谱了,不要试图去就正它,因为上下文已经过大了,只会越纠正越差,这时就要果断新开一个对话。
    layxy
        8
    layxy  
       3 月 16 日
    长上下文会导致注意力分散,目前来看暂时无解,只能使用小上下文聚焦某个问题
    mingl0280
        9
    mingl0280  
       3 月 16 日
    200k context 都有性能衰减了,更别提 1M 了
    memcache
        10
    memcache  
       3 月 16 日
    我只是感觉 1M 的上下文很贵
    sampeng
        11
    sampeng  
       3 月 16 日
    升级完 claude code 。。只有 1m 选项就无语了。。
    milkleeeeee
        12
    milkleeeeee  
    OP
       3 月 16 日
    @sampeng 不对吧,我的 claude code 版本是最新的 2.1.76 ,用 /model 是可以选择 Opus 或 Opus (1M context) 的
    TArysiyehua
        13
    TArysiyehua  
       3 月 16 日
    上下文不是越长越好,并不是说上下文足够长 AI 就会非常智能
    sampeng
        14
    sampeng  
       3 月 17 日
    @milkleeeeee 最新是 2.1.77
    milkleeeeee
        15
    milkleeeeee  
    OP
       3 月 17 日
    @sampeng 2.1.77 是 3 个小时前发布的,昨天我回复的时候最新版确实是 2.1.76 ,并且我能正常用 /model 选择。我用的是第三方中转站,不知道是不是跟这个有关
    sampeng
        16
    sampeng  
       3 月 17 日 via iPhone
    @milkleeeeee 第三方中转站的问题,我昨天早上更新的
    qiqw
        17
    qiqw  
       3 月 18 日
    @sampeng #11 2.1.77 确实是只有 1M 的选项了
    milkleeeeee
        18
    milkleeeeee  
    OP
       3 月 18 日
    @qiqw 我靠还真是,难顶啊我刚发现 1m 的好像没那么聪明
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     3009 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 55ms UTC 02:44 PVG 10:44 LAX 19:44 JFK 22:44
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86