V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
milkleeeeee
V2EX  ›  程序员

我咋感觉 1m 上下文的 opus 4.6 比 200k 上下文的 opus 4.6 要笨一点

  •  
  •   milkleeeeee · 10 小时 31 分钟前 · 939 次点击

    试用了一下 1m 上下文的 opus 4.6 ,写个计划改了两三次,但之前用 200k 的 opus 4.6 基本是一次过。

    是我的错觉吗?

    7 条回复    2026-03-15 23:59:58 +08:00
    laikicka
        1
    laikicka  
       10 小时 30 分钟前
    大模型长上下文会非常容易出现幻觉.
    Zy143L
        2
    Zy143L  
       8 小时 31 分钟前
    不是幻觉..越往后性能越差 1M 版本的你还是当 200K 的用吧 拆分小任务给多个会话
    SingeeKing
        3
    SingeeKing  
    PRO
       8 小时 16 分钟前
    长上下文确实有性能衰减;不过 Opus 4.6 衰减的程度其实不高,相比之下 GPT 5.4 长上下文情况下甚至不配称为 SOTA 了
    dockerhub
        4
    dockerhub  
       8 小时 0 分钟前
    必然的,目前不建议用 1M 上下文有几个原因

    1. 上下文过长,出现幻觉(所谓的降智)
    2. 上下文过长费用很高,即使缓存 0.1 倍,反复对话价格也奇高
    3. 有什么任务是 200k 内不能解决的?那说明任务拆分得不够清晰
    jiaduobao
        5
    jiaduobao  
       6 小时 22 分钟前
    感觉最近 opus 4.6 降智了,但 gpt-5.3-codex(high) 反而变聪明了。顺便推广中转注册送 10 美元,可以对接 cc switch 测试看看官网地址: https://ai.17nas.com/
    iomect
        6
    iomect  
       5 小时 20 分钟前 via iPhone
    长上下文后面一定会出现注意力问题 无解的
    beyondstars
        7
    beyondstars  
       3 小时 50 分钟前
    不要真把 AI 当作一个你的副驾驶或者知心朋友,每次对话的上下文不应该看作是“记忆”,而是一次和之前没有任何关系的全新的输入,就着这个思路,每个定义明确的子任务单开一个对话是合适的,用完即弃。

    一般来说,在某次回复中,你觉得模型给你的回复已经有点离谱了,不要试图去就正它,因为上下文已经过大了,只会越纠正越差,这时就要果断新开一个对话。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   893 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 19ms · UTC 19:50 · PVG 03:50 · LAX 12:50 · JFK 15:50
    ♥ Do have faith in what you're doing.