V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
yuan321
V2EX  ›  问与答

codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

  •  
  •   yuan321 · 10 小时 28 分钟前 · 1463 次点击
    只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
    16 条回复    2026-04-25 19:09:26 +08:00
    beimenjun
        1
    beimenjun  
    PRO
       10 小时 20 分钟前 via iPhone
    关键 5.4 模型你强行调出 1M ,使用起来因为命中率不高,其实表现也就那样。
    yuan321
        2
    yuan321  
    OP
       10 小时 14 分钟前
    上下文确实和 claude code 有比较大的差距
    sampeng
        3
    sampeng  
       10 小时 14 分钟前 via iPhone
    codex 的 compact 我觉得比 cc 的聪明
    neteroster
        4
    neteroster  
       10 小时 5 分钟前
    1. codex 的 5.5 没有 1M ,API 才有,大概率成本考量。Tibo ( OpenAI Codex 负责人) X 上说后续会提高上下文。
    2. codex 的 compact 很强
    xubeiyou
        5
    xubeiyou  
       9 小时 53 分钟前
    他这个不是 pro 用不起啊 一下子 就没了。。。。
    lihanst
        6
    lihanst  
       9 小时 43 分钟前
    5.4 的 1m 上下文性能退化严重
    salor
        7
    salor  
       9 小时 2 分钟前
    1m 上下文有什么用呢,600k 上下文就已经分不清计划模式了,让执行上面的方案一个劲的重复方案就是不执行,复现很多次了。通常超过 400k 上下文就要开新对话了,不然生成的内容真信不过。
    yuan321
        8
    yuan321  
    OP
       9 小时 0 分钟前
    一般 compact 几次需要从开对话?
    zisen
        9
    zisen  
       8 小时 46 分钟前
    codex 里面的 5.5 是 400k ,api 调用是 1M
    yuan321
        10
    yuan321  
    OP
       8 小时 44 分钟前
    @zisen 我设置为 400k ,codex 说本地实际只有 256k ,并不能达到 400k
    lifeintools
        11
    lifeintools  
       8 小时 43 分钟前
    还真没注意到这个事。我以为默认就是 1M
    billytom
        12
    billytom  
       5 小时 17 分钟前
    请教下 codex 的 compact 需要像 cc 那样自己感觉长了就/compact 一下还是说 codex 它到了聊天 context 顶会自动压缩的?
    AEDaydreamer
        13
    AEDaydreamer  
       5 小时 12 分钟前
    1.compact 非常好用
    2.但是这个上下文确实小了,不免让人不放心
    总体就是长 thread 用起来心理上很纠结但是生成的内容貌似还能接受.
    zisen
        14
    zisen  
       4 小时 4 分钟前
    @yuan321 好吧,我看 openai blog 写的 In Codex, GPT‑5.5 is available for Plus, Pro, Business, Enterprise, Edu, and Go plans with a 400K context window. GPT‑5.5 is also available in Fast mode, generating tokens 1.5x faster for 2.5x the cost.

    https://openai.com/index/introducing-gpt-5-5/
    yuan321
        15
    yuan321  
    OP
       3 小时 13 分钟前
    @zisen 实际最大还是 256 ,设置 400 并不会生效。128k 是输出的大小
    winglight2016
        16
    winglight2016  
       1 小时 7 分钟前
    官网上有标明不同订阅等级,不同模型,context 大小是不一样的,plus 的 5.5 标明了是 256k 。

    另外,5.5 似乎非常贵,我刚充了 40 刀 1000credits ,问了两次居然就用完了,好像碰到诈骗了一样。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2674 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 81ms · UTC 12:16 · PVG 20:16 · LAX 05:16 · JFK 08:16
    ♥ Do have faith in what you're doing.