• 请不要在回答技术问题时复制粘贴 AI 生成的内容
MuyuQ
V2EX  ›  程序员

我发现 CC 和 Codex 越来越像是温水煮青蛙

  •  
  •   MuyuQ · 9h 27m ago · 1192 views
    新模型改分词器、新模型倍数消耗额度,单任务额度消耗被抬高;
    在速度上也是,最近普通模式的速度体验明显变慢,他们顺势推出 fast 模式按倍数烧额度。
    怕用户直接察觉到问题,好心推出短期额度翻倍让你适应高消耗,等活动结束你只会觉得“额度不禁用了”,而不是意识到它其实是在变相涨价。
    8 replies    2026-05-16 09:46:48 +08:00
    sentinelK
        1
    sentinelK  
       9h 0m ago
    模型提供商自从开始转型成“token 收费”,就没有动机去优化费效比了。

    而且你这次请求跑了多少 token ,其实也是他们说了算。
    有的提供商甚至会弄类似“代币”的虚拟概念。他说你花了多少,就是多少,无需解释。
    hsir
        2
    hsir  
       8h 24m ago
    而且我严重怀疑 OpenAI 故意降低了缓存命中率,issue 故意迟迟不解决,很多人都遇到了,看来就是要多收费: https://github.com/openai/codex/issues/20301
    AEDaydreamer
        3
    AEDaydreamer  
       8h 21m ago
    感觉对于现在的 llm 厂商来说似乎没有理由提高 token efficiency ,能订购 plan 的用户基本被绑定了,无非是这家跳到那家。同时这种基于 scale 的更新基模方式也挺恶性循环,瘫坐-好用-降智-降速-预热-新版本。
    MuyuQ
        4
    MuyuQ  
    OP
       1h 27m ago
    @AEDaydreamer 对。 还有降智循环,实在是太恶心了。一样的钱,不一样的任务体验。
    ktyang
        5
    ktyang  
       1h 15m ago
    早就发现了,但是又有什么办法呢?垄断不就是这样么
    unifier
        6
    unifier  
       37 mins ago
    这才是 DeepSeek 这类开源模型存在的最大意义啊,没有这些开源模型的“威胁”,恐怕 o➗和 a➗会更加肆无忌惮

    所以还是多多支持开源模型吧
    wy315700
        7
    wy315700  
       28 mins ago
    梁文锋和华为快加班啊,996 养鱼呢

    Codex 和 CC 都不动了
    shineonme
        8
    shineonme  
       2 mins ago
    可以看一看这篇文章: https://baoyu.io/blog/2026-04-28/ais-economics-dont-make-sense

    摘选一段:

    「这是一个深深令人悲伤的时代。那些如此积极地合力支撑这个行业的人,只是推迟了它不可避免的坠落。让我恐惧的是,我们的市场和部分经济,正在被一个被广泛接受却完全未经证明的假设支撑着:LLM 会以某种方式变得更便宜,AI 创业公司会神奇地盈利,而提供 AI 算力会永远盈利,以至于到 2030 年有必要把当前供给增加十倍。」
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2984 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 48ms · UTC 01:48 · PVG 09:48 · LAX 18:48 · JFK 21:48
    ♥ Do have faith in what you're doing.