V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
kekxv
0D
V2EX  ›  OpenAI

关于“AI 思考”长度

  •  
  •   kekxv · 3 小时 46 分钟前 · 449 次点击

    感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。

    硬件配置跟不上的情况下需要等待更长的时间。

    PS: https://chat.qwen.ai 上面的Qwen3.6-Max-Preview模型更离谱,让他写一个 ts 版本的身份证解析和验证闭包,输出一大堆的思考🥱

    由于 AI 的随机性,可能有人测试并不一定会出现长思考,但是出现概率挺高的

    6 条回复    2026-04-21 16:29:13 +08:00
    coefu
        1
    coefu  
       2 小时 47 分钟前
    速食吃多了,dy 看多了,既要快,又要好,还要准。可能吗?
    sddyzm
        2
    sddyzm  
    PRO
       2 小时 37 分钟前
    不慢吧
    beyondstars
        3
    beyondstars  
       2 小时 27 分钟前
    我更怕 AI 不带脑子地一通瞎写,多思考思考至少有个心理安慰,看着 AI 的思考过程能对接下来的输出质量有个大概的把握。
    beyondstars
        4
    beyondstars  
       2 小时 24 分钟前
    现在市场上最不缺的就是机械化流水化生成的 AI Slop ,做得对比做得快更重要,生成一堆狗屎不仅仅是折磨你自己,也是在折磨后续接收代码的人和维护代码的 agent ,想想多少 token 要浪费在这些屎山代码上。
    ixoy
        5
    ixoy  
       2 小时 3 分钟前
    好好想想,DeepSeek 的中文是什么意思。DEEEEEEEEEEEEEEEP
    visper
        6
    visper  
       1 小时 51 分钟前
    感觉 qwen3.5 很容易胡思乱想。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   4031 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 36ms · UTC 10:20 · PVG 18:20 · LAX 03:20 · JFK 06:20
    ♥ Do have faith in what you're doing.