感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。
硬件配置跟不上的情况下需要等待更长的时间。
PS: https://chat.qwen.ai 上面的
Qwen3.6-Max-Preview模型更离谱,让他写一个 ts 版本的身份证解析和验证闭包,输出一大堆的思考🥱由于 AI 的随机性,可能有人测试并不一定会出现长思考,但是出现概率挺高的
1
coefu 2 小时 47 分钟前
速食吃多了,dy 看多了,既要快,又要好,还要准。可能吗?
|
2
sddyzm PRO 不慢吧
|
3
beyondstars 2 小时 27 分钟前
我更怕 AI 不带脑子地一通瞎写,多思考思考至少有个心理安慰,看着 AI 的思考过程能对接下来的输出质量有个大概的把握。
|
4
beyondstars 2 小时 24 分钟前
现在市场上最不缺的就是机械化流水化生成的 AI Slop ,做得对比做得快更重要,生成一堆狗屎不仅仅是折磨你自己,也是在折磨后续接收代码的人和维护代码的 agent ,想想多少 token 要浪费在这些屎山代码上。
|
5
ixoy 2 小时 3 分钟前
好好想想,DeepSeek 的中文是什么意思。DEEEEEEEEEEEEEEEP
|
6
visper 1 小时 51 分钟前
感觉 qwen3.5 很容易胡思乱想。
|