V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
summerLast
V2EX  ›  Local LLM

30B 尺寸哪个小模型编码能力会好一些

  •  
  •   summerLast · Jan 29 · 2033 views
    This topic created in 94 days ago, the information mentioned may be changed or developed.

    很久没本地跑小模型了,之前用的 QWen3-30B-A3B 2507 效果最佳,现在想咨询下哪个模型效果会更好些

    11 replies    2026-02-12 17:26:03 +08:00
    xtreme1
        1
    xtreme1  
       Jan 29
    卡死 32G 显存么, 还得留点给上下文吧.
    summerLast
        2
    summerLast  
    OP
       Jan 29
    @xtreme1 用量化后的,32G 还有 10G 左右给上下文
    slowgen
        3
    slowgen  
       Jan 29
    GLM-4.7-Flash
    summerLast
        4
    summerLast  
    OP
       Jan 29
    @slowgen 思维链模型吗
    h4ckm310n
        5
    h4ckm310n  
       Feb 3
    试试 nemotron 3 nano
    summerLast
        6
    summerLast  
    OP
       Feb 4
    @h4ckm310n 好的,我下载下来跑一下
    kennylam777
        7
    kennylam777  
       Feb 7 via Android
    你用哪個 Coding agent 的?我用 Qwen3 30B A3B coder ,配 Roo coder 基本不行,大部份時間的 prompt 都錯的,用 Devstral 24B 好一點點但不夠快,而且 32GB 配 MoE 的 context 才能開比較大
    summerLast
        8
    summerLast  
    OP
       Feb 7
    GLM-4.7-Flash QWen3-30B-A3B 都有在用,但是效果不佳,打算试试 Nemotron-3-Nano-30B-A3B
    mewking
        9
    mewking  
       Feb 7
    前几天阿里刚发布了个 Qwen3-Coder-Next-80B-A3B

    GLM-4.7-Flash 哪些方面不行?看来是刷分刷出来的呀
    summerLast
        10
    summerLast  
    OP
       Feb 9
    @mewking 指令跟随上效果不佳
    summerLast
        11
    summerLast  
    OP
       Feb 12
    @mewking 对了,还有一个,就是会陷入 token 输出循环,这个就很不友好
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2541 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 51ms · UTC 12:50 · PVG 20:50 · LAX 05:50 · JFK 08:50
    ♥ Do have faith in what you're doing.