V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
qdwang

浅试了一下 Qwen3.6-35B-A3B,很强

  •  
  •   qdwang · 1 天前 · 1181 次点击

    感觉比 3.5 强不少,秒 gemma4 。可以说是 24G 内存 mac 或显卡的目前最佳本地模型,稠密的太慢了。

    有个很困难的只有 GPT5.4 才能找到的代码 bug ,它当然也是找不出来的。

    还是给 openai 充钱吧,开源就只能玩一玩。

    7 条回复    2026-04-17 22:59:16 +08:00
    hanguofu
        1
    hanguofu  
       1 天前
    谢谢分享,楼主你是在什么硬件上跑的啊?给个参考呗 ~
    C64NRD
        2
    C64NRD  
       22 小时 53 分钟前
    牛,这是刚发布的
    MLawliet
        3
    MLawliet  
       15 小时 6 分钟前 via Android
    24g 内存 mac 跑不了 35b 吧?
    catazshadow
        4
    catazshadow  
       10 小时 16 分钟前
    uncensored 的有了没
    qdwang
        5
    qdwang  
    OP
       10 小时 9 分钟前
    @hanguofu m4pro 24g 内存
    qdwang
        6
    qdwang  
    OP
       9 小时 49 分钟前
    @MLawliet 跑的 iq4_xs 量化,运算时刚刚好吃满 23g 内存,不会写 swap ,128k 上下文。

    做了 100k 上下文里乱序随机位置插 26 个关联计算题测试,能做对。
    Hermitist
        7
    Hermitist  
       13 分钟前
    我用 omlx 直接下, git clone, hf 下, 都不能完整下来, 不知道什么鸟情况.
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2809 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 43ms · UTC 15:12 · PVG 23:12 · LAX 08:12 · JFK 11:12
    ♥ Do have faith in what you're doing.