V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录

节点赞助商

viskem
V2EX  ›  AI Agent 智能体

MacOS 上搭建了本地的 Gemma4,如何与它协作最高效?

  •  
  •   viskem · 21 小时 18 分钟前 · 1527 次点击

    各位是如何做的?是使用什么对话窗口或是命令行、或者第三方工具? ClaudeCode / Cursor ? 平时我都用 Cursor 。(因为 ClaudeCode 屏蔽比较猛烈)所以本地的如何高效协作还希望参考下大家的优雅作风。

    27 条回复    2026-04-10 17:00:09 +08:00
    Brightt
        1
    Brightt  
       21 小时 14 分钟前
    搞的多少 B 的模型?
    viskem
        2
    viskem  
    OP
       21 小时 11 分钟前
    @Brightt Gemma4 26B
    kizunai
        3
    kizunai  
       21 小时 1 分钟前
    没有用,就 M 芯片那个 prefill 速度,也就短点的对话还行,放弃辅助编程吧,别占用硬盘空间了
    Hilong
        4
    Hilong  
       20 小时 59 分钟前
    楼上+1 基本长一点的上下文就卡住动不了了。搞搞小的对话还行,写代码还是算了吧
    penisulaS
        5
    penisulaS  
       20 小时 51 分钟前
    本地模型笨笨的,有什么需要超大量上下文但不需要高智能的场景吗
    diudiuu
        6
    diudiuu  
       20 小时 30 分钟前
    还是笨笨的。你可以使用 vscode ClaudeCode 插件,配置本地模型
    dacapoday
        7
    dacapoday  
       20 小时 30 分钟前
    非常适合做总结和提供索引,为更高级的模型提供服务,方便其更好的索引文档(业务总结的文字往往更精辟和专业,全文搜索更容易找到,然后 ai 再根据总结中包含的文件路径找到对应的文件).相当于一个简易的知识图谱,而且在不断丰富语义描述.
    dacapoday
        8
    dacapoday  
       20 小时 28 分钟前
    我也在折腾 gemma4, 感觉 V2EX 的人年龄偏大,比较迟钝. 看不懂 ai 的能力. 现在 local llm 的潜力巨大.
    viskem
        9
    viskem  
    OP
       20 小时 23 分钟前
    @dacapoday 我再让它慢慢爬我的项目,并接入到企微 Bot 上,但愿能协助到同事们。
    tcper
        10
    tcper  
       20 小时 5 分钟前
    26B 模型至少需要 24G VRAM 等同显卡
    macbook/mini 48G 内存版或以上(操作系统,浏览器也得吃一大半内存)
    以本人对 V 站的了解,大部分人没这个经济实力
    darksword21
        11
    darksword21  
    PRO
       19 小时 52 分钟前
    我还在尝试用 mlx 跑 E2B 的( 16G air )。。。

    感觉也就一次性做个翻译之类的工作,
    hash
        12
    hash  
       19 小时 50 分钟前
    放弃尝试本地模型这种浪费时间的行为最高效
    kirbyzhu
        13
    kirbyzhu  
       19 小时 48 分钟前 via iPhone
    个人感觉用处不大
    emberzhang
        14
    emberzhang  
       19 小时 48 分钟前
    卵用没有的。26b a4b 这种玩意给龙虾调用 tool ,一调一个不吱声全是失败

    之前大内存 mac 是 70b 、122b 给 cherry studio 聊什么计算 24 点自己骗自己

    现在大内存 mac 是 26b 、35b 扔给龙虾心跳,7x24 小时 龙虾屁事没干,人眼看着 omlx token 生成量继续骗自己
    chenzhihuiiiii
        15
    chenzhihuiiiii  
       19 小时 38 分钟前
    @viskem #9 请问具体的应用场景是什么?
    viskem
        16
    viskem  
    OP
       16 小时 15 分钟前
    @chenzhihuiiiii 就是想让他慢慢熟悉项目和搜罗信息,帮我调整一些项目管理系统的信息,和大家简单推点通知啥的,简单问答一些项目上的信息。(我已经逐步认清现实……)
    haohaozaici
        17
    haohaozaici  
       16 小时 9 分钟前
    没有显卡,9950x 本地跑 Gemma4 e4b ,只有 30 token/s ,没法写代码,简单问问题还行
    zoozobib
        18
    zoozobib  
       15 小时 58 分钟前   ❤️ 1
    已经用 gemma4 31b q4 量化的版本重构了半个 app 了,现在主力用它,opencode + openclaw + hermes ,接入了几个必用的 mcp ,如 word amap chrome opencli 等等,反正目前写文档、旅游计划、写代码主用这个模型。双显卡 上下文 35-58 所有的 token ,目前从涉及到的所有项目上看,很能打; moe 没试过
    zoozobib
        19
    zoozobib  
       15 小时 56 分钟前
    不过我最高开 200K 的上下文,到 120K 以上的上下文 token 速度有所下降
    viskem
        20
    viskem  
    OP
       15 小时 53 分钟前
    @zoozobib 诶? 31B 比 27B 这个强很多吗?晚上回去更新掉。
    zoozobib
        21
    zoozobib  
       15 小时 46 分钟前   ❤️ 1
    @viskem 没试过 27B 的 gemma4 , btw 有人觉得 qwen3.5 27b 很猛,我之前也用过一段时间,不过它性能一般且废话太多;另外,moe 和 dense 在复杂任务下还是有明显区别的,moe 我之前玩下来 还是可以的,不过上下文别太大,主打一个性能绝佳,跑跑 agent 任务还可以,开 reasoning 的情况下.
    viskem
        22
    viskem  
    OP
       15 小时 45 分钟前
    @zoozobib 不知道我 MacMini M4 64GB 内存 能否用得起
    zoozobib
        23
    zoozobib  
       15 小时 38 分钟前   ❤️ 1
    @viskem 配置不错,可以关注下 mlx + turboquant 的方案,现在玩家不少了
    viskem
        24
    viskem  
    OP
       15 小时 16 分钟前
    @zoozobib (头裂)刚交代了升级,又来了新知识~ orz……哈哈
    kevan
        25
    kevan  
       14 小时 21 分钟前
    昨天 5070ti+32GB 跑 26B 真的吃力。
    Meteora626
        26
    Meteora626  
       13 小时 46 分钟前
    别浪费自己时间跑这种小模型当大模型用。
    Teresa789
        27
    Teresa789  
       13 小时 45 分钟前
    前两天我同事给我安利,然后昨天我试了下,只能说体验极差,不知道网上说用 mac 跑这个 Gemma4 的是不是受了库克的钱🐶,随便问个简单的问题,都上几百秒的。想 vibicoding 算了吧
    本人设备:mac studio m4 64GB
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   929 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 30ms · UTC 22:45 · PVG 06:45 · LAX 15:45 · JFK 18:45
    ♥ Do have faith in what you're doing.