V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
newmancode
V2EX  ›  Local LLM

[求助] 求成本可控,性能过关的本地 vibe coding 方案

  •  
  •   newmancode · Jan 23 · 2445 views
    This topic created in 102 days ago, the information mentioned may be changed or developed.

    如标题所言,想要一款成本在万元内的全本地 ai 编程方案 题主并非程序员,但日常中需要使用自制程序的场景越来越多,所以想要个稳定的生产力来源 题主自身技术水平不过关且在墙内,优质模型 token 没有稳定且成本可控的获得渠,道需求又较为独特,不知道这个想法能否实现,如果不能,该如何曲线救国来做成同样的事情?请大家予以指导,题主在这里跪谢大家 由于使用场景与场所较为固定,故而不太想要更“灵活”的云上方案,选择保密性好安全性高的本地方案 如果可行,最好能够保存多 agent 协作、skill 等功能,会需要这套系统处理不少复杂任务 在保证安全性的前提下留下升级接口,使该套设备能够进行实际工作内核的升级替换,比如 Claude3.0——>Claude4.1 这样的操作以及从原始 vibe coding 升级到使用 skills 等类似操作。 能导入知识库 能够进行代码审计的工作 上下文长度尽量长 能够自主完成操作员设定任务,不需要操作员长时间驻守在屏幕前 能使用 python 和 Linux 语言进行编程 能进行硬件的编程(退一步写个单片机的程序、进一步就是实现 RISC v 的开发) 能进行提示词的发散与补全,以弥补相关专业知识空缺,辅助操作员与系统进行开发 生成速度方面,拿生成你画我猜小游戏举例,该套系统能半小时生成完毕可即用的最终产品就是巨大成功

    当中可能有我没意识到的冲突点或未说清除的信息,让大家见笑了
    再次恳请大佬们给予我指导,小弟感激不尽!
    
    30 replies    2026-02-04 14:22:00 +08:00
    SiWXie
        1
    SiWXie  
       Jan 23 via iPhone
    万元内…,现在 64g 内存条都要 5k 多,5090 显卡 2w 左右,你这个需求,即使是 3 年后预测万元内也没戏…
    msg7086
        2
    msg7086  
       Jan 23
    成本可控的性能可能不太过关。
    youshangdemajia
        3
    youshangdemajia  
       Jan 23
    万元内显卡能跑的本地模型现在性能都很差。还是花钱订阅吧,20 刀一个月的套餐性能都远超本地模型,一万元能用多久了
    kulove
        4
    kulove  
       Jan 23 via Android
    本地别想了 哪怕百万部署现在最强开源模型 和主流编程模型也是有不少小差距的
    iceprosurface
        5
    iceprosurface  
       Jan 23 via Android
    万元以内基本不可能,要是十万块以内你可以买 mac 蜂窝煤,大概跑个 glm 这种国产的单人能到 40-50token/s
    yangzzzzzz
        6
    yangzzzzzz  
       Jan 23
    一万块买服务能多久了,还不用考虑硬件老化 性能过时的问题
    tomclancy
        7
    tomclancy  
       Jan 23
    建议拿钱相亲找个富婆,让她送你一个
    TabGre
        8
    TabGre  
       Jan 23 via iPhone
    总有人觉得本地化是必要性,然而经验告诉我 没有鸟用, 用 API 服务都上线了 本地化还在纠结选什么设备,当然你是大企业当我没说 可能本地化就是一年的 KPI
    TabGre
        9
    TabGre  
       Jan 23 via iPhone
    如果想要方案也简单 不过 1w 不行。简单点 参考 exolab 整个 6 台 mac mini glm 4.7 可以跑 具体参看官网
    leegradyllljjjj
        10
    leegradyllljjjj  
       Jan 23 via iPhone
    洗洗睡吧 买显卡都不够
    PerFectTime
        11
    PerFectTime  
       Jan 23
    1W 跑不了什么好用的模型,10w 也不够,评估一下你的数据是否真的有这么高的价值吧,不如直接拿来买订阅
    rocmax
        12
    rocmax  
       Jan 23 via Android
    mbp m4max 表示本地能跑的还是离 Claude 4.5 差远了
    cowcomic
        13
    cowcomic  
       Jan 23
    也不用非得自制环境吧
    我现在用 trae ,感觉还不错
    nevin47
        14
    nevin47  
       Jan 23
    一万的预算不够,本地大模型就算你一个单用户使用,你部署一个上百 B 的模型需要的显存一张 A100 都打不住,就算用 Mac 的 unimem 方案,假设你配置 128G 的内存来加载参数,也差不多 10W+的成本了,而且受限算力可用性也很差

    如果涉及本地安全保密的需求,那你唯一的路径就是加预算,然后用 qwencoder-32B 这种小模型去跑
    cowcomic
        15
    cowcomic  
       Jan 23
    好吧,没看见保密性问题

    私有化部署,还得效果好的话
    至少得是大参数通用模型( 671B 级别)+code 专用模型配合
    硬件就得几十万了
    Solix
        16
    Solix  
       Jan 23
    几十万入门,几百万可使用,几千万顶尖,你选一个吧
    SakuraYuki
        17
    SakuraYuki  
       Jan 23
    加钱 3w 多买老黄那个 ai 计算终端
    ingxhe
        18
    ingxhe  
       Jan 23
    万元内的全本地 ai 编程方案

    要不你自己再读一遍

    另外你先区分一下硬件和软件吧
    ingxhe
        19
    ingxhe  
       Jan 23
    @SiWXie 除此之外,人家还要软件解决方案呢,全套的
    jonty
        20
    jonty  
       Jan 23
    万元内买 api 吧,连台像样能编译的电脑都攒不起来。
    dajj
        21
    dajj  
       Jan 23
    一年 200 块科学上网,然后用 Antigravity
    pxlxh
        22
    pxlxh  
       Jan 23 via iPhone
    有这种东西的话 vibe 工具早倒闭了 想屁吃呢 除非是小学生入门代码编写
    night98
        23
    night98  
       Jan 25
    找个代理站,目前本地 coding 效果很拉,直接付费上 claude 最大套餐就行,其他的没必要折腾省钱。
    newmancode
        24
    newmancode  
    OP
       Jan 26
    @night98 多谢指点
    newmancode
        25
    newmancode  
    OP
       Jan 26
    @cowcomic 多谢,我会寻找类似的云上服务,全本地化的代价超乎我想象的高啊
    newmancode
        26
    newmancode  
    OP
       Jan 26
    @nevin47 我了解了,多谢指点
    newmancode
        27
    newmancode  
    OP
       Jan 26
    目前看这样是比较现实的方法
    newmancode
        28
    newmancode  
    OP
       Jan 26
    @rocmax 好的,这是个有用的参考,谢谢您
    coefu
        29
    coefu  
       Jan 26
    不是哥们儿,你还想嵌入式用 vibe coding ???这都能解决了,还不开个公司赚钱啊。
    lchynn
        30
    lchynn  
       Feb 4
    Qwen3 新发布了 Qwen3-Coder-next ,80B 的模型,激活参数 3B ,量化后应该能本地消费级显卡部署吧? 等待楼主实测数据, 公布数据是不错,不过这种刷 SWEBench 数据的,可能只能轻微参考,不能全信。
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   758 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 72ms · UTC 21:03 · PVG 05:03 · LAX 14:03 · JFK 17:03
    ♥ Do have faith in what you're doing.