• 请不要在回答技术问题时复制粘贴 AI 生成的内容
libasten
V2EX  ›  程序员

几个国产大模型,用来对接用在 cc 上编程,哪家性价比高?

  •  
  •   libasten · 22h 24m ago · 3413 views
    codex 登录要手机号,加上之前的某境外大厂的账号莫名其妙被 ban ,想着用国产的得了,至少登录啥的省事不少。
    现在国内的哪家好用点?
    36 replies    2026-05-16 05:38:20 +08:00
    anghunk
        1
    anghunk  
       22h 18m ago
    百炼吧,目前我主力是这个
    yjz1409276
        2
    yjz1409276  
       21h 3m ago
    我用 gpt ,公司订了火山 pro ,只能说一言难尽
    Chisa
        3
    Chisa  
       20h 1m ago
    最强是 GLM5.1 ,性价比的话就是 opencode go 套餐用 DeepSeekV4 pro 。官网直接充钱也行
    zenfsharp
        4
    zenfsharp  
       19h 57m ago
    @Chisa 大佬你是怎么接的,为什么我用 opencode 家的 DS 接入,一思考就报错。
    wynemo
        5
    wynemo  
       19h 18m ago   ❤️ 1
    @zenfsharp #4 openai 格式再用 cliproxyapi 转成 cc 格式
    JerningChan
        6
    JerningChan  
       19h 13m ago
    我怎么觉得,自己在 5090 上部署 qwen3.6 27b 用 cc 对接写代码,也很不错,可能我的项目比较简单?
    最早时,接 qwen3.6-35b-a3b 也很不错
    frantic
        7
    frantic  
       19h 7m ago
    GLM 抢不到的话,我觉得 KIMI 199 档年费订阅最划算,其次是 deepseek 不走订阅,直接用 api, 我高强度用一天大概 20 不到
    rb6221
        8
    rb6221  
       18h 51m ago
    性价比肯定是 DS 啊毫无疑问。。现在阶段还有别的吗
    ptstone
        9
    ptstone  
       16h 54m ago
    我看抖音上的评测,最强编程应该时 kimi2.6
    ptstone
        10
    ptstone  
       16h 53m ago
    @JerningChan 你使用 vllm 吗
    hutng
        11
    hutng  
       16h 42m ago
    @JerningChan 开不开思考模式?怎么接入的?我也是本地,webui 看速度 40t 左右,我打开思考模式,cc 和 opencode 都感觉特别慢,寸步难行,使用的是 cc-switch 接入的。不知道是哪里出了问题
    sentinelK
        12
    sentinelK  
       16h 30m ago
    @hutng 用的是什么硬件?使用 Agent 工具调用本地 LLM 的时候,首次启动的输入 token 少则 5~6K ,多则 10k 起步。prefill 速度比 decode 速度还要重要。5090 的 prefill 速度大概是 3000+t/s 。

    如果设备的 prefill 速度不过千,那就相当于每次调用 LLM 都要罚站。
    hutng
        13
    hutng  
       16h 21m ago
    @sentinelK 2080ti ,那估计就是 prefill 的瓶颈了,算力瓶颈。
    sentinelK
        14
    sentinelK  
       16h 10m ago
    @hutng 是的,如果是 llama.cpp 可以用 llamabench 来验证下。pp 是输入速度,tg 是输出速度。

    Agent 执行一次任务要无数次交互 LLM(查网址、跑终端、改代码),每次都要罚站。和 chat 场景完全不同。
    sharpy
        15
    sharpy  
       16h 8m ago
    性价比的话 deepseek v4 flash
    pro 没有 coding plan 还是比较贵的

    综合下来,opencode go ,首月 5 刀
    yjxjn
        16
    yjxjn  
       16h 3m ago
    @Chisa GLM5.1 我看有人说不行,有人说挺好的,能达到 codex5.3 的水平么?
    hutng
        17
    hutng  
       16h 2m ago
    @sentinelK #14 好的,感谢,显卡不行,27B 不太行,换 35B A3B 了,开启 MTP 刚测 小上下文情况,预填充 1500 ,生成 100 勉强可用了。
    cvooc
        18
    cvooc  
       16h 0m ago
    @yjxjn glm 工作使用没什么问题, 最大的问题是现在抢不到, 我同事抢了一个月了
    mandex
        19
    mandex  
       15h 57m ago
    订阅了 Kimi Code 199 档那个,付了年费。DeepSeek 冲了点钱,感觉也还行。
    ooooo00000ooooo
        20
    ooooo00000ooooo  
       15h 35m ago
    https://www.coding-plan.xyz/
    这里有几乎所有国内套餐和网友评价。
    hiqxy
        21
    hiqxy  
       15h 34m ago
    cursor 吧 省事,auto 效果也比国产的好很多
    crocoBaby
        22
    crocoBaby  
       15h 22m ago
    vscode 的 trae 插件,免费使用不用排队~
    wy315700
        23
    wy315700  
       15h 17m ago
    论性价比当然是 DeepSeek
    wsbqdyhm
        24
    wsbqdyhm  
       15h 1m ago via iPhone
    @JerningChan #6 这个我也在用,五成 minimax ,三四成 ds4 的样子
    chaniqure
        25
    chaniqure  
       14h 58m ago
    @hiqxy auto 的额度怎么样呢?够用不?
    yazoox
        26
    yazoox  
       14h 39m ago
    @frantic 怎么直接用 API ?如何付费/订阅?客户端用啥? vscode 连接 deepseek api?
    watzds
        27
    watzds  
       14h 20m ago
    GLM5.1 还行
    Smileh
        28
    Smileh  
       13h 57m ago
    @yjxjn #16 我觉得 5.0 最多了
    renothing
        29
    renothing  
       13h 50m ago
    别买 kimi code 那种废物,一个会话没结束,就触发限制了.
    我现在主要是 DeepSeek pro 干活.配合 GLM 来验收
    ntdll
        30
    ntdll  
       13h 43m ago
    便宜的话,现阶段毫无疑问是 deepseek
    JerningChan
        31
    JerningChan  
       11h 49m ago
    @wsbqdyhm 哦?其实我觉得现在用 cc 对接,只要模型不是那种什么 9b 的小模型,其实用起来,协助改改代码的都很不错啊
    JerningChan
        32
    JerningChan  
       11h 45m ago
    @hutng 开啊
    -m /data/qwen3.6/Qwen3.6-35B-A3B-UD-IQ4_NL_XL.gguf \
    --mmproj /data/qwen3.6/35b-mmproj-F16.gguf \
    --ctx-size 73728 \
    -ngl 99 \
    --host 0.0.0.0 \
    --port 8080 \
    --temp 0.6 \
    --top-p 0.95 \
    --top-k 20 \
    --min-p 0.00 \
    --flash-attn on \
    --cont-batching \
    --cache-type-k q4_0 \
    --cache-type-v q4_0 \
    --threads 15 \
    --parallel -1 \
    -b 1024 \
    -ub 1024 \
    --chat-template-kwargs '{"enable_thinking": true, "preserve_thinking": true}' \
    --metrics \
    --jinja \
    --alias Qwen3.6
    JerningChan
        33
    JerningChan  
       11h 44m ago
    @hutng 这个是 2080ti 22g 的设置,公司 5090d 就可以调大上下文到 256k ,然后换 27b 模型
    JerningChan
        34
    JerningChan  
       11h 42m ago
    @ptstone 无,我纠结了下,还是用 llama.cpp 算了
    S0lution
        35
    S0lution  
       11h 37m ago
    现在国内就 GLM 、DeepSeek 、KIMI 、千问,性价比肯定是 DeepSeek 按量付费,质量最好的还是 GLM 。但是 GLM 是围城,买的人想退,没买的人想买,背刺老用户信誉分不佳
    shench
        36
    shench  
       4h 6m ago
    deepseek v4 目前用着感觉很不错。
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2971 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 99ms · UTC 01:44 · PVG 09:44 · LAX 18:44 · JFK 21:44
    ♥ Do have faith in what you're doing.