codex 登录要手机号,加上之前的某境外大厂的账号莫名其妙被 ban ,想着用国产的得了,至少登录啥的省事不少。
现在国内的哪家好用点?
现在国内的哪家好用点?
1
anghunk 22h 18m ago
百炼吧,目前我主力是这个
|
2
yjz1409276 21h 3m ago
我用 gpt ,公司订了火山 pro ,只能说一言难尽
|
3
Chisa 20h 1m ago
最强是 GLM5.1 ,性价比的话就是 opencode go 套餐用 DeepSeekV4 pro 。官网直接充钱也行
|
6
JerningChan 19h 13m ago
我怎么觉得,自己在 5090 上部署 qwen3.6 27b 用 cc 对接写代码,也很不错,可能我的项目比较简单?
最早时,接 qwen3.6-35b-a3b 也很不错 |
7
frantic 19h 7m ago
GLM 抢不到的话,我觉得 KIMI 199 档年费订阅最划算,其次是 deepseek 不走订阅,直接用 api, 我高强度用一天大概 20 不到
|
8
rb6221 18h 51m ago
性价比肯定是 DS 啊毫无疑问。。现在阶段还有别的吗
|
9
ptstone 16h 54m ago
我看抖音上的评测,最强编程应该时 kimi2.6
|
10
ptstone 16h 53m ago
@JerningChan 你使用 vllm 吗
|
11
hutng 16h 42m ago
@JerningChan 开不开思考模式?怎么接入的?我也是本地,webui 看速度 40t 左右,我打开思考模式,cc 和 opencode 都感觉特别慢,寸步难行,使用的是 cc-switch 接入的。不知道是哪里出了问题
|
12
sentinelK 16h 30m ago
@hutng 用的是什么硬件?使用 Agent 工具调用本地 LLM 的时候,首次启动的输入 token 少则 5~6K ,多则 10k 起步。prefill 速度比 decode 速度还要重要。5090 的 prefill 速度大概是 3000+t/s 。
如果设备的 prefill 速度不过千,那就相当于每次调用 LLM 都要罚站。 |
14
sentinelK 16h 10m ago
@hutng 是的,如果是 llama.cpp 可以用 llamabench 来验证下。pp 是输入速度,tg 是输出速度。
Agent 执行一次任务要无数次交互 LLM(查网址、跑终端、改代码),每次都要罚站。和 chat 场景完全不同。 |
15
sharpy 16h 8m ago
性价比的话 deepseek v4 flash
pro 没有 coding plan 还是比较贵的 综合下来,opencode go ,首月 5 刀 |
17
hutng 16h 2m ago
@sentinelK #14 好的,感谢,显卡不行,27B 不太行,换 35B A3B 了,开启 MTP 刚测 小上下文情况,预填充 1500 ,生成 100 勉强可用了。
|
19
mandex 15h 57m ago
订阅了 Kimi Code 199 档那个,付了年费。DeepSeek 冲了点钱,感觉也还行。
|
20
ooooo00000ooooo 15h 35m ago
https://www.coding-plan.xyz/
这里有几乎所有国内套餐和网友评价。 |
21
hiqxy 15h 34m ago
cursor 吧 省事,auto 效果也比国产的好很多
|
22
crocoBaby 15h 22m ago
vscode 的 trae 插件,免费使用不用排队~
|
23
wy315700 15h 17m ago
论性价比当然是 DeepSeek
|
24
wsbqdyhm 15h 1m ago via iPhone
@JerningChan #6 这个我也在用,五成 minimax ,三四成 ds4 的样子
|
27
watzds 14h 20m ago
GLM5.1 还行
|
29
renothing 13h 50m ago
别买 kimi code 那种废物,一个会话没结束,就触发限制了.
我现在主要是 DeepSeek pro 干活.配合 GLM 来验收 |
30
ntdll 13h 43m ago
便宜的话,现阶段毫无疑问是 deepseek
|
31
JerningChan 11h 49m ago
@wsbqdyhm 哦?其实我觉得现在用 cc 对接,只要模型不是那种什么 9b 的小模型,其实用起来,协助改改代码的都很不错啊
|
32
JerningChan 11h 45m ago
@hutng 开啊
-m /data/qwen3.6/Qwen3.6-35B-A3B-UD-IQ4_NL_XL.gguf \ --mmproj /data/qwen3.6/35b-mmproj-F16.gguf \ --ctx-size 73728 \ -ngl 99 \ --host 0.0.0.0 \ --port 8080 \ --temp 0.6 \ --top-p 0.95 \ --top-k 20 \ --min-p 0.00 \ --flash-attn on \ --cont-batching \ --cache-type-k q4_0 \ --cache-type-v q4_0 \ --threads 15 \ --parallel -1 \ -b 1024 \ -ub 1024 \ --chat-template-kwargs '{"enable_thinking": true, "preserve_thinking": true}' \ --metrics \ --jinja \ --alias Qwen3.6 |
33
JerningChan 11h 44m ago
@hutng 这个是 2080ti 22g 的设置,公司 5090d 就可以调大上下文到 256k ,然后换 27b 模型
|
34
JerningChan 11h 42m ago
@ptstone 无,我纠结了下,还是用 llama.cpp 算了
|
35
S0lution 11h 37m ago
现在国内就 GLM 、DeepSeek 、KIMI 、千问,性价比肯定是 DeepSeek 按量付费,质量最好的还是 GLM 。但是 GLM 是围城,买的人想退,没买的人想买,背刺老用户信誉分不佳
|
36
shench 4h 6m ago
deepseek v4 目前用着感觉很不错。
|