重置了以后明显不如上个周期额度耐用了,之前用了好几天才用了 20%,现在 2 天就 40%了,用 codeburn 看上个周期每天都是消耗 400-700 美金左右,这两天重置以后每天都是 300 左右
1
waterwawa PRO 老兄,赶紧拥抱国产模型吧。
你可以试一下 的 Langcli ,完美适配 deepseek v4 flash ,v4 pro 以及其它主流的 LLM 模型。 100%兼容 claude code 。 备注: Langcli 的仓库地址: https://github.com/LangcliTeam/langcli 我是 langcli 的贡献者 |
3
derek80 Apr 30
codex 20x 昨天一天用了 43%的周额度。 都不敢开 fast 了
|
4
elderwand Apr 30
是的,昨天我也发现了
|
5
4everyluv Apr 30
我也觉得
|
6
bestmos Apr 30
@waterwawa #1 1. built upon the leaked code of Claude Code
2. op 问的是 plan ,在这强推 agent 3. 宣传国模,readme 不提供中文 抽象 |
7
bleu Apr 30
claude 不改,你们再这么用下去就亏大了
|
10
xFrye Apr 30
各家收紧额度涨价应该是趋势了
|
11
Rehtt Apr 30 via Android
@waterwawa deepseek 本来就支持 anthropic ,而你这个用泄露的 ClaudeCode 源码改的,对比原版 Claude Code 有什么优势,Claude Code 自定义第三方 api 又不是不能用
|
12
waterwawa PRO @Rehtt
“对比原版 Claude Code 有什么优势,Claude Code 自定义第三方 api 又不是不能用” 原版除了 claude 官方的模型,你只能额外添加一个第三方模型,且在一个 session 中,你也只能在这些模型之间切换。 而在 Langcli 中,你除了使用 LangRouter 提供的主流 LLM 模型(包括 Claude OPUS 4.6, Deepseek v4 flash, Deepseek v4 pro, Kimi K2.6, GLM 5.1, Minimax M2.5 等),还可以使用你本地的 ollama 提供的模型。 最关键的是,你可以在一个 session 中任意切换所有这些模型。 |