opencode?DeepSeek TUI?还是 cursor 中使用 deepseek 模型效果更好,缓存利用最高?
1
quan01994 15h 6m ago
claude code .
|
2
JoeJoeJoe PRO 我是直接 copilot 里面接的, 用官方的插件感觉比 oai 接缓存命中更高一些, 也有可能是错觉.
https://api-docs.deepseek.com/zh-cn/quick_start/agent_integrations |
3
94 14h 24m ago
CC 吧,或者 Cursor ,有非常多细节上的优化。
OpenCode 应该也可以。其他社区开源的 TUI ,应该在细节上还是会有明显差距。 |
4
Malthael 11h 55m ago via Android
vscode
|
5
renfei 11h 37m ago
claude code cli 非常好用
|
6
longaiwp 11h 35m ago
OpenCode 或者 Claude Code ,前者缓存命中非常高,后者功能非常强。
|
7
ko20 10h 37m ago
用的是 opencode ,感觉还是很好用的…… 可能我没用过多少其他家的 client
|
8
chunqiuyiyu 10h 11m ago
接入 claude code 非常强大。
|
9
myth PRO claude code 接 DeepSeek v4 pro 几天用下来,很好用了。
|
10
SJ2050cn 8h 53m ago
VSCode 里装一个`AI Chat Models`插件,就能在 copilot 里使用,缓存命中挺高的,还能实时看消耗。
|
11
utodea 7h 7m ago
可以试试我的这个: https://github.com/usewhale/whale ,也是 DeepSeek-Native CLI.
deepseek-v4-pro: 1373 turns · 106.2M tokens · 97.2% cache |