ClericPy

ClericPy

V2EX member #135159, joined on 2015-08-25 23:44:43 +08:00
没人讨论下最近热门的 Codon 和 socketify.py 么
Python  •  ClericPy  •  Dec 18, 2022  •  Lastly replied by ClericPy
18
终于等到你, 单文件解释器: pyoxy?
Python  •  ClericPy  •  May 19, 2023  •  Lastly replied by ClericPy
10
雪中悍刀行电视剧感觉还可以, 也算用心拍
分享发现  •  ClericPy  •  Dec 16, 2021  •  Lastly replied by ClericPy
22
ClericPy's recent replies
@zsj1029
是啊,我以前一直是 3 个 glm5 turbo + 1 个 5.1 ,结果没见它调用过 5.1

此外 effort Level 用垃圾模型会开到 high 、max ,用 5.1 的时候默认或 auto 似乎就够了。

既然你也赞同三小一大,那我不用三大一小了,太慢。spec 写的好,需求说的清楚,根本用不着太聪明的模型
所以一直在纠结 claude code 设置的时候
是三个 flash + 一个 pro ( opus ),
还是三个 pro + 一个 flash ( haiku )
随便找个大模型建议用后者,但看你体验前者也没啥问题?
TPS 100+ 的国产模型里,我一直在各种套餐里反复横跳,不知道哪个聪明

minimax2.7-highspeed 、glm5-turbo 、deepseekv4-flash 、mimo2.5

claude code 里约束好各种 md 以后,基本看不出来有啥搞不定的事情,估计是已经被我限定了改动方向了,不像一些人让它自由发挥。TDD + SDD 以后确实很少出问题了
跨团队时候丢个 spec 文档挺省事的,不耽误两头时间,联调时候谁和文档对不齐谁去修。好久没见过正经 PRD 之类的东西了

就是不太喜欢折腾 openspec 或者 speckit ,基本 superpowers 一路点点点,最后生成个文档

昨天装了 cc 自带的 feature-dev 技能,似乎也能做到差不多的事
@blushyes 都有这问题,linux 上还有 tmux 用,Windows 上的终端真都一坨。。。

terminal 分屏用了一会,后来也放弃了

现在各种生态工具雨后春笋一样,感谢开源
早晨一睡醒还刷到个叫 nezha 的类似的

反正 vscode 还够用继续观望着,让子弹飞一会,现在的浏览器和编辑器动辄三四 GB 内存真的很蛋疼
下午 5.1 国内版的慢的要死,都以为没法用了,换回 turbo 勉强够使了。控制台里它怎么有脸说 pro 版 tps 在 80+ 的
@teaguexiao 我试试打印时间,CCSwitch 有计算每个请求的 Token ,这样应该可以搞定,感谢。
现在对输出速度快的爱不释手。
@qf19910623 没点到回复你。看上面吧

opencode go 折腾一晚上,最后还是靠代理模式转的。

ollama 倒是一下就配置好了,也是代理模式

点测试就没比 glm5 turbo 快的( 600ms ),其他所有国内外的都 2s+
ollama cloud 试了免费的,马马虎虎不快不慢的

买了一个月 opencode go ,官方文档给的方式没法直接配到 cc 里,靠 complete 接口开代理( cc-switch )用上了,速度不是很快的感觉

准备试试 highspeed 的 M2.7

唉,如果能有个平替 GLM5 turbo 的也行,这东西首 token 也快 TPS 也高,太爽了。。。最后实在没选的再看看买它吧,续费不让用 starter 套餐了
About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   4531 Online   Highest 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 39ms · UTC 04:07 · PVG 12:07 · LAX 21:07 · JFK 00:07
♥ Do have faith in what you're doing.