zxjxzj9's recent timeline updates
zxjxzj9

zxjxzj9

V2EX member #710058, joined on 2024-09-11 13:40:06 +08:00
Today's activity rank 16544
zxjxzj9's recent replies
说实话这些东西就和之前的什么 skill mcp 一样, 乱七八糟一大堆只不过是把一个些正常软件工程该有的东西重新发明了一圈罢了. 难道有 ai 之前你就会一口上来就写超级大的任务, 写代码不看上下文, 不提前定义好 api, 找好技术栈就开写? 那你到底在写什么呢? 无非就是 LLM 不会拒绝, 一帮完全无视软件工程实践的哥们拉屎拉太快把屎山拉塌了, 不得不在屎堆里重新发明了软件工程的各个环节, 每次看 harness 的这些概念我都听想笑..
和类型关系不大,和封装关系很大,层数越多代码越绕越写不出来. ai 写 java 特别烂,因为 java 之前的代码之间关联就是少,光用代码跑都跑不起来. 相比之下 go rust ts 这三个属于是天选之子, 语法就那么点功能写了啥就是啥 随便跑. python js 虽然动态类型, 但是现在的 ai 有办法都提前声明上,也没那么难受
@isbase 因为 rust 是真除了逻辑 bug 以外没别的 bug, 不然你编译都过不去. 这样就算 ai 写的是"错的", 人来写也未必就是对的,只是你逻辑目标设置的有问题而已. 当然这不代表用 ai 写 rust 就能很轻松的让程序正确运行, 但是就我的体验来说重写别的库(尤其是和内核,底层操作的库)这块真的是 rust 的舒适区.
这个项目确实可以反映一些流行趋势. 毕竟新项目开的多说明就算不公开的,很多人也会因为想要利用开源生态而采用某些语言(或者加入某些语言).不过这个排名确实是会低估 java c#这种企业喜欢用的
13 days ago
Replied to a topic by giter NAS 求推荐 N100 NAS
不知道天钡的那些小主机现在多少钱. 我当年买的时候 2 盘位双网口的差不多是 900 多,其实还挺好的.
爱马仕和龙虾之类的东西不在于你的预算有多少,而在于你是否真有很多半自动化的任务需要进一步自动化. 比方说用 linux 下载东西完成后归类刮削, 或者更新日程邮件, 总结复盘交易, 或者是配置智能家居等等. 如果你没有这些半自动化的任务的进一步自动化的需求, 这些 agent 和 chatbot 没有一点区别. 顺便由于 cli 的特性尽量在 macos 和 linux 下玩,别在 windows 上玩.

爱马仕比起龙虾有一点好, 他的响应速度和搜索速度都快多了, 所以哪怕真的是闲着无聊整个玩玩,也算是个自持有 chatbot.而且比起 genmini 和 chatgpt 之类的网页版应用,爱马仕的搜索调用要积极多了, 收集信息不容易出问题.
Apr 21
Replied to a topic by Croow 程序员 真心发问,想学后端需要学啥?
很简单,买一台 nas 小主机或者服务器, 然后往上面搭服务, 什么 ai 网关/openwebui, 智能家居主控, 流媒体刮削/推送,或者用 ai 手搓什么 epub 阅读器,等你你 api 配多了你就知道怎么写后端了. 不然这东西有啥好学的不就是想出来你要怎么样把各种数据转化成 json/blob/hls 等东西和你的浏览器交互么
@woodfizky 虽然这么说很不政治正确,但是确实是存在很多年纪大了就开始固执的情况.. 我也碰到过几个年纪大了不肯看 ts 代码的
Apr 20
Replied to a topic by jdjingdian Local LLM 本地部署靠不靠谱?
我研究了一圈感觉最合适的就是以比较低的价格买 395max, 然后跑跑简单任务或者整点龙虾 Hermes agent 这种东西,干不来太多超长上下文的重活. 真的干重活老老实实买 api 套餐吧. 而且 395max 可以上 linux, 自己会折腾能释放出比原装更高一点的潜力.

DGX Spark 现在也有一定性价比,但是这机器本身三分之一的价格在网卡上, 只买一台根本用不到. 不过考虑到一张 5090 和 spark(gb10)方案的机器价格都差不多了, 所以真的要上还是值得上的. 这个对商用用户来说其实是更好的选择,因为很容易上集群,上了集群就可以自己训练.本身那个金灿灿的盒子颜值也很高.

然后就是苹果. 讲真苹果目前 m5 max 的性能是完全碾压其 a 和 n 两家的. 如果苹果能出 48G 版本的 m5 pro mac mini, 这个其实是最甜点的,普通人跑跑的模型差不多 48-96 这个版本就够用了. 而 m5 推理层可以用飞快来形容, 苹果的统一内存带宽也高,不训练只推理用苹果其实是最舒服的. 就是现在 studio 和 m5max 的价格太贵了,而且只有 macbook pro 也很难当一个随时待命的服务器.

算力最强的当然是 5090 ,但是功耗和价格摆在那里, 而且还有额外的装机成本. 如果真的手搓,还有个选择就是英特尔 b70 计算卡,但是 b70 也就是 32g,其他内存硬盘最近这价格硬顶到最后也很难比 aimax 便宜.如果硬盘内存价格能再回落一点可能 b70 会是纯推理性价比更好的选择.
@LXchienne 那不然呢? 我会编程我也懒得看
About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   1104 Online   Highest 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 14ms · UTC 18:23 · PVG 02:23 · LAX 11:23 · JFK 14:23
♥ Do have faith in what you're doing.