kandaakihito 最近的时间轴更新
kandaakihito

kandaakihito

🏢  下北沢無料案内所
V2EX 第 478739 号会员,加入于 2020-03-25 10:56:41 +08:00
今日活跃度排名 13305
我玩原神
根据 kandaakihito 的设置,主题列表被隐藏
二手交易 相关的信息,包括已关闭的交易,不会被隐藏
kandaakihito 最近回复了
虽然但是,这种问题直接问 ai 不就好了么。。。?

甚至都不要问 ai ,直接看文件名和后缀也能猜个大概吧。
1 天前
回复了 COW 创建的主题 程序员 以后验收是不是得控制代码行数了
大部分的 B2B 项目应该都是长期合同,折磨的应该也是乙方的牛马(?)
快进到纯手写代码是太祖爷留下的祖训,咱坚决不用 AI 儿~
怎么一到周末就开始键起来了(

看完上面的回复,我姑且歪个楼复读一个热知识: [个体的命运并不一定和国家绑定] 。

更何况题主问的是:“什么才是支撑一个国家竞争力的核心”,主语是“国家”,而非个人。
题主已经认为不是天才的普通人的命运是不被值得讨论的了。
学,当然学。

题主的意思应该是,整个世界的时间线倒退回我 18 岁的时候,并且记忆完整保留。

那我当然是继续学 jvav 啊,从 1 出发总比从 0 出发来得快,至少大一就能很清楚自己要搞什么。
选 GPT 5.2 有这种问题,但是最多也就等三四秒吧好像,用其他模型倒是都没遇到
5 天前
回复了 sivyer 创建的主题 编辑器 Java 程序员使用 VsCode,感觉好别扭
谢不邀,咋感觉评论区跟我想象得好像有点不一样啊。。。完全没有人提 PSI 与 LSP ,以及 JB 家的现状(?


1. 现状就是,去谷歌问“What is the best editor for Java?”,上面的 ai 回答就是 idea 。

JB 家的那套 PSI 引擎比 Java 现有的 PSI 实现要牛逼非常多,用 idea 和 vsc 写过 spring 代码的都知道差别有多大,在大型项目上完全不是大模型靠瞎猜能抹平的差距;


2. 红迪上有一篇帖子叫“JetBrains not making or supporting an editor agnostic LSP server is harming Kotlin's growth.”,一年前的。

简单来说就是,没有什么很好的 Java LSP 实现,甚至就连 JB 自家的 kotlin 的 LSP 也很难评;


3. 这篇帖子貌似没看到有人吐槽 JB 家 IDE 吃内存?

但是没办法,人家全公司就 2600 人,要开发和维护这么多东西,肯定是要选择当时( 2001 年)最稳妥的跨平台桌面端实现方案,除了 Java 别无他法。导致的结果就是每点开一个 ide 就干掉 2GB 运存;


4. JB 家和老毛子有很微妙的关系。

HN 上( 2021 年)就有人说 JB 大部分员工都在圣彼得堡,22 年之后 JB 官方声明是帮助公司的俄国人都“应润尽润”了,但是不知道这波 relocate 会损失多少核心骨干到底。

而且他们润的地方也很微妙,润到捷克去。。。感觉和他们现如今的成就以及地位有那么点不匹配?不知道好不好招人。

这可能间接导致了他们在 ai 方面的开发节奏放缓;


5. 有同样的帖子分析是说,vsc 背后的微软是上市企业,有业绩增长要求的。相比之下,jb 这种小公司内部风气则比较人性化(?)一点?

我不知道,这点是网友纯瞎猜的,当我没说。

另外就是,JB 管理层自己也知道,他们的护城河只剩 PSI 了,所以肯定不能公开这玩意,于是只剩下自己玩,红迪上有人抱怨;


难得这篇帖子没人说些有营养的内容,留下了充足的空间给我键了个爽(
但是 v 站不能删帖就比较难搞,万一有些地方翻车了只能丢脸丢到底。。。
8 天前
回复了 0x01Dev 创建的主题 职场话题 你们身边有因为 AI 失业的程序员么?
现在国内的就业市场更多只是在维持惯性罢了,暂时还没开始大规模裁人而已。

现在都在砸钱搞算力,等过两年算力极大丰富,甚至算力不要钱的时候,可能都不需要什么产品、前后端、运维了。

直接老板拉人脉搞到项目和资金,然后大模型从早跑到晚跟抽卡一样,老板时不时过去瞄一眼有没有 SSR ,有就拿出来卖就行了。

届时起码九成的一线岗位都将可能完蛋。。。
8 天前
回复了 510908220 创建的主题 生活 2026 年了,都有什么规划
1. 不饿死,不暴毙街头;
2. 保住工作;
3. 六月前考个 PTE 并且拿到能接受的成绩?
4. 还在纠结要不要去学 HCIE 的;
12 天前
回复了 huc2 创建的主题 奇思妙想 基于 AI/VLM 做 OCR 的需求大吗?
最近刚好在玩 ocr 和 vlm 这类玩意,发现 qwen 的 8b 以下模型根本处理不了复杂图片,要想不浪费人力复核就得一步到位使用 32b 的 vlm ,另外输出格式也是一道坎
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   5891 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 15ms · UTC 02:18 · PVG 10:18 · LAX 18:18 · JFK 21:18
♥ Do have faith in what you're doing.