1
linbenyi PRO 根据长尾。人类总要解决很长的。变化多样但是小概率的事件。
其实题主说的对。变相抑制了初级岗位的成长。 |
2
wuxi889 23 小时 42 分钟前
可以。看看周末的 Claude Cowork 新闻
|
3
iOCZS 23 小时 42 分钟前
人类是一台判决机器
|
4
dog82 23 小时 30 分钟前
看闫俊杰的访谈,他提了个:模型即交付 的概念,AI 领域普通程序员能做的很少,而且会越来越少
|
6
KinBob 22 小时 51 分钟前
人要是自己不写代码,debugg 能力也会退化的,所以感觉 ai code + 人 debugg 售后的模式不是个好模式,大概率得等到 ai 更深度的应用才行
|
7
iorilu 22 小时 34 分钟前
那肯定阿
现在人成了打下手的, 人能发 prompt, 当然可以让 ai 自己发 prompt 指挥另一个 ai 干活 |
8
CH122 21 小时 41 分钟前
当人类不再有任何知识、思想产出的时候,ai 还能进步吗,或者说 ai 可以到能思考的程度吗
|
9
enrolls 21 小时 24 分钟前
还差一点东西,能立即 fine tune 最新的文档和代码;或者 这个代码组件的包 fine tune 一次入 llm ,让它了解上下文,基本不用干了。
|
10
midraos 19 小时 51 分钟前
我认为当前这种形态的 AI 是不行的,如果某天变成:用户提出需求 --> AI --不经过编码、编译--> AI 自身直接模拟出该应用时,才是码农失业的前夕
|
11
strobber16 19 小时 30 分钟前 via Android
得特化才行。再训练专门做项目设计的 ai ,和负责写实际代码的 ai 分开
|
12
sentinelK 18 小时 49 分钟前
从演进的流程上来讲,确实是这样。一开始的 AI Coding 主要体现在 Tab 提示,然后逐渐演进到 Chat ,然后再演进到 Agent 。
总体上来讲,一定是人的干预越来越远离实现本身。 但讨论这个没什么意义。 首先,因为提出需求的是人,这就导致人必须参与输入。你不输入你的需求无从表达。 其次,相同的需求,表达方式多种多样,总会有人掌握更优秀表达需求的能力。 最后,你要明白为何目前的统计学 AI 的解决方式是 Agent 。因为是基于目前的上下文能力,以及模型向量转换次数所限。最终的终局,AI 产出一定不是 Agent 的。 你看现在还有人讨论“提示词工程”么?还有人因为写提示词更好引以为傲么? 在我看来,Agent 就像是提示词工程一样,只是基于有限能力下的临时性解决方案。仅此而已。 |
13
OliverDD 17 小时 39 分钟前 它只是概率模型,你让概率去碰撞概率,就是无限猴子定理:“让一只猴子在打字机上随机地按键,当按键时间达到无穷时,几乎必然能够打出任何给定的文字,比如莎士比亚的全套著作”。
|