几年前和 ChatGPT 对话聊天时感慨它什么都知道。现在深入使用 cursor 完成工作感慨它什么都会,更不要说各式各样的 Agent 。 我对 LLM 理解不是很多,只是疑惑大语言模型本质不是预测下一个词吗,为什么感觉现在 AI 涌现出了智能。
1
wysnxzm 11 小时 39 分钟前
一堆神经元组成的大脑为什么会有意识
|
2
kera0a 11 小时 37 分钟前 via iPhone
大力出奇迹!
另外我有个另外的问题 V 友普遍都认为 AI 的能力还会和过去几年一样维持爆炸性增长。 但我怎么觉得现在快到瓶颈了,毕竟怼规模已经快到上限了,是什么会维持这种增长性呢? |
3
Rickkkkkkk 11 小时 34 分钟前
一个现象可以窥探这里面是究竟如何工作的
llm 是会把词都映射到高维的向量去,比如男人、女人分别是 x1,x2 ,国王、王后分别是 y1,y2 那么会发现 x1-y1 和 x2-y2 的值是高度相似 我理解在最初的数据集训练(也就是把词映射到高维向量的过程)中,整个模型实际上是有学习到真正知识的 |
4
PalenessIb 11 小时 31 分钟前
本质上不是一种“赛博算命”吗,用户给出问题(提示词),然后 AI 来推测、计算出最佳答案,过程中需要平衡到用户和客观现实等多个层面。
|
5
kaixinyidian 11 小时 31 分钟前
人为什么会有智能?
|
6
skydcnmana 11 小时 15 分钟前 最近有一个实验,把果蝇的神经元结构复制到虚拟世界里,不需要预编程和训练,它自己就能在虚拟世界里驱动身体进行果蝇的行为,就像《万神殿》里的意识上传一样。
|
7
skydcnmana 11 小时 13 分钟前
类似蚂蚁和蜜蜂,简单的个体,组织起来就拥有了群体智能,神经元也是一样,规模化能带来质变。
|
8
shadowyue 11 小时 10 分钟前
有没有别的技术路线,现在这个模式总感觉不是正解
|
9
penisulaS 11 小时 2 分钟前
科学家也想知道
|
10
HFX3389 11 小时 0 分钟前
大概是因为原本人类的词元就是有逻辑的,不然人不可能看懂以及相互交流,现在就算是 gpt-5.4 也有语料污染的问题,就是证据之一,人类为了绕过审核发明的各种词被 LLM 认为这些词之间有逻辑,所以纳入了数据之一。
|
11
IanG 10 小时 58 分钟前
现在停下来 用大脑思考一个问题,是否也是按顺序的一个字一个字的来的
|
12
ttsh 10 小时 53 分钟前
同意 2 楼,力大飞砖
|
13
xzpjerry731 10 小时 1 分钟前 via iPhone
语言本身已经浓缩了大量人类智能,而大规模预测训练恰好能把这些结构从文本里榨出来
|
14
mengdu 9 小时 51 分钟前
|
16
moudy 9 小时 46 分钟前
说明这玩意正好印合了人类大脑的工作机制,只是人类大脑的并行度比 gpu 还是要高好几个级别
|