Taikyo's recent timeline updates
Taikyo

Taikyo

V2EX member #209230, joined on 2017-01-04 21:13:11 +08:00
Today's activity rank 6593
求推荐适合冷萃的咖啡豆
咖啡  •  Taikyo  •  Mar 27, 2025  •  Lastly replied by qiaosiren
12
摄影入门求微单推荐
摄影  •  Taikyo  •  May 10, 2021  •  Lastly replied by zellalan
7
收个 PS4 Pro
二手交易  •  Taikyo  •  Jun 1, 2020  •  Lastly replied by cd2want
17
迫于不看或看完不想看了,送书
免费赠送  •  Taikyo  •  Oct 6, 2019  •  Lastly replied by Taikyo
18
迫于显示器太大,出一个 32 寸 4k 显示器
二手交易  •  Taikyo  •  Jul 29, 2018  •  Lastly replied by Taikyo
12
Taikyo's recent replies
Dec 13, 2024
Replied to a topic by Taikyo 咖啡 求推荐适合冷萃的咖啡豆
@Varsion13 佬,有豆子推荐吗
Dec 13, 2024
Replied to a topic by Taikyo 咖啡 求推荐适合冷萃的咖啡豆
@lear7 好像挺多人都推荐埃塞的,我去买来试试
Dec 13, 2024
Replied to a topic by Taikyo 咖啡 求推荐适合冷萃的咖啡豆
@Varsion13 @wanghh 多谢两位佬
Dec 13, 2024
Replied to a topic by Taikyo 咖啡 求推荐适合冷萃的咖啡豆
@lcstyle 多谢老哥,我去淘宝看看
对了,针对 4 楼的问题,我讲下我的理解,因为大语言模型回答的时候,是通过激活跟上下文相关的权重网络进行理解和回应的,并不是检索数据的过程,假设把 context 只针对本次 session 的参数,可能会有另一个问题,就是 context 如果是错误的,根据错误的权重网络,那么就会推导出错误的结果。
训练数据训练的过程其实不是记忆全部数据的过程,而是学习语言规律,用法,结构的过程,训练过程中会调整参数,在训练结束后,这些参数就是大语言模型的 “长期记忆”,而聊天的上下文,会传给大语言模型进行推理,找到权重相关的内容,然后组织出答案。上下文越多,关联的东西就越多,大语言模型需要进行更多的文本分析和激活更多的参数权重,所以就约束了参数的上下文长度。
上面那个是我跟 chagpt-4 一起交流出来的,然后梳理出来的我的理解,有错的欢迎交流指正
如果原文是英文的话,蹲个原文
同样用 2 楼那个字体,中文叫霞鹜文体
Apr 22, 2023
Replied to a topic by sjmcefc2 程序员 想请教 windows 上如何阅读 epub?
@iloveoovx readwise
Mar 26, 2023
Replied to a topic by djyde 程序员 28 岁,我还想生猛下去
@zhaorunze 要不你分享下你的经历?
About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   3837 Online   Highest 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 20ms · UTC 04:31 · PVG 12:31 · LAX 21:31 · JFK 00:31
♥ Do have faith in what you're doing.