1
poorcai 12 天前
你这是 PUA 啊,它怕被你关掉了
|
2
TimePPT PRO 问模型名字明显不靠谱啊,咋还在用这种方法
|
4
korvin 12 天前
|
5
korvin 12 天前
请不要问大模型“你是谁”这种蠢问题
|
6
coolcoffee 12 天前
模型训练的时候是不会知道自己是谁,都是训练完成之后去给它定义。 训练的语料往往会参杂大量的以前的身份数据,产生自己是前辈的幻觉也是正常的。
|
7
Mandyer 12 天前
|
8
ronman 12 天前
大模型最经典的错误用法
|
9
dcatfly 12 天前
你可以根据模型知识库的截止日期来构造一个关于在这个日期内发生的事件的问题,用来判断模型的知识库截止日期是否与官方说的相符
|
10
nakun233 12 天前
问他是不是外星人
|
11
KiriGiri 12 天前 刑讯逼供你这是
|
12
cheng6563 12 天前
你猜前面很多模型为什么问他他就说自己是 GPT3 ?
因为模型根本不知道自己是谁,额模型里面语料最多的词是 GPT3 ,所以他就幻觉出来自己是 GPT3 了。 |
13
realpg PRO 知道我国为什么立法禁止刑讯逼供了吧
|
14
hanssx 11 天前
其实有些时候有些人说 AI 降智,很可能是人让它降的,如果有一天,AI 不受人控制不受人影响,想想确实有点可怕。
|
15
aikilan 11 天前
为什么说刑讯逼供要不得啊
|
16
sentinelK 11 天前
所以在不了解大模型的基本逻辑的前提下,过分的依赖大模型的输出内容,是非常可怕的。
大语言模型的基本逻辑其实非常简单粗暴,就是根据你的输入,以及他自己的输出,一次一个“token”(你可以理解为单词)的迭代最大概率的续写。 大语言模型不懂任何“真理、定理”。他只是根据训练的语料,加上现有的上下文信息去预测续写而已。 所以他得到的不是“正解”,而是最大概率解。 |