总所周知,gpt 类问答机器人都存在可能牛头不对马嘴甚至睁眼说瞎话的情况存在,那么各位有什么方法或者技巧能不被误导或者如何将错误降到最低?
1
SenLief 2023-04-29 17:16:32 +08:00
除了编程的其他的都认为不准确。
|
2
coderluan 2023-04-29 17:26:05 +08:00
再拿 google 搜一遍喽
|
3
wooyuntest 2023-04-29 17:28:57 +08:00
他是语言模型,不是思维模型。
|
4
pirredelu 2023-04-29 17:36:02 +08:00
拿他输出的结果,问问他这个结论有什么问题
|
5
rorschachyoung 2023-04-29 17:44:47 +08:00
实践是检验认知真理性的唯一标准
|
6
Lightbright 2023-04-29 17:45:50 +08:00 via Android
用 gpt4🥰
|
7
Alias4ck 2023-04-29 18:01:18 +08:00
只能做参考, 具体得实践
|
8
NoOneNoBody 2023-04-29 18:11:21 +08:00 1
你把它看成这里某个成员就是了,你在这讨论、辩论的时候,有人说你不知道的“新事物”,你不去求证一下就信么?
|
9
me221 2023-04-29 18:24:55 +08:00
一个月就 20 刀你还要它怎样
它有思维了第一个干掉你 :dog |
10
icyalala 2023-04-29 18:35:57 +08:00 9
https://m.weibo.cn/status/4892506347014260
可以参考陶哲轩的思路。你知道你自己去搜内容也会出错,那当然也要明白 GPT 也会出错,所以你可以把它当作一个思维发散模式来用。就像福尔摩斯会和华生聊天,华生的话不一定是正确的,但能启发福尔摩斯发现真相。 |
11
benwwchen 2023-04-29 19:44:40 +08:00 1
确实有时候事实差很远的时候还是会说得头头是道,就算查了告诉他还是会认错但继续瞎编。感觉跟训练时候的 loss 有关,导致就算事实错了也会尽量说得很像一回事,所以问它自己可能也不知道它对自己的回答有多自信。有时候编程问偏门领域的时候遇到这种情况还是挺烦的,要是之后有改进模型可以输出对事实部分的置信度就好了,不过 LLM 的优势就是无标签用大量数据训练,所以也不是个容易的改进。
|
12
yankebupt 2023-04-29 19:54:19 +08:00
有 RLHF 加 RLHF ,没条件的话,尽量 Prompt 说死一点,让他犯错误的时候撞上 openai 自己的 RLHF ,借用一下
犯错误没办法,毕竟 transformer 置信度才 0.1 ,就不是个严格 AI |
13
ChefIsAwesome 2023-04-29 20:04:19 +08:00
|
14
yuanix 2023-04-29 20:09:44 +08:00 via Android
让它给出信息源,自己再根据信息源判断。如果是它编的,在这一步有几率认识到它自己的错误。当然,它给的所谓信息源链接可能也是编的,点进去确认一下参考资料是否真实存在,存在的话是否权威。
|
15
xylxAdai 2023-04-29 20:11:46 +08:00
给信息源嘛。对于未知的领域,你自己 google 一样没法识别真假。
|
16
hahastudio 2023-04-29 20:32:33 +08:00
不问,因为我觉得以现在的出错率,不管问什么最后还得我自己去查一查,那我为什么要多道工序
拿来开拓一下思路还可以 |
19
akira 2023-04-30 00:24:01 +08:00
让他自己重新检查回答的内容, 如果是明显错误是可以自己发现的
|
21
alex8 2023-04-30 21:52:29 +08:00
|
22
mushuanl 2023-05-01 07:39:24 +08:00 via iPhone
“解释你的回答背后的原因。” 让 ChatGPT 解释其思考过程可以帮助您更好地理解它是如何得出结论或解决方案的,还可以提供可能对您有用的额外上下文。 可以试试看
|