当我们让 GPT-4 帮助我们解决编程问题时,它可能会生成一段看起来完美的代码,但实际上,这段代码可能并不能解决我们的问题,或者它的解决方案可能并不是最优的。这是因为 GPT-4 并不理解代码的含义,它只是模仿它在训练数据中看到的代码模式。这种现象被成为幻觉,用 GPT-4 久了的话,基本都会体会到。
识破这种幻觉的关键在于理解 GPT-4 的工作原理,以及它的局限性。我们需要意识到,GPT-4 并不理解我们的问题,也不理解它生成的答案。它只是一个非常复杂的模式匹配器,它的目标是生成看起来合理的文本,而不是解决我们的问题。当我们使用 GPT-4 时,我们需要批判性地思考它的回答,验证它的答案,甚至需要寻求其他专家或资源的帮助。只有这样,我们才能充分利用 GPT-4 的能力,同时避免被它的表面表现所迷惑。
在让它做一个题目过程中,发现它又出幻觉了,然后就开始了让它认错,以及验证的过程,具体看 GPT4 解 Leetcode 题目:识破 GPT4 的"幻觉"。
整个 ChatGpt 的对话也有分享。
1
cloud2000 2023-06-13 17:53:40 +08:00
试试在提问之前加一个提示:
"Let's think step by step". 可能有新的发现. |
3
cloud2000 2023-06-14 13:11:35 +08:00
因为它不能每次正确, 就判定其没有智力, 是不是略牵强...
就像我们不能因为某人有时犯错就断定"他是个傻子". "模式匹配","文字接龙"...属于流传很广的说法, 没有在根本上解释大模型的"涌现". 大模型本质属于黑盒子, 所以在学术界也有一些争议. |