试用了一下 1m 上下文的 opus 4.6 ,写个计划改了两三次,但之前用 200k 的 opus 4.6 基本是一次过。
是我的错觉吗?
1
laikicka 10 小时 30 分钟前
大模型长上下文会非常容易出现幻觉.
|
2
Zy143L 8 小时 31 分钟前
不是幻觉..越往后性能越差 1M 版本的你还是当 200K 的用吧 拆分小任务给多个会话
|
3
SingeeKing PRO 长上下文确实有性能衰减;不过 Opus 4.6 衰减的程度其实不高,相比之下 GPT 5.4 长上下文情况下甚至不配称为 SOTA 了
|
4
dockerhub 8 小时 0 分钟前
必然的,目前不建议用 1M 上下文有几个原因
1. 上下文过长,出现幻觉(所谓的降智) 2. 上下文过长费用很高,即使缓存 0.1 倍,反复对话价格也奇高 3. 有什么任务是 200k 内不能解决的?那说明任务拆分得不够清晰 |
5
jiaduobao 6 小时 22 分钟前
感觉最近 opus 4.6 降智了,但 gpt-5.3-codex(high) 反而变聪明了。顺便推广中转注册送 10 美元,可以对接 cc switch 测试看看官网地址: https://ai.17nas.com/
|
6
iomect 5 小时 20 分钟前 via iPhone
长上下文后面一定会出现注意力问题 无解的
|
7
beyondstars 3 小时 50 分钟前
不要真把 AI 当作一个你的副驾驶或者知心朋友,每次对话的上下文不应该看作是“记忆”,而是一次和之前没有任何关系的全新的输入,就着这个思路,每个定义明确的子任务单开一个对话是合适的,用完即弃。
一般来说,在某次回复中,你觉得模型给你的回复已经有点离谱了,不要试图去就正它,因为上下文已经过大了,只会越纠正越差,这时就要果断新开一个对话。 |