V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
crownz
V2EX  ›  Google

gemini 一个对话窗口用久了 胡说八道?

  •  
  •   crownz · 10 小时 2 分钟前 · 2704 次点击

    我在一个新的对话窗口 投喂了一些相关资料,主要是关于股票类方面的。 一开始用着挺好不过用了两三天,开始出现幻觉 驴唇不对马嘴 对牛弹琴似的。 大家有这种情况么? 目前是 pro 版本

    27 条回复    2025-12-25 16:50:52 +08:00
    BeijingBaby
        1
    BeijingBaby  
       10 小时 0 分钟前
    都出现过,gemini ,豆包等,偶尔都会忘记上下文,乱说一通,得人为「纠正」。
    haimall
        2
    haimall  
       9 小时 59 分钟前
    对话模式,不太适合知识库的用法。
    crownz
        3
    crownz  
    OP
       9 小时 53 分钟前
    @BeijingBaby 看来是通病哈
    crownz
        4
    crownz  
    OP
       9 小时 52 分钟前
    notebooklm 更好一点么?
    haimall
        5
    haimall  
       9 小时 52 分钟前
    notebooklm notion 可能更优,然而 notebooklm 现在可以喂给 Gemini 啊
    haimall
        6
    haimall  
       9 小时 51 分钟前
    gpt5
        7
    gpt5  
       9 小时 47 分钟前
    对话巨长的时候,我还碰到过回答错位的情况,就是每次回答不是本次而是上次或上上次的问题。我问 gemini ,他说确实可能出现这种问题,最好再开一个对话。
    haiku
        8
    haiku  
       9 小时 31 分钟前 via Android
    Gemini 网页版,上下文窗口比模型支持的最大窗口小很多,付费版好一些
    都是为了降本
    taohua1c
        9
    taohua1c  
       7 小时 23 分钟前
    别一直用一个窗口,我都是一个问题一个窗口 定时清理就好了
    yarkyaonj
        10
    yarkyaonj  
       6 小时 44 分钟前
    是因为你开了其他窗口问了别的问题吧,现在好像会参考你问过所有的问题,在设置里面可以关闭的,叫 Your past chats with Gemini
    locoz
        11
    locoz  
       6 小时 39 分钟前
    Gemini 的模型特性就是这样的,Ultra 会员的 Gemini 3 Pro 都救不了,无论是网页版还是其他地方的都这样。虽然它能支持极长的上下文,但它在上下文真正长了之后,注意力是不集中的,很容易就会出现丢三落四的情况。并且虽然你针对问之前的细节它能跟你说出来,但下一次对话只要还是上下文过长的状态,它就还是会遗漏之前说过的东西。
    maichael
        12
    maichael  
       6 小时 26 分钟前
    用啥本质上都是一样的,因为上下文有大小限制+上下文越大注意力就越难以集中。

    好的做法是预设一个基本的上下文(包括必要的限制、规则以及一些引导/案例等),每次以这个预设上下文开始做一件新的事情,让上下文尽可能短且有价值。
    qieqie
        13
    qieqie  
       6 小时 15 分钟前
    感觉 ai studio 里的才是满血版,网页 app 和 antigravity 里的 pro 不太聪明(限制了 reasoning level ),antigravity 里最近频频出现思考内容输出到 content 里,还有 AI 无法自己结束对话的问题。
    aero99
        14
    aero99  
       6 小时 0 分钟前
    是的,而且是自相矛盾,以前 AI 还会认错,现在只有狡辩
    现在最好的办法就是几个 AI 一起用,互相比照
    lneoi
        15
    lneoi  
       5 小时 49 分钟前
    上下文太多了吧,一多就上下文就得处理,处理下肯定有信息漏掉或者出现偏差了
    Hasel
        16
    Hasel  
       5 小时 38 分钟前
    上下文太多,被压缩了。压缩时候是有损,某些核心信息可能在压缩过程中会丢失。
    elevioux
        17
    elevioux  
       4 小时 34 分钟前
    这个叫做 context rot ,就是上下文越长(对话越长),AI 的回答质量越差,现阶段所有 AI 都有的通病。

    所以要每个话题新开一个窗口,所以才要做上下文工程,所以才会有各种 agent 出现。
    hammy
        18
    hammy  
       4 小时 33 分钟前
    遇到过
    notwaste
        19
    notwaste  
       4 小时 32 分钟前 via iPhone
    大家都在说上下文长度的问题,容易这个有没有一个标准,什么程度即使没达到模型上下文限制,也算上下文超标了
    kloge
        20
    kloge  
       4 小时 15 分钟前
    gemini 尤其明显
    COW
        21
    COW  
       4 小时 7 分钟前
    agent 我是一个 session 只解决一个任务。
    ask 我是在单独的 session 里问,问完就删,或者直接网页版。
    thevita
        22
    thevita  
       4 小时 0 分钟前
    这些模型支持长上下文窗口多少都用了一些 Sliding Window, Chunked Window 之类的稀疏化技术,不然成本遭不住啊, 而且超长上下文的能力也不完全算原生的,一般都是 train short, test long, 没有那么多超长的训练语料, 这个过程也都可能带来损失
    再从信息本身来讲,每个 head 的维度固定,但 attention 会加权所有的前文 token 的信息进来,应该也是存在信息瓶颈的(这纯粹是我自己瞎说的)
    zpxshl
        23
    zpxshl  
       3 小时 55 分钟前 via Android
    所有大模型都一样,gemini 尤其严重
    geminikingfall
        24
    geminikingfall  
       3 小时 51 分钟前
    gemini3 的幻觉比较严重
    Meursau1T
        25
    Meursau1T  
       3 小时 43 分钟前
    Gemini3 的幻觉率一骑绝尘:
    deepseek-ai/DeepSeek-V3.2 6.3 %
    deepseek-ai/DeepSeek-R1 11.3 %
    google/gemini-3-flash-preview 13.5 %
    google/gemini-3-pro-preview 13.6 %

    来源: https://github.com/vectara/hallucination-leaderboard
    frankies
        26
    frankies  
       45 分钟前
    gemini 是稀疏 token ,上下文一多一定会胡说八道。解决办法:一个问题开一个对话,设置里关闭记录历史数据。
    lscho
        27
    lscho  
       42 分钟前 via Android
    现在 ai 编辑器都会显示当前对话上下文使用了多少,超了之后就乱了
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   4876 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 09:33 · PVG 17:33 · LAX 01:33 · JFK 04:33
    ♥ Do have faith in what you're doing.