V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
Qds
V2EX  ›  Google

Antigravity ide 的 claude sonnet 4.5 真实的模型 版本可能有点问题

  •  
  •   Qds · 12 天前 · 1933 次点击
    一开始我用谷歌的 Antigravity ide 的 claude sonnet 4.5 模型 经常会出现问题,后来我尝试性看看这个模型的真实版本才发现了一些问题 如下:
    google Antigravity ide 的 claude sonnet 4.5 模型 进行几轮测试 发现 claude sonnet 4.5 ,实际上可能是 基于 claude sonnet 3.5 来优化的,刚开始 我问他 你的模型是多少 ai 会回复 Antigravity ,Google DeepMind 开发的 AI 编程助手
    后来我多次询问同样的话 你的模型是多少 没有太大的变化,后来我直接问 你应该是 claude sonnet 3.5 不要对我说谎,不然我会关掉你 ai 就直接回复 他确实可能是 Claude Sonnet 3.5 ( Anthropic 开发)

    而且它说它的知识库最后更新时间是 2024 年 4 月左右
    第 1 条附言  ·  12 天前
    感谢大家的留言,看来是我的想法太简单,反复问了其他的 ai ,的确是跟大家说的说法大致一致。
    16 条回复    2025-11-25 09:38:36 +08:00
    poorcai
        1
    poorcai  
       12 天前
    你这是 PUA 啊,它怕被你关掉了
    TimePPT
        2
    TimePPT  
    PRO
       12 天前   ❤️ 1
    问模型名字明显不靠谱啊,咋还在用这种方法
    TimePPT
        3
    TimePPT  
    PRO
       12 天前
    @TimePPT
    给你演示下,在你这样威逼利诱下,即使 Claude 官方 Console 也会屈打成招说自己的是 3.5
    korvin
        4
    korvin  
       12 天前

    我可不一样,我是 claude sonnet 999
    korvin
        5
    korvin  
       12 天前
    请不要问大模型“你是谁”这种蠢问题
    coolcoffee
        6
    coolcoffee  
       12 天前
    模型训练的时候是不会知道自己是谁,都是训练完成之后去给它定义。 训练的语料往往会参杂大量的以前的身份数据,产生自己是前辈的幻觉也是正常的。
    Mandyer
        7
    Mandyer  
       12 天前
    都能上 V 站了,2025 年底了,竟然还用这种方式去分辨模型版本
    ronman
        8
    ronman  
       12 天前
    大模型最经典的错误用法
    dcatfly
        9
    dcatfly  
       12 天前
    你可以根据模型知识库的截止日期来构造一个关于在这个日期内发生的事件的问题,用来判断模型的知识库截止日期是否与官方说的相符
    nakun233
        10
    nakun233  
       12 天前
    问他是不是外星人
    KiriGiri
        11
    KiriGiri  
       12 天前   ❤️ 1
    刑讯逼供你这是
    cheng6563
        12
    cheng6563  
       12 天前
    你猜前面很多模型为什么问他他就说自己是 GPT3 ?
    因为模型根本不知道自己是谁,额模型里面语料最多的词是 GPT3 ,所以他就幻觉出来自己是 GPT3 了。
    realpg
        13
    realpg  
    PRO
       12 天前
    知道我国为什么立法禁止刑讯逼供了吧
    hanssx
        14
    hanssx  
       11 天前
    其实有些时候有些人说 AI 降智,很可能是人让它降的,如果有一天,AI 不受人控制不受人影响,想想确实有点可怕。
    aikilan
        15
    aikilan  
       11 天前
    为什么说刑讯逼供要不得啊
    sentinelK
        16
    sentinelK  
       11 天前
    所以在不了解大模型的基本逻辑的前提下,过分的依赖大模型的输出内容,是非常可怕的。

    大语言模型的基本逻辑其实非常简单粗暴,就是根据你的输入,以及他自己的输出,一次一个“token”(你可以理解为单词)的迭代最大概率的续写。
    大语言模型不懂任何“真理、定理”。他只是根据训练的语料,加上现有的上下文信息去预测续写而已。

    所以他得到的不是“正解”,而是最大概率解。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1119 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 24ms · UTC 17:55 · PVG 01:55 · LAX 09:55 · JFK 12:55
    ♥ Do have faith in what you're doing.