V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
red13
V2EX  ›  问与答

你们会信 AI 说的话吗?

  •  
  •   red13 · 16 小时 29 分钟前 · 1697 次点击

    我会信,AI ( chatgpt )在认知能力和项目战略方向判断上比我的商务合伙人水平高的不是一星半点,可以说是张良和樊哙

    huhalo
        1
    huhalo  
       16 小时 25 分钟前 via Android
    相当于问:你相信计算器的计算结果吗?
    CNN
        2
    CNN  
       16 小时 23 分钟前   ❤️ 5
    非 100%,有时涉及到数据 AI 更新不及时或理解有误导致回答跑沟里

    整体而言,信任度约九成。
    YanSeven
        3
    YanSeven  
       16 小时 23 分钟前   ❤️ 2
    对 AI 的信任不同于对计算器和应用程序的计算了,这个是基于严格的 bit 计算的,如果出错了,可以骂软件骂硬件。

    然而对 AI 的信任类似于对身边朋友的信任和忠实手下办事能力的信任,他是可能出错了,你不能无条件无脑的放权和信任,不然出了事儿,反正是你自己承担后果。
    renchong
        4
    renchong  
       16 小时 9 分钟前
    你商务合伙人也是这么觉得的
    shendaowu
        5
    shendaowu  
       16 小时 3 分钟前   ❤️ 1
    OP 数学还行吗?还行的话建议了解一下贝叶斯主义。我看你没有表达出相信的程度所以我感觉你应该是不了解这个。我是很想深入了解这个但是苦于数学不行和没时间。经典概率我都忘光了,这个比经典概率还复杂。据说是非常好的决策工具。只有信和不信据说是非常影响决策的。据说在贝叶斯计算中 0% 和 100% 的相信是大忌。当然这可能只是涉及重大决策才需要这么搞,某些不重要的东西是不需要这么麻烦的。当然前提是你确实不重视相关结果,并且愿意承担不理性对待的结果。比如对于生活中的一些看似琐碎的小问题。

    还有大语言模型有一种很危险的能力,就是能让没什么根据的东西看起来很有根据,特别是对于批判性思维不强的人。
    ericguo
        6
    ericguo  
       16 小时 3 分钟前
    这是不同维度的对,你的商务合伙人的判断在他的维度是对的,ChatGPT 在祂的维度也是对的(假设人类和 ChatGPT 基于各自的信息维度的推理总结过程都没有问题),所以这里的关键问题不是你信谁,而是你自己的维度到底和谁的近似或者接近?
    loading
        7
    loading  
       15 小时 53 分钟前
    比起人与人之间因为各种原因出现的你虞我诈或者留一手,AI 很多时候更靠谱些。
    RobertLyu
        8
    RobertLyu  
       15 小时 32 分钟前 via iPhone
    我不会咨询搜索引擎能找到的结果。

    但是 Xcode 的代码我全信,就是帮着 AI debug 呗。
    Sawyerhou
        9
    Sawyerhou  
       15 小时 26 分钟前
    楼上都提到了,全信或者全不信就太二极管了,不全信比较合理。
    liu731
        10
    liu731  
    PRO
       15 小时 25 分钟前
    AI 除了幻觉(它自己也不知道对不对),100%诚实
    mrochcnnnnn
        11
    mrochcnnnnn  
       15 小时 11 分钟前
    不能全信
    euph
        12
    euph  
       14 小时 58 分钟前 via Android
    当然是有选择的信,我是发现再高级的 AI ,他也会一本正经的瞎说。但是大多数时候都是因为他的知识库更新不及时。
    artiga033
        13
    artiga033  
       14 小时 50 分钟前 via Android
    建议先让 ai 教教你辩证法
    techphoebe
        14
    techphoebe  
       14 小时 36 分钟前 via iPhone
    ai 只是个被迫上岗的打工人,它会努力勤勉地回答你的问题,从善意的角度给你答案(至少目前我看到还是这样),但它不是责任人,采信答案产生的任何后果都会是你承担责任,不要指望 ai 有太多责任心,出错了最多对你说句抱歉。ai 的认知也比较死板,还会有幻觉和偏见,有时它也不了解事情的全貌,不深思熟虑就采信 ai 的答案可能要很久才会发现掉进大坑
    eversiming
        15
    eversiming  
       14 小时 29 分钟前
    不能全信,得自己判断。
    shenhualv7
        16
    shenhualv7  
       13 小时 8 分钟前 via Android
    不信 ai 信你吗,问你哪比 ai 强你都说不上来
    yolee599
        17
    yolee599  
       12 小时 47 分钟前 via Android   ❤️ 2
    @huhalo #1 错误的类比,计算机唯一的输入有唯一的结果,AI 就不行
    TomVista
        18
    TomVista  
       12 小时 1 分钟前
    不信
    如何清洗发黄的枕套?
    ai: 合适的温度 小苏打白醋

    小苏打白醋不能清洗干净发黄的枕套对吗?
    ai: 是的,你说得对。由于 xxx ,这个清洁方案不适用于发黄的枕套。
    seven777
        19
    seven777  
       11 小时 48 分钟前
    grok4.1 还是比较克制理性的,基本上思维连贯,正面给与充分.
    chatgpt 永远中庸,自己前脚说的话后脚就否定.
    yedkk
        20
    yedkk  
       11 小时 45 分钟前   ❤️ 1
    @huhalo 说明你一点不懂 ai ,神经网络和计算器根本不是一个原理,神经网络本来就是一个概率分布的机器,是没有确定性和解释性的。
    frankilla
        21
    frankilla  
       10 小时 23 分钟前
    不全信,有些事情会再次考证。
    enihcam
        22
    enihcam  
       10 小时 16 分钟前 via Android
    首先,AI 会说话吗?鹦鹉学舌而已。
    lonely701
        23
    lonely701  
       10 小时 15 分钟前 via iPhone
    查证大语言模型生成的结果是每个受高等教育的人都应该掌握的基本技能。我认为所有国家都应该考虑将其纳入高中必修课程。
    去图书馆查资料,在线搜索文献,都是高中时期开始掌握的技能,在这个时代变成交叉验证模型生成的信息,这些都是在做 research 。
    OneLiteCore
        24
    OneLiteCore  
       9 小时 27 分钟前 via iPhone
    技术问题有明确最优解的可以参考,但确实 AI 有的时候会胡说八道,这个时候就看个人的编程水平了
    weiwenhao
        25
    weiwenhao  
       9 小时 12 分钟前
    归纳类型的问题基本都相信,逻辑类型问题持怀疑态度
    datocp
        26
    datocp  
       8 小时 47 分钟前 via Android
    看什么类型,信 ai 得永生?
    Google 首页的 ai 就是基于各种网页,自己的总结。别说得出错的结果,即便是同一型号的产品它也能总结出 2 种完全不同的结果。
    甚至有些步骤根本就是错的,
    一开始感觉 ai 总结得挺好
    尝试步骤发现怎么不对
    不得不再搜索

    搞得最后要验证 ai 呈现 2 种不同结果差异。。。要是人家的网站写得是错的,ai 是不是也笨得将错就错。
    levelworm
        27
    levelworm  
       5 小时 28 分钟前
    有选择性质的相信。总得自己试验一下,这和对人一样。
    Aixtuz
        28
    Aixtuz  
       5 小时 22 分钟前
    你信书么?
    Sentimental
        29
    Sentimental  
       4 小时 59 分钟前 via iPhone
    兼听则明,偏信则暗
    Felldeadbird
        30
    Felldeadbird  
       4 小时 26 分钟前
    专业性的东西不信。因为他都是来自训练数据,训练被污染得出答案就有问题。
    以合同 OCR 为例,合同这玩意有时候会幻读,给你增料。
    aarontian
        31
    aarontian  
       3 小时 30 分钟前
    相不相信取决于问题类型,自己核实正确答案的能力和成本,对准确性的要求或者说判断错误的损失,以及是否反常识/直觉/逻辑。

    其实我通常不会考虑信和不信的问题,而是我问了问题,它回答了,我会拿来做什么。

    所以我的结论可能不是类似“我会信 90%”这种,事实上我很少全信,或者经常会觉得 AI 在胡扯,但不妨碍我(为了性价比)采纳结果或者部分结果。又或者我会刻意通过提问方式让它多给一些回答,然后选择一部分我认为相对可用的。同时一些明显是编的答案,用多了自然会有直觉,或者该类问题就不应该问 AI 。

    另外 AI 说话的逻辑水平是胜于大部分人的,但并不意味着人的逻辑思维就无效或者会被带沟里去。比如 AI 可能会给出一些正确的话加上一些你能看出来的幻觉,如果你的逻辑思维能力过关,能很自然地理出“哪里还可能有问题”,也会有更好的辨别力
    AoEiuV020JP
        32
    AoEiuV020JP  
       33 分钟前
    AI 有幻觉,容易被诱导, 盲信 AI 本质上是盲信自己,
    mizkan
        33
    mizkan  
       5 分钟前
    当然是多用几个 T0 级别的 AI 做交叉验证了……
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1037 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 27ms · UTC 17:57 · PVG 01:57 · LAX 09:57 · JFK 12:57
    ♥ Do have faith in what you're doing.