• 请不要在回答技术问题时复制粘贴 AI 生成的内容
Ericcccccccc
V2EX  ›  程序员

有了 agent 这种范式之后,语言大模型就不会算错基本的计算题了

  •  
  •   Ericcccccccc · 20h 37m ago · 1301 views

    以前都说 LLM 是推理下一个字符,所以有可能算错 10+11 这种最基本的计算题

    现在似乎不会了,agent 的逻辑之下,LLM 会发现这是一个计算题,所以会当场写一个脚本再来算,就不会算错了

    很多以前纯靠预测字符的方案难以解决的问题现在似乎都被解决了(至少不会再犯离谱的错误

    4 replies    2026-05-17 09:49:04 +08:00
    sentinelK
        1
    sentinelK  
       19h 45m ago
    1 、各家后训练的算法技巧提升了。导致最终输出更加贴合用户的需求。
    2 、AI 工具的能力逐渐丰满,让 LLM 不再是两眼一抹黑。

    当初有这个问题有很多个维度的理解。
    1 、为了占领市场(凸显效果好),各家都会有意的让模型随机性加大。
    2 、各家的工具都太粗糙,一开始连联网能力都没有。普通人根本没有能力提供给 LLM 合理的上下文。就像是你的女朋友跟你说“我的那个在哪里”,你怎么答都是错的。
    3 、模型预训练没形成范式,全靠大力出奇迹,没有基础认知这个概念。
    beyondstars
        2
    beyondstars  
       19h 25m ago
    接入一个 mathematica 的 skill/mcp 你甚至可以让 agent 准确无误地计算不定积分,只要 llm 足够聪明找得到正确的工具调用。
    ntdll
        3
    ntdll  
       18h 52m ago
    以我浅薄的理解,LLM 对于数据计算不正确,更多的原因可能是分词导致的。

    比如 1.0999 在分词的时候,有可能被分成

    1.0
    999

    两个 token
    xiliuya
        4
    xiliuya  
       2h 57m ago
    符号推理是比较古老的技术了,现在是神经网络,同一个输入并在种子不同时输出就不同
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2984 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 32ms · UTC 04:47 · PVG 12:47 · LAX 21:47 · JFK 00:47
    ♥ Do have faith in what you're doing.