V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
SillyGod
V2EX  ›  问与答

gpt-4-32k 模型 api 的上文 tokens 应该设多少

  •  
  •   SillyGod · 2023-06-25 02:22:18 +08:00 · 928 次点击
    这是一个创建于 518 天前的主题,其中的信息可能已经有所发展或是发生改变。
    如果我没理解错误的话

    32k 指的是输入+输出最大为 32k 吧

    那我历史+新提问 的 tokens 或许设置为 16k 比较好?

    假设我历史记录无限多,要是设置成 32k ,他岂不是没得输出喽?

    亦或者其实他输入也有个限制,比如 16k ?
    3 条回复    2023-06-25 10:13:59 +08:00
    swulling
        1
    swulling  
       2023-06-25 08:08:17 +08:00 via iPhone
    自己手动切历史记录或者用 API 对历史记录进行 summary
    kaichen
        2
    kaichen  
       2023-06-25 09:58:29 +08:00
    你如果用的 langchain 来做,可以直接用他的 memory 类,想简单限制数量就用 ConversationTokenBufferMemory ,想做总结再来回交互用 ConversationSummaryBufferMemory

    记录的持久化也能处理

    https://api.python.langchain.com/en/latest/modules/memory.html
    SillyGod
        3
    SillyGod  
    OP
       2023-06-25 10:13:59 +08:00
    @kaichen 我没用过 langchain ,你在使用中碰到过 bug 嘛
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   972 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 20:22 · PVG 04:22 · LAX 12:22 · JFK 15:22
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.