V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
keepRun
V2EX  ›  OpenAI

同样的 prompt,切换使用不同的大模型会有多大的差异?

  •  
  •   keepRun · 268 天前 · 1287 次点击
    这是一个创建于 268 天前的主题,其中的信息可能已经有所发展或是发生改变。

    比如我自定义了一大堆内容,在 chatgpt 中调好了,放在 llama 、mistral 、文心一言等各大模型,究竟有多大差异?

    这背后的问题是,每个大模型都得用其专有的 prompt 来使用吗?

    如果我开发时使用某个模型,后来模型升级了,难道提示词又得变?我觉得未来大模型升级可能会是一个问题

    4 条回复    2024-03-02 23:39:16 +08:00
    mumbler
        1
    mumbler  
       268 天前
    别说其他模型,gpt3.5 0613 和 1106,之前正常工作的 prompt 都会不兼容,很多结果就不一样了
    yanyao233
        2
    yanyao233  
       268 天前 via Android
    最好针对不同的大模型微调,我原来写的一个视频总结 prompt ,gpt4 可以稳定使用,gpt3.5 就有概率返回的 json 格式不规范,星火也会出现各种奇怪的问题。最好能针对在各个模型上出现的 bad case 进行微调
    keepRun
        3
    keepRun  
    OP
       268 天前
    感觉目前除了 chatgpt 有良好的微调 prompt 指引,其它的就没有了
    kneo
        4
    kneo  
       265 天前 via Android
    gpt4 基本上一次过。gpt3.5 需要写细一点,但是结果也比较稳定。

    试过五六个国产模型。很多国产模型根本听不懂人话,需要费很大力气调 prompt 。国产模型里通义千问 MAX 的理解能力还比较好。

    所以呢,你基本上是必须要根据每个支持的模型调整 prompt 的。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1136 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 33ms · UTC 23:42 · PVG 07:42 · LAX 15:42 · JFK 18:42
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.