V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
frankyzf
V2EX  ›  Local LLM

有同时支持 openai 和本地模型的客户端吗?

  •  
  •   frankyzf · Dec 12, 2024 · 1434 views
    This topic created in 508 days ago, the information mentioned may be changed or developed.

    早上 ChatGPT 挂了,只能用本地的模型。想问下有同时支持 openai API 和本地模型的客户端吗?这样就不用来回切换了。

    4 replies    2025-01-03 11:33:44 +08:00
    SenLief
        1
    SenLief  
       Dec 12, 2024
    自己跑一个 api 聚合就可以了。例如 one-api 或者 new-api
    jifengg
        2
    jifengg  
       Dec 13, 2024
    KcKXpykSg2777f5I
        4
    KcKXpykSg2777f5I  
       Jan 3, 2025
    CherryStudio ,部署一个 ollama
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   758 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 30ms · UTC 21:02 · PVG 05:02 · LAX 14:02 · JFK 17:02
    ♥ Do have faith in what you're doing.