V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
kid1412621
V2EX  ›  Local LLM

本地 llm client

  •  
  •   kid1412621 · Apr 17, 2025 via iPhone · 1526 views
    This topic created in 386 days ago, the information mentioned may be changed or developed.

    请问 local llm client 你在用什么?为什么?

    lm studio/cherry studio?

    Chathub/page assistant?

    5 replies    2025-04-18 11:13:26 +08:00
    hefish
        1
    hefish  
       Apr 17, 2025
    arg 直接 maxkb 。
    huluhulu
        2
    huluhulu  
       Apr 17, 2025   ❤️ 1
    Diss 下 cherry studio
    协议变来变去(MIT->Apache2->AGPL->收费),最终变成开源但是商业用户不免费,最搞笑是下面一段话:

    * 我们欢迎社区对 Cherry Studio 的贡献。所有向本项目提交的贡献都将被视为在 **AGPLv3** 许可证下提供。
    * 通过向本项目提交贡献(例如通过 Pull Request ),即表示您同意您的代码以 AGPLv3 许可证授权给本项目及所有后续使用者(无论这些使用者最终遵循 AGPLv3 还是商业许可)。
    * 您也理解并同意,您的贡献可能会被包含在根据商业许可证分发的 Cherry Studio 版本中。

    MIT->Apache2->AGPL 阶段的贡献者代码都被你白吃了啊?
    huluhulu
        3
    huluhulu  
       Apr 17, 2025
    商业用户不免费 -> 这个要求很严格,基本上你在企业用,就是违反协议的。
    kid1412621
        4
    kid1412621  
    OP
       Apr 18, 2025
    @hefish #1 这是啥
    @huluhulu #3 我该暂时没意识到,但 Cherry 对 multimodal 支持太局限了
    kid1412621
        5
    kid1412621  
    OP
       Apr 18, 2025
    @hefish #1 哦,原来是 1panel 开发的,感觉像 dify ,我的需求是像 openui 那种,但想要原生 client
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   3103 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 316ms · UTC 13:46 · PVG 21:46 · LAX 06:46 · JFK 09:46
    ♥ Do have faith in what you're doing.