V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
Hermitist
V2EX  ›  程序员

大家帮忙看看跑本地大模型哪个方法更好点, 以及云端调用 api 的方法.

  •  
  •   Hermitist · 2 小时 23 分钟前 · 70 次点击
    方法一:cherry studio 对接本地 Ollama 跑的大模型, 突破只能聊天的限制
    方法二:AnythingLLM+llama.cpp ,可以自己配 gpu 和 CPU 分配。且占用资源少。



    第二个问题:
    一个任务最后如何做到 80%用本地模型, 最后 20%高精度/高密度的工作才扔给云端来最后进行收尾?


    第三个问题:
    如何薅羊毛使用云端 api, 比如通过注册机 24 小时产号, 然后本地搭建 sub2api 之类的调用 openai 之类的 token
    P.S: 各位能推荐一个注册机吗?

    还是大家直接用 cc-switch 呢?

    期待各位指点, 不胜感谢.
    目前尚无回复
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   907 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 19:57 · PVG 03:57 · LAX 12:57 · JFK 15:57
    ♥ Do have faith in what you're doing.