首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
V2EX
›
程序员
大家帮忙看看跑本地大模型哪个方法更好点, 以及云端调用 api 的方法.
Hermitist
·
2 小时 23 分钟前
· 70 次点击
方法一:cherry studio 对接本地 Ollama 跑的大模型, 突破只能聊天的限制
方法二:AnythingLLM+llama.cpp ,可以自己配 gpu 和 CPU 分配。且占用资源少。
第二个问题:
一个任务最后如何做到 80%用本地模型, 最后 20%高精度/高密度的工作才扔给云端来最后进行收尾?
第三个问题:
如何薅羊毛使用云端 api, 比如通过注册机 24 小时产号, 然后本地搭建 sub2api 之类的调用 openai 之类的 token
P.S: 各位能推荐一个注册机吗?
还是大家直接用 cc-switch 呢?
期待各位指点, 不胜感谢.
目前尚无回复
本地模型
云端API
资源分配
关于
·
帮助文档
·
自助推广系统
·
博客
·
API
·
FAQ
·
Solana
·
907 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 21ms ·
UTC 19:57
·
PVG 03:57
·
LAX 12:57
·
JFK 15:57
♥ Do have faith in what you're doing.
❯