| qwen 本地大模型的问题 workbest • 4 小时 15 分钟前 • 最后回复来自 workbest | 3 |
| 好奇有没有人用本地模型写代码? turfbook • 23 小时 55 分钟前 • 最后回复来自 turfbook | 3 |
| macbook 32G 内存, M5 芯片本地跑大模型有推荐的吗? Hermitist • 1 天前 • 最后回复来自 SayHelloHi | 24 |
| 本地部署 deepseek 70B,回答乱码 weishao666 • 3 月 28 日 • 最后回复来自 gigishy | 10 |
| 3090 跑文本向量模型可以么? 3090 是不是有点过剩? catyun88 • 3 月 23 日 • 最后回复来自 coefu | 2 |
| 家用机带宽太小玩不转 local llm 啊 Eleutherios • 3 月 19 日 • 最后回复来自 Eleutherios | 11 |
| 想部署本地大模型来分析股票趋势,有没有专门针对股票的大模型? pangfahe • 3 月 12 日 • 最后回复来自 beasnail | 5 |
| 如何在 vs code 上应用自建的 ollama 模型 davidyin • 3 月 15 日 • 最后回复来自 oldlamp | 9 |
| qwen3.5 过度思考的问题 cat9life • 3 月 24 日 • 最后回复来自 cat9life | 12 |
| minimax 挂了?? 57show • 3 月 8 日 |
| [求助] DGX Spark 上 Ollama 推理极慢,改用 llama.cpp 部署是否更合适? diudiuu • 3 月 11 日 • 最后回复来自 diudiuu | 11 |
| Qwen3.5-35B-A3B
Livid PRO |
6 |
| 现在能本地部署最好的 TTS 是哪套, 太多了,没法都去试 iorilu • 3 月 2 日 • 最后回复来自 wannerkingof69 | 5 |
| 本地 8G RTX4060 破卡,可以产多少 tokens? enihcam • 2 月 28 日 |
| 如何在内网使用 opencode caihp • 2 月 26 日 • 最后回复来自 gorvey | 9 |
| microgpt.py
Livid PRO |
| 30B 尺寸哪个小模型编码能力会好一些 summerLast • 2 月 12 日 • 最后回复来自 summerLast | 11 |
| ClawdBot 保姆级安装指南:从零搭建你的 24/7 私人 AI 助手 JustW • 1 月 28 日 • 最后回复来自 qingmao | 7 |
| [求助] 求成本可控,性能过关的本地 vibe coding 方案 newmancode • 2 月 4 日 • 最后回复来自 lchynn | 30 |
| 个人玩 ai,显卡最低起步是 5080 嘛? yifangtongxing28 • 1 月 31 日 • 最后回复来自 kingmiao | 53 |