| RSS |
| 想折腾一个 AI 主机,请行家出手 davidyin • 16h 26m ago • Lastly replied by linser | 79 |
| 锤子找钉子的项目分享:假想企业本地部署后不用人工洗库接入 llm 的中间层。 KaiWuBOSS • 2 days ago • Lastly replied by yijihu | 2 |
| 都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型? babymonster • 4h 10m ago • Lastly replied by jinsongzhaocn | 130 |
| 推荐一个 GPU 推理速度计算器, 可能方便买配件自建本地大模型的人用上 Hermitist • 4 days ago • Lastly replied by diudiuu | 18 |
| DGX Spark、ASUS GX10、MSI EdgeXpert 看起来都像是一个母胎的产品,用起来有差别吗? SzgSw5zGyN1iy • 4 days ago • Lastly replied by qazwsxkevin | 11 |
| gemma4:31b-coding-mtp-bf16
Livid PRO |
| 有适合本地跑训练 AI 的电脑配置吗? linxiaojialin • 6 days ago |
| LiteChat 轻量级本地大模型聊天 WebUI,支持 vLLM zsj1029 • 6 days ago • Lastly replied by Orangeee | 7 |
| 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气 KaiWuBOSS • 4 days ago • Lastly replied by KaiWuBOSS | 115 |
| github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps stefwoo • 6 days ago • Lastly replied by jiaorong | 10 |
| 我自己的电脑是 5070Ti,总感觉跑一些模型算力不够 babymonster • 3 days ago • Lastly replied by kevan | 50 |
| 请问各位大神,在隔离环境中,有本地 qwen 大模型,有没什么解决方案,做本地的知识库的方案,类似谷歌那个 notebooklm ,也勉强可以? ken2025 • 9 days ago • Lastly replied by jinsongzhaocn | 5 |
| 私有化部署大模型的“终点”是 Mac 还是 Nvidia? babymonster • 10 days ago • Lastly replied by bobguo | 29 |
| 自己做了一款在线 GPU 推理速度计算器 · TPS Calculator diudiuu • 5 days ago • Lastly replied by diudiuu | 12 |
| 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现 KaiWuBOSS • 6 days ago • Lastly replied by kevan | 107 |
| 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型 alangz • 10 days ago • Lastly replied by davidqw | 11 |
| 用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了
Livid PRO |
15 |
| qwen3.6 27b 本地编码测试 zsj1029 • 10 days ago • Lastly replied by zsj1029 | 62 |
| 全球本地部署开发者们一起,打造一个真正属于开源社区的 Coding Agent 了 KaiWuBOSS • Apr 29 • Lastly replied by coefu | 29 |
| xllm 真的比 vllm+plugin 性能好么? joeue404 • Apr 27 |