coefuV2EX 第 616381 号会员,加入于 2023-02-28 17:15:35 +08:00今日活跃度排名 1567 |
coefuV2EX 第 616381 号会员,加入于 2023-02-28 17:15:35 +08:00今日活跃度排名 1567 |
1 小时 20 分钟前 回复了 sqshanyao 创建的主题 › Local LLM › 求可靠本地 vibe coding,有八卡的 L20 服务器 |
1 小时 22 分钟前 回复了 sqshanyao 创建的主题 › Local LLM › 求可靠本地 vibe coding,有八卡的 L20 服务器 |
8 小时 9 分钟前 回复了 Ken1028 创建的主题 › Local LLM › 想掏一台 Mac mini M4 Pro 64G 跑 gemma4 31b Q4 接 openclaw 处理日常的问题,有人测试过速度吗? |
1 天前 回复了 diudiuu 创建的主题 › Local LLM › [求助] DGX Spark 上 Ollama 推理极慢,改用 llama.cpp 部署是否更合适? |
1 天前 回复了 RatioPattern 创建的主题 › Local LLM › 32B 本地 vibe coding 有能用的模型吗 |
2 天前 回复了 diudiuu 创建的主题 › Local LLM › [求助] DGX Spark 上 Ollama 推理极慢,改用 llama.cpp 部署是否更合适? |
2 天前 回复了 diudiuu 创建的主题 › Local LLM › [求助] DGX Spark 上 Ollama 推理极慢,改用 llama.cpp 部署是否更合适? |
2 天前 回复了 diudiuu 创建的主题 › Local LLM › [求助] DGX Spark 上 Ollama 推理极慢,改用 llama.cpp 部署是否更合适? |
2 天前 回复了 diudiuu 创建的主题 › Local LLM › [求助] DGX Spark 上 Ollama 推理极慢,改用 llama.cpp 部署是否更合适? |
2 天前 回复了 diudiuu 创建的主题 › Local LLM › [求助] DGX Spark 上 Ollama 推理极慢,改用 llama.cpp 部署是否更合适? |