1
putaosi 12 小时 0 分钟前 via iPhone 能用的太慢,快得太蠢
|
2
cskeleton 11 小时 26 分钟前
我是 M1Pro 32G ,实际测下来主要还是内存都不太够。
moe 测下来 gemma4-26b 也就差不多了,qwen3.6-35b 内存就很极限了,上下文拉不大,还不能开多了东西。 dense 模型我跑不动,速度太慢了。 |
3
geekvcn 11 小时 2 分钟前 via Android
本地模型没啥用,跑的起的太蠢,不蠢的本地跑成本更高。等 AI 模型相对成熟后 AI ASIC 普及吧
|
4
fbu11 10 小时 36 分钟前
不是降智,是 32G 也不太够,本地模型要带起来内存还得上,能带起来的,要么很拉,要么很慢
|
5
ETiV 10 小时 25 分钟前 via iPhone
air:你饶了我吧
没风扇,咋跑 |
6
zhuoi 9 小时 59 分钟前 32G 跑起来的模型太拉了
|
7
cwcc 9 小时 43 分钟前
https://github.com/ggml-org/llama.cpp/discussions/4167
Mac 跑大模型天梯图。 目前我自己用下来兼顾速度和效果的感觉也就最新的 qwen3.6-35b-a3b 了,需要微调一下模型的参数。 |
8
ntdll 9 小时 25 分钟前
本地能跑起来的,只有弱智,你看不上。
不弱智的,本地根本跑不起来。 本地能跑起来的模型,只有一些方向特化的,比如某些模型,只能做分类,只能做某种识别,这种特化过的模型,本地才有可能跑起来,且有意义。 |
9
microscopec 8 小时 53 分钟前
我 m5pro 64G ,可以跑量化版的千问(70G),也可以输出代码,但和真正的大模型还是有差距,建议还是用全量模型,买 4 台 M5 Ultra 256G 内存,通过万兆宽带本地组集群,这样更安全一些😀
|
10
microscopec 8 小时 49 分钟前
|
14
superPONY 3 小时 54 分钟前
我最近在搞一个本地知识库软件 RAGDock ,用 Mac mini 16g 测了一些小模型,有单模态和多模态的都测了一些,如果你把不同类型的任务细化并组合使用我觉得才是本地模型的用武之地。有兴趣可以参考一下: https://github.com/RAGDock/RAGDock
|
15
caqiko 3 小时 49 分钟前
我的体验是纯作为 chat bot 还行,当成本地图书馆来用。但是用来对接 claude code 等 coding agent 实在是太慢了。
|
16
sddyzm PRO 本地模型也许隐私性和可控性是挺好,但是性能和 chatgpt 、claude 等没法比,是完全没法比
|
17
Miofly 2 小时 55 分钟前
https://tools.wflynn.cn/tools/videotools/video-nologo?time=1777195637568 免费去各大平台图片、视频水印,支持小红书,抖音、快手等常用平台,感谢使用,感谢作者大大
|
18
Miofly 2 小时 34 分钟前
https://tools.wflynn.cn/tools/videotools/video-nologo?time=1777196885115 免费去各大平台图片、视频水印,支持小红书,抖音、快手等常用平台,感谢使用,感谢作者大大
|