1
Kevinyy 20 小时 29 分钟前 直接 64G ,得不到的永远在躁动
|
2
taozheju 20 小时 26 分钟前
肯定越大越好
|
3
PeiXyJ 20 小时 24 分钟前
|
4
andforce 20 小时 21 分钟前 via iPhone
兄弟,我告诉你,我的 M1 都上 64G 内存了
|
6
CloudMx 20 小时 10 分钟前
64,如果预算更多直接 128 了.
|
7
diudiuu 20 小时 9 分钟前
48 吧 我 m4 搞得 32 这会用的时候还是有点吃力,主要是上本地模型了,昨天去以旧换新,旧的折算 5000 ,算了讲究用吧
|
9
yifangtongxing28 OP @CloudMx 平台上 128g 的都光了,看了下价格,有货情况 3w5 左右能拿下,预算投入超支了哈哈
|
10
yifangtongxing28 OP @diudiuu 多少 B 的模型?上下文多轮对话能扛得住吗?
|
11
chitanda 19 小时 54 分钟前
48g 。64g 多出来的 16g 并不能干什么
|
12
fredweili 19 小时 53 分钟前
16g m1 pro ,准备换 48g m5 pro ,因为公司只给这个
|
13
comefromweb 19 小时 52 分钟前
|
14
stinkytofux 19 小时 50 分钟前
64g 吧, 能多用两年.
|
15
turing518 19 小时 42 分钟前
如果在纠结,那就直接上 64G ,免得以后后悔
|
16
rockddd 19 小时 41 分钟前
想用五年肯定越大越好,如果两三年就换那么 48G 更合适,目前 64 也跑不了智商在线的模型
|
17
marvinxtechbot18 PRO 内存多多益善,预算充足情况下,绝对不考虑省这个。
|
18
yhxx 19 小时 36 分钟前
看自己现在的电脑日常用了多少
我是 48 足够了 觉得拉满可以多用两年,其实大部分人还没到那两年,就换 M7M8 了 |
19
wombat 19 小时 33 分钟前
除非部署模型,不然 48g 足够。 我觉得 64g 部署的模型要体验好,也就 32b 及一下吧? 32b 的话不如用云端的模型 api ,32b 作为 openclaw 、日常使用差点。
|
20
yifangtongxing28 OP @rockddd 模型这个没啥执念,我用 windows 台式机玩了一下,目前还看不出什么设备是本地部署利器,消费级的产品来说的话
|
23
wombat 19 小时 27 分钟前
@wombat 日常微信、飞书,外加使用 IDEA 、WebStorm 、还有 CodeX 、Antigravity 等等,多项目开发。 也就能用 30g+内存。
|
24
wu67 19 小时 27 分钟前
可以但是没必要, 你加钱搞那么多内存, 都够你开各种 API 套餐爽用了, 反正我是觉得 24 够用 32 爽用了.
|
25
painter 18 小时 54 分钟前
8g 内存的 M1 Air 依然在咔咔 AI Coding
|
26
kerwin1874 18 小时 53 分钟前
现在 16g 的 m1 pro 本地开发也开始吃力了。
需求是 idea 开 2 个项目,goland 开一个,3-4 个服务,safari 开 10 个标签,然后要 docker 跑 3-4 个容器,还有一堆 electron app ,感觉还是要 64g 心里才有底。 m5 pro 64+1t 看价格是 21k ,不知道同模具的 m2 max/m3 max 大内存版本能压到多少价格? m5 pro 的 cpu 性能感觉进步挺大的。 |
27
night98 18 小时 4 分钟前
有条件内存肯定越大越好。
|
28
jaoyina 16 小时 38 分钟前 via Android
准备跑大模型吗,不跑 48 也够了。
|
29
yifangtongxing28 OP @jaoyina 不准备啊,笔记本开盖盒盖麻烦
|
30
rlarnsgur 16 小时 12 分钟前
之前看过评测,14 寸的磨具 32G 是可以压得住,但是 64G 明显 16 寸更加游刃有余,
|
31
coolxll 16 小时 5 分钟前
@kerwin1874 #26 m5 pro 64+1t 看价格是 21k 是啥渠道?
|
32
bzw875 16 小时 3 分钟前
买中配,3 年一换
|
33
diudiuu 15 小时 58 分钟前
@yifangtongxing28 跑的 26b 的一个 18g ,最简单的方式就是你看下载的模型大小,直接加就行了,能简单算出来
比如 gemma4:26b 18g ,32g mac 电脑,本身占 11g + 18g ,差不多都在 29g-30g ,再加上推理要用的,之能更大 速度我看下来以只要内存后,出 token 都差别不是很大,我试了一个 gemma4:e4b 9g ,跟上面 18g 都是 25 token/s ,区别不是很大 |
34
kuaner 15 小时 54 分钟前
128 不要犹豫,内存只会越来越贵
|
35
kerwin1874 15 小时 51 分钟前
@coolxll 淘宝刷到过大概这个价格
|
36
JEFFMEME 15 小时 47 分钟前
没必要 64G 邦死 5 年这样的想法,5 年都有新的高度了,或许差价加一点置换新硬件更划算,或者 API 来替代。
需要多少就买多少,两三年即可。 |
37
wanguorui123 15 小时 42 分钟前
如果只用 3-5 年 48G 足够了,如果要用 10 年左右肯定买内存更大的
|
38
wetalk 15 小时 22 分钟前
M 系列芯片的单核 IPC 差异并不大,性能提升主要源于频率和核心数量的增加。但问题是,即便 CPU 满载,散热能力也往往跟不上。说白了,在核心数相同的情况下,M3 干不了的活,M5 同样干不了。目前真正的使用瓶颈通常不在 CPU ,而是在内存。
|
39
zhuyao 15 小时 4 分钟前
有钱就 24G 以上,没钱就咬牙大于 16g 。我这个 16 寸,开多个 idea 内存就红色了
|
40
glpyhster 15 小时 4 分钟前
预算充足,能上 64G 就上 64G ,虽然我 M4 Pro 48G 平时使用也没有遇到什么瓶颈的地方。
|
41
xubeiyou 14 小时 45 分钟前
有钱就肯定 64 啊
|
42
A9754184529 14 小时 35 分钟前
由于需要跑一台 Windows 虚拟机,直接上 64G 内存了。M2 Max ,1T ,有点后悔早知道上 2T 。
|
43
DinnyXu 14 小时 34 分钟前
经济没压力就一口气上 64G 的,我这 16G 初代 M1 都用了 5 年多了,经常因为 idea 内存占用过高
|
44
yifangtongxing28 OP @wetalk 专业,有很多 14 寸压不住 max 的例子,其实编码或者各种时候大部分 cpu 都跑的很不满,少数情况,也就一会就过去了,但是内存是刚需
|
45
auroraccc 12 小时 57 分钟前
看你喜不喜欢关窗口,我是不喜欢关应用的人。48G 偶尔也会卡,大概 40 个 chrome tab 、Arc 3-6 个 tab 、前端开发服务 2-3 个、QSpace 、VSCode 窗口 3-4 个、XCode 、Codex 、Android Studio 、Warp 、QQ 音乐、Figma 客户端、钉钉。大头主要这些,差不多会变黄。
|
46
AndyLuo 11 小时 4 分钟前 via Android
我个人用 mac 就是搭搭 ai 环境,干干文字工作,48g 不是很够,假期自建了一把本地龙虾,因为不想碰 mac 的数据(也没需求)所以自建了个 8g 虚拟机,本地模型+虚拟机+mac 需要的内存 64 个。直接吃满了开始用交换空间。如果没本地跑模型的需求感觉 48g 也够用了
|
47
zsmj1024 10 小时 37 分钟前
买了 m3max 64GB+2TB ,推荐 m5pro 64GB+1TB (港版教育优惠,大概 18k )
|
48
yifangtongxing28 OP @zsmj1024 哈哈,我就是犹豫了没买到这批货,才看 m5 的
|
49
version 8 小时 5 分钟前
异地组网。m5 air 24g 刚刚好..感觉苹果性价比不高.等真的能上大模型. win+96g+5090 这样省钱些.多台 pve 部署机长期不关机..rdp 目前在 mac 使用非常可以的..都 vibe coding 了.你需要的是长期不关机的电脑
|
50
Keystroke 7 小时 53 分钟前
用着 16G 的看到这个帖子惊呆了……你们现在都买那么大的吗?如果不跑大模型,这么大的意义是啥……
|
51
zhouquanbest 7 小时 49 分钟前
我选 48 的 多的钱选大点 SSD
Mac 的内存压缩其实还可以 48G 你别本地跑太变态的东西 是够的 |
52
JoshTheLegend 6 小时 40 分钟前
打算用 5 年,你也只是提到了差价没有提预算,那肯定越多越好啊,说不定两三年后有黑科技开源小模型性能猛涨呢。
|
53
Lemonadeccc 6 小时 24 分钟前
64gm1max ,开一堆网页,常年 85%,极少 91%。感觉一般 48 就够用了。然后个人认为端侧模型肯定后面会适配大部分设备的。
|