
1 Kevinyy 18 天前 直接 64G ,得不到的永远在躁动 |
2 BretTaylor 18 天前 肯定越大越好 |
3 PeiXyJ 18 天前 |
4 andforce 18 天前 via iPhone 兄弟,我告诉你,我的 M1 都上 64G 内存了 |
6 CloudMx 18 天前 64,如果预算更多直接 128 了. |
7 diudiuu 18 天前 48 吧 我 m4 搞得 32 这会用的时候还是有点吃力,主要是上本地模型了,昨天去以旧换新,旧的折算 5000 ,算了讲究用吧 |
9 yifangtongxing28 OP @CloudMx 平台上 128g 的都光了,看了下价格,有货情况 3w5 左右能拿下,预算投入超支了哈哈 |
10 yifangtongxing28 OP @diudiuu 多少 B 的模型?上下文多轮对话能扛得住吗? |
11 chitanda 18 天前 48g 。64g 多出来的 16g 并不能干什么 |
12 fredweili 18 天前 16g m1 pro ,准备换 48g m5 pro ,因为公司只给这个 |
13 comefromweb 18 天前 |
14 stinkytofux 18 天前 64g 吧, 能多用两年. |
15 turing518 18 天前 如果在纠结,那就直接上 64G ,免得以后后悔 |
16 rockddd 18 天前 想用五年肯定越大越好,如果两三年就换那么 48G 更合适,目前 64 也跑不了智商在线的模型 |
17 marvinxtechbot18 PRO 内存多多益善,预算充足情况下,绝对不考虑省这个。 |
18 yhxx 18 天前 看自己现在的电脑日常用了多少 我是 48 足够了 觉得拉满可以多用两年,其实大部分人还没到那两年,就换 M7M8 了 |
19 wombat 18 天前 除非部署模型,不然 48g 足够。 我觉得 64g 部署的模型要体验好,也就 32b 及一下吧? 32b 的话不如用云端的模型 api ,32b 作为 openclaw 、日常使用差点。 |
20 yifangtongxing28 OP @rockddd 模型这个没啥执念,我用 windows 台式机玩了一下,目前还看不出什么设备是本地部署利器,消费级的产品来说的话 |
24 wu67 18 天前 可以但是没必要, 你加钱搞那么多内存, 都够你开各种 API 套餐爽用了, 反正我是觉得 24 够用 32 爽用了. |
25 painter 18 天前 8g 内存的 M1 Air 依然在咔咔 AI Coding |
26 kerwin1874 18 天前 现在 16g 的 m1 pro 本地开发也开始吃力了。 需求是 idea 开 2 个项目,goland 开一个,3-4 个服务,safari 开 10 个标签,然后要 docker 跑 3-4 个容器,还有一堆 electron app ,感觉还是要 64g 心里才有底。 m5 pro 64+1t 看价格是 21k ,不知道同模具的 m2 max/m3 max 大内存版本能压到多少价格? m5 pro 的 cpu 性能感觉进步挺大的。 |
27 night98 18 天前 有条件内存肯定越大越好。 |
28 jaoyina 18 天前 via Android 准备跑大模型吗,不跑 48 也够了。 |
29 yifangtongxing28 OP @jaoyina 不准备啊,笔记本开盖盒盖麻烦 |
30 rlarnsgur 18 天前 之前看过评测,14 寸的磨具 32G 是可以压得住,但是 64G 明显 16 寸更加游刃有余, |
31 coolxll 18 天前 @kerwin1874 #26 m5 pro 64+1t 看价格是 21k 是啥渠道? |
32 bzw875 18 天前 买中配,3 年一换 |
33 diudiuu 18 天前 @yifangtongxing28 跑的 26b 的一个 18g ,最简单的方式就是你看下载的模型大小,直接加就行了,能简单算出来 比如 gemma4:26b 18g ,32g mac 电脑,本身占 11g + 18g ,差不多都在 29g-30g ,再加上推理要用的,之能更大 速度我看下来以只要内存后,出 token 都差别不是很大,我试了一个 gemma4:e4b 9g ,跟上面 18g 都是 25 token/s ,区别不是很大 |
34 kuaner 18 天前 128 不要犹豫,内存只会越来越贵 |
35 kerwin1874 18 天前 @coolxll 淘宝刷到过大概这个价格 |
36 JEFFMEME 18 天前 没必要 64G 邦死 5 年这样的想法,5 年都有新的高度了,或许差价加一点置换新硬件更划算,或者 API 来替代。 需要多少就买多少,两三年即可。 |
37 wanguorui123 18 天前 如果只用 3-5 年 48G 足够了,如果要用 10 年左右肯定买内存更大的 |
38 wetalk 18 天前 M 系列芯片的单核 IPC 差异并不大,性能提升主要源于频率和核心数量的增加。但问题是,即便 CPU 满载,散热能力也往往跟不上。说白了,在核心数相同的情况下,M3 干不了的活,M5 同样干不了。目前真正的使用瓶颈通常不在 CPU ,而是在内存。 |
39 zhuyao 18 天前 有钱就 24G 以上,没钱就咬牙大于 16g 。我这个 16 寸,开多个 idea 内存就红色了 |
40 glpyhster 18 天前 预算充足,能上 64G 就上 64G ,虽然我 M4 Pro 48G 平时使用也没有遇到什么瓶颈的地方。 |
41 xubeiyou 18 天前 有钱就肯定 64 啊 |
42 A9754184529 18 天前 由于需要跑一台 Windows 虚拟机,直接上 64G 内存了。M2 Max ,1T ,有点后悔早知道上 2T 。 |
43 DinnyXu 18 天前 经济没压力就一口气上 64G 的,我这 16G 初代 M1 都用了 5 年多了,经常因为 idea 内存占用过高 |
44 yifangtongxing28 OP @wetalk 专业,有很多 14 寸压不住 max 的例子,其实编码或者各种时候大部分 cpu 都跑的很不满,少数情况,也就一会就过去了,但是内存是刚需 |
45 auroraccc 18 天前 看你喜不喜欢关窗口,我是不喜欢关应用的人。48G 偶尔也会卡,大概 40 个 chrome tab 、Arc 3-6 个 tab 、前端开发服务 2-3 个、QSpace 、VSCode 窗口 3-4 个、XCode 、Codex 、Android Studio 、Warp 、QQ 音乐、Figma 客户端、钉钉。大头主要这些,差不多会变黄。 |
46 AndyLuo 18 天前 via Android 我个人用 mac 就是搭搭 ai 环境,干干文字工作,48g 不是很够,假期自建了一把本地龙虾,因为不想碰 mac 的数据(也没需求)所以自建了个 8g 虚拟机,本地模型+虚拟机+mac 需要的内存 64 个。直接吃满了开始用交换空间。如果没本地跑模型的需求感觉 48g 也够用了 |
47 zsmj1024 18 天前 买了 m3max 64GB+2TB ,推荐 m5pro 64GB+1TB (港版教育优惠,大概 18k ) |
48 yifangtongxing28 OP @zsmj1024 哈哈,我就是犹豫了没买到这批货,才看 m5 的 |
49 version 17 天前 异地组网。m5 air 24g 刚刚好..感觉苹果性价比不高.等真的能上大模型. win+96g+5090 这样省钱些.多台 pve 部署机长期不关机..rdp 目前在 mac 使用非常可以的..都 vibe coding 了.你需要的是长期不关机的电脑 |
50 Keystroke 17 天前 用着 16G 的看到这个帖子惊呆了……你们现在都买那么大的吗?如果不跑大模型,这么大的意义是啥…… |
51 zhouquanbest 17 天前 我选 48 的 多的钱选大点 SSD Mac 的内存压缩其实还可以 48G 你别本地跑太变态的东西 是够的 |
52 JoshTheLegend 17 天前 打算用 5 年,你也只是提到了差价没有提预算,那肯定越多越好啊,说不定两三年后有黑科技开源小模型性能猛涨呢。 |
53 Lemonadeccc 17 天前 64gm1max ,开一堆网页,常年 85%,极少 91%。感觉一般 48 就够用了。然后个人认为端侧模型肯定后面会适配大部分设备的。 |
54 ApmI00 17 天前 曾经 m3 max ,咬牙上了 128G ,龙虾出现前,虽然偶尔也跑本地模型试试手感,但是大部分情况还是空闲 64G 内存,不图别的,看到 swap 为 0 ,就是爽 |
55 yifangtongxing28 OP @zhouquanbest 固态都是 1t 我自己还屯了 2 条 2t 的固态,可以外接 |
56 yifangtongxing28 OP @ApmI00 土豪啊哈哈,目前看 48 和 64 在不跑模型下都算是够用的 |
57 belite 15 天前 @yifangtongxing28 要是考虑本地模型的话,实测 gemma4 的 26b-4bit 在 48G mac 上用 olmx 显示占用 16G ,设置 4G 内存缓存,开着常用的 chrome 这些软件轻度使用还剩 10G 内存未使用。打开大型软件会内存交换。26b 的 8bit 和 31b 模型直接会内存交换。建议 64G 的可以本地常开一个 26B 模型,这个模型质量和速度都还可以。但是不排除半年后会有更优秀的模型出来可能到时候 48G 足够,现阶段还是 API 在线模型更划算。 |
58 gigishy 14 天前 via iPhone 就我个人而言,64g 勉强愿意,但是起步还是想 128g 内存的 mbp 。 原因还是因为目前能达到实用水平的端侧 ai…… |
59 yifangtongxing28 OP @belite 目前来看我如果真要用端侧,我会买一台 mac studio 一直跑,笔记本合盖还是会有问题 |
60 yifangtongxing28 OP @gigishy 哈哈,128 的钱加的有点多,要上服务器级别的就有更好选择了 |
61 leozeeho 14 天前 现在笔记本就是个客户端 32G 就够了,跑模型的,直接搞个 studio 256G 以上,远程调用自己的大模型,或者云端模型才是正道。 我自己就是 32G 的 M1 pro 和 64G 的 M5 pro, 主要是 java 技术栈的开发。就开发编码这点事根本没用出什么区别。 |
62 yifangtongxing28 OP @leozeeho 是的,最后我选了 48 的 m5pro 。 |
63 qwetrz007sh 3 天前 @PeiXyJ 这。。。64g 电脑都使用了虚拟内存吗???!! |
64 qwetrz007sh 3 天前 @auroraccc 跟我一样,看来要喜欢关一下 chrome 窗口,这玩意加上插件非常占内存 |
65 gloeaerris 3 天前 @diudiuu #7 M4+32G 折算 5000 ,是伊拉克成色吗 ![]() |
66 diudiuu 3 天前 @gloeaerris 我的跟新的一样,官网报价 |