有人用 mbp M5 PRO48GB 跑个本地模型+云端模型(混合)写代码吗? - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
liujing906qd

有人用 mbp M5 PRO48GB 跑个本地模型+云端模型(混合)写代码吗?

  •  
  •   liujing906qd Mar 13 2572 views
    This topic created in 44 days ago, the information mentioned may be changed or developed.

    比如通过路由分发,简单任务给本地 Qwen 30B MoE ,复杂问题给云端 opus4.6/gpt5.3.等,这种场景实际效果如何呢?

    听说 M5 PRO 这次本地跑大模型没有之前那么慢,如果是真的,这种混合架构靠谱吗,还是纯想多了?

    15 replies    2026-03-16 09:57:49 +08:00
    niubilewodev
        1
    niubilewodev  
       Mar 14 via iPhone
    想多了。
    本地跑太慢了。
    vcmt
        2
    vcmt  
       Mar 14 via Android
    这样给你说吧,我朋友买了一台十几万的机器跑,结果还是觉得慢。
    YUX
        3
    YUX  
    PRO
       Mar 14   1
    完全可以 我用的就是 https://ohmyopenagent.com/ Sisyphus 用 anthropic/claude-opus-4-6 max ,Oracle 用 openai/gpt-5.4 xhigh, Hephaestus kimi-for-coding/k2p5, 其余默认用本地的 qwen3.5 35b
    beginor
        4
    beginor  
       Mar 14 via Android
    本地跑 zeta 做代码提示感觉还行,其它交给云端大模型
    oncethink
        5
    oncethink  
       Mar 14
    说起来大家可能不信,这个时间点 mac 上 oMLX 配合 qwen3.5:35b-a3b 这样的 MoE 模型真的很丝滑,前提是得预留 20GB 的内存。
    nutting
        6
    nutting  
       Mar 14
    感觉不是慢的问题,尤其是符合那个什么 ai 接口规范的模型,本地好像都有问题,一旦要做些文件之类的操作就有 bug ,如果只是问答可以
    YUX
        7
    YUX  
    PRO
       Mar 14
    @YUX 不过我这样大部分工作还是 Sisyphus 和 Oracle 做的。
    liujing906qd
        8
    liujing906qd  
    OP
       Mar 14
    @YUX 请问你用的大概是什么样的本地环境呢?我在纠结于 MBP M5 PRO 24/48/64G ,大模型未来两年的发展可能维持住当前的模型大小的基础上提升能力,如果是这样,我可能会考虑 64GB ,但是确实有点贵了。24GB 据说跑 30B MOE 的模型还是很容易爆内存闪退。
    liujing906qd
        9
    liujing906qd  
    OP
       Mar 14
    @oncethink 是的。我最近通过 notebooklm 去聚合了一下外网的一些视频和文章,可能这真的是能兼容本地速度和云端精度的方案
    dilidilid
        10
    dilidilid  
       Mar 14
    我一直搞不懂你们为啥老幻想在移动设备上跑生产级的 LLM 呢,这么小的模型 token 都是白菜价
    YUX
        11
    YUX  
    PRO
       Mar 14
    @liujing906qd 建议你买个 air 然后硬等 m5 mini/studio
    loveumozart
        12
    loveumozart  
       Mar 14
    我怀疑 lz 是想给自己换新 mac 找一个理由 hhh
    leozeeho
        13
    leozeeho  
       Mar 14
    跑本地模型写代码简直是自寻烦恼,那点内存跑容器都不是太够,还能跑 llm 。。。
    gigishy
        14
    gigishy  
       Mar 16 via iPhone
    写代码,千问 30bmoe 的质量差了点,这个是关键。
    硬件反而不是大问题。
    wobuhuicode
        15
    wobuhuicode  
       Mar 16
    本地的小模型我一般都用来做 cli 的。这样的好处是我不用记各种命令行。
    About     Help     Advertise     Blog     API     FAQ     Solana     1068 Online   Highest 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 86ms UTC 23:27 PVG 07:27 LAX 16:27 JFK 19:27
    Do have faith in what yo're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86