买丐版 Mac Mini M4 用来搭本地大模型的,是不是伪需求 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
yavdein
V2EX    Local LLM

买丐版 Mac Mini M4 用来搭本地大模型的,是不是伪需求

  •  
  •   yavdein 316 天前 5077 次点击
    这是一个创建于 316 天前的主题,其中的信息可能已经有所发展或是发生改变。
    今天自己用 ollama 搭大模型时候发现
    llama 3.2 vision 11b 其实要求颇高
    参照 R 站测评结果

    一张图等于要 1 分多钟才能反馈
    丐版 m4 其实能顺利跑起来的也就是 llama3.2 3b
    回到了两年前文字大模型的时代
    真要搞还真至少得内存拉满
    16 条回复    2024-11-29 13:43:18 +08:00
    icestraw
        1
    icestraw  
       316 天前
    我跑了,内存够,可以跑,速度一样,半分多钟才出结果,GPU 和内存性能低了。Pro 和 Max 会好一些

    不过真要用肯定直接接别家 API 了,搞开发的话,哪怕是 max ,好像修改模型的性能根本不够,一时间还真想不到应用场景...只能说可以学习的时候用下。有谁想得到其他的应用场景吗?
    winglight2016
        2
    winglight2016  
       316 天前
    @icestraw 只能用于开发验证流程,日常使用还是 chatgpt 。我试过 11b 和 90b ,只有后者还能勉强跟 chatgpt 比,前者实际效果很差,几乎没有实用价值。
    Hookery
        3
    Hookery  
       316 天前
    因为内存和显存是共用的,所有 16G 内存可用部分肯定是小于一张显卡 16G 显存的可用部分。单纯推理的话,性价比不如 4060TI 16G
    yavdein
        4
    yavdein  
    OP
       316 天前

    顺便问问 所以咱国产这 qwq 有实用价值么
    mkdirmushroom
        5
    mkdirmushroom  
       316 天前   1
    同样的 qwen2.5 14B q4 量化模型,推理速度 m4 16g 不如 m1 pro 32g 。大模型对内存带宽的要求挺高的,m4 的内存带宽只有 120GB/s 。

    至于应用场景,我之前也很推崇本地大模型,毕竟数据隐私能够得到保证。但是目前开源模型( 32B 以下)的质量明显不如商用模型,真的硬要找个应用场景的话,放在家里当个智能语音助手蛮好。
    zfyStars
        6
    zfyStars  
       316 天前
    没必要吧
    mkdirmushroom
        7
    mkdirmushroom  
       316 天前
    @yavdein https://qwenlm.github.io/blog/qwq-32b-preview/
    看数据很厉害,实际效果就不知道了,我已经不想测试了哈哈,前面好几个开源模型脚踢 o1 ,拳打 Claude3.5 的,实际测试效果真的很一般。
    Donaldo
        8
    Donaldo  
       316 天前
    如果是需要用 Mac 顺便体验一下本地模型,那没问题。专门买来就不值得了,那推理速度能忍?我这 M4 Pro 的推理 14B 的模型和 1080ti 速度没什么区别。。。
    noobjalen
        9
    noobjalen  
       316 天前
    官网下单体验十四天
    ShadowPower
        10
    ShadowPower  
       316 天前
    不行,丐版 Mac Mini M4 的内存还没我的显存大
    不如给台式机加一块 16GB 显存的 4060Ti
    ShadowPower
        11
    ShadowPower  
       316 天前
    @mkdirmushroom 我今天测过这个模型,没有达到我的预期……
    wsbqdyhm
        12
    wsbqdyhm  
       316 天前
    我用 m1 max 64g 勉强可以跑一跑
    rick13
        13
    rick13  
       316 天前

    可以看一下这个视频,看起来真挺能打的
    okakuyang
        14
    okakuyang  
       316 天前
    别人是用集群,苹果有一个可以集群的框架,要用哪个方式跑
    yavdein
        15
    yavdein  
    OP
       315 天前
    @rick13 集群累加制倒是可以的。毕竟苹果内存堪比黄金。这已经有点像马斯克火箭做法了。不行就往上叠发动机。
    yavdein
        16
    yavdein  
    OP
       315 天前

    研究了一圈 还是需要这个 case closed
    现在就缺 5W 资金了。
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2856 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 23ms UTC 14:15 PVG 22:15 LAX 07:15 JFK 10:15
    Do have faith in what you're doing.
    ubao snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86