M1 也太牛了吧, tensorflow 特供版速度快这么多? - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
shizishanxia
V2EX    问与答

M1 也太牛了吧, tensorflow 特供版速度快这么多?

  •  
  •   shizishanxia 2020-11-20 10:30:25 +08:00 7905 次点击
    这是一个创建于 1784 天前的主题,其中的信息可能已经有所发展或是发生改变。

    tensorflow 出了 2.4 版本特供版,虽然比不上 N 卡的训练速度,不过比 intel 的 U 训练速度快了 10 倍,初级炼丹师一个 mbp 可以走天下了?时代真的变了。13 年 windows 老用户表示有点想转 MacOS 了。

    41 条回复    2020-11-25 16:51:38 +08:00
    Leonard
        1
    Leonard  
       2020-11-20 10:34:34 +08:00
    等 16 寸更新 arm,炼丹是不是可以打 3080 了
    westoy
        2
    westoy  
       2020-11-20 10:37:26 +08:00
    内存怎么办?

    现在不少影视从业者拿到了, 目前反馈都是单轨道预览剪辑渲染超神, 真实场景的多轨道操作被上代 intel 反杀, 我猜大概率是爆内存了.....
    shizishanxia
        3
    shizishanxia  
    OP
       2020-11-20 10:39:29 +08:00
    @Leonard 现在还是低端产品线,我感觉明年可以等一波明年的高端线更新,M1 二代出来说不定真的能打 GPU,感觉太黑科技了。
    shizishanxia
        4
    shizishanxia  
    OP
       2020-11-20 10:40:54 +08:00
    @westoy 是的,现在顶配才 16G,可能确实不太够?等明年的高端线更新,感觉可以冲了,mbp 跑 ML 这么快真黑科技,颠覆我的认知了。。
    shizishanxia
        5
    shizishanxia  
    OP
       2020-11-20 10:56:19 +08:00
    rlodeeq7
        6
    rlodeeq7  
       2020-11-20 11:29:12 +08:00   4
    Intel 真是虎落平阳被犬欺,天天被白目果粉秒
    charlie21
        7
    charlie21  
       2020-11-20 11:32:38 +08:00
    样本太小 没有参考性,建议忽略
    imn1
        8
    imn1  
       2020-11-20 11:35:37 +08:00
    单纯 intel 核显,应该没几个可以用.gpu ,他这个对比,应该一个用的是.cpu ,另一个用的是.gpu
    Escapist367
        9
    Escapist367  
       2020-11-20 11:42:16 +08:00 via Android   11
    用 2.4 的 tf 意味着有大量开源代码不能抄(不能抄意味着自己改写,这不是初级选手能完成的)
    其次 16g 内存除开系统占用,加载数据,剩下还有多少能拿来跑模型,也是未可知的
    而且谁会拿 i u 来训练啊???
    求求果蛆别吹了,别能忽悠一个是一个了好吗
    futou
        10
    futou  
       2020-11-20 11:43:07 +08:00
    作为初代产品,m1 确实很牛,但是硬吹到违反物理定律就过分了
    jimmyismagic
        11
    jimmyismagic  
       2020-11-20 11:54:29 +08:00
    m1 为什么这么牛,有人分析原理吗?还是只是吹吹的
    shizishanxia
        12
    shizishanxia  
    OP
       2020-11-20 12:05:05 +08:00
    @Escapist367 哈哈不是果蛆,我都没用过苹果的东西,之前买的 intel 的幽灵峡谷,搭配的 N 卡跑数据。就是看到 M1 的表现有点震惊。。
    mikeven
        13
    mikeven  
       2020-11-20 13:43:01 +08:00
    i u 没有特制的机器学习单元吧,m1 有 npu 快十倍正常,
    另一方面 TensorFlow 支持 m1 长远来看是好事
    靠 m1 炼丹肯定不现实,将来苹果桌面芯片有可能。

    有数据吗贴一贴
    shizishanxia
        14
    shizishanxia  
    OP
       2020-11-20 13:48:00 +08:00
    @mikeven 5L 的 blog 有数据,twitter 上有人说近似 1080ti,我不是很相信。
    Issacx
        15
    Issacx  
       2020-11-20 13:59:03 +08:00
    看完了那篇 blog,M1 ( CPU+GPU )和 intel ( CPU )比提升在预料之中,不过文章里没提到 NPU,看样子这部分还是没用上。希望 apple 将来能出一个专门加速炼丹的库。baseline 选的 model 也不小了,做个小 demo 还是可以的。
    shizishanxia
        16
    shizishanxia  
    OP
       2020-11-20 14:02:03 +08:00
    @Issacx 貌似那个 NPU 只能运行不能训练 model,看看后续什么操作吧。
    superlc
        17
    superlc  
       2020-11-20 14:04:45 +08:00 via iPhone   1
    @Escapist367 本来也不是让人拿来做训练的啊,在本地把 batch 调小做做 debug,给初学者拿来入门,甚至把远程的 chkpt 拿下来跑跑 test,这不都是价值?最起码也是开了个好头
    superlc
        18
    superlc  
       2020-11-20 14:15:07 +08:00 via iPhone
    本来也是一个 mbp 走天下,准确说是一个 ssh 走天下(

    拿来入门啥的挺适合的,现在推 tf.keras,api 瞎改问题或多或少有点缓解。pytorch 能适配过来的话会是一个非常好的事情,可惜他们一向不太喜欢搞这些玩意儿

    16g 内存,做做学校项目之类的挺够了已经,真正需要 16g+显存的,也不会有人没 server 吧。。
    mikeven
        19
    mikeven  
       2020-11-20 14:16:20 +08:00
    @shizishanxia #16 数据果然很强啊,npu 不能用,靠 gpu 也能强这么多吗
    shizishanxia
        20
    shizishanxia  
    OP
       2020-11-20 14:43:29 +08:00
    @mikeven 官网 blog 的测试应该只是 gpu 的测试,如果 npu 可以计算的话, 这篇 blog 说能接近 2080ti 的算力。。。看看后续评测吧,我比较怀疑。

    https://medium.com/disruptive-nerd/how-is-the-apple-m1-going-to-affect-machine-learning-2d9da1beef86
    shizishanxia
        21
    shizishanxia  
    OP
       2020-11-20 14:45:39 +08:00
    @superlc 是的,我是初学,弄了个 1660s 做一些本地的小的项目。这样看 2080 以下的计算卡都没存在必要了。
    ryd994
        22
    ryd994  
       2020-11-20 16:24:15 +08:00 via Android
    @superlc #18 既然是跑跑入门,那性能重要么?反正大工程都是到专用机上去
    F281M6Dh8DXpD1g2
        23
    F281M6Dh8DXpD1g2  
       2020-11-20 16:40:23 +08:00   12
    @Escapist367 你们炼丹师嘴都这么脏么?
    hoyixi
        24
    hoyixi  
       2020-11-20 16:43:44 +08:00
    有竞争是好事啊,看 Intel 如何接招
    Escapist367
        25
    Escapist367  
       2020-11-20 17:37:25 +08:00
    Escapist367
        26
    Escapist367  
       2020-11-20 17:52:02 +08:00   2
    @superlc
    既然是初学者小 batch 跑跑入门,性能是最先关注的点么?
    最先关注的点难道不是兼容性么?
    能够直接跑通别人的开源代码,能够直接调用别人编译好的开源库,难道不是最重要的么?
    初学者差的是这一点性能么?

    @shizishanxia
    我觉得矛盾点就是前面说的兼容性,真要训练都是上服务器,瞎逼跑跑肯定是兼容性更重要,那这东西委实没有优势。

    @liprais
    嘴脏不脏得看对象,言之凿凿地夸大其词,那就是该骂。
    northisland
        27
    northisland  
       2020-11-20 18:00:08 +08:00
    楼主要不要趁刚到冬天,买一个 m1 炼丹炉暖手?
    F281M6Dh8DXpD1g2
        28
    F281M6Dh8DXpD1g2  
       2020-11-20 18:02:34 +08:00   4
    @Escapist367 你妈说你是世界上最好的小孩,算“言之凿凿地夸大其词”么?
    Escapist367
        29
    Escapist367  
       2020-11-20 18:05:02 +08:00
    Escapist367
        30
    Escapist367  
       2020-11-20 18:05:38 +08:00   1
    @liprais

    言必带妈,蛆是真的有素质
    F281M6Dh8DXpD1g2
        31
    F281M6Dh8DXpD1g2  
       2020-11-20 18:10:16 +08:00 via iPhone   4
    @Escapist367 所以贵炼丹师就这素质呗
    brice32
        32
    brice32  
       2020-11-20 20:09:17 +08:00 via Android
    道理说不过,暴露了自己的无知。就开始找对方说话的问题了,一哭二闹三上吊。“宝宝可以在你专业范围胡言乱语,但你不能凶宝宝哦⊙⊙!”
    superlc
        33
    superlc  
       2020-11-20 21:16:24 +08:00 via iPhone
    @Escapist367
    @ryd994
    不管性能重不重要,快总是比慢要好的吧?

    兼容性方面,网上下的程序,用普通的无 cuda 笔记本又有多少能不改直接跑呢?而且目前 pytorch 也可以直接在 m1 上跑啊,只不过是没有加速而已( https://github.com/pytorch/pytorch/issues/48145#issuecomment-730297957)

    这个东西说到底还是 CPU,它的同级别比较对象应该也是 CPU 。相当于是普通集显 /A 卡本子在特定条件下多了一个 1660 级的加速,可以说是白送的功能。我是觉得挺好的,看不到问题在哪
    ashong
        34
    ashong  
       2020-11-20 21:20:00 +08:00
    何时能虚拟 x86/64 windows 就可以一本走天下了
    shizishanxia
        35
    shizishanxia  
    OP
       2020-11-20 21:21:40 +08:00
    @superlc 看看后续评测吧,1660 级别的速度其实对于小项目也足够了,我目前就用的 1660s 哈哈
    shizishanxia
        36
    shizishanxia  
    OP
       2020-11-21 14:37:24 +08:00
    补充一下,B 站有 up 主测试了 M1 的神经网络训练速度:

    “更新一组数据,M1+Core ML 的训练时间为 139 秒,精度为 98.91%,离 1080Ti 还是很有距离的,大约慢了两倍。”
    M1 大约在 139 秒,1080ti 在 52.96 秒。且 M1 训练精度差一些。

    看来 M1 能打是能打,但还没至于颠覆的地步。
    lslqtz
        37
    lslqtz  
       2020-11-21 16:00:29 +08:00
    m1 本来就不是为了追独立显卡的,比 intel 好那么多倍还有人能黑我是想不到的
    我只能说这群黑的人的意见是没有参加价值的,就算真的更好也要嫌贵反正就是不会买
    lslqtz
        38
    lslqtz  
       2020-11-21 16:01:17 +08:00
    参加-参考
    lslqtz
        39
    lslqtz  
       2020-11-21 16:03:26 +08:00
    内存低倒是真的可吐槽,虽然速度确实快了很多
    不过这才第一代有啥好说的……
    Aixtuz
        40
    Aixtuz  
       2020-11-24 10:14:48 +08:00
    E:求求果蛆别吹了,别能忽悠一个是一个了好吗
    L:你们炼丹师嘴都这么脏么?
    E:嘴脏不脏得看对象,言之凿凿地夸大其词,那就是该骂。
    L:你妈说你是世界上最好的小孩,算“言之凿凿地夸大其词”么?
    E:言必带妈,蛆是真的有素质
    L:所以贵炼丹师就这素质呗
    freaking
        41
    freaking  
       2020-11-25 16:51:38 +08:00
    E:求求果蛆别吹了,别能忽悠一个是一个了好吗
    L:你们炼丹师嘴都这么脏么?
    E:嘴脏不脏得看对象,言之凿凿地夸大其词,那就是该骂。
    L:你妈说你是世界上最好的小孩,算“言之凿凿地夸大其词”么?
    E:言必带妈,蛆是真的有素质
    L:所以贵炼丹师就这素质呗
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2992 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 26ms UTC 00:30 PVG 08:30 LAX 17:30 JFK 20:30
    Do have faith in what you're doing.
    ubao snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86