
发现了这个 ANEMLL 项目, 可以用 ANE 来跑大模型, 项目刚刚上线 github 没多久, 目前只支持 llama 系列模型, 也包括 deepseek 蒸馏过的 llama 3 。
作者也上传了一些模型到 huggingface 。
经过简单测试和对比, 生成速度大概是 mlx/llama.cpp 的 1/3 ,但是只使用 30% 左右的 npu 性能, 功耗只有 2 ~ 3 瓦, 是显卡功耗的 1/10 。
如果以后能够让 npu 火力全开, 说不定速度能追上 mlx 。
https://x.com/anemll/status/1890282119685116051
ANE 终于可以告别电阻器的外号了!
1 EchoWhale 288 天前 via iPhone 求科普,是不是只能跑蒸馏过?像 70b 之类的是不行吗 |
2 kemchenj 287 天前 “只使用 30% 的 npu 性能”这里面的 30% 是怎么得出来的? |
3 beginor OP @kemchenj 看下这个链接里面的视频 https://x.com/anemll/status/1890282119685116051 |
4 beginor OP |
5 WuSiYu 287 天前 有点意思,ANE 的 fp16 理论性能似乎跟 m4 pro 丐板的 GPU 差不多,但可预计会省电许多 @beginor 另外“企业级 NPU”其实早有了,比如华为和寒武纪的卡都属于 NPU (而不是 GPGPU ) |
6 kemchenj 285 天前 @beginor 视频里 NPU 的占用率一直在 35% 或者是 0%,甚至没什么波动,感觉像是只用了特定数据格式的计算单元,例如说 int4 和 int8 ,然后其它数据格式的计算单元就一直闲置,这种情况下可能不太好优化到“火力全开”... |
7 beginor OP 作者回复说是因为 npu 的带宽不够,在等数据,所以 npu 使不出全力。 确实一直没有听苹果提过 npu 的带宽是多少,目前应该还不支持量化吧,直接 f16 运算 |