
1 kongmeng12 18 天前 via Android 你只能提供百分之一的算力,却要无限使用这个模型?还是说你认为有一大部分的人买了这个设备,却极少或者压根不使用这个模型? |
2 106npo 18 天前 via Android 大模型用内存都嫌慢,你这还要跨互联网调用 |
3 Solix 17 天前 |
4 dream7758522 17 天前 via Android 你说的多个设备共同跑一个 120b 的大模型应该是不合适的。如果每台设备可以跑 120b 的大模型,把任务分解到各个设备上单独运行有点儿可行。但是任务调度是个问题。而且任务太大的话还要拆分。 |
5 xialaoban 17 天前 貌似有说法现在限制大模型的不是算力,是带宽 |
6 laikicka 17 天前 via iPhone 你真能跑通 openai 估计要收购你了 |