minimax M2.7 权重文件开源了 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
superkkk

minimax M2.7 权重文件开源了

  •  
  •   superkkk 12 天前 1816 次点击

    看很多帖子大家都说 minimax glm kimi qwen 这些模型用着降智,如果我自己租 ai 算力机器,自己部署 minimax m2.7 模型,大家会买账吗?

    比如租一台 8*H20 的机器,大概可以满足 200 位用户同时使用,但是如果有某位用户突然发几百 k 的上下文进来,就要等很长时间。

    算力机器一个月算 2 万块钱的话,那我定价就需要 100 块钱/月了,这还是不亏本 不赚钱的前提,超售的话可能用户体验就很差了。

    所以只能要么超售卖给更多用户,要么价格更高卖给更少的用户。

    14 条回复    2026-04-13 07:39:47 +08:00
    stormer
        1
    stormer  
       12 天前
    不会买,100 一个月还不如买 gpt claude
    而且你的算力机器成本太高了,这种算力服务器公司都有协议价,都是市场价的 3-5 折就能拿到,我们公司这种服务器就是自己不用,转手租出去都能大赚一笔
    stormer
        2
    stormer  
       12 天前
    类似 4090 48G 外面租一个月要 2000,我们租一个月只要 500
    yzding
        3
    yzding  
       12 天前 via iPhone
    100 块一个月必然不能每位用户随便蹬吧? 不然服务器遭不住。那直接每个月不如充 100 到 openrouter 还能体验不同的模型
    billlee
        4
    billlee  
       12 天前
    cookii
        5
    cookii  
       12 天前 via Android
    这个价格直接买 minimax 官方不是随便蹬吗
    cherryas
        6
    cherryas  
       12 天前
    对于个人用户就是开源,禁止二道贩子罢了。 内部系统用谁知道
    cairnechen
        7
    cairnechen  
       12 天前   4
    禁止商用怎么就不是开源了?
    slowgen
        8
    slowgen  
       12 天前
    8 卡 H20 跑 MiniMax 撑死满足 80 个用户并发使用,而且有一个 10w 级别的上下文 prefill 阶段就很慢了,拖死其他用户,我的服务器就是 8 卡 H20 。

    你要租的话可以先从 2 张 RTX Pro 6000 开始,2 张就可以跑 MiniMax M2.7 的 nvfp4 量化了,10w 级别的上下文无 KV Cache 下 prefill 要 40 秒左右,你可以算算能服务多少个用户。
    superkkk
        9
    superkkk  
    OP
       11 天前 via iPhone
    @slowgen 那肯定是要跑慢满血原精度的。我这试过能并发 200 左右跑,单用户上下文 3k ,prefill 是 10 秒左右。现在算了一下感觉租机器的成本太高了。要是用户全是 100k 的上下文肯定抗不住,偶尔来 2 3 个还行
    lel020
        10
    lel020  
       11 天前
    大厂做同样的事,成本只会比你低,你这操作怎么可能有任何赚钱的余地,除非你能产个可乐打赢可口可乐,
    slowgen
        11
    slowgen  
       11 天前
    @superkkk 跑原精度的不现实啊,nvfp4 量化后的基准和原精度差距不到 1%,nvfp4 还可以用上新的架构优势,prefill 速度大幅度提高,而且可以开的 KV Cache 也大得多,可以容纳更多的用户使用。

    单用户上下文 3k 也不现实,龙虾一个初始会话都是 12k 左右起步。我现在基于闲置算力开了个小规模用的 API ,看平时的统计,基本上 10k 上下文涨到 100k 也就 40 个请求左右。如果过一段时间用户不请求了可能 KV Cache 就释放掉了,然后用户再请求过来的时候又要从头开始 prefill 了,也会有影响的。
    superkkk
        12
    superkkk  
    OP
       11 天前 via iPhone
    好吧,这个幻想破灭了
    zhang666
        13
    zhang666  
       11 天前 via iPhone
    你要想想资本大佬都开始收缩算力了。你自己个人弄不是自找苦吃么
    chapiom
        14
    chapiom  
       11 天前 via iPhone
    挺好的,等量化版本出来试试。
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     1668 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 54ms UTC 16:26 PVG 00:26 LAX 09:26 JFK 12:26
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86