
1 lynn1su OP 支持的模型比较老旧,比如 minimax-m2.5 和 qwen3 |
2 106npo 12h 11m ago 20 给个虚拟机实例那很不错了 |
3 qwwuyu 12h 11m ago 不值 我已经捐了 20 了 上面的次数是估计次数 实际还是 token 数 |
4 Aicnal 12h 9m ago 有点狗屎,被骗过一次买集群 |
5 qwwuyu 12h 8m ago |
6 qwwuyu 11h 58m ago 额,楼上我也可能理解错了,一次模型一次调用,说的一次提问貌似说的龙虾... |
8 luoyezhishui 11h 43m ago 只有这两个模型,没有买的欲望 |
9 andyskaura 11h 41m ago 有 deepseek-v4 就好了 |
10 Yinnfeng 11h 39m ago 虽然 minimax-m2.5 和 qwen3 但是有 deepseek-v4 啊。难道还不值 20 么 |
12 Sosocould 11h 38m ago 这家没信用的,趁早拉黑 |
14 jetsung 11h 24m ago 支持 v4 吗?是不是它文案没有更新而已? |
18 kloudmuka 11h 19m ago 可以,现在还在用 qwen3-235B ,很符合我对国企的刻板印象 |
20 K332 11h 18m ago 上一个按次数的 copilot 已经死了,不知道这个按次数的能撑多久 |
21 jetsung 11h 11m ago /v1/models 抓取了一下它的模型列表。有没有 coding 专属入口?也可以测试一下。 ~ APIKEY=sk-xxxx ~ BASEURL=https://api.scnet.cn/api/llm/v1 ~ printf "Get Model List\n\n" && curl -fsSL "$BASEURL/models" -H "Authorization: Bearer $APIKEY" | jq -r ".data[].id" | sort Get Model List DeepSeek-R1-0528 DeepSeek-R1-Distill-Llama-70B DeepSeek-R1-Distill-Qwen-32B DeepSeek-R1-Distill-Qwen-7B DeepSeek-V3.2 DeepSeek-V4-Flash DeepSeek-V4-Pro GLM-5.1 Kimi-K2.6 MiniMax-M2.5 OCR Qwen3-235B-A22B Qwen3-235B-A22B-Thinking-2507 Qwen3-30B-A3B Qwen3-30B-A3B-Instruct-2507 Qwen3.6-Flash Qwen3.6-Max Qwen3.6-Plu Qwen3-Embedding-8B QwQ-32B |
22 Sundayz 11h 0m ago “清朝”模型 |
23 jetsung 10h 56m ago https://www.scnet.cn/ac/openapi/doc/2.0/moduleapi/codingplan/subscriptionnotice.html 确实只有 MiniMax-M2.5 和 Qwen3-235B-A22B 两个上古模型。 |
24 frantic 10h 54m ago '国家超算平台'的所属公司我记得是个私企 |
26 ebushicao 10h 5m ago 这种就是做个样子出来骗钱的 |
27 v400127 9h 18m ago 挂羊头卖狗肉,买过,后来麻溜的退款说再见 |