1
lynn1su OP 支持的模型比较老旧,比如 minimax-m2.5 和 qwen3
|
2
106npo Apr 30
20 给个虚拟机实例那很不错了
|
3
qwwuyu Apr 30
不值 我已经捐了 20 了 上面的次数是估计次数 实际还是 token 数
|
4
Aicnal Apr 30
有点狗屎,被骗过一次买集群
|
5
qwwuyu Apr 30
|
6
qwwuyu Apr 30
额,楼上我也可能理解错了,一次模型一次调用,说的一次提问貌似说的龙虾...
|
7
CuteGirl Apr 30
价格还行 就是模型没有使用的欲望
|
8
luoyezhishui Apr 30
只有这两个模型,没有买的欲望
|
9
andyskaura Apr 30
有 deepseek-v4 就好了
|
10
Yinnfeng Apr 30
虽然 minimax-m2.5 和 qwen3 但是有 deepseek-v4 啊。难道还不值 20 么
|
12
Sosocould Apr 30
这家没信用的,趁早拉黑
|
14
jetsung Apr 30
支持 v4 吗?是不是它文案没有更新而已?
|
18
kloudmuka Apr 30
可以,现在还在用 qwen3-235B ,很符合我对国企的刻板印象
|
20
K332 Apr 30
上一个按次数的 copilot 已经死了,不知道这个按次数的能撑多久
|
21
jetsung Apr 30
/v1/models 抓取了一下它的模型列表。有没有 coding 专属入口?也可以测试一下。
➜ ~ APIKEY=sk-xxxx ➜ ~ BASEURL=https://api.scnet.cn/api/llm/v1 ➜ ~ printf "Get Model List\n\n" && curl -fsSL "$BASEURL/models" -H "Authorization: Bearer $APIKEY" | jq -r ".data[].id" | sort Get Model List DeepSeek-R1-0528 DeepSeek-R1-Distill-Llama-70B DeepSeek-R1-Distill-Qwen-32B DeepSeek-R1-Distill-Qwen-7B DeepSeek-V3.2 DeepSeek-V4-Flash DeepSeek-V4-Pro GLM-5.1 Kimi-K2.6 MiniMax-M2.5 OCR Qwen3-235B-A22B Qwen3-235B-A22B-Thinking-2507 Qwen3-30B-A3B Qwen3-30B-A3B-Instruct-2507 Qwen3.6-Flash Qwen3.6-Max Qwen3.6-Plus Qwen3-Embedding-8B QwQ-32B |
22
Sundayz Apr 30
“清朝”模型
|
23
jetsung Apr 30
https://www.scnet.cn/ac/openapi/doc/2.0/moduleapi/codingplan/subscriptionnotice.html
确实只有 MiniMax-M2.5 和 Qwen3-235B-A22B 两个上古模型。 |
24
frantic Apr 30
'国家超算平台'的所属公司我记得是个私企
|
26
ebushicao Apr 30 这种就是做个样子出来骗钱的
|
27
v400127 Apr 30
挂羊头卖狗肉,买过,后来麻溜的退款说再见
|