问大家一个问题,征集点意见。
最近我一直在研究 stable diffusion ,发现想要成功上手有各种问题: 1 )硬件投入,一次性投入一个 3090 的机器,得 2 万上下。 2 )租用 gpu 主机,阿里云,腾讯云都有,也不便宜,上面的 stable diffusion 镜像也不理想。 3 )没法访问 github 、civitai 和 huggingface 等网站 4 )自己下模型动辄就 2GB ,下完后还的上传到自己的 stable diffusion 网站上。 5 )各种插件鼓捣来鼓捣去的,也很麻烦
所以呢,如果做成一个开箱即用的 stable diffuison 页面,实现如下功能 1 )直接浏览器访问,内置了中文以及各种插件 2 )可以选择各种显卡 3 )自带有梯子的网盘,可以直接通过网盘去 github 、civitai 和 huggingface 等网站下载模型,速度至少能到 5Mbps 以上。 4 )按时间租用,最短一周起。
这样可以让有需求的人可以快速上手 stable diffusion 。大家觉得这个创意可以么?
还有就是价格,我预计一个 16 核、50GB 内存,3090 显卡( 24GB 显存),一周 400 块钱,这个价格区间合适否?
1
manasheep 2023-05-22 12:07:27 +08:00
基本没人用,主要门槛太高了,各种参数插件机制,能玩转它的人,硬件和环境也都基本能搞定了。
你要是给包装一波做简单化,又肯定搞不过那些先发的大户,别琢磨了。 |
2
tc132 2023-05-22 12:08:55 +08:00
一周 400 ?我为啥不自己一键安装?
|
3
manasheep 2023-05-22 12:12:43 +08:00
你这样还不如买台 2W 块钱的相机往外租好赚呢,看看蓝拓租赁是多少钱。
|
4
terrysnake 2023-05-22 12:14:12 +08:00
折腾这么多我为什么不直接出门右转用 midjourney 呢。。。
|
5
Exdui 2023-05-22 12:20:03 +08:00 2
已经有人卖这种服务:
国内 3 元(人民币)/小时: https://www.wujieai.com/pro 国外 0.5 元(美元)/小时: https://rundiffusion.com/ 按周卖没人会买单的,大部分人是按需使用,一周实际使用时间可能不足 24 小时。 |
6
foufoufm 2023-05-22 12:28:37 +08:00
可以做,但是必须设定门槛,而且服务链路必须到位。
|
7
pharaohnie OP @terrysnake 定位人群就是用 sd 的人
|
8
pharaohnie OP @Exdui 恩,刚去看了一下。我这个想法更像 https://rundiffusion.com/ ,无界 AI 那种界面我体验过类似的 VEGA ,说实话,因为两点:
1 )我没啥开发能力,但手头服务器、带宽和梯子的资源,所以也只能这么搞了。 2 )再有就是做了的前端一般都是把 SD WebUI 给简化了,这东西简化了之后出图效果更不可控了。 |
9
pharaohnie OP |
10
pharaohnie OP 其实就是解决几个问题:
1 )给的是原生的 SD Web-UI 2 )可以随意访问 civit 的资源 3 )让想上手 SD 的人可以在最快的时间内上手,不用一次性投入大量费用。 |
11
kiduu 2023-05-22 13:32:08 +08:00
@pharaohnie 咸鱼上有出租整机的,3090 显卡整机大致就是 40-60 之间。这种服务回本一般是一年左右。可以做为价格参考。但是老实说,你这个没有竞争优势啊。按需付费的 autodl 之类的可以精确到小时计费,3090 的服务器 1.66RMB/h ,有制作好的镜像。整机方面有咸鱼这种自用出租的。想要打开市场要么价格低要么方便快捷,要么就是针对特定人群。
|
12
zuoshoufantexi 2023-05-22 13:33:54 +08:00 1
谁还没有一个 6G 显存以上的 N 卡呢?自己电脑也能出图,就是慢一点点就是了。现在网上的整合包多的是,解压缩就能用。
新手自己电脑弄弄就好了。真用 SD 赚钱的人家机器比你配置还高。 |
13
musi 2023-05-22 13:45:17 +08:00 1
你有没有看过阿里和腾讯最近打的广告,用 severless 一键部署 sd
|
14
Exdui 2023-05-22 13:47:38 +08:00
@pharaohnie #8 无界专业版也是 SD WebUI 页面,这个主要还是时间问题,最短 1 周起,可能买单的人寥寥无几。
|
15
Echoldman 2023-05-22 13:48:24 +08:00
我现在想要的时候把 WebUI 的提交操作一键变成 API 调用,不知道有没有现成的插件或者什么方法
|
16
pharaohnie OP |
17
XiLingHost 2023-05-22 13:51:12 +08:00
@Echoldman webui 本来就有 api
|
18
Exdui 2023-05-22 13:51:27 +08:00
@musi #13 他们两家 severless 部署就是蹭热度玩玩而已,要画出好一些的图需要模型和插件比较多,他们部署的都是基础版就已经达到镜像容量限制了。
|
19
terrysnake 2023-05-22 13:52:41 +08:00
@pharaohnie 我的意思是,这么贵的话,我为啥不用 Midjourney?
|
20
pharaohnie OP @Exdui 我看了一下无界的价格,3090 是一小时 35 ,换算成一周是 840 块,是我预估的 400 块的一倍。还算有价格优势吧。
|
21
pharaohnie OP @terrysnake midjourney 我也买了,和 sd 对比,对应的用户群体不一样吧,或者说真正搞设计的人这两套东西都需要。我现在的想法是解决一部分人的一部分需求。
|
22
Echoldman 2023-05-22 13:55:02 +08:00
@XiLingHost 我想的是没有这样的功能或者插件,直接把操作转换成 API 调用
|
23
fukun 2023-05-22 13:56:41 +08:00
https://www.100prompt.com/ 这里有个免费的,用着也还行
|
24
agdhole 2023-05-22 13:57:10 +08:00
你要找的是不是
Stable Diffusion 官方商业一键使用版: https://dreamstudio.ai/ |
25
guoziq09 2023-05-22 13:57:45 +08:00
aliyun 等提供的 serverless 有一件部署的 sd-webui 的,目前的缺点是不能替换模型,你是不是说的类似的东西
|
26
pkoukk 2023-05-22 13:58:32 +08:00
我看了一下无界的价格,3090 是一小时 35 ,换算成一周是 840 块,是我预估的 400 块的一倍。还算有价格优势吧。 @pharaohnie
按需使用的价格不是这么算的,我在 vultr 上充了 10 刀,用了三年都没用完呢 就是临时救济开个虚机,搞个两三个小时就删实例了,一次就用几毛钱 |
27
pharaohnie OP @agdhole 也不完全是。我想实现的东西就是我最初碰到的烦恼。我希望付费后就给我一个原生的 sd webui 的界面,还有 kohya_ss ,还能翻墙。当初我折腾这几样东西前前后后用了两周。
|
28
pharaohnie OP @guoziq09 对,就是完全可控,模型也可以自己下载,而且是只要在网盘里贴上链接就可以,不用再去解决梯子的事情。
|
29
tryxd 2023-05-22 14:04:45 +08:00
腾讯云 TESLA T4 16G 的秒杀活动 60 块 15 天,p40 24G 70 15 天,搭建也不难,最多也就 1 个小时
|
30
pharaohnie OP @pkoukk 额,先纠正,无界的 3090 是 5 块,不是 35 块。
您这个法子的确是可以,这不是您能自己解决各种梯子的问题么。我是想看看这种一揽子的解决方案是不是真正的需求。 |
31
deplivesb 2023-05-22 14:10:01 +08:00
我有问题哈
1. 对于 stable diffusion 已经有 stable-diffusion-webui 一键使用的情况下,你是为了解决什么问题?如果你想针对的是不会运行 stable-diffusion-webui , [没法访问 github 、civitai 和 huggingface 等网站的人群] 。那么这类人群可以说就是个尝鲜。人家为什么要话 400/week 的价格去买你的服务,你没有价格优势。 2. 如果你想针对的是 [有需求的人] ,主要也分为两类:1 炼丹师,这种你就别想了,你的 3090 在人家那只是个弟弟。2. 赚钱的,你也别想了。你的 3090 在人家那要么平起平坐,要么略高一筹,要么也是个弟弟。人家图啥? |
32
Exdui 2023-05-22 14:10:13 +08:00
@pharaohnie #20
@pkoukk #26 3090 的价格是 5 元 /小时,不是 35 元 /小时,7 * 24 * 5 = 840 元,也就是你定价 400 的 2 倍。 如果用户每天使用 24 小时,那么你这个定价确实很有优势 如果用户每天使用 12 小时,用户使用你的或者无界的,价格优势就没那么明显了 如果用户每天上班 8 小时,假设他上班时间都在使用,那么你的价格将不是优势 |
33
Exdui 2023-05-22 14:12:34 +08:00
@pharaohnie #30 一揽子解决方案是真正的需求,但是你的定价在市场上可能没有优势。
|
34
pharaohnie OP @Exdui
他们计算的方式不是看你是不是在出图的时间,而是付费后就开始计算了,不管你用不用。 |
35
Exdui 2023-05-22 14:17:45 +08:00
@pharaohnie #34 你的计费是只计算出图时间吗?比如我租用 1 周,每天使用 2 小时,就扣除 2 小时额度?
|
36
pharaohnie OP @deplivesb
是啊,所以我这想找大家问问呢。 其实不论 sd 还是 mid journey ,使用需求最大的应该就是插画师或者建筑师这类人,对于他们 ai 是可以创造价值的,但他们很难搞定梯子和安装这种问题。 还有一点,我手里并没有 GPU 资源,这个需要现去线上租。但我手里的 x86 服务器和带宽以及梯子有的是,没有成本。所以整体来说,干这个事情没啥成本,就是挣个 GPU 的差价。 总体来说,就想看看这个需求是不是真的,如果是,剩下的就是怎么找到用户卖出去。 |
37
pharaohnie OP @Exdui 额,当然也不是。比如买了 24 小时,那就是 web 接口给 24 小时,不管你用不用。这个和 mid journey 相比是完全不同的计算方式。
不过 mid journey 即使付费了,我感觉也是越来越慢了,先让你 waiting 。。。。。 |
38
qwertty01 2023-05-22 14:26:34 +08:00
@pharaohnie #36 你想赚个 GPU 差价,平台好做,推广找用户,做好售后是大头,也就想想吧
|
39
pharaohnie OP @qwertty01 说到点儿上了
|
40
pharaohnie OP @qwertty01 不过肯定不能让用户知道是赚 gpu 差价。
|
41
Xianmua 2023-05-22 14:31:14 +08:00 via iPhone
搬运工的活不好干,除非搬的是矿泉水
|
42
devHang 2023-05-22 14:35:32 +08:00
设计师用的电脑完全可以抗住 sd ,租赁这种的似乎用处不大。我 m1 pro 的本,出图也就二三十秒(四行关键词,套两三个模型)
|
43
Xianmua 2023-05-22 14:37:17 +08:00
补一个昨天刚看见的,机器学习界的 vercel ,可以考虑照着抄了: https://replicate.com/
|
44
Exdui 2023-05-22 14:37:48 +08:00
@pharaohnie #37
你的:按时间租用,最短一周起,400 元 /周 别人:按小时租用,上班开机,下班关机,5 天 * 8 小时 * 5 元 /小时 = 200 元 /周(按上班时间计算) 你认为别人的:按小时租用,7 天 * 24 小时 * 5 元 /小时 = 800 元 /周 |
45
yummysakko 2023-05-22 14:38:56 +08:00
nsfw 开了吗
|
46
pharaohnie OP @devHang 我家里也是 m1 ,再几个套个 controlnet 就疯了,哎。。。。开始差点自己买了个 4090 的机器,后来想出来这个方案。自己已经在用了。
|
47
pharaohnie OP @yummysakko 这是个好问题,是不是有些人就需要 nsfw 啊
|
48
pharaohnie OP @Exdui 我开始就是你说的那个别人,也想不用就关机,但再开机的时候,发现木有显卡的资源了。
|
49
devHang 2023-05-22 14:45:28 +08:00
nsfw 还需要开吗?跑在本地,下几个 nsfw 的模型,不是随便搞...
|
50
zorui 2023-05-22 14:46:11 +08:00
Google colab 使用美滋滋。 还是可以用 A100 。 下载速度都是 100M/s 起。
|
51
SunsetShimmer 2023-05-22 14:46:52 +08:00
听起来就是个 SaaS ,但是已经有一些入场者了。它们没实现的部分几乎都是合规性问题。
|
52
shunia 2023-05-22 15:09:17 +08:00
啊居然还特意去做原版吗?虽然真正的炼丹人愿意去学,可我真的觉得整个使用过程非常反人类啊,就没有人能把整个流程做成 npm 包依赖那样简单的东西(甚至更简单)吗?
|
53
yyh0808 2023-05-22 15:10:59 +08:00
能把 stable 用好的人,基本具备使用 Google colab 的能力,或者自己本地 m1 跑跑,慢点就慢点了,一样可以调试,我想不出在线用的场景,因为用 stable 本身就很折腾,,能经得起折腾的,不差这点,,,
|
54
terrysnake 2023-05-22 15:15:14 +08:00
OP 你要提问就真心提问,不能别人一说出问题你就找补,求认同的话直接去干好了,没必要给 V2 增加人气。
|
55
lilei2023 2023-05-22 15:16:32 +08:00
这个无界太不要脸(好了),上来给我一堆大 xiong 美女 图片
|
56
qwertty01 2023-05-22 15:28:43 +08:00
@pharaohnie #40 没看到最后一句也就想想吗 你想赚个 GPU 差价,问题是找客户,和客户扯皮,好几十个 GPU 差价就搭进去了 到最后算来算去还不如使用现成的 图啥呢
|
57
pharaohnie OP @qwertty01 我要是找企业用户是不是会好点?
|
58
Moeyua 2023-05-22 15:33:50 +08:00 via iPhone
不是已经有在线版本了吗 https://stablediffusionweb.com/
|
59
yannxia 2023-05-22 15:45:06 +08:00
肯定有嘛,体验型客户嘛,就等于租服务器体验下,目标很明确就是尽量把资源卖出去。如果大部分时候 GPU 都是空置的肯定不赚钱嘛
|
60
yoyolichen 2023-05-22 16:05:46 +08:00
做 paas 感觉有搞头,找那种 ai 画工作室合作,别人找客户对接需求,你提供服务
|
61
MaybeRichard 2023-05-22 16:19:55 +08:00
几个不符合规范的 prompt ( NSFW ),一个举报,你的网站废了
|
62
ganbuliao 2023-05-22 16:59:03 +08:00
https://www.seaart.ai/home
主要现在还有好多免费的 你怎么搞 |
63
d754903977 2023-05-22 17:11:09 +08:00
不如做好以后到 themeforest 卖源码
|
64
zzNucker 2023-05-22 17:48:57 +08:00
看起来跟 autodl 比优势不大啊,autodl 下载速度也很快啊,而且镜像里 webUI 也提供更新功能
本地 m1 其实也能跑,就是慢了点,而且有些插件不支持 |
65
nash 2023-05-22 21:20:31 +08:00
sd 的 mac 包都有了,一键安装 https://diffusionbee.com/
|
66
asdgsdg98 2023-05-22 21:41:04 +08:00
玩得转的看不上,一堆免费站,150steps 也就十几秒,玩不转的试一下出了鬼图就再也不玩了
|
67
westoy 2023-05-22 22:19:35 +08:00
|
68
nrtEBH 2023-05-23 00:58:19 +08:00
|
69
worldquant 2023-05-23 01:00:43 +08:00
上 4080 吧
|
70
lisxour 2023-05-23 09:30:32 +08:00
你是不是忽略了用户量问题? 100 个用户突然同时生成,你一张 3090 就像搞定?
|
71
pharaohnie OP @zzNucker 我都快被 autodl 的代理搞崩溃了,下载一半经常断掉,然后又要重来。
|
72
pharaohnie OP @lisxour 当然,我有好多机器。
|
73
ZhiyuanLin 2023-05-23 10:32:43 +08:00
小打小闹是卷不过云服务商的,除非你之前一堆矿卡挖 ETH 现在闲置了。
|
74
winglight2016 2023-05-23 11:51:24 +08:00
如果 lz 的优势在于闲置显卡或者主机,那自己接活更靠谱一些。——个人副业切忌做“平台”
|
75
yummysakko 2023-05-23 14:20:56 +08:00
@devHang 哈哈,我的需求是想要一个按次付费的黄图 api
|
76
esee 2023-05-24 12:36:25 +08:00 via Android
感觉你这个完全没前途,云厂商已经在搞 serverless 的按秒付费,只在调用显卡运算的时候付费,你这个能有啥优势?建议还是不要浪费时间
|
77
AkideLiu 2023-05-25 06:00:19 +08:00 via iPhone
如果是要租用 autodl 的资源还是算了吧,碰上几个论文 ddl 就没什么卡可以给你用了。感觉如果没有硬件优势,这个 idea 不咋 work
|