1
psychoo 2020-02-26 15:24:05 +08:00
|
2
df4VW 2020-02-26 15:24:17 +08:00
这俩完全不一样吧,大数据机器学习领域的话无脑 v100
|
3
kvenux OP @psychoo 光看规格比不出来啊
最好有类似这样的 https://developer.nvidia.com/deep-learning-performance-training-inference |
5
nightwitch 2020-02-26 16:27:33 +08:00
你说的 v100 是啥 tesla v100? quadro v100?
公司采购是拿来干什么? 拿来搭云服务的话 NVIDIA 的意思是只能用 tesla。 公司自己内部做开发平台的话. 可以参考 https://blog.exxactcorp.com/whats-the-best-gpu-for-deep-learning-rtx-2080-ti-vs-titan-rtx-vs-rtx-8000-vs-rtx-6000/ |
6
feast 2020-02-26 16:36:12 +08:00 via Android
tesla 卖的是 sdk 的钱,你公司估计也不会用,自己写买 rtx 吧
|
7
kvenux OP @nightwitch nice link!
|
8
xau 2020-02-26 19:04:08 +08:00 via iPhone
不能单纯看硬件吧 你都没说准备怎么拿来用
|
10
terencelau 2020-02-26 19:14:25 +08:00 1
有高精度需求就上 Tesla,不然 RTX 更划算
|
11
ZRS 2020-02-26 19:39:53 +08:00 1
有双精度需求 V100 否则 RTX8000
|
12
feast 2020-02-26 22:57:00 +08:00 via Android
从供应角度来讲非完整版的 die 的卡要的人没有完整版 die 的多,溢价更低,实际上性能差距不大,rtx 还支持光线追踪
|
13
iasuna 2020-02-26 23:23:25 +08:00 via iPhone
deep learning 我建议你买 v100 除非代码完全手写
这么研究机构 就没见过不用 n 卡的 你买了个 amd 到时候别人的代码出 bug 了 太麻烦 |
14
Xs0ul 2020-02-26 23:37:45 +08:00 1
RTX8000 感觉上是传统上说的"专业卡", 和游戏显卡相对, 感觉是给渲染什么用的
V100 就是 deep learning 用的. 比如你复现别人论文的模型, 别人论文里提到 V100 下速度是多少,你就很容易比对. 另外出了莫名其妙的 bug, 也更容易搜到同样的问题和解决方案. 和这些比起来速度是小事 |
15
lonelygo 2020-02-27 00:01:59 +08:00 1
看场景,DL 还是纯粹的图像处理,否则没法比,别人也没法给你准确建议。
如果是 DL 使用,还要看是用来训练+推理,还是仅仅做推理。 如果是要做推理,还要考虑双精度、单精度、半精度的推理问题,那还要增加一个考虑维度。 不过能上来就看 V100 这种大卡,估计不缺钱,那就无脑买贵的呗。 |
18
gladuo 2020-02-27 00:33:27 +08:00 1
@kvenux 参考这个 https://blog.exxactcorp.com/whats-the-best-gpu-for-deep-learning-rtx-2080-ti-vs-titan-rtx-vs-rtx-8000-vs-rtx-6000/
简略看了一下,速度差距没那么大,主要还是 显存+钱 决定 |