有对 GPU 熟悉的朋友么,求助 NVIDIA V100 vs RTX8000 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
kvenux
V2EX    NVIDIA

有对 GPU 熟悉的朋友么,求助 NVIDIA V100 vs RTX8000

  •  
  •   kvenux 2020-02-26 15:13:20 +08:00 7821 次点击
    这是一个创建于 2054 天前的主题,其中的信息可能已经有所发展或是发生改变。
    公司在采购硬件,这俩 GPU 选哪个

    RTX8000 内存更大( 48G ),更便宜(便宜 40%),但网上找到的资料比较少,有 V 友可以指条明路么
    第 1 条附言    2020-02-26 18:56:56 +08:00
    V100 基本参数:

    5120 cuda cores,640 tensor cores,tensor performance 112 TFLOPS

    RTX8000 基本参数:

    4608 cuda cores,576 tensor cores,72 RT cores,tensor performance 130.5 TFLOPS

    Training Performance on ResNET-50:

    1xV100 XLA+FP16: 1354.43 images/sec

    1xV100 FP16: 888.63 images/sec

    1xRTX8000 XLA+FP16: 1016.74 images/sec

    1x RTX8000 FP16: 628.75 images/sec

    FYI
    19 条回复    2020-02-27 09:53:21 +08:00
    psychoo
        1
    psychoo  
       2020-02-26 15:24:05 +08:00
    df4VW
        2
    df4VW  
       2020-02-26 15:24:17 +08:00
    这俩完全不一样吧,大数据机器学习领域的话无脑 v100
    kvenux
        3
    kvenux  
    OP
       2020-02-26 15:27:22 +08:00
    @psychoo 光看规格比不出来啊
    最好有类似这样的 https://developer.nvidia.com/deep-learning-performance-training-inference
    kvenux
        4
    kvenux  
    OP
       2020-02-26 15:28:04 +08:00
    @df4VW 跑 deep learning 的 RTX8000 貌似新出的,benchmark 都搜不到多少
    nightwitch
        5
    nightwitch  
       2020-02-26 16:27:33 +08:00
    你说的 v100 是啥 tesla v100? quadro v100?
    公司采购是拿来干什么? 拿来搭云服务的话 NVIDIA 的意思是只能用 tesla。 公司自己内部做开发平台的话.
    可以参考
    https://blog.exxactcorp.com/whats-the-best-gpu-for-deep-learning-rtx-2080-ti-vs-titan-rtx-vs-rtx-8000-vs-rtx-6000/
    feast
        6
    feast  
       2020-02-26 16:36:12 +08:00 via Android
    tesla 卖的是 sdk 的钱,你公司估计也不会用,自己写买 rtx 吧
    kvenux
        7
    kvenux  
    OP
       2020-02-26 18:56:23 +08:00
    @nightwitch nice link!
    xau
        8
    xau  
       2020-02-26 19:04:08 +08:00 via iPhone
    不能单纯看硬件吧 你都没说准备怎么拿来用
    kvenux
        9
    kvenux  
    OP
       2020-02-26 19:12:28 +08:00
    @xau 必然是 deep learning 啊
    这年头买得起 V100 的还能干嘛
    terencelau
        10
    terencelau  
       2020-02-26 19:14:25 +08:00   1
    有高精度需求就上 Tesla,不然 RTX 更划算
    ZRS
        11
    ZRS  
       2020-02-26 19:39:53 +08:00   1
    有双精度需求 V100 否则 RTX8000
    feast
        12
    feast  
       2020-02-26 22:57:00 +08:00 via Android
    从供应角度来讲非完整版的 die 的卡要的人没有完整版 die 的多,溢价更低,实际上性能差距不大,rtx 还支持光线追踪
    iasuna
        13
    iasuna  
       2020-02-26 23:23:25 +08:00 via iPhone
    deep learning 我建议你买 v100 除非代码完全手写

    这么研究机构 就没见过不用 n 卡的 你买了个 amd 到时候别人的代码出 bug 了 太麻烦
    Xs0ul
        14
    Xs0ul  
       2020-02-26 23:37:45 +08:00   1
    RTX8000 感觉上是传统上说的"专业卡", 和游戏显卡相对, 感觉是给渲染什么用的

    V100 就是 deep learning 用的. 比如你复现别人论文的模型, 别人论文里提到 V100 下速度是多少,你就很容易比对. 另外出了莫名其妙的 bug, 也更容易搜到同样的问题和解决方案.

    和这些比起来速度是小事
    lonelygo
        15
    lonelygo  
       2020-02-27 00:01:59 +08:00   1
    看场景,DL 还是纯粹的图像处理,否则没法比,别人也没法给你准确建议。
    如果是 DL 使用,还要看是用来训练+推理,还是仅仅做推理。
    如果是要做推理,还要考虑双精度、单精度、半精度的推理问题,那还要增加一个考虑维度。

    不过能上来就看 V100 这种大卡,估计不缺钱,那就无脑买贵的呗。
    ScjMitsui
        16
    ScjMitsui  
       2020-02-27 00:08:19 +08:00
    @iasuna #13 楼主也没说买 amd 的卡啊
    iasuna
        17
    iasuna  
       2020-02-27 00:15:02 +08:00
    @ScjMitsui RTX8000 原来是 Quadro 的。。。下意识以为是 amd sorry
    gladuo
        18
    gladuo  
       2020-02-27 00:33:27 +08:00   1
    @kvenux 参考这个 https://blog.exxactcorp.com/whats-the-best-gpu-for-deep-learning-rtx-2080-ti-vs-titan-rtx-vs-rtx-8000-vs-rtx-6000/
    简略看了一下,速度差距没那么大,主要还是 显存+钱 决定
    kvenux
        19
    kvenux  
    OP
       2020-02-27 09:53:21 +08:00
    @gladuo 嗯 V100 大概快 30%
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2590 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 28ms UTC 04:59 PVG 12:59 LAX 21:59 JFK 00:59
    Do have faith in what you're doing.
    ubao snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86