物理黑群晖迁移 ESXI 建议 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
请不要在回答技术问题时复制粘贴 AI 生成的内容
YongXMan
V2EX    程序员

物理黑群晖迁移 ESXI 建议

  •  
  •   YongXMan 2022-06-24 23:15:40 +08:00 3870 次点击
    这是一个创建于 1253 天前的主题,其中的信息可能已经有所发展或是发生改变。
    自己组的 4 盘位 J4105 的黑群晖在客厅电视柜里默默运行有 4 年了,一直很稳,现在还在用 DSM6.2.1 版本,也不敢升级。

    由于近期入了 DELL R720xd ,打算把物理的黑群晖迁移到 ESXI 下,因为 R720xd 放在仓库,所以把黑群晖撤掉可以把电视柜的空间省出来。

    问一下,大家有在 ESXI 下用黑裙的吗,应用场景中稳定性怎么样?求过来人给点建议。
    因为 ESXI 毕竟不是物理机,折腾起来成本低,所以也更容易折腾出问题,也一定会折腾出问题。
    19 条回复    2022-06-27 11:03:59 +08:00
    Alchemistxxd
        1
    Alchemistxxd  
       2022-06-24 23:43:22 +08:00
    有用过,直通 raid controller 或者 rdm 都可以,不过都上 2U/3U 了不如换一套存储方案
    YongXMan
        2
    YongXMan  
    OP
       2022-06-24 23:52:28 +08:00 via Android
    @Alchemistxxd 群晖用习惯了,用起来比较顺手,当然虚拟群晖只是一小部分,机器主要还是平时开发编译用的。现在机器里上的 raid h710p 卡,要做硬盘直通的话只能所有硬盘全部直通吧?其他虚拟机怎么办?
    Alchemistxxd
        3
    Alchemistxxd  
       2022-06-24 23:57:22 +08:00   1
    直通分 controller 直通和 rdm ,controller 直通可以在群晖里做 iSCSI 给到 ESXi host ,rdm 的话就是普通单盘直通。controller 直通有个问题是如果 raid 卡处在 raid 模式不是 hba 的话有些厂商的 raid 卡是没法驱动的,因为驱动是要和主板一起工作的,典型的就是 hpe 的服务器,稳妥一点的话还是 rdm 直通好点。以上都是建立在群晖要做大文件存储的前提下。
    @YongXMan
    YongXMan
        4
    YongXMan  
    OP
       2022-06-25 00:03:59 +08:00 via Android
    @Alchemistxxd 查了一下,rdm 了解了。
    ltkun
        5
    ltkun  
       2022-06-25 02:32:43 +08:00 via Android
    黑群晖物理迁移过 PVE 无损三个 4t 硬盘 没有做直通 就映射了一下 很方便
    JoeoooLAI
        6
    JoeoooLAI  
       2022-06-25 02:41:03 +08:00
    emmmmm 。。。我有个想法。。把盘插电脑上,打包成 vmdk 。。。在 esxi 重新装好一台黑裙后把四个 vmdk 挂上去。
    IV16SL
        7
    IV16SL  
       2022-06-25 04:12:47 +08:00
    ESXI 黑群跑了 3 年了,网卡和硬盘是直通的,没遇到什么大问题。
    YongXMan
        8
    YongXMan  
    OP
       2022-06-25 05:52:48 +08:00 via Android
    @JoeoooLAI 打包都不用,可以直接 rdm 直通,有个问题是机器有 raid 卡,安装新盘需要先配置 raid ,如果 raid 卡配置成 raid0 ,不知道原来盘的数据还在不在。。。。
    YongXMan
        9
    YongXMan  
    OP
       2022-06-25 05:55:28 +08:00 via Android
    @IV16SL 就是怕手贱瞎折腾,毕竟虚拟的平台会经常搞一些事情
    YongXMan
        10
    YongXMan  
    OP
       2022-06-25 05:58:12 +08:00 via Android
    @ltkun 如果要迁移,计划直接本次升级 dsm7 ,因为物理的黑裙一直比较严肃对待,没有升级过
    ferock
        11
    ferock  
    PRO
       2022-06-25 10:08:38 +08:00 via iPhone
    数据明显无所谓啊…
    YongXMan
        12
    YongXMan  
    OP
       2022-06-25 15:00:28 +08:00 via Android
    @ferock ??
    YongXMan
        13
    YongXMan  
    OP
       2022-06-25 20:13:45 +08:00 via Android
    打算换 freenas 玩玩
    ketor
        14
    ketor  
       2022-06-26 00:00:14 +08:00 via iPad   1
    @YongXMan 7.1 的车比 6.2 还要更稳一些,自己编译引导,驱动用什么自己选。另外新的 Photos 相当好用,几乎 Google Photos 完美替代了。不放心可以单独搞个硬盘先试车,成功了再上生产的盘。
    YongXMan
        15
    YongXMan  
    OP
       2022-06-26 00:16:44 +08:00 via Android
    @ketor 说的我想试试了
    nbweb
        16
    nbweb  
       2022-06-26 08:17:13 +08:00
    群晖的系统是装在每个硬盘上的,所以随便折腾都没问题。就算折腾算了,把硬盘的第一个分区格式化掉,装上新系统一样用,之前所有的数据都还在。只要你把把群晖的硬盘全格掉,怎么玩都没事。
    玩坏了,参考一下我折腾的: https://kzpu.com/archives/4847.html
    YongXMan
        17
    YongXMan  
    OP
       2022-06-27 00:34:02 +08:00 via Android
    @ketor 试了一下 esxi 下 rdm 直通,上 7.1 没啥问题,只是原来 nas 的数据和环境不好迁移,新环境因为有 raid 卡,试了一下,老盘插进来做单盘 raid0 类似直通模式,数据就都没了,看来数据要手动倒腾一遍。
    ketor
        18
    ketor  
       2022-06-27 10:16:04 +08:00
    @YongXMan 做完单盘 RAID0 ,这以后要是买个白群,还得再倒腾一次数据啊[捂脸]
    YongXMan
        19
    YongXMan  
    OP
       2022-06-27 11:03:59 +08:00
    @ketor 预期内应该是不会考虑买白裙♀
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana   /span>   2722 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 20ms UTC 06:55 PVG 14:55 LAX 22:55 JFK 01:55
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86