我好像解决了群晖大硬盘噪音的问题 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
请不要把任何和邀请码有关的内容发到 NAS 节点。

邀请码相关的内容请使用 /go/in 节点。

如果没有发送到 /go/in,那么会被移动到 /go/pointless 同时账号会被降权。如果持续触发这样的移动,会导致账号被禁用。
Pogbag
V2EX    NAS

我好像解决了群晖大硬盘噪音的问题

  •  
  •   Pogbag 2022-12-07 13:08:00 +08:00 9212 次点击
    这是一个创建于 1088 天前的主题,其中的信息可能已经有所发展或是发生改变。

    我的 NAS 是群晖 DS920+,四盘位分别是 1T SSD (盘 1 ),4T HDD (盘 2 )和两块 16T 的氦气盘(盘 3 ,4 ,媒体盘,几乎全部存的是视频资源,平时很少读取),众所周知,氦气盘噪音大,读写时候会有炒豆子的声音,另外群晖的策略是每个硬盘都安装系统,相当于四盘位做了 RAID1 。

    优点是即使任意 3 块硬盘挂了之后,系统照样正常运行。

    但是缺点是访问 NAS 的时候,每个盘都会读,我访问 DSM 后台,访问盘 1 上的文件,那两块氦气盘都会咯哒一下,十分讨厌。

    为了解决这个问题,我尝试过给盘 3 和盘 4 各增加一个 ssd 只读缓存,想解决访问系统文件加速,但是效果不好,命中率很低,噪音依然存在。

    刚刚发现一个新的思路,就是关机之后把盘 3 ,4 拔出来,然后重新开机,这时候 NAS 会警告,关掉哔音,运行一段时间之后,关机,插上盘 3 ,4 ,再开机,这时候系统会弹出警告,系统无法将特定硬盘添加到系统分区。请单击链接以修复此问题,不要点修复!不要点修复!不要点修复!只要不修复,系统分区就无法写入盘 3 ,盘 4 。

    这样操作之后,我访问群晖后台,访问非盘 3 ,盘 4 的文件时候,那两块氦气盘再也不响了。

    只是我的一个分享,不知是否正确,欢迎友好交流

    20 条回复    2023-02-19 12:08:39 +08:00
    beijiaoff
        1
    beijiaoff  
       2022-12-07 13:52:43 +08:00
    赞思路。就是一直有警告,方法的适用人群不多吧。
    YongXMan
        2
    YongXMan  
       2022-12-07 14:00:25 +08:00
    前几天我还吐槽过这个,哈哈 https://v2ex.com/t/896351
    Pogbag
        3
    Pogbag  
    OP
       2022-12-07 14:13:26 +08:00 via iPhone
    @YongXMan 我看过你这个帖子,哈哈哈,一直对这个有执念,今天终于搞定了
    EPCoo
        4
    EPCoo  
       2022-12-07 16:43:39 +08:00   1
    群晖会给每个盘写入系统配置,最优解是全盘 SSD ,或者是四盘位组成一个阵列,使用 nvme 缓存。
    如果缓存命中率不高,看看是不是读取比较随机或者写入量过大,超过了缓存。
    如果有 PT 的话,可以单独一个 ssd 做种。

    目前我自己的解决办法:

    一台 4 盘位 NAS 8T*4 (机械硬盘),RAID 5 ,专门存放影音大文件,配置 nvme 512*2 缓存(目前 512G 足够日常读写了)。
    一台 6 盘位 NAS 2T*4 ( SSD ),RAID 5 ,配置 nvme 512*2 缓存,专门存放小文件:图片,书籍,以及 Docker 读写比较频繁的程序( PT 在也在这里,不过我其实准备把 PT 单独抽出来)。

    所以,我的建议是:
    * 全盘 RAID ,配置 nvme 缓存,减少机械硬盘读取次数,但是要清楚自己的读写量。
    * 其次是,把读写量比较大的程序独立出来(比如独立的一个 SSD ,甚至是一个独立的机器)。
    winglight2016
        5
    winglight2016  
       2022-12-07 16:51:14 +08:00
    氦气盘是真的吵,我在考虑用隔音棉加纸板把 nas 包起来

    另外,我想问一下大佬,我的群晖有两个盘,一个 12t ,一个 16t ,各自建了两个存储,我买两个 1t 的 SSD 来做缓存,能否解决这个声音问题?
    Pogbag
        6
    Pogbag  
    OP
       2022-12-07 16:54:31 +08:00
    @EPCoo 我其实已经这么做了,有两台 nas ,一台 4 盘位,大存储的当主 nas ,另一台日常使用(全 ssd ),负责 pt 下载,日常观影,每隔一段时间,转移一下文件到主 nas 。
    Pogbag
        7
    Pogbag  
    OP
       2022-12-07 16:55:05 +08:00
    @winglight2016 你仔细看我的写的,ssd 缓存对降低噪音没有帮助。
    EPCoo
        8
    EPCoo  
       2022-12-07 17:00:35 +08:00
    @Pogbag #6 现在对于我来说,反而是全固态 NAS 的运行风扇比较吵了,因为运行的程序比较多,当 CPU 运行比较频繁的时候,风扇就会突然飙起来,然后又下去,这一上一下,就比较扰人了。
    Mrzhs
        9
    Mrzhs  
       2022-12-07 17:14:36 +08:00   1
    我来沈阳了,你人呢?
    8355
        10
    8355  
       2022-12-07 18:13:31 +08:00
    威联通 NASbook
    4 个 2280 用个 8T 没问题
    对我来说相当够用 后面准备换这个了
    kaynim
        11
    kaynim  
       2022-12-08 22:00:14 +08:00 via iPhone   2
    SSD 和 HDD 混合组成 RAID ,可以把所有 HDD 的对应分区设为 writemostly ,这样可以让读操作尽量走 SSD ,这种情况不会破坏系统分区。
    miaowf
        12
    miaowf  
       2022-12-09 12:03:49 +08:00 via Android
    群晖的硬盘初始化后,所有的硬盘都会有三个分区,第一个,系统的 rootfs ,raid1 ;第二个,swap 分区,raid1 ;第三个,用户分区,具体 raid 类型视用户设置而定。群晖官方的想法
    miaowf
       
    miaowf  
       2022-12-09 12:09:07 +08:00   1
    群晖的硬盘初始化后,所有的硬盘都会有三个分区,第一个,系统的 rootfs ,raid1 ;第二个,swap 分区,raid1 ;第三个,用户分区,具体 raid 类型视用户设置而定。群晖官方的想法是,当用户拔掉任意数量硬盘,至少留一块时,系统都能正常的运行。所以,这对 ssd 和 hdd 混用的用户来说,就是噩梦,所以,只能把 hdd 上面的 rootfs 和 swap 从系统默认的两个 raid1 中踢掉,操作方法,1 ,可以和楼主一样,拔盘不修复系统分区。2 ,可以自己用 mdadm 命令,把机械硬盘踢掉。这样,既解决了 ssd 和 hdd 在系统 raid1 中混用导致系统性能受影响,又解决了机械硬盘的休眠问题。
    Pogbag
        14
    Pogbag  
    OP
       2022-12-09 12:16:07 +08:00
    @miaowf mdan 这个操作有具体教程可以参考吗?谢谢
    miaowf
        15
    miaowf  
       2022-12-09 19:16:44 +08:00 via Android
    @Pogbag mdadm 的使用,可以自己查文档,资料太多了,群晖的 mdadm 和普通 linux 版本操作一样,没加什么黑料。对于群晖,最好还是写个开机自动运行的脚本,开机自动踢掉 raid1 里的 hdd 就行了。
    Autonomous
        16
    Autonomous  
       2022-12-10 22:49:23 +08:00
    @miaowf 把 HDD 从 md0 和 md1 里面踢走之后会不会触发系统告警或者报错呢
    jaswer
        17
    jaswer  
       2022-12-14 13:58:59 +08:00
    DS1821 18T * 8 RAID5 加了两个 512G SSD 一样吵得很,之前放卧室,有的时候半夜直接吵醒,没办法,扔客厅了
    lifanxi
        18
    lifanxi  
       2022-12-17 20:13:36 +08:00
    11 楼的办法比较保险。如果确实不担心 SSD 坏的话,13 楼的办法把 HDD 从 RAID 里踢出去也是可行的。
    icyleaf
        19
    icyleaf  
       2023-01-31 00:18:00 +08:00   2
    贴一下 mdadm 的方法:

    ```bash
    $ cat /proc/mdstat
    Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [raidF1]
    md3 : active raid1 sdc3[0] sdd3[1]
    15621057536 blocks super 1.2 [2/2] [UU]

    md2 : active raid1 sdb5[2] sda5[1]
    2925435264 blocks super 1.2 [2/2] [UU]

    md5 : active raid1 sde3[0]
    483564544 blocks super 1.2 [1/1] [U]

    md1 : active raid1 sdd2[3] sdc2[2] sda2[0] sdb2[1] sde2[4]
    2097088 blocks [12/5] [UUUUU_______]

    md0 : active raid1 sdd1[2] sdc1[1] sda1[0] sdb1[3] sde1[4]
    2490176 blocks [12/5] [UUUUU_______]

    # 第一个是系统 rootfs 分区 raid1 ,第二个是 swap 分区 raid1
    # 我的磁盘 sdc sdd 是氦气盘
    # 非 root 权限需要加 sudo
    $ mdadm /dev/md0 --fail /dev/sdc1 --remove /dev/sdc1
    $ mdadm /dev/md0 --fail /dev/sdd1 --remove /dev/sdd1
    $ mdadm /dev/md0 --fail /dev/sdc2 --remove /dev/sdc2
    $ mdadm /dev/md0 --fail /dev/sdd2 --remove /dev/sdd2
    ```
    mintist
        20
    mintist  
       2023-02-19 12:08:39 +08:00
    哈哈哈哈,也真是没招了,,,
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2675 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 30ms UTC 14:26 PVG 22:26 LAX 06:26 JFK 09:26
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86