1
Septembers 2015-10-20 18:34:35 +08:00
非重要数据的静态存档
|
2
lhbc 2015-10-20 20:12:05 +08:00 via Android
RAID5 会让你血本无归,惨痛教训太多了。
|
3
clino OP |
5
lhbc 2015-10-20 20:57:08 +08:00 2
@clino
@imydou 硬盘的可靠性指标,除了 MTBF 外,还有一个很重要的 BER ( Bit Error Rate )。 BER is Bit Error Rate. BER is a measure of read error rates for disk drives. 1 、普通的 SATA ,每读取 2-3TB ,就会出现一次 BER 。 当阵列挂了,需要 rebuild 的时候,这么大的硬盘容量,加上数个硬盘组成的 RAID5 ,出现读取错误的可能性是非常大的。 出现读取错误,那 rebuild 就会失败。 2 、硬盘的密度越来越高,可能很多数据都是冷数据,不读取不会知道这些数据的情况。 实际上可能多块硬盘在某些位置已经出现坏道。 当读取到某块硬盘的坏道的时候,阵列就会降级。 rebuild 的时候,所有硬盘的所有数据都需要参与到 rebuild 的任务 假如其他硬盘还有隐藏的坏道,平时没有察觉, rebuild 就必然会暴露 很不幸,结果也是 rebuild 失败 有些阵列卡好像有跳过错误,强行 rebuild 的功能,当然 rebuild 后会有部分数据错误。 在 RAID5 花去的人力物力和时间,还有可能的数据损失,实在是不值那几块硬盘的钱。 大容量硬盘,不推荐校验型的阵列,包括 RAID5 、 RAID6 、 RAID60 这些。可以用 RAID1 、 RAID10 需要校验类型的阵列,可以使用 ZFS 。 |
6
clino OP @lhbc 问题是 raid10 利用率是 50%,这样可以用的容量变小很多,这样就达不到用大硬盘的目的了
raid5 利用率会好不少 |
7
lhbc 2015-10-21 11:18:07 +08:00 1
@clino 按我 5 楼的描述,大容量家用级别 SATA 硬盘组成的 RAID5 ,可能比单个硬盘的可靠性还低。
所以,可靠性和成本之间,自己做取舍吧。 |
8
clino OP @lhbc 刚 rebuild 了一个 raid5+1 的:
/dev/sdd 18T 15T 2.3T 88% 感觉还好,不过这次 rebuild 不是因为有盘挂了 而是因为掉电什么的 但以前应该有 rebuild 过几次 还没碰到完全挂的貌似 |
9
lhbc 2015-10-27 14:32:55 +08:00 1
@clino 不出问题就好
其实 ZFS 在各方面都比硬件 RAID 强 我们线上跑了几台 FreeNAS ,稳定性和性能都非常好,即使是 7200 rpm 的硬盘,加上 SSD 后都能到 1 万以上的 IOPS |
10
clino OP @lhbc 看起来 zfs 具备类似于 raid 这种校验保护的功能? 那如果用 zfs 的话要用哪种 raid 配合呢?
另外我说的这种单盘大的硬盘阵列用 zfs 是不是会更靠谱一些? |
11
lhbc 2015-10-27 16:53:28 +08:00 1
@clino ZFS 有多种阵列模式
对应关系 镜像 RAID 1 条带 RAID 0 RAIDZ1 RAID 5 ,单盘校验 RAIDZ2 RAID 6 ,双盘校验 RAIDZ3 三盘校验,没有对应的硬件 RAID 还支持 SSD 或者 SAS 的读写缓存 还有数据去重功能(对计算性能和内存要求非常高) 故障都可以在线恢复,不需要离线 rebuild 但对内存要求较高, 8G 起,视硬盘容量而定 协议方面支持 iSCSI 、 NFS 、 CIFS 、 AFP 、 WebDAV 中文资料可以参考 http://www.getnas.com |